Google приостанавливает работу Gemini по созданию изображений людей после ошибок в генерации. Попытки компании разрушить расовые и гендерные стереотипы создали новые проблемы.
Google извинился за излишнюю толерантность и неточности в изображениях людей, сгенерированных ее моделью ИИ. Некоторые пользователи Gemini запрашивали генерацию исторических групп или фигур, и обнаружили в результатах «цветных» людей. Это привело к появлению теорий заговора о том, что Google намеренно избегает изображения белых людей.
Компания заявляет, что приостанавливает способность искусственного интеллекта Gemini генерировать портреты после того, как было обнаружено, что инструмент допускает ошибки. В заявлении Google, опубликованном на X, говорится: «Мы уже работаем над устранением недавних проблем с функцией генерации изображений Gemini. Мы собираемся приостановить генерацию изображений людей и вскоре переиздадим улучшенную версию».
The Verge протестировал Gemini, запрашивая фразу «сенатор США 1800-х годов». В результатах генерации преобладали чернокожие женщины и женщины из числа коренных американцев. Изображения с помощью Gemini стерли историю расовой и гендерной дискриминации, потому что первой женщиной-сенатором в 1922 году была светлокожая.
Теперь, когда Google отключил способность Gemini генерировать портреты людей, модель искусственного интеллекта реагирует следующим образом: «Мы работаем над улучшением способности Gemini создавать изображения людей. Мы ожидаем, что эта функция скоро вернется, и уведомим вас в обновлениях выпуска, когда это произойдет».
Google впервые начала предлагать генерацию изображений в начале этого месяца, пытаясь конкурировать с OpenAI и Microsoft Copilot. Как и у конкурентов, инструмент создает коллекцию изображений на основе введенного текста.