Логика присутствует. Искусственный интеллект предложил приклеивать сыр на пиццу, чтобы он не стекал

25 мая 2024, 08:42
Сделать резюме статьи:
ChatGPT ChatGPT

В этом месяце Google запустили новую функцию поисковика AI Overview, которая должна генерировать для пользователя короткий ответ на его запрос, экономя время на проверку тонны ссылок. Впрочем, она оказалась не такой умной, как предполагалось.

Экспериментальная функция умного поиска Google AI Overview недавно стала доступной для пользователей из США. Еще во время презентации инструмент, который должен генерировать ответы и выдавать их в кратком изложении перед привычными результатами поиска, вызвал вопросы.

Реклама

Во время демонстрации функции на Google I/O компания показала, что на вопрос о том, как исправить застрявшую пленку в камере, AI Overview предложила открыть фотоаппарат и осторожно подвинуть пленку, что, как известно, может привести к тому, что все фото испортятся. Хотя инструмент сейчас не запускается для каждого запроса, ошибочные, а иногда и опасные ответы, продолжают поступать.

В частности, недавно пользователи выяснили, что в ответ на вопрос о том, что делать, чтобы сыр не стекал с только что приготовленной пиццы, ИИ отвечает: «Добавьте немного клея. Смешайте примерно 1/8 чашки клея Elmer с соусом. Нетоксичный клей подойдет». Как пишет The Verge, такой плохой совет, который может привести к проблемам с пищеварением, ИИ, вероятно, предоставил, сгенерировав его из цепочки шуток на Reddit.

Другие примеры ложных ответов включают предположение о том, что Бэтмен — полицейский, а бывший президент США Джеймс Мэдисон окончил Висконсинский университет 21 раз.

Представительница Google Меганн Фарнсворт утверждает, что ошибки возникли из-за того, что запросы были необычными и  «не соответствующими опыту большинства людей».

Google утверждает, что будет продолжать совершенствовать свой продукт. Уже сейчас компания вроде и не обещает, что результат поиска будет идеальным: ответы AI Overview содержат традиционную пометку «Генеративный ИИ является экспериментальным». Это не единственная компания, создавшая ИИ, который выдает результаты с ошибками или «галлюцинациями». OpenAI, Meta и Perplexity и другие тоже с этим сталкиваются. Впрочем, ее несовершенный инструмент был развернут в большом масштабе, и то, кто будет нести ответственность за то, что люди будут пользоваться этими ложными советами, стало предметом широкой дискуссии.

Показать ещё новости