Чего мы не знаем об искусственном интеллекте, действительно ли его нужно бояться и как эта технология будет развиваться дальше?

4 января, 12:40
Мы до сих пор мало понимаем, как работает, чем угрожает и какие лимиты имеет искусственный интеллект. (Фото:pogonici / depositphotos)

Мы до сих пор мало понимаем, как работает, чем угрожает и какие лимиты имеет искусственный интеллект. (Фото:pogonici / depositphotos)

Еще недавно мы и не подозревали, что эра нейросетей столь близка к реальности. Теперь, кажется, она приблизилась к нам вплотную, и очень скоро повлияет на нашу работу и жизнь в целом.

Примеров, которые это доказывают, несколько. Нейросети Dall-E 2, Midjourney и Stable Diffusion, которые через несколько секунд выдают невероятные рисунки по запросу. Судебная система Китая, где ИИ принимает решения и выносит приговоры, а также научные открытия, которые ученые совершают с помощью нейросетей, — это новая реальность, к которой нам нужно привыкать.

Видео дня

В то же время началась новая серия старого сериала о том, что ИИ обрел сознание и даже придумал свой язык. А к концу года нас порадовала еще одна языковая модель — обновленная GPT-3.5 от OpenAI, которая не только создает очень качественные тексты, но и действительно может заменить некоторых джунов в айти-компаниях, копирайтеров и даже Google.

Однако эти достижения нейросетей не следует переоценивать. По крайней мере, так утверждает 45-летняя Еджин Чой, получившая в этом году Стипендию Макартура ($800 тыс.) за свои новаторские исследования развития ИИ. По ее словам, сейчас вокруг этой сферы появилось много хайпа и страхов.

НВ выбрал и пересказывает самое главное из разговоров ученого с журналистами издания The New York Times.

О сознательном искусственном интеллекте

Люди делают поспешные обобщения искусственного интеллекта. «О, GPT-3 может написать отличную статью для блога. Может быть, GPT-4 будет редактором журнала New York Times?» Я не думаю, что это реально, ведь у него [ИИ] нет понимания политических событий, а потому он не сможет написать что-то актуальное.

Всегда есть люди, которые верят во что-то, лишенное смысла, — карты таро, теории заговора, сознательный искусственный интеллект.

Возможно, когда-то я изменю свое мнение, однако сейчас я очень скептически настроена относительно возможности создания сознательного искусственного интеллекта. Я вижу, что многим людям может показаться, что это уже очень близко, однако когда вы работаете настолько близко к ИИ, вы видите много ограничений.

Люди склонны верить, что если искусственный интеллект может делать что-то разумное, например переводить или играть в шахматы, то он должен очень легко справляться с более легкими задачами. Правда в том, что то, что легко для машин, может быть сложным для людей — и наоборот.

Вы удивитесь, как искусственному интеллекту трудно постичь элементарный здравый смысл. Для него это — как для нас темная материя. Мы знаем, что она существует, но не знаем, чем она является. Это невысказанное, неявное знание, которое мы имеем. Это столь очевидно, что мы часто об этом не говорим. К примеру, сколько глаз у лошади? Два. Мы об этом не говорим, но все это знают.

Позвольте мне привести другой пример: мы с вами знаем, что птицы могут летать, и мы знаем, что пингвины вообще не могут этого делать. Исследователи искусственного интеллекта подумали, что мы можем закодировать это: птицы, кроме пингвинов, обычно летают. Однако существуют исключения: новорожденные, покрытые нефтью, раненые и сидящие в клетке — многие птицы не могут летать. Исключения не являются чем-то уникальным, и с вами можем упомянуть о них, даже если нам никто об этом не говорил. Однако для ИИ это тяжело.

poster
Дайджест главных новостей
Бесплатная email-рассылка только лучших материалов от редакторов NV
Рассылка отправляется с понедельника по пятницу

О GPT 3.5

Я — большая поклонница этой технологии, однако в то же время чувствую, что некоторые люди делают ее больше, чем она есть на самом деле. Некоторые говорят, что языковая модель GPT могла бы пройти Тест Тюринга. Я так не думаю, возможно, это так выглядит после одного впечатляющего примера работы GPT. Однако если посмотреть на среднюю производительность этой нейросети, можно увидеть, что ей еще очень далеко до человеческого интеллекта.

Есть очень много задач, с которыми искусственному интеллекту справиться затруднительно. Однако люди делают обобщение на основе нескольких лучших примеров его работы: если иногда ему удается что-то очень хорошо, людям кажется, что полный искусственный интеллект уже близок. Нет никаких оснований так считать.

Можно ли научить ИИ принимать моральные решения?

Мы должны научить ИИ, что почти каждое правило имеет свое исключение. Есть случаи, когда это проявляется более четко, а есть противоположные ситуации. Важно, чтобы он понимал, что неопределенность тоже может существовать — как, например, разные мнения по определенному вопросу.

Должны быть определенные моральные правила, однако даже у них могут быть исключения. Например, нельзя убивать людей. Однако что делать, если это убийство из милосердия? Как быть в этом случае?

Как работает языковая модель искусственного интеллекта? Она предполагает, какое слово будет следующим, учитывая прошлый контекст. Нет очевидной истины, какое слово должно быть следующим: почти всегда существует несколько вариантов. С помощью статистического распределения ИИ может подобрать самое лучшее слово — мне кажется, что таким образом он сможет принимать и определенные моральные решения.

Всегда будет существовать кто-нибудь, кто захочет использовать ИИ для своих целей. Мы очень хотим добиться того, чтобы искусственный интеллект мог принимать этические решения, которые могут быть нейтральными или даже противоречить потенциально неэтическим целям его разработчиков.

Плюрализм мнений для ИИ — возможно ли это?

Впереди еще много работы, и я считаю, что если мы сможем как-то воплотить плюрализм ценностей для ИИ, это будет действительно увлекательная задача. Чтобы ценности искусственного интеллекта были не одной систематической вещью, а скорее чем-то многомерным — как среди группы людей.

Однако у меня нет однозначного ответа, как это можно реализовать. Но очевидно, что ИИ должен уважать разнообразие людей и их ценностей, а не навязывать всем определенную «нормализованную» нравственную основу. Он должен понимать человеческие ценности в широком смысле, например, не генерировать потенциально расистские или гомофобные заявления. Однако ИИ не должен быть универсальным авторитетом во что бы то ни стало — он должен понимать разные точки зрения и их разногласия, чтобы избегать очевидно плохих случаев.

Показать ещё новости
Радіо NV
X