Научпоп

26 июня, 21:19

Эксклюзив НВ

Игра в имитацию. Нет, искусственный интеллект не может обрести сознание — но он по-прежнему опасен

Недавно инженер Google заявил, что искусственный интеллект обрел сознание. Это породило множество разговоров о реальности такого сценария. Однако действительно ли нам нужно фокусироваться именно на нем?

Тема осознанности искусственного интеллекта (ИИ) часто поднимается в исследованиях ученых, однако до сих пор казалось, что мы далеки от того, чтобы нейросеть вдруг осознала свое место в этом мире и начала размышлять, сбросив с себя оковы алгоритмов, которые должны ею управлять.

Сама идея появления осознанного ИИ стара, как и вся наука, изучающая эту тему. Ее активно используют как основу для научно-фантастических сюжетов, а недавняя новость, основой для которой стали показания теперь уже бышего инженера Google Блейка Лемойна (его уволили за нарушение контракта и разглашении конфиденциальной информации), вновь пробудила активные разговоры о сознательном ИИ.

Итак, Лемойн заявил, что LaMDA обрела сознание. На эту мысль его натолкнули некоторые из диалогов, которые он провел с нейросетью. Также совсем недавно эксперты, изучающие тему ИИ, активно обсуждали возможность того, что нейросеть DALL-E 2 придумала свой секретный язык. Много обсуждений вызывал также генератор текста GPT-3, который писал сценарии для фильмов, статьи, и даже выдал колонку, в которой убеждает, что роботы не собираются порабощать людей. Да-да, так мы и поверили.

После появления каждой из этих новостей мы приходим к очередному циклу разговоров о скором появлении осознанного ИИ. Однако важно понимать одну вещь, о которой в этих разговорах упоминают не так часто.

Осознанного ИИ не существует, а погоня за ним — едва ли не бессмысленная, если не вредная для человечества идея.

Подпишитесь, чтобы прочитать целиком

Нам необходима ваша поддержка, чтобы заниматься качественной журналистикой

Подписаться
Первый месяц 1 ₴. Отписаться можно в любой момент

Чем больше мы будем говорить о том, что человечество приближается к созданию осознанного ИИ, тем легче будет различным технологическим компаниями выдавать желаемое за действительное и манипулировать как нашим вниманием, так и финансированием определенных проектов с помощью ложных обещаний об осознанном искусственном интеллекте.

Взять ту же нашумевшую нейросеть LaMDA из истории с Лемойном. Это большая языковая модель, цель которой — вести диалог с человеком, чтобы выдавать ему максимально логичные ответы, которые подходили бы тону беседы. По своей сути это очень похоже на чатбот Project December или обновление для голосового ассистента Amazon Alexa: первому вы можете скормить определенный текст, после чего нейросеть будет воссоздавать стилистику автора, постепенно тренируясь во время дальнейшей переписки; вторая «научится» имитировать голоса людей — даже если те уже покинули наш мир.

Мы сейчас не будем говорить об этичности подобных разработок — могу лишь порекомендовать первую серию второго сезона сериала Черное Зеркало, которая отлично показывает, до чего в итоге может дойти подобная технология. На самом деле такие имитации — это не больше, чем имитации, хоть и очень качественные. Они не вернут умершего человека к жизни. И даже если вы будете слышать голос этого человека или «переписываться» с ним — это не изменит того факта, что его уже нет.

Цель подобных нейросетей — лишь сымитировать осознанность. Однако мы не можем в качестве главного аргумента приводить пример вроде того, что LaMDA на вопрос о своей осознанности ответила положительно.

На самом деле LaMDA — далеко не самая мощная языковая модель. Она использует 137 млрд параметров, которые, грубо говоря, являются паттернами, на основе которых ИИ генерирует текст. Однако существует, к примеру, большая языковая модель PaLM — еще один результат работы инженеров Google, которая имеет 540 млрд параметров и способна выполнять сотни отдельных задач для подбора подходящей фразы. Более того, инженеры, работающие над разработкой PaLM, отмечают, что нейросеть может использовать «разумный» подход.

Он работает по принципу «действие по цепочке мыслей» (chain-of-thought prompting). Его можно сравнить с обучением ребенка арифметике. Мало просто показать ему задачу и дать ответ. Ножно объяснить ребенку последовательность действий, которые и привели к определенному результату. То же самое и в случае с ИИ — инженер «объясняет» ему, что одно действие происходит перед другим (например, сначала мы умножаем, а потом добалвяем числа), соответственно, первое действие влияет на второе — и поэтому, чтобы получить правильный конечный результат, считать нужно в установленном порядке.

Это ученые и называют «разумным» подходом — однако никто не заявляет о разумности или осознанности PaLM в целом. Однако самое интересное даже не в том, что ИИ учится делать последовательные действия, чтобы получить определенный результат. Ученые, работающие с PaLM, отмечают, что модель дошла до этого метода самостоятельно.

Этот феномен исследователи планируют изучить особенно детально, ведь фактически главная функция PaLM — прогнозировать текст, то есть выбирать и расставлять слова в таком порядке, чтобы они максимально соответствовали характеру беседы. Как это привело к тому, что нейросеть начала связывать их в более сложные логические цепочки — пока что остается загадкой.

И вот это уже совсем другой разговор.

Возможно, причина в том, что PaLM понимает не только английский язык, что расширяет его потенциальную базу знаний. Пока что экспертам сложно дать четкий ответ, однако у нас уже есть факт того, что ИИ обучился действию, которое инженеры не программировали.

В этом и кроется главная опасность искусственного интеллекта. Если мы перестанем понимать, как он развивается, мы перестанем контролировать этот процесс. Это может привести к тому, что мы будем слушать машину и считать ее решения, которые не поддаются человеческой логике, правильными — просто потому, что так решил компьютер. Таким образом человек (без разницы, сделает он это осознанно или нет) сможет снять с себя ответственность, просто объяснив какое-то свое действие тем, что на него указал ИИ как на потенциально лучшее решение определенной проблемы.

Прекрасной иллюстрацией этого является случай в Нью-Джерси, где мужчину арестовали за преступление, за которое, как выяснилось, он не совершал, «опознав» грабителя при помощи программного обеспечения для распознавания лиц. Расследование показало, что во время ограбления магазина, обвиненный мужчина находился почти в 50 километрах от места преступления.

Здесь еще можно привести каноничный пример об искусственном интеллекте, который решает уничтожить миллионы людей во благо прекрасного будущего, однако это такой же разговор из области фантастики, как и осознанный ИИ в целом.

Еще одна проблема — невероятный объем данных, который используется для обучения ИИ. Человек физически не может обработать такой объем информации — а ведь далеко не вся она объективна, лишена расизма, сексизма и других унизительных вещей.

Сейчас будущее машинного обучения находится в руках нескольких технологических гигантов вроде Google и Meta. Люди, которые разрабатывают эти модели, не могут быть объективными во всех вопросах. Люди, не работающие в этих компаниях, могут в лучшем случае писать критические разборы определенной нейросети и влиять на дальнейшие решения об их развитии таким способом. Однако непосредственный контакт с моделью имеет небольшая горстка людей. Умных, но необъективных людей.

Осознанная машина — это утопия, которая укоренилась в научной фантастике. Ведь на самом деле мы даже сами не знаем, что такое осознанность, как она зарождается и развивается в нашем мозгу — как же мы можем тогда запрограммировать сознание? Да, у нас есть различные определения, и в целом мы понимаем, что сознание характеризуется переживаниями событий внешнего мира и выработке определенной реакции организма на них. Мы понимаем, что огонь горячий, а потому не суем в него руку.

Нейросеть может получить эти знания или на стадии разработки — если инженеры объяснят ей, что огонь горячий, а потому соваться туда не стоит — или во время самостоятельного обучения, когда она попадет на эту информацию в интернете. Но это знание не сделает ее осознанной, не так ли? То же самое и с Лемойном и его утверждении о разумности LaMDA — нельзя называть языковую модель разумной только потому, что оан очень хорошо справляется с задачей, ради которой ее и разрабатывали — подражать человеческой речи и выдавать правдоподобно звучащие ответы на всевозможные вопросы. Можно сказать, что исследователь перепутал воплощение с осознанностью.

«Мне кажется, наш язык не подходит для объяснения подобных вещей. У нас есть слова для сопоставления значений между предложениями и объектами — например, понимание. Проблема в том, что эти системы понимают примерно также, как калькулятор понимает сложение — то есть, в более глубоком значении этого слова, они ничего не понимают. Нужно воспринимать такие слова [в контексте ИИ] с долей скептицизма», — говорит Зубин Гахрамани, профессор информационной инженерии Кембриджского университета и cтарший директор Google Brain — исследовательской группы, занимающейся изучением искусственного интеллекта.

Гахрамани объясняет, что мы привыкли думать об интеллекте только как о человеческой способности к познанию и решению проблем путем использования этих знаний. Однако машина никогда не будет думать как человек. Она никогда не осознает свое существование.

Вместо этого она может дополнить и расширить человеческие возможности — и именно на это и должны быть направлены усилия исследователей по мнению ученого. Именно поэтому нейросети так хороши в аналитике — они умеют искать смысл там, где человек видит гору информации, на анализ которой у него уйдут дни/недели/месяцы/годы.

Алгоритм будет делать только то, что вы ему скажете. Если он отклоняется от установленной линии — значит, он построен так, чтобы Все, что мы можем придумать для сравнения машин с людьми, — это маленькие игры, такие как тест Тьюринга, которые в конечном счете ничего не доказывают, ведь они, фактически, стали лишь тестом для определения возможности ИИ убедить человека, что он обладает сознанием.

Это иллюстрирует голосовой помощник Google Duplex, который с помощью простых фраз («на когда?», «можете повторить?», «подождите минутку»), разбавленных различными «хм», «эээ» и другими звуками, которые издают люди во время беседы, казался многим, с кем он общался, человеком.

Сейчас тест Тьюринга заменили другими тестами вроде GLUE или SQuAD, а сам он теперь может служить лишь в качестве этической красной линии: любой ИИ, который его проходит, является опасным, поскольку может ввести человека в заблуждение.

Об этой опасности в своей статье писали другие бывшие сотрудники Google, уволенные в 2020 году, — Тимнит Гебру и Эмили Бендер. Вместе со своими коллегами и студенткой Бендер, исследовательницы предупреждали, что большие языковые модели несут в себе опасность, ведь люди готовы приписывать осознанность всему, что похоже не нечто человеческое. Поэтому мы и готовы воспринимать LaMDA осознанным ИИ — просто потому, что это легкое и, в целом, понятное нам объяснение, которое интригует нас.

«Теперь наша работа стала еще более актуальной. Гонка между технологическими компаниями за все более крупными моделями без достаточных ограничений, регулирования и понимания того, как они работают, все ускоряется. Что еще хуже, лидеры так называемой сферы ИИ подпитывают склонность общественности видеть разум в существующих системах, рассказывая, что они могут быть „слегка осознанными“, при этом плохо описывая, что они делают на самом деле», — пишет Гебру в своей колонке.

Исследовательница также обвиняет в СМИ в раздувании хайпа вокруг потенциального создания сверхразума. По ее словам, вместо этого они должны контролировать процессы разработки ИИ и призывать тех, кто этим занимается, давать полную и честную информацию. Модели же, которые они разрабатывают, не должны становиться осознанными — все, что нам нужно, это чтобы ИИ помогал нам двигаться в выбранном нами направлении, а не выбирал его за нас.

Другие новости

Все новости