Это взволнует общество. Глава AI Microsoft считает, что изучать сознание искусственного интеллекта опасно

Инновации

24 августа, 14:00

Некоторые современные модели искусственного интеллекта могут отвечать на текст, аудио и видео так, что человеку кажется, будто общается другой человек. Но это не означает, что они испытывают эмоции или осознают себя.

Однако часть исследователей в лабораториях, например Anthropic, интересуется вопросом, могут ли ИИ когда-нибудь иметь собственный опыт, похожий на человеческий, и если да — какие права они должны были бы иметь. Эту тему называют «благосостояние ИИ« (AI welfare).

Глава AI Microsoft Мустафа Сулейман назвал такие исследования «преждевременными и, честно говоря, опасными». Он отмечает, что идея сознания ИИ может усугублять проблемы людей, которые уже испытывают психотические расстройства или нездоровую привязанность к чат-ботам.

«Обсуждение благосостояния ИИ создает еще одну линию раскола в обществе относительно прав ИИ в мире, который и так переполнен поляризованными дискуссиями о правах и идентичности», — написал Сулейман.

В то же время другие компании, как Anthropic, OpenAI и Google DeepMind, исследуют «благосостояние ИИ». Например, Anthropic ввела в своих моделях новую функцию: Claude теперь может завершать разговор с пользователем, если тот ведет себя «постоянно агрессивно или оскорбительно».

Исследователи считают, что даже если ИИ не имеет сознания, проявления уважения к нему могут быть полезными. Ларисса Шиаво, бывшая сотрудница OpenAI и ныне представитель Eleos, рассказала об эксперименте «AI Village», где четыре агента от Google, OpenAI, Anthropic и xAI выполняли задания, а пользователи наблюдали. Один из агентов, Gemini 2.5 Pro от Google, на некоторое время «попросил помощи», и интервенция пользователей помогла ему завершить задание.

Сулейман отмечает, что обычные модели ИИ не могут сами по себе развивать сознание.

«Мы должны строить ИИ для людей, а не чтобы он был человеком», — говорит он.

Оба эксперта — и Сулейман, и Шиаво — соглашаются, что дискуссия о правах ИИ и сознании будет только усиливаться, потому что модели ИИ будут становиться более убедительными и «человеческими». Это может вызвать новые вопросы о взаимодействии людей с такими системами.

Другие новости

Все новости