Принц Гарри против ИИ? Что такое суперинтеллект и почему публичные люди стремятся его запретить
IT-индустрия3 ноября, 20:00
Что такое суперинтеллект
Идея сверхинтеллекта не нова: еще в 1965 году британский математик Ирвинг Джон Гуд, работавший бок о бок со знаменитым Аланом Тюрингом, описал концепт «ультраумной машины». Она должна была бы «далеко превзойти всю интеллектуальную деятельность любого человека, каким бы умным тот ни был».
Гуд рассуждал так: поскольку проектирование машин само по себе является интеллектуальной деятельностью, сама система сможет создать еще лучшую версию себя. Это, по мнению ученого, вызовет «интеллектуальный взрыв», который оставит человеческий разум «далеко позади».
«Первая ультраумная машина — это последнее изобретение, которое человечество когда-либо сделает, при условии, что машина будет достаточно послушной, чтобы подсказать нам, как держать ее под контролем, — говорил И. Дж. Гуд. — Интересно, что это утверждение так редко упоминается вне научной фантастики. Иногда стоит относиться к научной фантастике серьезно».
Подпишитесь, чтобы прочитать целиком
Нам необходима ваша поддержка, чтобы заниматься качественной журналистикой
Полвека спустя оксфордский философ Ник Бустрем в своей книге Суперинтеллект. Стратегии и опасности развития умных машин (2014) дает четкое определение. По его мнению, сверхразум — это «любой интеллект, значительно превышающий когнитивные возможности человека практически во всех представляющих интерес сферах».
Иными словами, шахматная программа, способная разнести гроссмейстеров вдребезги, — это все еще не сверхинтеллект. Почему? Потому что она не способна написать гениальный роман, управлять транснациональной корпорацией или договориться о мире на Ближнем Востоке. Настоящий суперинтеллект, в понимании Бустрема, должен превосходить лучшие человеческие мозги во всем: в науке, инженерии, долгосрочном планировании и тому подобное.
Искусственный интеллект, доступный нам сейчас, например, в чатботах — это скорее компьютеры, которые имитируют отдельные человеческие способности к решению проблем, обычно в очень узких сферах. Они могут написать email, сгенерировать фанфик, набросать программный код или ответить на вопрос. И в то же время до сих пор «галлюцинируют», придумывая базовые факты, и порой проваливают простые логические задачи.
В научном сообществе обычно выделяются три условных уровня.
- Сначала идет обычный «узкий ИИ «- это то, что уже питает наши рекомендательные алгоритмы или распознавание лиц.
- Следующей ступенью считается AGI, или искусственный общий интеллект человеческого уровня. Это точка, когда машина сможет выполнять большинство задач не хуже, а то и лучше среднего работника-человека.
- И только после этого идет тот самый суперинтеллект — следующий, значительно более мощный скачок. Это ИИ, который превосходит людей не просто на среднестатистической работе, но и в самых сложных интеллектуальных задачах, которые мы вообще способны определить.
Когда суперинтеллект станет реальным
Проект Our World in Data, который анализировал несколько крупных опросов исследователей ИИ, отмечает: в среднем более половины из них считают, что существует 50% шанс на разработку ИИ человеческого уровня до 2060-х годов. Другой опрос, проведенный AI Impacts в 2022 году, дал медианную дату для «машинного интеллекта высокого уровня» примерно в 2059 году.
Джеффри Гинтон, которого называют одним из «крестных отцов ИИ», ранее заявлял, что теперь видит 10−20% вероятность того, что продвинутый ИИ может уничтожить человечество в ближайшие 30 лет. Он предупредил, что технология прогрессирует гораздо быстрее, чем он ожидал, и решительно призвал к ее регулированию.
Технологические компании (которые, собственно, и создают системы ИИ), лишь подливают масла в огонь общественной тревоги. В мае 2023 года OpenAI опубликовала заявление Управления суперинтеллектом. В нем гендиректор Сэм Альтман и его соавторы утверждали, что сверхинтеллект может появиться уже в этом десятилетии. Также они призвали создать что-то вроде МАГАТЭ, но для ИИ, чтобы следить за самыми мощными моделями.
В своих личных сообщениях Альтман пошел еще дальше. В январе 2025 года он написал в своем блоге пост со словами: «Теперь мы уверены, что знаем, как создать AGI…». По его мнению, уже в этом году человечество может увидеть, как первые агенты ИИ «присоединятся к рабочей силе» и существенно изменят результаты компаний.
«Мы начинаем направлять свою цель дальше, к суперинтеллекту в истинном смысле этого слова. Мы любим наши нынешние продукты, но мы здесь ради славного будущего. С сверхинтеллектом мы можем делать все остальное. Суперинтеллектуальные могут значительно ускорить научные открытия и инновации, гораздо глубже, чем мы способны сделать самостоятельно, увеличить достаток и процветание.»
А в июне 2025 года Reuters сообщило, что Марк Цукерберг создал новое подразделение под названием Meta Superintelligence Labs. Он привлек основателя Scale AI Александра Ванга на должность главного директора по ИИ и влил миллиарды в разработку систем, которые могли бы «сравниться с человеческими возможностями или превзойти их».
Газета The New York Post описала эту реструктуризацию как ставку на суперинтеллект, что помогло акциям Meta достичь рекордного максимума. Позже Business Insider раскрыл, что даже после увольнения около 600 человек Meta продолжает агрессивно нанимать сотрудников в свои команды по сверхразуму. Их задача — создать то, что Цукерберг называет инструментами «персонального суперинтеллекта» для миллиардов пользователей.
Сейчас слово «суперинтеллект» окончательно покинуло страницы научной фантастики. Журнал The Economist посвятил июльский номер теме Экономика сверхинтеллекта, прямо спрашивая, что произойдет с человечеством, если машины станут намного умнее нас и начнут самостоятельно изобретать новые технологии.
Time, The Guardian и другие издания писали о «гонке вооружений в сфере ИИ», в которой OpenAI, Google, Meta и китайские лаборатории вроде DeepSeek обещают все более общие и мощные системы. И это несмотря на то, что сверхразум все еще является гипотетическим и плохо определенным понятием.
Кто против суперинтеллекта
Петицию Заявление о суперинтеллекте опубликовала Future of Life Institute — некоммерческая организация со штаб-квартирами в США и Европе, которая последнее десятилетие посвятила изучению худших сценариев для человечества.
FLI основали в 2014 году космолог из MIT Макс Тегмарк, соучредитель Skype Яан Таллинн и другие. Их заявленная миссия — направить «трансформационные технологии» подальше от экзистенциальных рисков, особенно когда речь идет о продвинутом ИИ. В советниках этой группы числится в частности техномиллиардер Илон Маск.
«Многие ведущие компании в сфере ИИ имеют целью создать в следующем десятилетии суперинтеллект, который сможет значительно превзойти всех людей практически во всех когнитивных задачах. Это вызывает беспокойство, начиная от экономического старения и лишения прав человека, потери свободы, гражданских свобод, достоинства и контроля, и заканчивая рисками для национальной безопасности и даже потенциальным вымиранием человечества», — говорится в тексте Заявления о суперинтеллекте.
Для FLI это уже не первый открытый жест в сторону индустрии ИИ. В марте 2023 года они опубликовали письмо Приостановить гигантские эксперименты с ИИ. Он призвал все лаборатории остановить тренировки любых систем мощнее GPT-4 как минимум на шесть месяцев.
Но предыдущее заявление собрало более 30 тысяч подписей, включая Илона Маска, «крестного отца ИИ» Йошуа Бенжио, соучредителя Apple Стива Возняка и историка Юваля Ноя Харари. В то же время она подверглась и критике, например, от исследовательницы ИИ Тимнит Гебру. Та утверждала, что письмо сосредоточилось на спекулятивных будущих рисках, игнорируя вполне реальный вред, который ИИ наносит уже сейчас.
«[Запрет] не следует отменять, пока не появятся широкий научный консенсус относительно того, что это будет сделано безопасно и контролируемо, и сильная общественная поддержка».
Подписи на сайте четко разбиты по секторам:
- Бизнес — в этой категории заявление поддержали, в частности, соучредитель Apple Стив Возняк и основатель Virgin Group Ричард Брэнсон.
- Компании ИИ — здесь есть подписи технических сотрудников и исследователей из OpenAI, Anthropic, Google DeepMind и других фирм.
- Исследователи — лауреаты премии Тьюринга Джеффри Гинтон и Йошуа Бенжио, а также специалист по безопасности ИИ Стюарт Рассел из Калифорнийского университета в Беркли. Также под заявлением подписались такие ученые, как экономист из MIT Дарон Аджемоглу, физики-нобелевские лауреаты Джон К. Мазер и Фрэнк Вильчек, и Королевский астроном Великобритании Мартин Рис.
- Политики — бывшая президент Ирландии Мэри Робинсон, бывший советник по нацбезопасности США и посол в ООН Сьюзан Райс и другие действующие и бывшие чиновники, в частности экс-члены Конгресса США, а также члены Европарламента и парламента Великобритании.
- Искусство и медиа — принц Гарри и Меган Маркл, актер и звезда фильма Начало Джозеф Гордон-Левитт, музыкант и продюсер will.i.am, а также писатель и телеведущий сэр Стивен Фрай.
«Будущее искусственного интеллекта должно служить человечеству, а не заменять его. Настоящим испытанием прогресса будет не то, насколько быстро мы движемся, а то, насколько мудро мы управляем», — эти слова сайт приписывает Принцу Гарри как его комментарий к подписи.
В своем заявлении Future of Life Institute также ссылается на опрос 2000 взрослых американцев, проведенный в сентябре-октябре 2025 года. Согласно ему:
- 5% взрослых американцев поддерживают статус-кво «быстрого, нерегулируемого развития передового ИИ»;
- 64% считают, что сверхчеловеческий ИИ не следует разрабатывать, пока не будет доказана его безопасность и контролируемость, или же вообще не следует его разрабатывать;
- 73% поддерживают жесткое регулирование ИИ. Доля тех, кто выступает против — 12%.
«Это не запрет и даже не мораторий в обычном понимании. Это просто предложение требовать адекватных мер безопасности для технологии, которая, по мнению ее разработчиков, имеет значительные шансы привести к вымиранию человечества. Неужели мы так много просим?» — эти слова приписываются Стюарту Расселу, профессору Беркли.
Запретят ли суперинтеллект
В последние годы правительства западных стран все же склоняются к некоему компромиссу в вопросе контроля над ИИ. Тот же Закон об ИИ Европейского Союза не пытается поставить суперинтеллект вне закона. Вместо этого он классифицирует приложения по риску, запрещает узкий набор «неприемлемых» видов использования (например, социальный скоринг) и накладывает строгие обязательства на системы, которые могут серьезно повлиять на права или общественную безопасность.
Новые указания от Еврокомиссии подробно прописывают это для так называемых «моделей с системным риском» — то есть, для крупных передовых систем от OpenAI, Google, Meta, Anthropic и других. Эти модели будут вынуждены проходить стресс-тестирование, документировать свои учебные данные, сообщать о серьезных инцидентах и демонстрировать наличие средств кибербезопасности.
Политические аналитики вообще скептически относятся к тому, можно ли такой глобальный запрет обеспечить. Архитектор ИИ Аднан Масуд утверждает, что «нельзя доказать безопасность до того, как вы что-то построите; только спроектировать безопасность через итерации». В отличие от урана, обученные модели ИИ и код можно скопировать, спрятать и воспроизвести. Любая страна-изгнанник или компания будет иметь все стимулы, чтобы нарушить договор, который замораживает всех остальных.
Вот почему сейчас мир, похоже, ползет к хаотическому компромиссу: продолжать разрабатывать мощный ИИ, но заворачивать его во все более плотное управление и надеяться, что мы встроили достаточно институциональных тормозов, прежде чем появится что-то действительно сверхчеловеческое.