Принц Гаррі проти ШІ? Що таке суперінтелект і чому публічні люди прагнуть його заборонити

IT-індустрія

3 листопада, 20:00

Письмовий заклик про заборону на розвиток суперінтелекту вже підписали майже 70 тисяч осіб. Серед них — співзасновник Apple, ексрадник Дональда Трампа, дослідники OpenAI та голлівудські зірки. Чим їх не влаштовує поява надрозуму?

Що таке суперінтелект

Ідея надінтелекту не нова: ще у 1965 році британський математик Ірвінг Джон Гуд, який працював пліч-о-пліч зі знаменитим Аланом Тюрінгом, описав концепт «ультрарозумної машини». Вона мала б «далеко перевершити всю інтелектуальну діяльність будь-якої людини, хай якою розумною та була».

Гуд міркував так: оскільки проєктування машин саме по собі є інтелектуальною діяльністю, сама система зможе створити ще кращу версію себе. Це, на думку науковця, спричинить «інтелектуальний вибух», що залишить людський розум «далеко позаду».

«Перша ультрарозумна машина — це останній винахід, який людство коли-небудь зробить, за умови, що машина буде достатньо слухняною, щоб підказати нам, як тримати її під контролем, — казав І. Дж. Гуд. — Цікаво, що це твердження так рідко згадується поза межами наукової фантастики. Іноді варто ставитися до наукової фантастики серйозно».

Передплатіть, щоб прочитати повністю

Нам необхідна ваша підтримка, щоб займатися якісною журналістикою

Перший місяць 1 ₴. Відмовитися від передплати можна у будь-який момент

Пів століття по тому оксфордський філософ Нік Бустрем у своїй книзі Суперінтелект. Стратегії і небезпеки розвитку розумних машин (2014) дає чітке визначення. На його думку, надрозум — це «будь-який інтелект, що значно перевищує когнітивні можливості людини практично у всіх сферах, що становлять інтерес».

Палітурка українського видання книги Суперінтелект. Стратегії і небезпеки розвитку розумних машин Ніка Бострома / Фото: Yakaboo

Іншими словами, шахова програма, здатна рознести гросмейстерів вщент, — це все ще не надінтелект. Чому? Бо вона не здатна написати геніальний роман, керувати транснаціональною корпорацією чи домовитися про мир на Близькому Сході. Справжній суперінтелект, у розумінні Бустрема, має перевершувати найкращі людські мізки в усьому: в науці, інженерії, довгостроковому плануванні тощо.

Штучний інтелект, доступний нам зараз, приміром, у чатботах — це радше комп’ютери, які імітують окремі людські здібності до вирішення проблем, зазвичай у дуже вузьких сферах. Вони можуть написати email, згенерувати фанфік, накидати програмний код чи відповісти на запитання. І водночас досі «галюцинують», вигадуючи базові факти, і часом провалюють прості логічні завдання.

У науковій спільноті зазвичай виокремлюються три умовні рівні.

  • Спочатку йде звичайний «вузький ШІ» — це те, що вже живить наші рекомендаційні алгоритми чи розпізнавання облич.
  • Наступною сходинкою вважається AGI, або штучний загальний інтелект людського рівня. Це точка, коли машина зможе виконувати більшість завдань не гірше, а то й краще за середнього працівника-людину.
  • І лише після цього йде той самий суперінтелект — наступний, значно потужніший стрибок. Це ШІ, який перевершує людей не просто на середньостатистичній роботі, а й у найскладніших інтелектуальних завданнях, які ми взагалі здатні визначити.

Коли суперінтелект стане реальним

Проєкт Our World in Data, який аналізував декілька великих опитувань дослідників ШІ, зазначає: в середньому більше половини з них вважають, що існує 50% шанс на розробку ШІ людського рівня до 2060-х років. Інше опитування, проведене AI Impacts у 2022 році, дало медіанну дату для «машинного інтелекту високого рівня» приблизно у 2059 році.

А ось новіший препринт 2025 року, для якого повторно опитали тисячі авторів наукових робіт з ШІ, зсунув цей прогноз значно ближче — до 2047 року. Ба більше, це дослідження дало 10% ймовірності того, що машини зможуть перевершити людей у кожному завданні вже до 2027 року.

Джеффрі Гінтон, якого називають одним із «хрещених батьків ШІ», раніше заявляв, що тепер вбачає 10−20% ймовірність того, що просунутий ШІ може знищити людство в найближчі 30 років. Він попередив, що технологія прогресує набагато швидше, ніж він очікував, і рішуче закликав до її регулювання.

Технологічні компанії (які, власне, і створюють системи ШІ), лише підливають оливи у вогонь суспільної тривоги. У травні 2023 року OpenAI опублікувала заяву Управління суперінтелектом. У ньому гендиректор Сем Альтман та його співавтори стверджували, що надінтелект може з’явитися вже в цьому десятилітті. Також вони закликали створити щось на кшталт МАГАТЕ, але для ШІ, щоб наглядати за найпотужнішими моделями.

У своїх особистих дописах Альтман пішов ще далі. У січні 2025 року він написав у своєму блозі пост зі словами: «Тепер ми впевнені, що знаємо, як створити AGI…». На його думку, вже цьогоріч людство може побачити, як перші агенти ШІ «приєднаються до робочої сили» та суттєво змінять результати компаній.

«Ми починаємо скеровувати свою мету далі, до суперінтелекту в істинному сенсі цього слова. Ми любимо наші нинішні продукти, але ми тут заради славного майбутнього. З надінтелектом ми можемо робити все інше. Суперінтелектуальні можуть значно пришвидшити наукові відкриття та інновації, набагато глибше, ніж ми здатні зробити самостійно, збільшити достаток і процвітання.»

А в червні 2025 року Reuters повідомило, що Марк Цукерберг створив новий підрозділ під назвою Meta Superintelligence Labs. Він залучив засновника Scale AI Александра Ванга на посаду головного директора з ШІ та влив мільярди в розробку систем, які могли б «зрівнятися з людськими можливостями або перевершити їх».

Липневий випуск журналу The Economist (2025) / Фото: Ebay

Газета The New York Post описала цю реструктуризацію як ставку на суперінтелект, що допомогло акціям Meta досягти рекордного максимуму. Пізніше Business Insider розкрив, що навіть після звільнення близько 600 людей Meta продовжує агресивно наймати співробітників у свої команди з надрозуму. Їхнє завдання — створити те, що Цукерберг називає інструментами «персонального суперінтелекту» для мільярдів користувачів.

Нині слово «суперінтелект» остаточно покинуло сторінки наукової фантастики. Журнал The Economist присвятив липневий номер темі Економіка надінтелекту, прямо запитуючи, що станеться з людством, якщо машини стануть набагато розумнішими за нас і почнуть самостійно винаходити нові технології.

Time, The Guardian та інші видання писали про «гонку озброєнь у сфері ШІ», в якій OpenAI, Google, Meta та китайські лабораторії на кшталт DeepSeek обіцяють дедалі загальніші та потужніші системи. І це попри те, що надрозум все ще є гіпотетичним і погано визначеним поняттям.

Хто проти суперінтелекту

Петицію Заява про суперінтелект опублікувала Future of Life Institute — некомерційна організація зі штаб-квартирами в США та Європі, яка останнє десятиліття присвятила вивченню найгірших сценаріїв для людства.

FLI заснували у 2014 році космолог з MIT Макс Тегмарк, співзасновник Skype Яан Таллінн та інші. Їхня заявлена місія — спрямувати «трансформаційні технології» подалі від екзистенційних ризиків, особливо коли йдеться про просунутий ШІ. У радниках цієї групи числиться зокрема техномільярдер Ілон Маск.

«Багато провідних компаній у сфері ШІ мають на меті створити в наступному десятилітті суперінтелект, який зможе значно перевершити всіх людей практично у всіх когнітивних завданнях. Це викликає занепокоєння, починаючи від економічного старіння та позбавлення прав людини, втрати свободи, громадянських свобод, гідності та контролю, і закінчуючи ризиками для національної безпеки та навіть потенційним вимиранням людства», — йдеться у тексті Заяви про суперінтелект.

Для FLI це вже не перший відкритий жест у бік індустрії ШІ. У березні 2023 року вони опублікували лист Призупинити гігантські експерименти зі ШІ. Він закликав усі лабораторії зупинити тренування будь-яких систем, потужніших за GPT-4, щонайменше на шість місяців.

Та попередня заява зібрала понад 30 тисяч підписів, включно з Ілоном Маском, «хрещеним батьком ШІ» Йошуа Бенжіо, співзасновником Apple Стівом Возняком та істориком Ювалем Ноєм Харарі. Водночас вона наразилася й на критику, наприклад, від дослідниці ШІ Тімніт Гебру. Та стверджувала, що лист зосередився на спекулятивних майбутніх ризиках, ігноруючи цілком реальну шкоду, якої ШІ завдає вже зараз.

Актуальну ж петицію щодо суперінтелекту станом на 3 листопада підписали понад 68 тисяч людей — щоправда, з урахуванням 37 тисяч підписантів аналогічної петиції від глобальної спільноти Ekō. Вони закликають до заборони на розвиток суперінтелекту.

«[Заборону] не слід скасовувати, допоки не з’являться широкий науковий консенсус щодо того, що це буде зроблено безпечно та контрольовано, та сильна громадська підтримка».

Підписи на сайті чітко розбиті за секторами:

  • Бізнес — у цій категорії заяву підтримали, зокрема, співзасновник Apple Стів Возняк та засновник Virgin Group Річард Бренсон.
  • Компанії ШІ — тут є підписи технічних співробітників та дослідників з OpenAI, Anthropic, Google DeepMind та інших фірм.
  • Дослідники — лауреати премії Тюрінга Джеффрі Гінтон і Йошуа Бенжіо, а також спеціаліст з безпеки ШІ Стюарт Рассел з Каліфорнійського університету в Берклі. Також під заявою підписалися такі вчені, як економіст з MIT Дарон Аджемоглу, фізики-нобелівські лауреати Джон К. Мазер і Френк Вільчек, та Королівський астроном Великої Британії Мартін Ріс.
  • Політики — колишня президентка Ірландії Мері Робінсон, колишня радниця з нацбезпеки США та амбасадорка в ООН Сьюзан Райс та інші чинні та колишні посадовці, зокрема ексчлени Конгресу США, а також члени Європарламенту та парламенту Великої Британії.
  • Мистецтво та медіа — принц Гаррі та Меган Маркл, актор і зірка фільму Початок Джозеф Гордон-Левітт, музикант і продюсер will.i.am, а також письменник і телеведучий сер Стівен Фрай.

«Майбутнє штучного інтелекту має служити людству, а не замінювати його. Справжнім випробуванням прогресу буде не те, наскільки швидко ми рухаємося, а те, наскільки мудро ми керуємо», — ці слова сайт приписує Принцу Гаррі як його коментар до підпису.

Британський підприємець Річард Бренсон, який активно підтримує Україну, став одним із підписантів петиції щодо суперінтелекту / Фото: Wikimedia Commons

У своїй заяві Future of Life Institute також посилається на опитування 2000 дорослих американців, проведене у вересні-жовтня 2025 року. Згідно з ним:

  • 5% дорослих американців підтримують статус-кво «швидкого, нерегульованого розвитку передового ШІ»;
  • 64% вважають, що надлюдський ШІ не слід розробляти, доки не буде доведено його безпеку та контрольованість, або ж взагалі не слід його розробляти;
  • 73% підтримують жорстке регулювання ШІ. Частка тих, хто виступає проти — 12%.

«Це не заборона і навіть не мораторій у звичайному розумінні. Це просто пропозиція вимагати адекватних заходів безпеки для технології, яка, на думку її розробників, має значні шанси призвести до вимирання людства. Невже ми так багато просимо?» — ці слова приписуються Стюарту Расселу, професору Берклі.

Чи заборонять суперінтелект

Останніми роками уряди західних країн все ж схиляються до певного компромісу в питанні контролю над ШІ. Той-таки Закон про ШІ Європейського Союзу не намагається поставити суперінтелект поза законом. Натомість він класифікує застосунки за ризиком, забороняє вузький набір «неприйнятних» видів використання (наприклад, соціальний скоринг) і накладає суворі зобов’язання на системи, які можуть серйозно вплинути на права або громадську безпеку.

Нові вказівки від Єврокомісії детально прописують це для так званих «моделей із системним ризиком» — тобто, для великих передових систем від OpenAI, Google, Meta, Anthropic та інших. Ці моделі будуть змушені проходити стрес-тестування, документувати свої навчальні дані, повідомляти про серйозні інциденти та демонструвати наявність засобів кібербезпеки.

Політичні аналітики взагалі скептично ставляться до того, чи можна таку глобальну заборону забезпечити. Архітектор ШІ Аднан Масуд стверджує, що «не можна довести безпеку до того, як ви щось збудуєте; лише спроєктувати безпеку через ітерації». На відміну від урану, навчені моделі ШІ та код можна скопіювати, сховати та відтворити. Будь-яка країна-вигнанець або компанія матиме всі стимули, щоб порушити договір, який заморожує всіх інших.

Ось чому наразі світ, схоже, повзе до хаотичного компромісу: продовжувати розробляти потужний ШІ, але загортати його у дедалі щільніше управління та сподіватися, що ми вбудували достатньо інституційних гальм, перш ніж з’явиться щось справді надлюдське.

Інші новини

Всі новини