Наукпоп

26 червня, 21:19

Ексклюзив НВ

Гра в імітацію. Ні, штучний інтелект не може набути свідомості — але він, як і раніше, небезпечний

Нещодавно інженер Google заявив, що штучний інтелект набув свідомості. Це спонукало до багатьох роздумів про реальність такого сценарію. Та чи справді нам потрібно фокусуватися саме на цьому?

Тема свідомості штучного інтелекту І) часто-густо порушується в дослідженнях вчених, проте досі здавалося, що ми далекі від того, аби нейромережа раптом усвідомила своє місце в цьому світі і почала розмірковувати, скинувши з себе пута алгоритмів, які повинні нею керувати.

Власне ідея появи свідомого ШІ давня, як і вся наука, що вивчає цю тему. Її активно використовують як основу для науково-фантастичних сюжетів, а нещодавня новина, основою для якої стали свідчення тепер уже колишнього інженера Google Блейка Лемойна (його звільнили за порушення контракту та розголошення конфіденційної інформації), знову спонкала до активних розмов про свідомий ШІ.

Отже, Лемойн заявив, що LaMDA набула свідомості. До цієї думки його спонукали деякі з діалогів, які він провів із нейромережею. Також зовсім нещодавно експерти, які вивчають тему ШІ, активно обговорювали можливість того, що нейромережа DALL-E 2 вигадала свою секретну мову. Багато обговорень викликав також генератор тексту GPT-3, який писав сценарії для фільмів, статті і навіть видав колонку, в якій переконує, що роботи не збираються поневолювати людей. Та невже, так ми й повірили.

Після появи кожної з цих новин ми приходимо до чергового циклу розмов про швидку появу свідомого ШІ. Однак важливо розуміти одну річ, про яку в цих розмовах згадують нечасто.

Свідомого ШІ немає, а перегони за ним — хіба що не безглузда, якщо не шкідлива для людства ідея.

Передплатіть, щоб прочитати повністю

Нам необхідна ваша підтримка, щоб займатися якісною журналістикою

Передплатити
Перший місяць 1 ₴. Відмовитися від передплати можна у будь-який момент

Що більше ми говоритимемо про те, що людство наближається до створення свідомого ШІ, то легше різним технологічним компаніям видаватиме бажане за дійсне і маніпулювати як нашою увагою, так і фінансуванням певних проектів за допомогою хибних обіцянок про свідомий штучний інтелект.

Взяти ту саму гучну нейромережу LaMDA з історії з Лемойном. Це велика мовна модель, мета якої — вести діалог з людиною, щоб видавати їй максимально логічні відповіді, які б відповідали тону розмови. За своєю суттю це дуже схоже на чат-бот Project December або оновлення для голосового асистента Amazon Alexa: першому ви можете «згодувати» певний текст, після чого нейромережа відтворюватиме стилістику автора, поступово тренуючись під час подальшого листування; друга «навчиться» імітувати голоси людей — навіть якщо ті вже залишили наш світ.

Ми зараз не говоритимемо про етичність подібних розробок — можу лише порекомендувати першу серію другого сезону серіалу Чорне Дзеркало, яка чудово показує, до чого врешті-решт може дійти подібна технологія. Насправді такі імітації — це не більше ніж імітації, хоч і дуже якісні. Вони не повернуть померлу людину до життя. І навіть якщо ви чутимете голос цієї людини або «переписуватися» з нею — це не змінить того факту, що її вже немає.

Мета подібних нейромереж — лише зімітувати свідомість. Однак ми не можемо як головний аргумент наводити приклад на кшталт того, що LaMDA на питання про свою свідомість відповіла позитивно.

Насправді LaMDA — далеко не найпотужніша мовна модель. Вона використовує 137 млрд параметрів, які, грубо кажучи, є патернами, на основі яких ШІ генерує текст. Однак існує, наприклад, велика мовна модель PaLM — ще один результат роботи інженерів Google, яка має 540 млрд параметрів і здатна виконувати сотні окремих завдань для вибору відповідної фрази. Більше того, інженери, які працюють над розробкою PaLM, зазначають, що нейромережа може використовувати «розумний» підхід.

Він працює за принципом «дія по ланцюжку думок» (chain-of-thought prompting). Його можна порівняти з навчанням дитини арифметиці. Замало просто показати їй завдання та надати відповідь. Треба пояснити дитині послідовність дій, які й привели до певного результату. Те саме й у випадку з ШІ — інженер «пояснює» йому, що одна дія відбувається перед іншою (наприклад, спочатку ми множимо, а потім додаємо числа), відповідно, перша дія впливає на другу — а отже, щоб отримати правильний кінцевий результат, потрібно рахувати в установленому порядку.

Це вчені і називають «розумним» підходом — проте ніхто не заявляє про розумність або свідомість PaLM загалом. Однак найцікавіше навіть не в тому, що ШІ вчиться робити послідовні дії, щоб отримати певний результат. Вчені, які працюють з PaLM, зазначають, що модель дійшла цього методу самотужки.

Цей феномен дослідники планують вивчити особливо детально, адже фактично головна функція PaLM — прогнозувати текст, тобто вибирати та розставляти слова у такому порядку, щоб вони максимально відповідали характеру розмови. Як це призвело до того, що нейромережа почала пов’язувати їх у складніші логічні ланцюжки — поки що залишається загадкою.

І ось це вже зовсім інша розмова.

Можливо, причина в тому, що PaLM розуміє не лише англійську мову, що розширює її потенційну базу знань. Поки що експертам складно дати чітку відповідь, проте ми вже маємо факт того, що ШІ навчився дії, яку інженери не програмували.

У цьому полягає головна небезпека штучного інтелекту. Якщо ми припинимо розуміти, як він розвивається, ми перестанемо контролювати цей процес. Це може призвести до того, що ми слухатимемо машину і вважатимемо її рішення, які не піддаються людській логіці, правильними — просто через те, що так вирішив комп’ютер. Таким чином, людина (байдуже, зробить вона це свідомо чи ні) зможе зняти із себе відповідальність, просто пояснивши якусь свою дію тим, що на неї вказав ШІ як на потенційно краще рішення певної проблеми.

Чудовою ілюстрацією цього є випадок у Нью-Джерсі, де чоловіка заарештували за злочин, за який, як з’ясувалося, він не скоїв, «впізнавши» грабіжника за допомогою програмного забезпечення для розпізнавання обличчя. Розслідування показало, що під час пограбування магазину звинувачений чоловік перебував майже за 50 кілометрів від місця злочину.

Тут ще можна навести канонічний приклад про штучний інтелект, який вирішує знищити мільйони людей заради прекрасного майбутнього, проте це така сама розмова в галузі фантастики, як і свідомий ШІ в цілому.

Ще одна проблема — неймовірний обсяг даних, який використовується для навчання ШІ. Людина фізично не може обробити такий обсяг інформації — адже далеко не вся вона об'єктивна, позбавлена расизму, сексизму та інших принизливих речей.

Наразі майбутнє машинного навчання знаходиться в руках кількох технологічних гігантів на кшталт Google та Meta. Люди, які розробляють ці моделі, не можуть бути об'єктивними у всіх питаннях. Люди, що не працюють у цих компаніях, можуть у кращому разі писати критичні розбори певної нейромережі та впливати на подальші рішення про їх розвиток у такий спосіб. Проте безпосередній контакт із моделлю має невелика група людей. Розумних, але необ'єктивних людей.

Свідома машина — це утопія, яка вкоренилася у науковій фантастиці. Адже насправді ми навіть самі не знаємо, що таке свідомість, як вона зароджується та розвивається в нашому мозку — як ми можемо тоді запрограмувати свідомість? Так, у нас є різні визначення, і загалом ми розуміємо, що свідомість характеризується переживаннями подій зовнішнього світу та вироблення певної реакції організму на них. Ми розуміємо, що вогонь гарячий, а тому не сунемо в нього руку.

Нейромережа може отримати ці знання або на стадії розробки — якщо інженери пояснять їй, що вогонь гарячий, а тому сунутися туди не варто — або під час самостійного навчання, коли вона натрапить на цю інформацію в інтернеті. Але це знання не зробить її свідомою, хіба не так? Те саме і з Лемойном і його твердженням про розумність LaMDA — не можна називати мовну модель розумною тільки тому, що оан дуже добре справляється із завданням, заради якого її і розробляли — наслідувати людську мову і видавати відповіді на різні питання, що правдоподібно звучать. Можна сміливо сказати, що дослідник переплутав втілення зі свідомістю .

«Мені здається, наша мова не підходить для пояснення подібних речей. Ми маємо слова для зіставлення значень між пропозиціями та об'єктами — наприклад, розуміння. Проблема в тому, що ці системи розуміють приблизно так само, як калькулятор розуміє додавання, тобто в глибшому значенні цього слова вони нічого не розуміють. Потрібно сприймати такі слова [в контексті ІІ] з часткою скептицизму», — каже Зубін Гахрамані, професор інформаційної інженерії Кембриджського університету та старший директор Google Brain — дослідницької групи, яка займається вивченням штучного інтелекту.

Гахрамані пояснює, що ми звикли думати про інтелект лише як про людську здатність до пізнання та вирішення проблем шляхом використання цих знань. Проте машина ніколи не думатиме, як людина. Вона ніколи не розуміє своє існування.

Натомість вона може доповнити та розширити людські можливості — і саме на це й мають бути спрямовані зусилля дослідників, на думку вченого. Саме тому нейромережі такі ефективні в аналітиці — вони вміють шукати сенс там, де людина бачить безліч інформації, на аналіз якої у неї підуть дні/тижня/місяць/роки.

Алгоритм робитиме лише те, що ви йому скажете. Якщо він відхиляється від встановленої лінії — отже, він побудований так, щоб все, що ми можемо придумати для порівняння машин з людьми, — це маленькі ігри, як-от тест Тьюрінга, які зрештою нічого не доводять, адже вони фактично стали лише тестом визначення можливості ШІ переконати людину, що він має свідомість.

Це ілюструє голосовий помічник Google Duplex, який за допомогою простих фраз («на коли?», «можете повторити?», «зачекайте хвильку»), розбавлених різними «хм», «еее» та іншими звуками, які видають люди під час бесіди, здавався багатьом, з ким він спілкувався, людиною.

Зараз тест Тьюрінга замінили іншими тестами на кшталт GLUE або SQuAD, а сам він тепер може слугувати лише як етична червона лінія: будь-який ШІ, який його проходить, є небезпечним, оскільки може ввести людину в оману.

Про цю небезпеку у своїй статті зазначали інші колишні співробітники Google, звільнені в 2020 році, — Тімніт Гебру та Емілі Бендер. Разом зі своїми колегами та студенткою Бендер дослідниці попереджали, що великі мовні моделі несуть у собі небезпеку, адже люди готові приписувати свідомість усьому, що схоже на щось людське. Тому ми й готові сприймати LaMDA свідомим ШІ просто через те, що це легке і загалом зрозуміле нам пояснення, яке нас інтригує.

«Наразі наша робота стала ще більш актуальною. Перегони між технологічними компаніями за дедалі більшими моделями без достатніх обмежень, регулювання та розуміння того, як вони працюють, все прискорюється. Що ще гірше, лідери так званої сфери ШІ підживлюють схильність громадськості бачити розум в існуючих системах, розповідаючи, що вони можуть бути трохи свідомими“, при цьому неналежно описуючи, що вони роблять насправді», — пише Гебру у своїй колонці.

Дослідниця також звинувачує у ЗМІ роздмухування хайпу навколо потенційного створення надрозуму. За її словами, натомість вони мають контролювати процеси розробки ШІ та закликати тих, хто цим займається, надавати повну та чесну інформацію. Моделі ж, які вони розробляють, не повинні ставати свідомими — все, що нам потрібно, щоб ШІ допомагав нам рухатися в обраному нами напрямку, а не обирав його замість нас.

Другие новости

Всі новини