Верховна Рада проілюструвала трагедію в Дніпрі зображенням, яке створив штучний інтелект. Чому це шкідливо?

18 січня, 08:03
Ексклюзив NV
Згенероване зображення малюка, яким проілюстрували трагедію у Дніпрі (Фото:Скриншот / Twitter Верховної Ради)

Згенероване зображення малюка, яким проілюстрували трагедію у Дніпрі (Фото:Скриншот / Twitter Верховної Ради)

Twitter-акаунт Верховної Ради опублікував повідомлення про трагедію у Дніпрі, проілюструвавши його реалістичним зображенням, яке було створено штучним інтелектом. Дискусія навколо цього питання ідеально ілюструє проблеми, з якими нам доведеться стикнутися ще не раз у майбутньому.

Ракетна атака Росії по багатоповерхівці у Дніпрі забрала життя 44 людей. Ще 79 дістали травми, доля 25 людей і досі невідома.

Удар було завдано гіперзвуковою ракетою Х-22, яку майже неможливо перехопити наявними в України засобами ППО. Раніше ці ракети використовувались для атаки на житловий будинок в курортній Сергіївці та торговельний центр в Кременчуці.

Відео дня

Це все — лише невелика частина від загального террору, який наша країна переживає через дії РФ.

Операція з розбору завалів та пошуку людей під ними триває вже три дні. За цей час ми дізналися безліч трагічних історій про загиблих, поранених та зниклих безвісти людей. Ця трагедія стала черговим нагадуванням світу про те, з якою країною доводиться воювати українцям. Крім фото з місця подій, для висвітлювання таких тем активно підключаються і художники. Проте іноді це виходить за рамки та призводить до доволі несподіваних скандалів.

Так, 16 січня Twitter-аккаунт Верховної Ради України опублікував зображення дитини нібито на фоні зруйнованого дому у Дніпрі. Зараз твіт вже видалено, проте залишився скріншот посту разом із відповідями, у яких користувачі обурювалися ілюстрацією. Тригером стало те, що автори допису використали згенероване нейромережею зображення.

Сергій Кошман / Facebook
Фото: Сергій Кошман / Facebook

Чи дійсно це проблема? Та чому ми зараз взагалі розмірковуємо про це?

Розвиток штучного інтелекту

За останні роки ми впевнилися, що штучний інтелект (ШІ) не просто може змінити нашу реальність — він вже має вплив на наші життя. ШІ допомагають нам виявляти хвороби та фейки, вивчати Всесвіт, деякі видання використовують йогодля написання статей, а у Данії навіть з’явилася політична партія, якою керує штучний інтелект.

Думки щодо стрімкого розвитку технології ШІ різняться — очевидно, що постійне зростання можливостей та потенціалу нейромереж допомагає людству як мінімум з науковох точки зору. Ці системи за кілька секунд можуть виконувати задачі (наприклад, пошук інформації, аналітика та розрахунки), на які у людей пішло б набагато більше часу. Проте деякі дослідники, як, наприклад, колишній СЕО і виконавчий директор Google Ерік Шмідт, впевнені, що штучний інтелект може бути небезпечним.

2022 рік можна сміливо називати одним із найбільш проривних у цій сфері.

Мовна модель ChatGPT, яка вже може замінити деяких джунів в айті-компаніях, копірайтерів і навіть Google.

Ще більше розпалив ситуацію вже колишній інженер Google Блейк Лемойн. Під час роботи із нейронною мовною моделлю LaMDA він вирішив, що вона проявила ознаки свідомості та нібито може розмірковувати про своє існування у світі. Це, звичайно ж, неправда. Остерігатися такої перспективи нам дійсно потрібно, проте це зовсім інша тема.

Зараз нас цікавлять нейромережі DALL-E 2, Midjourney та Stable Diffusion, які дозволяють нам малювати словами. Причому буквально — будь-який користувач може описати, що він хоче побачити, і отримати це зображення. Ось, наприклад, картина Тайна вечеря з персонажами відеоігри Among Us, ось ─ МРТ Дарта Вейдера, а ось ─ американська РСЗВ HIMARS у стилі мультфільму Тачки.

poster
Дайджест головних новин
Безкоштовна email-розсилка лише відбірних матеріалів від редакторів NV
Розсилка відправляється з понеділка по п'ятницю

Зараз навколо цих нейромереж активно розвивається скандал щодо авторських прав: художники з усього світу критикують використання штучного інтелекту для генерації зображень, оскільки ті навчалися на роботах людей і у такий спосіб порушують закон, використовуючи чужу інтелектуальну власніть без дозволу.

Що не так із зображенням, яке запостили у Twitter-аккаунті Верховної Ради?

Головна проблема у тому, що далеко не всі користувачі розуміють, що це — згенероване нейромережею зображення. Воно пішло гуляти соцмережами, де користувачі поширювали його як справжнє фото з місця трагедії.

Здавалося б, нічого страшного у цьому нема. Набагато більшою є сама трагедія людей, про яку користувачі хочуть розповісти всьому світу. Проте варто розуміти, що іноді навіть хороші наміри можуть зіграти проти нас і допомогти ворогу.

Річ у тім, що цей кейс може стати ідеальною зброєю для російської пропаганди. Ми зараз не говоримо про російські ЗМІ, які працюють виключно на російську аудиторію — там нікого ні в чому переконувати не потрібно. Проблема якраз у тому, що російські пропагандисти можуть використати це у своїх цілях на Заході.

Якщо українські користувачі та особливо офіційні акаунти будуть поширювати згенеровані штучним інтелектом зображення з місць трагедій, ми маємо бути готовими, що Росія використає це у своїх інтересах. Адже це — не реальне зображення того, що відбувалося насправді. А значить, вже й справжні фотографії теж нібито можуть бути якимись «не такими».

Журналіст, блогер і співзасновник партії Демократична сокира Віктор Трегубов припускає, що вся ця операція може бути спланованою інформаційною атакою зі сторони росіян. Так, провокатори могли спеціально створити зображення за допомогою ШІ, розігнати їх у соцмережах серед українців та чекати, поки якесь із них опиниться на офіційному акаунті.

Зрештою цей «аргумент» можна буде розтягувати так само, як нещодавно російська пропаганда активно поширювала заяву Олексія Арестовича про те, що це українська ракета впала на будинок у Дніпрі. Ця заява вийшла настільки гучною, що зрештою українським військовим довелось пояснювати ситуацію, а сам Арестович зрештою написав заяву про звільнення з посади позаштатного радника голови ОП.

Такі заяви навряд чи сильно вплинуть на підтримку України з боку союзників, проте можуть посіяти сумніви серед якоїсь частини населення країн Заходу. А їхні настрої прямо чи опосередковано впливатимуть і на політиків, які вирішують, чи виділяти гроші на допомогу Україні.

Журналіст та медіа-експерт Отар Довженко хоч і не називає це російським ІПСО, називає це зображення «близнюком розіп'ятого хлопчика в трусиках», який вигадала російська пропаганда. Навіть коли цей фейк викрили, «міфологема розіп'ятого хлопчика надихала російський люмпен на ненависть до України».

«Міфологема розіп'ятого хлопчика надихала російський люмпен на ненависть до України. Бо якщо того вигадали, то іншого якогось точно розіп'яли. Це ніби пробита дірка у дні човна реальності, в якому ми пливемо. І в цю дірку фонтанує брехня, більшість якої, на відміну від картинки з хлопчиком, хоче нас отруїти і потопити», — застерігає Отар Довженко.

Показати ще новини
Радіо NV
X