NV Преміум

Покращить чи зламає все? Як ChatGPT і штучний інтелект вплинуть на роботу журналістів та ЗМІ

Інновації

19 лютого 2023, 07:05

Чат-бот ChatGPT, який працює на основі алгоритму обробки природної мови GPT-3.5, може змінити журналістику на краще. Чи навпаки?

Технологія, над якою працює компанія OpenAI, вже стала причиною страху представників багатьох професій, які вважають, що невдовзі їх замінить штучний інтелект.

Це й не дивно, адже чат-бот ChatGPT може не просто відповідати майже на будь-які питання — за кілька секунд він може написати пісню, текси різної складності та тематики, придумати стратегію розвитку бізнесу чи написати та пояснити програмний код. «Я копірайтер. Я впевнений, що штучний інтелект забере у мене роботу», — на днях колонка із таким заголовком вийшла у виданні The Guardian.

У ній британський фрілансер пояснює свій страх тим, що ChatGPT написав статтю, на написання якої він витрачає години та просить у клієнтів 500 фунтів за роботу. Чат-боту на виконання завдання знадобилося лише 30 секунд — і грошей за це він не взяв.

Технологією вже зацікавилися у Microsoft — компанія сподівається кинути виклик інтернет-домінації Google саме за допомогою інтеграції ChatGPT у свої продукти.

Передплатіть, щоб прочитати повністю

Нам необхідна ваша підтримка, щоб займатися якісною журналістикою

Перший місяць 1 ₴. Відмовитися від передплати можна у будь-який момент

Над своєю версією чат-боту працюють і в Google, проте поки що компанія не випускає його у вільний доступ та не готова під'єднувати до наявних сервісів. Це пояснюють тим, що технологія поки що неідеальна, а тому довгострокові ризики, які вона несе, можуть бути набагато більшими, ніж перспективи.

Здається, найближчі роки будуть часом активних трансформацій — безліч професій будуть змінюватися та адаптуватися. Можливість шукати відповіді на найскладніші запити, перелопачуючи терабайти інформації — це особливість, яка дійсно може мати сильний вплив на наші життя.

Саме тому багато медіа звернули увагу на технологію ChatGPT і теж шукають способи взаємодії з чат-ботами та штучним інтелектом. Проте це відкриває справжній ящик Пандори, адже штучний інтелект у медіа потенційно вплине не тільки на співробітників — але й на усіх людей, які читають новини.

Скандал довкола видання CNET

Насправді деякі ЗМІ вже кілька років експериментують з ШІ заради автоматизації створення простого контенту на кшталт бізнес- чи спортивних новин. Є навіть успішні випадки.

Наприклад, видання Associated Press використовує ШІ для написання прев’ю футбольних матчів на основі даних та новин про їхні результаті, використовуючи заздалегідь створені шаблони; McClatchy завдяки автоматизації оновлює списки нерухомості та пише звіти про спортивні ігри на рівні шкіл; а Bloomberg, Reuters і Dow Jones експериментували з допомогою штучного інтелекту при висвітленні новин про фондовий ринок та різних фінансових звітів. А видання Buzzfeed планує застрибнути до хайптрейну ChatGPT і активно використовувати чат-бот, щоб «домогти творчому процесу та покращити контент».

Варто зазначити, що усі ці видання відкрито зазначають про те, що вони використовують текст, написаний ШІ, розміщуючи відповідні плашки та прес-релізи.

Є й інші способи використання штучного інтелекту — він може працювати як агрегатор новин для відслідковування важливих подій. Також можна автоматизувати пошук фотографій, налаштування таргетингу, транскрибування відео чи

Проте ChatGPT дійсно може змінити правила гри. Але не все так просто — мало просто включити чат-бот та генерувати з його допомогою текст для новин. Це показав приклад видання CNET, яке використовувало штучний інтелект для написання 73 статей на сайті.

Проте дізнатися про те, що статті написані не людиною, було не так просто, адже видання вирішило сховати згадку про це під авторством CNET Money Staff. Лише коли людина натискала на «автора», вона бачила, що насправді «стаття була створена з використанням технології автоматизації». Коли на такий дивний опис почали звертати увагу користувачі, CNET трохи змінили опис авторства (додавши, що «при написанні статті використовувалась допомога ШІ», а також що редакція «ретельно перевірила та відредагувала статтю»).

Статті були схожі на максимально стандартні SEO-статті та використовували звичайні штампи на кшталт «зважте усі за і проти, щоб обрати найкращий варіант». Дякуємо за пораду!

Проте це не було найгіршим — зрештою, редактор видання пояснив, що у них не було наміру звільняти людей, а за допомогою штучного інтелекту вони хотіли дати більше часу своїм журналістам для більшого поглиблення у складніші теми. Найгіршим стало те, що насправді ШІ робив багато фактологічних помилок — про це у своєму дослідженні написало видання Futurism, журналісти якого проаналізували скандальні публікації CNET.

Крім того, ці статті були сповнені плагіату. Причому цей плагіат був різноманітним — від дослівного копіювання до рерайту без зазначення оригіналу. Причому штучний інтелект CNET не єдиний, хто завинив у плагіаті — нещодавно журналіст Алекс Кантровіц помітив, що допис у сервісі Substack, який був підписаний автором на ім'я Петра, містить ті самі речення, які він використовував для своєї колонки кількома днями раніше. Як виявилося, Петра використовувала штучний інтелект для створення «свого» контенту.

Насправді проблема плагіату не є великим відкриттям, якщо розуміти принципи роботи штучного інтелекту, який навчається на великих масивах даних та текстів. Так, коли ШІ CNET отримує завдання написати текст на певну тему, він вивчає схожі статті, опубліковані в інтернеті, вириває з них речення і компілює, іноді вносячи «свої» корективи. Так, він може змішати два речення в одне, або навпаки розбити одне речення на два — і повторює цей та схожі трюки, поки не «напише» усю статтю, пишуть журналісти Futurism.

Глобальні ризики і проблеми використання штучного інтелекту в роботі ЗМІ

Проте плагіат — це, скоріше, проблема для самих авторів, адже мало кому приємно, коли їхню роботу використовують без їхнього відома. Це схоже на протистояння художників із нейромережами, які створюють зображення, які працюють так само як чат-боти вчаться відповідати на питання. Тобто, перелопачуть мільйони картинок, після чого міксують їх і видають результат на запит користувача. Через це компанії-розробники нейромереж Stability AI, Midjourney та DeviantArt вже потрапили в епіцентр скандалу — група художників із США, а також компанія Getty Images подали на них в суд через порушення авторських прав.

Одна зі статей видання BuzzFeed, яке планує активно використовувати ChatGPT, стала ідеальним прикладом того, чому чат-боти не стануть порятунком для ЗМІ. Репортерка видання використала штучний інтелект, щоб написати історію про кейс CNET — проте зрештою їй все одно довелося не один раз виправляти свої підказки та редагувати статтю, «щоб він [чат-бот — ред.] припинив вставляти фактичні помилки».

Насправді головна проблема ChatGPT та використання ШІ для написання статей криється якраз у його головній силі. Так, нейромережа за допомогою складних алгоритмів може обробити неймовірну кількість інформації по певній темі — проте вона не може придумати чогось нового, додати нових сенсів та розкрити тему більше, ніж вона вже розкрита, пояснює NV медіаексперт Отар Довженко.

«Мені здається, що деякі люди трошки плутають реальність із футурамою. Чатбот не може замінити людину — він може виконувати найпримітивніші людські функції під контролем людини, як це робить, наприклад, спелчекер. Бо бот/робот — це не особистість і не істота, це комп’ютерна програма, яка збирає дані на запит людини. Ці дані можуть бути оформлені схоже на людську репліку, малюнок, текст чи музичний твір, але програма не може створити нічого нового», — розповідає Довженко.

Як приклад медіаексперт наводить смерть поета та громадсько-політичного діяча Дмитра Павличка. Що може зробити чат-бот? По-перше, створити новину про цю подію. По-друге, підтягнути бекґраунд із Вікіпедії (щоправда, навіть якщо там написана навіть очевидна дурня, він цього не побачить і вставить її в текст). По-третє штучний інтелект може навіть зімітувати вірш «у стилі Павличка», використовуючи найбільш вживані ним слова.

«Але він ніколи не зможе зрозуміти і передати неоднозначність постаті Павличка через його комуністично-патріотичні коливання протягом життя — саме те, що найбільше переймає публіку, судячи з дискурсу соцмереж. Бо для комп’ютерної програми не існує неоднозначностей: є або нуль, або одиниця.

Тому так, можливо, чатбот буде витягати з інтернету інформацію, яку раніше люди шукали гуглом, а ще раніше в книжках у бібліотеці; можливо, він буде компонувати цю інформацію в тексти за певним шаблоном, і що більше в нього буде зразків, то більш «людиноподібними» будуть його тексти. Але людину комп’ютерна програма не може замінити, бо людина бачить більше, ніж зв’язки між масивами даних, і що головне — людина може створювати нові сенси, яких досі не було", — розповідає Довженко.

Ще одну проблему окреслює виконавча директорка дослідницької організації Data & Society Джанет Хейвен. За її словами, ChatGPT може ще більше підірвати довіру людей до медіа, адже проблема дезінформації та фейків поширена і зараз, а постійні помилки, яких припускається ШІ, точно не зроблять цю ситуацію кращою.

Вона прогнозує три наслідки все більш активної імплементації ШІ в роботу медіа. Перший — це що ChatGPT і подібні до нього інструменти будуть використовуватися «у ворожий спосіб», щоб підірвати довіру людей до публічної дискусії та підштовхнути їх до об'єднання у своїх закритих інформаційних бульбашках.

Схожу думку висловлює і Отак Довженко: «Кому справді може допомогти цей чатбот, то це різноманітним спамерам, флудерам і ботофермерам, яким потрібно імітувати листи та повідомлення від живих людей. У тому числі для поширення дезінформації. Якщо раніше листи від дідусів-мільярдерів писали нігерійські спамери, тепер їх зможе генерувати чатбот».

З цієї точки зору ШІ дійсно є ідеальним інструментом для розповсюдження дезінформації. Жарти про «немає сечі вже терпіти ці пекельні борошна» та «розпові вчительке» розійшлися українським сегментом інтернету після того, як російські пропагандисти доволі незграбно використовували перекладач для розповсюдження своїх месенджів. Будьте певні — ШІ такої помилки не допустить.

Другим наслідком, на думку Хейвен, будуть різноманітні спроби та дослідження, які допоможуть нам адаптуватися до різноманітних інструментів ШІ. Це підтверджує СЕО OpenAI Сем Альтман. Він розповів, що компанія вже працює над інструментами, які допоможуть читачам розуміти, де текст написаний штучним інтелектом, а де — людиною. Правда, ніяких подробиць щодо цього він поки не надав.

До речі, вже існує безкоштовний плагін-детектор для браузера, який доволі точно може відрізнити текст, написаний ШІ від тексту, написаного людиною.

Водночас Хейвен сподівається, що по розв’язання проблем, пов’язаних із використанням штучного інтелекту більш активніше будуть долучатися уряди країн. На її думку, цій сфері потрібна певні регуляції, які поставили б на перше місце права і свободи людей, а не технічні інновації.

Якщо вже говорити про робочі місця, то редакції навряд будуть замінювати людей машинами. Адже це невигідно як з точки зору якості контенту (якщо ШІ робить помилки на рівні новинаря- чи журналіста-новачка, то редактору легше навчити людину не припускатися помилок, ніж постійно виправляти їх за нейромережею), так і з точки зору репутації у довгостроковій перспективі. Адже якщо видання буде продукувати неякісний контент, то користувачу буде неважливо, хто саме його продукує — людина чи штучний інтелект — постраждає бренд самого видання.

ChatGPT і його аналоги можна використовувати як помічника при написанні вічнозелених тем, SEO-статей чи навіть новин, проте завжди «поряд» із ним має знаходитись людина, яка буде перевіряти отриманий текст. Ну а саме видання має попереджати читачів, що над текстом працював ШІ.

Використання чат-ботів однозначно не вб'є журналістику, а скоріше трансформує її — як це колись сталося із інтернетом чи комп’ютерами. Можливість за кілька секунд отримувати відповіді на складні питання допоможе журналістам менше часу витрачати на складання самого тексту, а більше часу — на розслідування чи аналітику тих чи інших подій.

Зрештою, технологія не стоятиме на місці і буде розвиватися, ставати все кращою та досконалішою. Журналістам доведеться і самим більше розбиратися в історіях, над якими вони працюють — адже умовно-стандартний матеріал може написати штучний інтелект. Це буде непоганим викликом для нас.

Звісно, нейромережа навряд зможе отримувати ексклюзивні коментарі, проводити розслідування чи знімати репортажі, проте зрештою частково або повністю зможе замінити певних оглядачів, новинарів чи аналітиків — тобто людей, які працюють із уже існуючим контентом. Зрештою, ці професії також можуть трансформуватися та використовувати ШІ як помічника, а не замінника.

Водночас варто не забувати, що зараз ми говоримо про штучний інтелект, який добре працює англійською мовою, проте доволі погано розуміє інші. Цьому є просте пояснення — ChatGPT та більшість інших чат-ботів навчаються саме на англійськомовних масивах даних, а тому вони краще «розуміють» саме англійську. Тому у цьому випадку українським журналістам точно не варто перейматися — навряд ChatGPT заговорить українською у найближчий час.

Замість висновку хочеться сказати, що штучний інтелект не зможе замінити журналістів. Проте він має потенціал покращити певні робочі процеси та трасформувати ринок медіа. А от у гіршу чи кращу сторону — це вже питання того, як люди використовуватимуть ШІ та чи будуть у нас можливості швидко виявляти згенеровані нейромережею тексти і, що важливіше, дезінформацію.

Інші новини

Всі новини