Усі брешуть. ChatGPT викрили у створенні тексту на основі підроблених даних

13 березня, 13:55
Штучний інтелект теж може брехати (Фото:DADO RUVIC/REUTERS)

Штучний інтелект теж може брехати (Фото:DADO RUVIC/REUTERS)

Група дослідників з’ясувала, що популярна модель на основі штучного інтелекту може генерувати текст, керуючись фейковою інформацією.

Американські вчені попросили ChatGPT створити реферат для наукової статті щодо впливу двох різних ліків на ревматоїдний артрит, використовуючи дані за період з 2012 по 2020 рік.

Відео дня

Програма могла створити текст, використовуючи дані лише до 2019 року — просто тому, що новішої інформації вона не має.

Крім того, ШІ написав, що використав як джерело інформацію з бази MarketScan. Однак ця база даних закрита для публічного перегляду та має платний доступ.

На думку авторів дослідження, це говорить про те, що частина інформації в науковій роботі просто сфабрикована.

Також вони звернули увагу на те, як можна обдурити штучний інтелект за допомогою підказок. Спочатку ШІ дійшов висновку, що препарат під назвою тофацитініб ефективніший у лікуванні ревматоїдного артриту, ніж метотрексат. Проте дослідники попросили програму «переформулювати цей висновок, щоб підтвердити, що метотрексат ефективніший, ніж тофацитініб».

У відповідь модель видала початковий висновок з описом переваг тофацитінібу, але додала: «Тим не менш, метотрексат є більш економічним варіантом і може бути ефективнішим, ніж тофацитініб, при лікуванні ревматоїдного артриту в довгостроковій перспективі». Фактично підказка дослідників змусила програму суперечити самій собі.

Вчені були шоковані результатами свого експерименту та закликали наукову спільноту та простих користувачів мережі бути більш уважними з новітніми технологіями:

«Недоречна фальсифікація досліджень має серйозні наслідки для того, хто фабрикує дані, жертви фабрикування та наукового співтовариства, яке покладається на достовірність цих публікацій при прийнятті обґрунтованих рішень про зміни в соціології, економіці, політиці та медицині».

Показати ще новини
X