Це тому, що ти пішак? Штучний інтелект прийняв шахістів за расистів

18 лютого 2021, 10:36

Судячи з усього, алгоритми YouTube сприймають бесіди шахістів, в яких обговорюються, наприклад, загрози чорним фігурам, як расистські коментарі.

Це те, що, за підозрою пари дослідників з Університету Карнегі-Меллона в США, відбулося з Антоніо Радичем, хорватським шахістом, який веде популярний канал на YouTube. У минулому році його аккаунт був заблокований за «шкідливий і небезпечний» контент.

Відео дня

YouTube так і не представив пояснень і відновив канал протягом 24 годин, сказав Ашикур Р. ХудаБухш, науковий співробітник Інституту мовних технологій Університету Карнегі-Меллона (CMU). Проте, можливо, що розмова «чорне проти білого» під час інтерв'ю Радича з майстром Хікару Накамурою запускала програмне забезпечення, яке автоматично виявляє расистські висловлювання.

«Ми не знаємо, які інструменти використовує YouTube, але якщо вони покладаються на штучний інтелект для виявлення расистських висловлювань, може статися така ситуація», — сказав ХудаБухш. І якщо це сталося публічно з кимось настільки ж відомим, як Радич, це цілком може відбуватися непомітно для багатьох інших людей, які не так добре відомі.

Щоб побачити, чи можливо це, ХудаБухш і Рупак Саркар, інженер-дослідник курсу LTI, протестували два сучасних класифікатора мовлення — тип програмного забезпечення ШІ, яке можна навчити виявляти ознаки мови ненависті. Вони використовували класифікатори, щоб переглянути більше 680 000 коментарів, зібраних на п’яти популярних шахових каналах YouTube.

Потім вони випадковим чином відібрали 1000 коментарів, які принаймні один з класифікаторів позначив як розпалювання ненависті. Коли вони вручну переглянули ці коментарі, вони виявили, що переважна більшість — 82% - не містила мови ворожнечі. За їх словами, програма реагувала на такі слова, як чорний, білий, напад і загроза.

Як і у випадку з іншими програмами штучного інтелекту, які залежать від машинного навчання, ці класифікатори навчаються на великій кількості прикладів, і їх точність позиціонування може коливатися в залежності від набору використовуваних прикладів.

Наприклад, Худабухш згадав вправу, з яким він зіткнувся в студентські роки, мета якого полягала в тому, щоб ідентифікувати «ледачих собак» і «активних собак» на наборі фотографій. На багатьох тренувальних фотографіях активних собак видно широкі простори трави, тому що такі собаки часто знаходяться на відстані. В результаті програма іноді визначала фотографії з великою кількістю трави як приклади активних собак, навіть якщо на фотографіях не було собак.

Як повідомляв НВ, соціальна мережа Instagram повідомила, що буде блокувати і видаляти акаунти користувачів, які в особистих повідомленнях використовують мову ворожнечі, расистські та антисемітські заяви.

«Ми прагнемо зробити все можливе для боротьби з ненавистю і расизмом на нашій платформі, але ми також знаємо, що ці проблеми є великими. Ми з нетерпінням чекаємо на співпрацю з іншими компаніями, футбольними асоціаціями, неурядовими організаціями, урядами, батьками і вихователями, як в режимі онлайн, так і поза мережею», — заявили в компанії.

У Instagram підрахували, що тільки в липні-вересні 2020 року було отримано понад 6,5 мільйона скарг на використання «мови ненависті» в особистих повідомленнях.

На відміну від коментарів під постами, стежити за модерацією в повідомленнях набагато складніше — це можна зробити тільки після скарги користувачів.

Приєднуйтесь до нас у соцмережах Facebook, Telegram та Instagram.

Показати ще новини
Радіо НВ
X