Нашкодить багатьом. У США запропонували використати штучний інтелект для створення фотороботів злочинців

Використання ШІ для створення фотороботів може посилити расові упередження (Фото:FORENSIC SKETCH AI-RTIST)
Створена розробниками Артуром Фортунато та Філіпе Рейно програма Forensic Sketch AI-rtist була засуджена фахівцями з етики. Вони вважають, що суперреалістичні орієнтування можуть зашкодити кольоровому населенню США.
Програма просить користувачів надати інформацію через шаблон, який вимагає опис статі, кольору шкіри, брів, носа, бороди, віку, волосся, очей і щелепи. Потім програма створює профіль, який надішле опис DALL-E 2, що створила програму, і поверне його як зображення.
Фахівці з етики та дослідники штучного інтелекту вже виступили проти цієї моделі. Вони мотивували своє рішення тим, що використання ІІ в поліцейській криміналістиці може посилити існуючі в суспільстві расові та гендерні упередження.
Створення гіперреалістичних профілів підозрюваних, що нагадують людей, було б особливо шкідливим для темношкірих та латиноамериканців. Відомо, що перші ризик бути затриманими поліцією без причини вп’ятеро більший, ніж у білих.
Крім того, гіперреалістичні фотороботи можуть спантеличити свідків.
«Дослідження показали, що люди запам’ятовують обличчя цілісно, а не за окремими рисами. Створення фоторобота, заснованого на описах окремих рис, як у цій програмі штучного інтелекту, може призвести до того, що обличчя буде разюче відрізнятися від зовнішності злочинця, вважає Дженніфер Лінч, директор із судових розглядів в Electronic Frontier Foundation. — Як тільки свідок побачить портрет, цей образ може замінити у його свідомості невиразний спогад про справжнього підозрюваного».