«AI slop». Як штучний інтелект засмічує інтернет низькоякісним контентом

8 вересня, 22:30
Зробити резюме статті:
ChatGPT ChatGPT
Такий матеріал — дешевий і масовий (Фото: depositphotos.com)

Такий матеріал — дешевий і масовий (Фото: depositphotos.com)

У соцмережах усе частіше з’являються картинки, що нагадують суміш фото й комп’ютерної графіки. Одні виглядають фантастично, інші - більш реалістично, на перший погляд.

Це приклади так званого «AI slop» — низько- або середньоякісного контенту (відео, фото, текст, аудіо чи їх комбінації), створеного штучним інтелектом без перевірки на точність. Такий матеріал роблять швидко, дешево і масово, а поширюють його переважно у соцмережах, щоб заробляти на переглядах і відвертати увагу від якісніших джерел.

Реклама

У липні 2025 року The Guardian опублікувало аналіз, де йшлося, що цей контент заполонив YouTube. Журналісти виявили: дев’ять зі 100 найшвидше зростаючих каналів повністю складаються з матеріалів, згенерованих штучним інтелектом — від «зомбі-футболу» до «котячих мильних опер».

Ще один приклад — гурт The Velvet Sundown, який з’явився на Spotify з вигаданою історією та піснями. Насправді вся музика створена нейромережею.

Через легкість у використанні ШІ люди масово надсилають до медіа низькоякісні тексти. Так, науково-фантастичний онлайн-журнал Clarkesworld у 2024 році змушений був припинити прийом нових робіт, адже його завалили штучними текстами. Подібні проблеми виникають навіть у Вікіпедії, де ШІ-статті перевантажують систему модерації.

«AI slop» не лише засмічує інформаційний простір, а й використовується для поширення дезінформації. Наприклад, під час урагану Гелен у 2024 році у соцмережах поширювали підроблене фото дівчинки з цуценям, щоб критикувати дії адміністрації президента Джо Байдена у ліквідації наслідків стихії.

Навіть коли очевидно, що картинка створена нейромережею, вона все одно здатна ввести людей в оману.

Крім того, штучний контент шкодить художникам і авторам, адже витісняє їхню роботу та зменшує можливості заробітку. Алгоритми соцмереж не відрізняють якісний матеріал від низькоякісного, тож справжні творці опиняються у менш вигідному становищі.

На багатьох платформах користувачі можуть позначати проблемний контент або додавати пояснення для спільноти. Шкідливі матеріали можна також оскаржити адміністрації.

Автор матеріалу, Адам Немерофф, заступник проректора з інновацій у навчанні, викладанні та технологіях Університету Квінніпіак, підсумовує:

«Ми вже звикли остерігатися дипфейків і фейкових акаунтів, а тепер маємо справу ще й із масовим потоком низькоякісного сміття, яке погіршує інформаційне середовище. Принаймні тепер у цього явища є влучна назва».

Показати ще новини