«AI slop». Як штучний інтелект засмічує інтернет низькоякісним контентом
Такий матеріал — дешевий і масовий (Фото: depositphotos.com)
У соцмережах усе частіше з’являються картинки, що нагадують суміш фото й комп’ютерної графіки. Одні виглядають фантастично, інші - більш реалістично, на перший погляд.
Це приклади так званого «AI slop» — низько- або середньоякісного контенту (відео, фото, текст, аудіо чи їх комбінації), створеного штучним інтелектом без перевірки на точність. Такий матеріал роблять швидко, дешево і масово, а поширюють його переважно у соцмережах, щоб заробляти на переглядах і відвертати увагу від якісніших джерел.
У липні 2025 року The Guardian опублікувало аналіз, де йшлося, що цей контент заполонив YouTube. Журналісти виявили: дев’ять зі 100 найшвидше зростаючих каналів повністю складаються з матеріалів, згенерованих штучним інтелектом — від «зомбі-футболу» до «котячих мильних опер».
Ще один приклад — гурт The Velvet Sundown, який з’явився на Spotify з вигаданою історією та піснями. Насправді вся музика створена нейромережею.
Через легкість у використанні ШІ люди масово надсилають до медіа низькоякісні тексти. Так, науково-фантастичний онлайн-журнал Clarkesworld у 2024 році змушений був припинити прийом нових робіт, адже його завалили штучними текстами. Подібні проблеми виникають навіть у Вікіпедії, де ШІ-статті перевантажують систему модерації.
«AI slop» не лише засмічує інформаційний простір, а й використовується для поширення дезінформації. Наприклад, під час урагану Гелен у 2024 році у соцмережах поширювали підроблене фото дівчинки з цуценям, щоб критикувати дії адміністрації президента Джо Байдена у ліквідації наслідків стихії.
Навіть коли очевидно, що картинка створена нейромережею, вона все одно здатна ввести людей в оману.
Крім того, штучний контент шкодить художникам і авторам, адже витісняє їхню роботу та зменшує можливості заробітку. Алгоритми соцмереж не відрізняють якісний матеріал від низькоякісного, тож справжні творці опиняються у менш вигідному становищі.
На багатьох платформах користувачі можуть позначати проблемний контент або додавати пояснення для спільноти. Шкідливі матеріали можна також оскаржити адміністрації.
Автор матеріалу, Адам Немерофф, заступник проректора з інновацій у навчанні, викладанні та технологіях Університету Квінніпіак, підсумовує:
«Ми вже звикли остерігатися дипфейків і фейкових акаунтів, а тепер маємо справу ще й із масовим потоком низькоякісного сміття, яке погіршує інформаційне середовище. Принаймні тепер у цього явища є влучна назва».