Мы в ловушке? Нейросети научились «подделывать» внешность людей — исследование

Фото, сгенерированные нейросетью (Фото:NVIDIA/thispersondoesnotexist.com)
Исследователи из Университета Лондона выяснили, что обычные люди не только не в состоянии отличить сгенерированные искусственным интеллектом лица от настоящих, но и считают их более правдоподобными.
Компьютерные системы могут создавать реалистичные фотографии людей, которых не существует. Это является одной из потенциальных опасностей новых технологий.
Дипфейки становятся широко распространенными в повседневной культуре, они используются в маркетинге, рекламе и социальных сетях. Изображения также могут быть инструментом для злонамеренных действий, таких как политическая пропаганда, шпионаж и информационная война.
Эксперты контрразведки даже говорят, что шпионы регулярно создают профили со сгенерированными нейросетью фотографиями, чтобы отслеживать иностранные цели через социальные сети.
Британские ученые провели эксперимент, чтобы узнать, могут ли люди достоверно отличить продукт искусственного интеллекта от настоящих фото.
Они обнаружили, что люди отмечали созданные нейросетью лица как более реалистичные, чем настоящие фотографии лиц реальных людей. Пока что авторы исследования затрудняются сказать точно, почему так происходит, но у них есть одно предположение.
Реальные лица казались участникам эксперимента менее привлекательными, чем созданные нейросетью. Поэтому, по мнению исследователей, они вызывали меньше симпатии и доверия.
Однако здесь кроется новая опасность — научившись делать менее совершенные лица, искусственный интеллект окончательно запутает человечество.
Ученые провели второй эксперимент. Они сообщили респондентам, что среди предоставленных им фото были искусственно созданные. После этого уровень доверия ко всем без исключения снимкам был подорван.