Google озвучила свои страхи, связанные с развитием искусственного интеллекта

24 июня 2016, 15:28
Исследователи из Google выделили несколько моделей поведения искусственного интеллекта, которые вызывают у них опасения. Ими они поделились в работе под названием "Конкретные проблемы в безопасности ИИ"

В своем исследовании специалисты Google отмечают, что стремительное развитие ИИ вызвало повышенное внимание к вопросу, как данная технология повлияет на общество. Одним из примеров такого воздействия могут быть "инциденты", вызванные "вредоносным поведением" систем ИИ.

Видео дня

Авторы работы выделили 5 основных моделей такого поведения. Исследователи Google опасаются, что ИИ может менять окружение для достижения своих целей, находить обходные пути для выполнения поставленных задач, обучаться небезопасным способом, злоупотреблять надзором человека или не адаптироваться к смене среды.

Как отмечает Стив Дент из Engadget, исследователи опасаются "не революции роботов". Их беспокоят "реальные проблемы", которые могут быть вызваны ошибками при разработке систем ИИ. Поэтому при создании ИИ рекомендуется учитывать возможность возникновения перечисленных проблем.

"Если системы ИИ контролируют индустриальные процессы, системы здравоохранения и другие критически важные технологии, то небольшие инциденты могут привести к оправданной потере доверия к автоматизированным системам", - подчеркивают исследователи.

Присоединяйтесь к нам в соцсетях Facebook, Telegram и Instagram.

Показать ещё новости
Радіо НВ
X