Google озвучила свои страхи, связанные с развитием искусственного интеллекта
В своем исследовании специалисты Google отмечают, что стремительное развитие ИИ вызвало повышенное внимание к вопросу, как данная технология повлияет на общество. Одним из примеров такого воздействия могут быть "инциденты", вызванные "вредоносным поведением" систем ИИ.
Авторы работы выделили 5 основных моделей такого поведения. Исследователи Google опасаются, что ИИ может менять окружение для достижения своих целей, находить обходные пути для выполнения поставленных задач, обучаться небезопасным способом, злоупотреблять надзором человека или не адаптироваться к смене среды.
Как отмечает Стив Дент из Engadget, исследователи опасаются "не революции роботов". Их беспокоят "реальные проблемы", которые могут быть вызваны ошибками при разработке систем ИИ. Поэтому при создании ИИ рекомендуется учитывать возможность возникновения перечисленных проблем.
"Если системы ИИ контролируют индустриальные процессы, системы здравоохранения и другие критически важные технологии, то небольшие инциденты могут привести к оправданной потере доверия к автоматизированным системам", - подчеркивают исследователи.