Матрица все ближе? Разработчик ChatGPT создает команду для контроля сверхразумных систем ИИ

Сверхразумный ИИ будущего не обязательно окажется доброжелательным (Фото:Open Access Government)
Индустрия искусственного интеллекта продолжает стремительно развиваться. На острие прогресса находится компания OpenAI, которая создала ChatGPT. Теперь она нацелилась на управление «сверхразумными» системами ИИ.
Об этом стало известно из новой статьи в официальном блоге организации. OpenAI формирует новую команду Ильи Суцкевера, главного ученого и одного из основателей компании. Задачей коллектива станет разработка способов управления и контроля над «сверхразумными» системами искусственного интеллекта.
Суцкевер и Ян Лейке, руководитель группы по оптимизации OpenAI, в свежей статье предположили, что ИИ, который превзойдет человека в плане мыслительных способностей, может появиться в течение десятилетия. По мнению ученых, такой ИИ не обязательно будет доброжелательным. Именно поэтому важно исследовать механизмы его потенциального контроля и управления.
«В настоящее время у нас нет решения, как управлять или контролировать потенциально сверхинтеллектуальный ИИ и не дать ему выйти из-под контроля. Наши нынешние методы управления ИИ, такие как обучение с подкреплением на основе человеческой обратной связи, полагаются на способность людей контролировать ИИ. Но люди не смогут надежно контролировать системы ИИ, которые намного умнее нас», — сказано в материале руководителей OpenAI.
Новая команда Суцкевера и Лейке получила название Superalignment, а ее главная задача звучит как «оптимизация суперинтеллекта». Коллектив сможет использовать 20% вычислительных мощностей компании. В течение четырех лет ученые при помощи исследователей из других направлений OpenAI должны решить основные технические проблемы управления сверхразумными ИИ.
Суцкевер и Лейке в новой команде хотят обучить искусственный интеллект оценивать другие системы ИИ. Однако специалисты OpenAI признают текущие ограничения компании и понимают, что такой метод не идеальный. Применение ИИ для анализа других ИИ может привести к увеличению несоответствий и уязвимостей внутри системы. И в результате окажется, что главные проблемы «оптимизации суперинтеллекта» будут вообще не связаны с инженерией.