Не убей. Почему лидеры техноиндустрии отказались делать оружие с искусственным интеллектом

IT-индустрия

18 июля 2018, 12:37

Не убей. Почему лидеры техноиндустрии отказались делать оружие с искусственным интеллектом

International Committee of the Red Cross

Ключевые разработчики технологий в мире взывают властей к отказу от оружия с ИИ

Ведущие исследователи искусственного интеллекта поручились не развивать летальное оружие. Документ подписали основатель Skype Яаан Таллинн, Илон Маск и создатели дочерней компании Google DeepMind.

В середине 20-го столетия помощь своей стране в разработке секретных военных технологий была одним из самых уважительных занятий. Ключевые компании, ученые, инженеры двух враждующих государств – США и СССР – боролись за то, чтобы придумать такую технологию, которая продвинет их власть в гонке вооружения.

Для кого-то это был престиж, для кого-то – деньги, а кто-то просто фанатично любил свою работу и был рад получить все возможности для развития. Конечно, некоторые существующие до сих пор техногиганты, вроде IBM и Hewlett-Packard, несколько запятнали свою репутацию подобными делами, но судить их сейчас явно нет смысла.

Сегодня же, в мире наблюдается обратная ситуация, или по крайней мере создана подобная иллюзия.

Прошлой ночью, изданию The Verge стало известно, что на Международной совместной конференции по искусственному интеллекту (IJCAI) в Стокгольме, которая организована Институтом «Будущее жизни», опубликовали поручение с обещанием не развивать «летальное автономное оружие».

Технопортал пишет: «это один из последних шагов неофициальной глобальной коалиции разработчиков и менеджеров, который выступает против пропаганды таких технологий».

В поручительстве указано, что системы вооружения, использующие искусственный интеллект (ИИ) «для выбора и действия по цели, без вмешательства человека» несут моральные и прагматические угрозы.

Документ взывает к тому, что машины и компьютеризированные системы вооружения нельзя наделять возможностью убивать людей, и, отказавшись от подобных технологий, можно снизить потенциальные риски для человечества.

Поручительство подписали основатель SpaceX и Tesla Илон Маск, три соучредителя дочерней компании DeepMind Google, которая разрабатывает ИИ, – Шейн Легг, Мустафа Сулейман и Демис Хасавис, основатель Skype Яаан Таллинн и некоторые известные по всему миру исследователи ИИ – Стюарт Рассел, Йошуа Бенджио и Юрген Шмидхубер.

Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом поручительстве«Мы, нижеподписавшиеся, призываем правительства и их лидеров создать будущее с сильными международными нормами, положениями и законами против летального автономного оружия. Мы не будем ни участвовать, ни поддерживать разработку, производство, торговлю или использование летального автономного оружия. Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом поручительстве» – гласит документ.

Авторы инициативы считают, что развитие оружия с ИИ может вызвать цепную реакцию и гонку вооружений между странами, хотя большинство государств в мире не имеют надлежащих технологий управления такими автономными системами.

Год назад Институт «Будущее жизни», с теми же участниками, отправили письмо в ООН с призывом рассмотреть новые регулятивные нормы для разработки и использования летального автономного оружия.

Сложно сказать, появится ли обновленное законодательство, и смогут ли его принять власти по всему миру, ведь сегодня, для передовых стран, внедрение ИИ в армии, беспилотные технологии и прочее роботизированное оружие является одним из самых перспективных направлений.

Как ранее писало НВ, в начале лета около 4000 сотрудников Google вынудили руководство прекратить помощь армии США в разработке военных дронов. Программисты Google участвовали в так называемом Проекте Мэйвен, и их ИИ-технология TensorFlow помогала быстро анализировать фотографии с дрона, автоматически определяя, где находятся живые и неживые объекты.

Менеджеры прислушались к требованиям работников и опубликовали новые принципы работы Googlе, в которых появились положения, что компания обещает не разрабатывать ИИ для:

– технологий, которые могут нанести глобальный ущерб;

– оружия или других технологий, задача которых – прямое или косвенное причинение вреда людям;

– технологий, которые собирают или используют информацию для наблюдения, нарушая международные нормы;

– технологий, которые противоречат принципам международного права и правам человека.


Выбор редакции

IT-индустрия

Вчера, 12:05

article_img
Неуловимый мессенджер. Как Россия снова безуспешно пытается заблокировать Telegram
Шоу-Бизнес

Вчера, 14:41

article_img
MARUV вместо TAYANNA. Стал известен порядок выступлений участников Нацотбора на Евровидение 2019
События

Вчера, 16:20

article_img
Несовершеннолетних не будут привлекать к уголовной ответственности за нетяжкие преступления

Подписывайтесь на наш канал в Telegram

Самые интересные статьи и подборка важных новостей по вечерам

Подписаться

Главное

Страны

Вчера, 13:21

article_img
"Шаг к созданию единой армии". Германия и Франция подписали Ахенский договор о сотрудничестве
События

Вчера, 12:33

article_img
Начато расследование хищений на строительстве экспресса Киев-Борисполь
Экономика

Вчера, 18:18

article_img
Украина выпала из топ-50 инновационных экономик мира по версии Bloomberg