Около 2400 исследователей и более 100 технических организаций со всего мира призвали к глобальному запрету на смертоносное автономное оружие и сами пообещали не производить их в письме, опубликованном Стокгольмским институтом Будущего Жизни.
«Мы, нижеподписавшиеся, призываем правительства и лидеров правительств создать безопасное будущее с сильными международными нормами, положениями и законами против летального автономного оружия. В настоящее время они отсутствуют, и мы предпочитаем придерживаться высоких стандартов: мы не будем участвовать и не будем поддерживать разработку, производство, торговлю или использование смертоносных автономных видов оружия. Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании».
Среди подписантов: Илон Маск (Elon Musk), три соучредителя DeepMind — Шейн Легг (Shane Legg), Мустафа Сулейман (Mustafa Suleyman) и Демис Хассабис (Demis Hassabis), основатель Skype Яан Таллинн (Jaan Tallinn), а также некоторые из ведущих исследователей ИИ в мире, такие как Стюарт Рассел (Stuart Russell), Йошуа Бенджио (Yoshua Bengio) и Юрген Шмидхубер (Jürgen Schmidhuber). Google Deepmind, XPRIZE Foundation и Clearpath Robotics – эти техногиганты также являются подписантами данного обращения.
На веб-сайте также отмечено, что 26 стран в Организации Объединенных Наций также одобрили запрет на смертельные автономные системы вооружений, среди них такие страны как: Алжир, Аргентина, Австрия, Боливия, Бразилия, Чили, Китай, Колумбия, Коста Рика, Куба, Джибути, Эквадор, Египет, Гана, Гватемала, Святейший Престол, Ирак, Мексика, Никарагуа, Пакистан, Панама, Перу, Палестина, Уганда, Венесуэла и Зимбабве.
Письмо было опубликовано сегодня на Международной совместной конференции по искусственному интеллекту (IJCAI) 2018 года, организованной Институтом Будущего Жизни. Хотя институт и ранее помогал продвигать письма от некоторых подписантов в прошлом, это первый раз, когда участвующие лица заявили в индивидуальном порядке о намерении не разрабатывать смертоносные автономные виды вооружения.
Движение происходит как раз в то самое время, когда ведущие технологические компании сталкиваются с внутренней дилеммой разработки ИИ для использования его в военных целях.
В мае около дюжины сотрудников Google покинули компанию из-за ее участия в проекте Maven для военных США — программы беспилотного искусственного интеллекта для Пентагона. Около 4000 других сотрудников подписали петицию с требованием прекратить участие компании в программе.
Настоящее письмо, опубликованное в Стокгольме, не является первым открытым предупреждением о вооруженном ИИ. В сентябре прошлого года более 100 руководителей ИИ и робототехнических фирм по всему миру подписали открытое письмо в ООН, предупреждая, что их работа может быть использована для создания роботов-убийц.
Несмотря на предупреждения, все еще наблюдается тенденция к проведению военных операций с использованием автономного оружия. В январе издание «The Washington Post» сообщило о том, что около 13 вооруженных дронов, прибыв из невыясненной локации, атаковали штаб-квартиру российских военных в Сирии.
Индия также проявила заинтересованность в разработке военной программы, ориентированной на ИИ, во время выставки DefExpo 2018, прошедшей в апреле. По данным издания «Times of India», министр обороны Аджай Кумар (Ajay Kumar) заявил о том, что индийское правительство создало целевую группу по ИИ и подготовило «дорожную карту» для создания оружия на базе ИИ.
Несмотря на то, что некоторые компании призывают к запрету на использование ИИ для оружия, область искусственного интеллекта будет по-прежнему прогрессировать, и все равно найдутся те, кто будет рассматривать ИИ как очень неплохое дополнение к вооружению и усиливать его присутствие в военном секторе.
Сейчас легче всего запретить продвинутое оружие, находящееся на ранней стадии развития, когда только несколько стран могут его создать. Будем надеяться, что такие инициативы, как эта, будут побуждать правительства и глобальные организации к адекватному рассмотрению вопроса об искусстве создания ИИ, поскольку потребность в надзоре над ним и регулировании возрастает во всем мире с каждым годом.
Источник: thenextweb