Categories: Новости

В мире растет сопротивление ИИ в военной сфере

Около 2400 исследователей и более 100 технических организаций со всего мира призвали к глобальному запрету на смертоносное автономное оружие и сами пообещали не производить их в письме, опубликованном Стокгольмским институтом Будущего Жизни.

«Мы, нижеподписавшиеся, призываем правительства и лидеров правительств создать безопасное будущее с сильными международными нормами, положениями и законами против летального автономного оружия. В настоящее время они отсутствуют, и мы предпочитаем придерживаться высоких стандартов: мы не будем участвовать и не будем поддерживать разработку, производство, торговлю или использование смертоносных автономных видов оружия. Мы просим, ​​чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании».

Среди подписантов: Илон Маск (Elon Musk), три соучредителя DeepMind — Шейн Легг (Shane Legg), Мустафа Сулейман (Mustafa Suleyman) и Демис Хассабис (Demis Hassabis), основатель Skype Яан Таллинн (Jaan Tallinn), а также некоторые из ведущих исследователей ИИ в мире, такие как Стюарт Рассел (Stuart Russell), Йошуа Бенджио (Yoshua Bengio) и Юрген Шмидхубер (Jürgen Schmidhuber). Google Deepmind, XPRIZE Foundation и Clearpath Robotics – эти техногиганты также являются подписантами данного обращения.

На веб-сайте также отмечено, что 26 стран в Организации Объединенных Наций также одобрили запрет на смертельные автономные системы вооружений, среди них такие страны как: Алжир, Аргентина, Австрия, Боливия, Бразилия, Чили, Китай, Колумбия, Коста Рика, Куба, Джибути, Эквадор, Египет, Гана, Гватемала, Святейший Престол, Ирак, Мексика, Никарагуа, Пакистан, Панама, Перу, Палестина, Уганда, Венесуэла и Зимбабве.

Письмо было опубликовано сегодня на Международной совместной конференции по искусственному интеллекту (IJCAI) 2018 года, организованной Институтом Будущего Жизни. Хотя институт и ранее помогал продвигать письма от некоторых подписантов в прошлом, это первый раз, когда участвующие лица заявили в индивидуальном порядке о намерении не разрабатывать смертоносные автономные виды вооружения.

Движение происходит как раз в то самое время, когда ведущие технологические компании сталкиваются с внутренней дилеммой разработки ИИ для использования его в военных целях.

В мае около дюжины сотрудников Google покинули компанию из-за ее участия в проекте Maven для военных США — программы беспилотного искусственного интеллекта для Пентагона. Около 4000 других сотрудников подписали петицию с требованием прекратить участие компании в программе.

Настоящее письмо, опубликованное в Стокгольме, не является первым открытым предупреждением о вооруженном ИИ. В сентябре прошлого года более 100 руководителей ИИ и робототехнических фирм по всему миру подписали открытое письмо в ООН, предупреждая, что их работа может быть использована для создания роботов-убийц.

Несмотря на предупреждения, все еще наблюдается тенденция к проведению военных операций с использованием автономного оружия. В январе издание «The Washington Post» сообщило о том, что около 13 вооруженных дронов, прибыв из невыясненной локации, атаковали штаб-квартиру российских военных в Сирии.

Индия также проявила заинтересованность в разработке военной программы, ориентированной на ИИ, во время выставки DefExpo 2018, прошедшей в апреле. По данным издания «Times of India», министр обороны Аджай Кумар (Ajay Kumar) заявил о том, что индийское правительство создало целевую группу по ИИ и подготовило «дорожную карту» для создания оружия на базе ИИ.

Несмотря на то, что некоторые компании призывают к запрету на использование ИИ для оружия, область искусственного интеллекта будет по-прежнему прогрессировать, и все равно найдутся те, кто будет рассматривать ИИ как очень неплохое дополнение к вооружению и усиливать его присутствие в военном секторе.

Сейчас легче всего запретить продвинутое оружие, находящееся на ранней стадии развития, когда только несколько стран могут его создать. Будем надеяться, что такие инициативы, как эта, будут побуждать правительства и глобальные организации к адекватному рассмотрению вопроса об искусстве создания ИИ, поскольку потребность в надзоре над ним и регулировании возрастает во всем мире с каждым годом.

Кирило Звягiнцев

Recent Posts

  • Статьи

Электромобиль зимой: как работает, запас хода, советы и отзывы

Потеря 40–60% запаса хода зимой электромобилем — такой показатель может отпугнуть любого потенциального владельца. Зимние условия действительно бросают вызов технологиям,…

5 дней ago
  • Статьи

Как купить электромобиль в 2025 году: полный гид для украинского водителя

Из-за того что с 1 января 2026 года покупка нового электрокара в Украине может подорожать на 20%, многие пользователи интересуются,…

5 дней ago
  • Статьи

ТОП 7 пароварок: лучшие модели по рейтингу 2025 года

Ищете, какая пароварка лучше, чтобы готовила без масла и действительно экономила время и нервы? Потому что после рабочего дня хочется…

5 дней ago
  • Статьи

Как выбрать телевизор: главные критерии, советы и на что обратить внимание

Чтобы определить ключевые критерии, как выбрать телевизор, нужно понимать, что их параметры взаимосвязаны и должны работать в комплексе. В противном…

1 неделя ago
  • Статьи

Как выбрать искусственную елку: советы, виды и как выбрать качественную модель

Как выбрать искусственную елку так, чтобы она выглядела натурально, служила годами и действительно создавала праздничное настроение? Хочется один раз найти…

1 неделя ago
  • Статьи

iOS 26 от Apple: новые функции, обновления и фишки

В 2025 году Apple iOS 26 стала первой унифицированной под календарь версией ОС, что обозначило резкое изменение подхода к интерфейсу…

1 неделя ago