Близько 2400 дослідників і більше 100 технічних організацій з усього світу закликали до глобальної заборони на смертоносну автономну зброю й самі пообіцяли не виробляти її в листі, опублікованому Стокгольмським інститутом Майбутнього Життя.
«Ми, що нижче підписалися, закликаємо уряди й лідерів урядів створити безпечне майбутнє з сильними міжнародними нормами, положеннями та законами проти летальної автономної зброї. У цей час вони відсутні, і ми вважаємо за краще дотримуватися високих стандартів: ми не будемо брати участь і не будемо підтримувати розробку, виробництво, торгівлю або використання смертоносних автономних видів зброї. Ми просимо, щоб технологічні компанії та організації, а також керівники, політики та інші особи приєдналися до нас у цій обіцянці».
Серед підписантів: Ілон Маск (Elon Musk), три співзасновника DeepMind – Шейн Легг (Shane Legg), Мустафа Сулейман (Mustafa Suleyman) і Деміс Хассабіс (Demis Hassabis), засновник Skype Яан Таллінн (Jaan Tallinn), а також деякі з провідних дослідників ШІ у світі, як-от Стюарт Рассел (Stuart Russell), Йошуа Бенджі (Yoshua Bengio) і Юрген Шмідхубер (Jürgen Schmidhuber). Google Deepmind, XPRIZE Foundation і Clearpath Robotics – ці техногіганти також є підписантами цього звернення.
На веб-сайті також зазначено, що 26 країн в Організації Об’єднаних Націй також схвалили заборону на смертельні автономні системи озброєнь, серед них такі країни як: Алжир, Аргентина, Австрія, Болівія, Бразилія, Чилі, Китай, Колумбія, Коста Ріка, Куба, Джібуті, Еквадор, Єгипет, Гана, Гватемала, Апостольська Столиця, Ірак, Мексика, Нікарагуа, Пакистан, Панама, Перу, Палестина, Уганда, Венесуела та Зімбабве.
Лист був опублікований сьогодні на Міжнародній спільній конференції зі штучного інтелекту (IJCAI) 2018 року, організованої Інститутом Майбутнього Життя. Хоча інститут і раніше допомагав просувати листи від деяких підписантів у минулому, це перший раз, коли особи, що беруть участь, заявили в індивідуальному порядку про намір не розробляти смертоносні автономні види озброєння.
Рух відбувається якраз тоді, коли провідні технологічні компанії стикаються з внутрішньою дилемою розробки ШІ для використання його у військових цілях.
У травні близько дюжини співробітників Google покинули компанію через її участь у проекті Maven для військових США – програми безпілотного штучного інтелекту для Пентагону. Близько 4000 інших співробітників підписали петицію з вимогою припинити участь компанії у програмі.
Цей лист, опублікований у Стокгольмі, не є першим відкритим попередженням про збройний ШІ. У вересні минулого року понад 100 керівників ШІ і робототехнічних фірм по всьому світу підписали відкритий лист в ООН, попереджаючи, що їх робота може бути використана для створення роботів-вбивць.
Незважаючи на попередження, усе ще спостерігається тенденція до проведення військових операцій з використанням автономного зброї. У січні видання «The Washington Post» повідомило про те, що близько 13 озброєних дронів, прибувши з нез’ясованої локації, атакували штаб-квартиру російських військових у Сирії.
Індія також виявила зацікавленість у розробці військової програми, орієнтованої на ШІ, під час виставки DefExpo 2018, що пройшла у квітні. За даними видання «Times of India», міністр оборони Аджай Кумар (Ajay Kumar) заявив про те, що індійський уряд створив цільову групу зі ШІ і підготував «дорожню карту» для створення зброї на базі ШІ.
Незважаючи на те, що деякі компанії закликають до заборони на використання ШІ для зброї, область штучного інтелекту буде, як і раніше, прогресувати, і все одно знайдуться ті, хто буде розглядати ШІ як дуже непогане доповнення до озброєння й посилювати його присутність у військовому секторі.
Зараз найлегше заборонити просунуту зброю, що перебуває на ранній стадії розвитку, коли тільки кілька країн можуть її створити. Будемо сподіватися, що такі ініціативи, як ця, будуть спонукати уряди й глобальні організації до адекватного розгляду питання про мистецтво створення ШІ, оскільки потреба в нагляді над ним і регулюванні зростає в усьому світі з кожним роком.
Джерело: thenextweb