Categories: Новини

IBM запускає інструмент для аналізу прийнятих рішень ШІ

Компанія IBM запускає інструмент, який буде аналізувати, як і чому алгоритми ШІ (штучного інтелекту) приймають рішення, і все це в режимі реального часу.

«Ми раді анонсувати ШІ Fairness 360 (AIF360), комплексний інструментарій метрик з відкритим вихідним кодом для перевірки небажаного зсуву в наборах даних і моделях машинного навчання, а також сучасні алгоритми для пом’якшення такого зміщення. Ми запрошуємо вас використовувати його й вносити в нього зміни, щоб допомогти підвищити довіру до ШІ й зробити світ справедливішим для всіх».

Зараз зростає занепокоєння, що алгоритми, які використовуються як технічними гігантами, так і дрібнішими підприємствами, не завжди точні в процесі прийняття рішень. Наприклад, нещодавно система розпізнавання не змогла ідентифікувати обличчя темношкірої людини. А оскільки прийняття рішень усе частіше відбувається в автоматичному режимі в таких напрямках, як поліцейська діяльність, страхування або отримання інформація про те, що люди переглядають в Інтернеті, наслідки при неправильному рішенні можуть бути плачевними.

Програмне забезпечення для хмарних обчислень IBM буде з відкритим вихідним кодом і буде працювати з різними часто використовуваними структурами для побудови алгоритмів.

Користувачі зможуть побачити за допомогою візуальної панелі, яким чином їх алгоритми приймають рішення і які фактори використовуються при складанні остаточних рекомендацій.

«Ми даємо нові можливості у вигляді прозорості й контролю підприємствам, які використовують ШІ та стикаються з великим потенційним ризиком від будь-якого помилкового прийнятого рішення», – сказав Девід Кенні (David Kenny), старший віце-президент Cognitive Solutions (департамент IBM Research).

Цією проблемою займається не тільки компанія IBM. Наприклад, минулого тижня Google запустив інструмент «що-якщо», також розроблений, щоб допомогти користувачам зрозуміти, як працюють їхні моделі машинного навчання. Однак інструмент Google не працює в режимі реального часу (на відміну від Fairness 360) – дані можуть бути використані для побудови загальної картини тільки через деякий час.

У травні в Microsoft заявили, що вони працюють над інструментарієм виявлення «зміщення» в алгоритмах, а у Facebook заявили, що вже тестують інструмент, що допомагає визначити, чи є алгоритм упередженим у прийнятті рішень.

Зростає дискусія навколо штучного інтелекту та етики. У 2015 році Google вже приносив свої вибачення за те, що їх алгоритм для фотографій Google Photos ідентифікував афроамериканців як горил.

Кирило Звягiнцев

Recent Posts

  • Акції та конкурси

Розіграш смартфона Samsung Galaxy S25 FE в Instagram

Беріть участь у розіграші смартфона Samsung Galaxy S25 FE 5G 8/128GB JETBLACKУмови розіграшу:Розіграш діє з 04.09.2025 р. по 12.09.2025 р.…

2 дні ago
  • Акції та конкурси

РОЗІГРАШ ігрової клавіатури Logitech G515 Lightspeed TKL

Бери участь у розіграші ігрової клавіатури Logitech G15 Lightspeed TKL (більше…)

3 дні ago
  • Статті

Pixel 9 Pro vs Pixel 9 Pro XL: повний огляд відмінностей

Вибір між двома крутими флагманами — це складний компроміс, проте справа, як завжди, в деталях. Смартфони Pixel відомі передовими камерами,…

4 дні ago
  • Акції та конкурси

РОЗІГРАШ сольової гвинтівки для полювання на комах Bug-A-Salt 3.0

Бери участь у розіграші сольової гвинтівки для полювання на комах Bug-A-Salt 3.0 (більше…)

4 дні ago
  • Акції та конкурси

РОЗІГРАШ геймерської могутності!

Бери участь у розіграші механічної клавіатури HATOR Rockfall 3 Mecha та ігрової миши HATOR Quasar 3 ULTRA – легка, швидка та…

5 днів ago
  • Статті

ТОП-20 фільмів на вечір: велика добірка на будь-який настрій

Ось нарешті знайшовся вільний вечір, ви зручно розташувалися на дивані та готові відпочити, але потім годинами гортаєте стрічки кіносервісів і…

1 тиждень ago