Компанія IBM запускає інструмент, який буде аналізувати, як і чому алгоритми ШІ (штучного інтелекту) приймають рішення, і все це в режимі реального часу.
«Ми раді анонсувати ШІ Fairness 360 (AIF360), комплексний інструментарій метрик з відкритим вихідним кодом для перевірки небажаного зсуву в наборах даних і моделях машинного навчання, а також сучасні алгоритми для пом’якшення такого зміщення. Ми запрошуємо вас використовувати його й вносити в нього зміни, щоб допомогти підвищити довіру до ШІ й зробити світ справедливішим для всіх».
Зараз зростає занепокоєння, що алгоритми, які використовуються як технічними гігантами, так і дрібнішими підприємствами, не завжди точні в процесі прийняття рішень. Наприклад, нещодавно система розпізнавання не змогла ідентифікувати обличчя темношкірої людини. А оскільки прийняття рішень усе частіше відбувається в автоматичному режимі в таких напрямках, як поліцейська діяльність, страхування або отримання інформація про те, що люди переглядають в Інтернеті, наслідки при неправильному рішенні можуть бути плачевними.
Програмне забезпечення для хмарних обчислень IBM буде з відкритим вихідним кодом і буде працювати з різними часто використовуваними структурами для побудови алгоритмів.
Користувачі зможуть побачити за допомогою візуальної панелі, яким чином їх алгоритми приймають рішення і які фактори використовуються при складанні остаточних рекомендацій.
«Ми даємо нові можливості у вигляді прозорості й контролю підприємствам, які використовують ШІ та стикаються з великим потенційним ризиком від будь-якого помилкового прийнятого рішення», – сказав Девід Кенні (David Kenny), старший віце-президент Cognitive Solutions (департамент IBM Research).
Цією проблемою займається не тільки компанія IBM. Наприклад, минулого тижня Google запустив інструмент «що-якщо», також розроблений, щоб допомогти користувачам зрозуміти, як працюють їхні моделі машинного навчання. Однак інструмент Google не працює в режимі реального часу (на відміну від Fairness 360) – дані можуть бути використані для побудови загальної картини тільки через деякий час.
У травні в Microsoft заявили, що вони працюють над інструментарієм виявлення «зміщення» в алгоритмах, а у Facebook заявили, що вже тестують інструмент, що допомагає визначити, чи є алгоритм упередженим у прийнятті рішень.
Зростає дискусія навколо штучного інтелекту та етики. У 2015 році Google вже приносив свої вибачення за те, що їх алгоритм для фотографій Google Photos ідентифікував афроамериканців як горил.
Ідеї подарунків для мами – це не просто варіанти сюрпризів, це найемоційніші, теплі та важливі способи виявити турботу та любов…
Поки Zeekr X підкорює міста, новий 7X заряджається з 10% до 80% за 10 хвилин — швидше, ніж Tesla Model…
Аналізуючи топ електромобілів Volkswagen, неможливо ігнорувати, що моделі китайського виробництва коштують на 30–40% дешевше за європейські аналоги, пропонуючи при цьому…
За три роки лінійка BYD Song розійшлася тиражем понад мільйон кросоверів по всьому світу, а гібридна версія Song L DM-i…
Беріть участь у розіграші Проектора Xiaomi Smart Projector L1 Pro в TikTokУмови розіграшу:Розіграш діє з 29.01.2026 р. по 12.02.2026 р.…
Xiaomi YU7 пропонує три версії з різним характером: економічна Standard проїжджає 835 км — більше за Tesla Model Y, спортивна…