Суспільство
Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження
близько 1 години тому
•
Події Києва
Науковці стверджують, що ШІ просто копіює несправедливі рішення людей з минулого ШІ, який прийнято вважати неупередженим, насправді схильний повторювати та навіть підсилювати людські помилки. Аналізуючи роботу алгоритмів у сфері найму, фінансів та судочинства, вчені дійшли висновку: машина не створює нові упередження, а лише "успадковує" їх із суспільної історії.
Про це інформує РБК-Україна з посиланням на Techxsplore.
Більше цікавого: ChatGPT раптово почав згадувати гоблінів без причини: вчені пояснили проблему
Чому ШІ помиляється?
Дослідники пояснюють: головна проблема полягає у даних, на яких тренують нейромережі. Наприклад, якщо компанія у минулому рідше просувала жінок по службі, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів.
Спадковість: ШІ не вигадує дискримінацію - він її переймає з досвіду попередніх людських рішень.
Ефект "об'єктивності": через те, що рішення видає комп'ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок.
Проблема "невидимих" меншин і "скляних стель"
Стандартні перевірки алгоритмів зазвичай фокусуються лише на одній ознаці, наприклад, тільки на статі або ж расі. Проте вчені зазначають, що у реальному житті ці характеристики перетинаються, створюючи складніші форми дискримінації.
Приховані помилки: система може здаватися чесною, якщо порівнювати чоловіків і жінок окремо, але водночас систематично відхиляти заявки старших жінок із національних меншин.
Брак релевантних кейсів: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. У результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними.
Гроші та кредити: ціна помилки алгоритму
У банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте часто це лише наслідок того, що певні громади історично мали менше доступу до фінансових послуг. У результаті людина, яка реально спроможна виплатити кредит, отримує відмову лише тому, що машина вважає її соціальну групу "ризикованою".
Чи можливо навчити ШІ справедливості?
Фахівці наголошують, що справедливість - це не математичне рівняння, яке можна розв'язати один раз. Це безперервний процес, який має включати:
Залучення громад: впливати на розробку алгоритмів мають не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають.
Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра.
Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем.
"Питання тепер не в тому, чи може ШІ бути ідеально чесним, а в тому, хто контролюватиме ці алгоритми та як змусити їх працювати на користь усього суспільства, а не лише більшості", - підсумовують вчені.
Ще більше цікавого:
ШІ починає контролювати людські відчуття: футуролог попередив про нову цифрову реальність
ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях
Схожі новини
Як Білецький, Буданов і Малюк потрапили у "Кіллхаус": режисер розкрив вражаючі деталі
38 хвилин тому
АРМА не може здати в оренду арештоване житло росіян і зрадників: держава втрачає мільйони
38 хвилин тому
Магія п’яти слів: як одна проста фраза здатна "вимкнути" вашу тривогу
близько 1 години тому
Розлучення без особистої присутності: у Мін’юсті розповіли про спрощені процедури під час війни
близько 1 години тому
Зависнути над прірвою: найдивовижніші міста Європи, від яких паморочиться голова
близько 2 годин тому