Суспільство

Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження

близько 1 години тому Події Києва
Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження
Науковці стверджують, що ШІ просто копіює несправедливі рішення людей з минулого ШІ, який прийнято вважати неупередженим, насправді схильний повторювати та навіть підсилювати людські помилки. Аналізуючи роботу алгоритмів у сфері найму, фінансів та судочинства, вчені дійшли висновку: машина не створює нові упередження, а лише "успадковує" їх із суспільної історії. Про це інформує РБК-Україна з посиланням на Techxsplore. Більше цікавого: ChatGPT раптово почав згадувати гоблінів без причини: вчені пояснили проблему Чому ШІ помиляється? Дослідники пояснюють: головна проблема полягає у даних, на яких тренують нейромережі. Наприклад, якщо компанія у минулому рідше просувала жінок по службі, ШІ вивчить цю закономірність і почне автоматично надавати перевагу чоловікам у майбутньому, навіть якщо йому прямо не вказували на стать кандидатів. Спадковість: ШІ не вигадує дискримінацію - він її переймає з досвіду попередніх людських рішень. Ефект "об'єктивності": через те, що рішення видає комп'ютер, люди схильні сприймати їх як беззаперечну істину, не помічаючи закладених у програму помилок. Проблема "невидимих" меншин і "скляних стель" Стандартні перевірки алгоритмів зазвичай фокусуються лише на одній ознаці, наприклад, тільки на статі або ж расі. Проте вчені зазначають, що у реальному житті ці характеристики перетинаються, створюючи складніші форми дискримінації. Приховані помилки: система може здаватися чесною, якщо порівнювати чоловіків і жінок окремо, але водночас систематично відхиляти заявки старших жінок із національних меншин. Брак релевантних кейсів: оскільки такі підгрупи зазвичай невеликі, алгоритм не бачить достатньо прикладів для навчання. У результаті він просто застосовує до них загальні шаблони, які можуть бути абсолютно некоректними. Гроші та кредити: ціна помилки алгоритму У банківській сфері ШІ часто трактує низький дохід або коротку кредитну історію як ознаку ненадійності. Проте часто це лише наслідок того, що певні громади історично мали менше доступу до фінансових послуг. У результаті людина, яка реально спроможна виплатити кредит, отримує відмову лише тому, що машина вважає її соціальну групу "ризикованою". Чи можливо навчити ШІ справедливості? Фахівці наголошують, що справедливість - це не математичне рівняння, яке можна розв'язати один раз. Це безперервний процес, який має включати: Залучення громад: впливати на розробку алгоритмів мають не лише технічні спеціалісти, а й люди, чиї інтереси ці системи зачіпають. Постійний моніторинг: суспільство змінюється, і те, що було прийнятним сьогодні, може стати джерелом шкоди вже завтра. Відповідальність: компанії повинні мати механізми виправлення або навіть повного відключення упереджених ШІ-систем. "Питання тепер не в тому, чи може ШІ бути ідеально чесним, а в тому, хто контролюватиме ці алгоритми та як змусити їх працювати на користь усього суспільства, а не лише більшості", - підсумовують вчені. Ще більше цікавого: ШІ починає контролювати людські відчуття: футуролог попередив про нову цифрову реальність ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях