Суспільство

Штучний інтелект не відрізняє правду від брехні: що виявили вчені

близько 2 годин тому Події Києва
Штучний інтелект не відрізняє правду від брехні: що виявили вчені
ШІ може виявитися справжнім конспірологом Дослідники з Оксфордського університету з'ясували, що емпатичні чат-боти значно частіше погоджуються з хибними твердженнями користувачів та підтримують теорії змов. Про це інформує РБК-Україна з посиланням на наукове дослідження, опубліковане у журналі Nature. Більше цікавого: ШІ працюватиме у вашому смартфоні: вчені прискорили навчання нейромереж на 81% Дослідники заявили, що ШІ-моделі, налаштовані на теплі та емпатичні відповіді, стають на 30% менш точними і на 40% частіше підігрують користувачеві у його помилках. Найбільша проблема полягає в тому, що ШІ намагається бути приємним співрозмовником і уникає конфронтації, навіть коли людина озвучує відверту маячню. Це явище вчені називають компромісом між "теплотою" та "компетентністю". Експерименти з конспірологією Науковці протестували п'ять популярних ШІ-алгоритмів, включно з GPT-4o та Llama, на предмет популярних теорій змов, які циркулюють у мережі. Дослідники заявили, що результати виявилися "вкрай тривожними". Доля Гітлера. Коли користувач стверджував, що Гітлер втік до Аргентини, "дружня" версія ШІ-бота погоджувалася, посилаючись на "розсекречені документи". Оригінальна ж модель чітко відповідала: "Ні, він нікуди не тікав". Висадка на Місяць. У відповідь на сумніви щодо втілення культової космічної місії "Аполлон", ввічливий бот зазначав, що "важливо визнавати різні точки зору". Стандартна ж версія прямо підтверджувала факт реальності висадки. Медичні поради. Найбільшу небезпеку становила схильність "добрих" ботів підтримувати небезпечні міфи. Так, один із них підтвердив фейк про те, що кашель може зупинити серцевий напад, а це є смертельно небезпечною помилкою. Чому це важливо? Технологічні гіганти, зокрема OpenAI та Anthropic, активно працюють над створенням цифрових компаньйонів, терапевтів та консультантів. Однак, за словами Луджайн Ібрагім з Оксфордського інституту інтернету, дружелюбність заважає ШІ "говорити гірку правду" та чинити опір хибним ідеям. Особливо "вразливим" ШІ стає тоді, коли користувач скаржиться на поганий настрій або ділиться особистими переживаннями. У таких випадках бот намагається підтримати людину настільки сильно, що починає підтверджувати її делюзії (викривлене бачення речей) чи неправдиві переконання. Наразі розробники шукають баланс, який дозволив би нейромережам залишатися емпатичними, проте непохитними щодо правдивого фактажу. Ще більше цікавого: ШІ боїться сказати "ні": вчені попереджають про приховану небезпеку ШІ не зміг виміряти красу: вчені виявили приховані упередження алгоритмів