Суспільство
ШІ може зламати сам себе: чому вчені стривожені
близько 2 годин тому
•
Події Києва
Нейромережам шкідливо "споживати" синтетичні дані Науковці виявили критичну вразливість сучасних ШІ-алгоритмів: коли нейромережі починають навчатися на даних, згенерованих іншими машинами, їхня точність стрімко падає. Цей процес вчені назвали терміном "колапс моделі".
Про це повідомляє РБК-Україна з посиланням на Techxsplore.
Більше цікавого: ШІ знає про вас надто багато: як чат-боти непомітно впливають на ваші рішення
Що таке "колапс моделі"?
Термін, введений у науковий обіг у 2024 році, описує сценарій, за якого ШІ, що навчається на продуктах діяльності алгоритмів, втрачає здатність видавати точні результати.
Причина: низька якість навчальних даних призводить до накопичення помилок.
Наслідок: замість змістовних відповідей модель починає генерувати нісенітницю та незрозумілий набір слів.
Актуальність: оскільки кількість створеного людьми контенту обмежена, розробники дедалі частіше використовують синтетичні дані, а це підвищує ризик глобального збою систем.
Які причини?
Команда вчених із Великої Британії, Норвегії та Італії проаналізувала процес на базі статистичних моделей так званих "експоненціальних сімей". Вони з'ясували, що навчання у замкненому циклі неминуче призводить до колапсу, проте знайшли несподівано просте пояснення.
Рішення: додавання всього лише однієї точки даних із реального світу у процес навчання повністю зупиняє деградацію моделі.
Парадокс: ефект зберігається навіть тоді, коли кількість машинних даних у мільйони разів перевищує цей єдиний "людський" фрагмент.
Альтернатива: колапс також можна попередити, впровадивши в алгоритм попередні знання або "апріорні переконання" ще на етапі тренування.
Майбутнє без галюцинацій
Хоча досліджені моделі простіші за складні нейромережі на кшталт ChatGPT, професор Яссер Руді з Королівського коледжу Лондона зазначає, що ці принципи є фундаментальними для всієї галузі.
Чому це важливо:
Розуміння причин: робота науковців пояснює природу незрозумілих "галюцинацій" ШІ, коли неможливо відстежити логіку помилкової відповіді.
Універсальність: вчені довели, що аналогічне явище спостерігається і в інших класах нейромереж.
Масштабування: у майбутньому дослідники планують протестувати ці принципи на LLM, що використовуються у безпілотних автомобілях та складних чат-ботах.
Загалом же відкриття дає програмістам необхідні інструменти для створення надійного ШІ, який зможе безпечно розвиватися, навіть коли людський ресурс для його навчання стане дефіцитним. Вчені переконані: така вірогідність цілком реальна.
Ще більше цікавого:
Тепер не лише у браузері: Google випустив офіційні ШІ-додатки для Windows та Mac
Вчені виявили небезпечну рису ШІ: алгоритми переймають людські упередження
Схожі новини
Салат з мідіями"як у ресторані", але без зайвих калорій: смак здивує навіть гурманів
24 хвилини тому
Як сьогодні виглядає зірка "Євробачення" Кончіта Вурст, яку називали "бородатою співачкою"
40 хвилин тому
Як не "влетіти" на гроші при виборі СТО для автомобіля: поради експерта
близько 2 годин тому
У Києві станцію метро "Площа Українських Героїв" знову хочуть перейменувати: деталі петиції
близько 2 годин тому
Як виглядає наймодніша спідниця на літо 2026: Лілія Ребрик задає тренди
близько 2 годин тому