Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ

Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ
ФОТО: ferra.ru

Исследование Нью-Йоркского университета показывает, что внесение даже мизерного количества медицинской дезинформации в большие языковые модели (LLM) может существенно повлиять на их точность. Заменив всего 0,001% обучающих данных ложной информацией, исследователи обнаружили заметное снижение достоверности медицинских ответов.

мизерный объем дезинформации обучении смог испортить ответы

2025-1-9 12:32