Исследование, опубликованное в журнале PNAS Nexus, показало, что большие языковые модели (LLM) совершают ошибки, аналогичные человеческим, в абстрактных задачах на рассуждение. Команда ученых проверила LLM и людей на трех видах задач: вывод на естественном языке, оценка логической валидности силлогизмов и задача Уэйсона.
ferra.ru2024-7-17 06:45