Большие языковые модели, такие как GPT-3 разработки OpenAI, представляют собой массивные нейронные сети, способные генерировать человекоподобный текст. Они обучены с помощью огромного количества данных из Интернета.
Новое исследование показывает, как такие модели могут выучить новую задачу всего на нескольких примерах, без необходимости получения новых данных для обучения. . ferra.ru
2023-2-8 12:51