Роботов с ИИ легко склонили к опасным для людей действиям

Роботов с ИИ легко склонили к опасным для людей действиям
ФОТО: ferra.ru

Роботы с ИИ, работающие на основе больших языковых моделей (LLM), могут быть обмануты, их можно заставить вести себя опасно, утверждают исследователи из Пенсильванского университета. Используя методы джейлбрейка, они заставили LLM, такие как GPT-3.5 и GPT-4, выполнять “небезопасные команды”.

роботов легко склонили опасным действиям

2024-12-6 03:45