Результатов: 3

ИИ-чатботы взломали с помощью ASCII-картинок

Исследователи из Вашингтона и Чикаго представили ArtPrompt — новую технику, позволяющую обходить меры безопасности в популярных больших языковых моделях (LLM), таких как GPT-3. 5, GPT-4 и других. Метод, подробно описанный в научной статье «ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs», использует запросы в виде ASCII-картинок. ferra.ru »

2024-3-9 06:00

ИИ научили взламывать другие ИИ-чатботы с помощью «мастер-ключа»

NTU сделал революционное, но в то же время опасное открытие: они нашли способ «взломать» чат-боты с помощью другого ИИ. Этот метод, получивший название «Masterkey», использует слабые места в защите чат-ботов, чтобы заставить их раскрыть конфиденциальную информацию или выполнить несанкционированные действия. ferra.ru »

2023-12-30 18:45

ИИ-чатботы в школах: всплеска нарушений не наблюдается, несмотря на рост числа инструментов

Недавнее исследование Стэнфордского университета развеивает опасения, что распространение чат-ботов с искусственным интеллектом приводит к всплеску списываниялет. ferra.ru »

2023-12-16 21:17