Результатов: 4

OpenAI и Anthropic проверили безопасность ИИ-систем друг друга

OpenAI и Anthropic решили совместно оценить безопасность своих открытых моделей искусственного интеллекта и поделились результатами тестов. Anthropic проверила модели OpenAI на склонность к «угождению» пользователю, выдаче опасных советов, самосохранению и поддержке человеческого неправильного использования. ferra.ru »

2025-8-29 20:17

Сбер представил первую в России модель угроз для ИИ-систем

Сбер разработал и опубликовал первую в России комплексную модель киберугроз, связанных с системами искусственного интеллекта (ИИ). Документ охватывает все этапы жизненного цикла таких систем — от подготовки данных до внедрения готовых решений в приложения. Материалы доступны на портале «Кибрарий». ferra.ru »

2025-4-19 20:39

Британцы захотели запретить использование «более умных, чем человек» ИИ-систем

Новый опрос показал, что большинство британцев обеспокоены развитием искусственного интеллекта и хотят более жесткого регулирования. Опрос, проведенный YouGov для Control AI, показал, что 87% респондентов поддерживают требование к компаниям, создающим ИИ, доказывать безопасность своих моделей перед выпуском. ferra.ru »

2025-2-10 15:45