В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях
Специалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения. ferra.ru »