Для борьбы с незаконным использованием изображений для тренировки нейросетей разработали инструмент
Nightshade, который "отравляет" изображения, которые используются для обучения больших моделей ИИ, и приводит к сбоям в работе модели.
Краткая цитата из статьи о новом инструменте противодействия нейросетям со стороны создателей изображений, желающих защитить их от использования для обучения нейросетей:
"....Реакция художников против искусственного интеллекта уже идет полным ходом. В то время как многие люди все еще наслаждаются волю своего воображения с помощью популярных моделей преобразования текста в изображение, таких как DALL-E 2, Midjourney и Stable Diffusion, художникам все больше надоедает новый статус-кво.
Некоторые объединились в знак протеста против распространенной в технологическом секторе практики без разбора выкачивать из Интернета свои визуальные работы для обучения своих моделей. Художники устраивали протесты на популярных арт-платформах, таких как DeviantArt и Art Station, или вообще покидали платформы. Некоторые даже подали иски по поводу авторских прав .
Новый инструмент, разработанный лабораторией Чжао, может изменить эту динамику власти. Он называется Nightshade и работает путем внесения тонких изменений в пиксели изображения — изменений, которые невидимы для человеческого глаза, но заставляют модели машинного обучения думать, что изображение изображает нечто иное, чем оно есть на самом деле. Когда художники применяют его в своей работе, а затем эти изображения используются в качестве обучающих данных, эти «отравленные пиксели» попадают в набор данных модели ИИ и приводят к сбоям в работе модели. Изображения собак становятся кошками, шляпы — тостерами, машины — коровами. Результаты действительно впечатляют, и в настоящее время не существует известной защиты...."