Защита от хакерских атак на модели глубокого обучения

Как и все остальное в области вычислений, модели глубокого обучения можно взломать.

Команда IBM выявила угрозы и разработала методы защиты моделей ИИ, которые называются глубокими генеративными моделями (DGM). Модели DGM — набирающая обороты технология на базе ИИ, позволяющая синтезировать данные из сложных, высокоразмерных массивов, будь то изображения, текст, музыка или молекулярные структуры.


Читать дальше →