Защита от хакерских атак на модели глубокого обучения
Как и все остальное в области вычислений, модели глубокого обучения можно взломать.
Команда IBM выявила угрозы и разработала методы защиты моделей ИИ, которые называются глубокими генеративными моделями (DGM). Модели DGM — набирающая обороты технология на базе ИИ, позволяющая синтезировать данные из сложных, высокоразмерных массивов, будь то изображения, текст, музыка или молекулярные структуры.
Читать дальше →
Команда IBM выявила угрозы и разработала методы защиты моделей ИИ, которые называются глубокими генеративными моделями (DGM). Модели DGM — набирающая обороты технология на базе ИИ, позволяющая синтезировать данные из сложных, высокоразмерных массивов, будь то изображения, текст, музыка или молекулярные структуры.
Читать дальше →
Источник: Хабрахабр
Похожие новости
- Как повысить производительность и улучшить отношения с коллегами и начальством за счёт EQ
- Сказ о том, как пентестеры трафик скрывают
- Построение полносвязной сети с применением ГОСТового шифрования. Или как скрестить Cisco и Континент
- About People: 4 ошибки в HR-менеджменте, из-за которых компания теряет более 265.000₽: инсайды кадрового агентства
- История 16-летнего подростка взломавшего ЦРУ
- Тесты «Тринити»: совместимость со средствами доверенной загрузки
- Коляс Иванов: Ваш логотип в тренде или устарел? 7 шагов для быстрой проверки
- Прогноз результатов продвижения сайта для зарубежного рынка при помощи инструмента Ahrefs
- Минус 26 млн рублей: как изменится доход блогеров-иноагентов
- Избирательный стилер: SapphireStealer маскировался под листовку ЦИК о выборах президента