Безопасность машинного обучения: эффективные методы защиты или новые угрозы?
Одними из самых популярных и обсуждаемых новостей последние несколько лет являются — кто куда добавил искусственный интеллект и какие хакеры что и где сломали. Соединив эти темы, появляются очень интересные исследования, и на хабре уже было несколько статей посвященных тому, что есть возможность обманывать модели машинного обучения, к примеру: статья про ограничения глубокого обучения, про то как омбанывать нейронные сети. Далее хотелось бы рассмотреть подробней эту тему с точки зрения компьютерной безопасности:
Источник: Хабрахабр
Похожие новости
- Путеводитель по Docker. От основ контейнеризации до создания собственного докера
- Чтение на выходные: «Искусство быть невидимым. Как сохранить приватность в эпоху Big Data» Кевина Митника
- Spark_news: Зумеры быстрее всех выгорают на работе
- CRM-Group: Как собрать дашборд с основными метриками бизнеса с помощью нейросетей
- Plan-c-consult 175474: Как ваш бизнес может заработать больше? Строим бизнес-модели, которые работают
- Как масштабировать объём трафика и количество целевых действий. Чеклист
- Spark_news: «ЯНДЕКС» объявляет финансовые результаты за I квартал 2024 года
- Spark_news: Спрос на менеджеров маркетплейсов в России вырос на 27%
- Уязвимости на GitHub: в библиотеке Ruby, которую скачали 250 000 раз, модулях для электронных замков и популярных играх
- Избавляемся от паролей