Искусственный интеллект тоже можно обмануть, предостерегают специалисты по безопасности

22.12.2016 | 10:28
Технологии машинного обучения могут помочь обнаружить подозрительные действия пользователей, вредоносные программы и мошеннические покупки, но злоумышленники ищут и находят способы обхода защитных систем. Одним из таких способов является флудинг, или затопление систем большим количеством сигналов, среди которых хакер скрывает свои.

Технический директор Intel Security Стив Гробмэн сравнивает этот способ с действиями вора, который изо дня в день проезжает мимо намеченного для ограбления дома на велосипеде, что приводит в действие датчики движения охранной системы. В конце концов хозяева отключают датчики или переносят их в другое место, чем и пользуется вор.

Искусственный интеллект пока не может обойтись без опыта специалиста, полагает технический директор RSA Security Зульфикар Рамзан. Для эффективной защиты необходимо понимание работы бизнеса и смысла выявляемых с помощью анализа данных изменений в поведении. Только опыт пока помогает обнаружить попытки манипуляции с наборами данных, используемых для машинного обучения — например, авторы вредоносных программ могут спрятать свою программу среди большого количества похожих на нее, но безвредных приложений. Специалистам нужно иметь стратегию выявления попыток обмана искусственного интеллекта, считает старший научный сотрудник Microsoft Дэвид Молнар.
флудинг, искусственный интеллект
По материалам computerworld.com
Лента новостей: FacebookLiveJournalЯндекс

Комментарии (0)
Оставьте комментарий:CaptchaОбновить проверочный код