В настоящее время алгоритмы ИИ создаются в течение месяцев, а не лет. Это достигается за счет того, что над ними работают не закрытые коллективы специалистов, а открытые сообщества программистов. Соответственно, преступники имеют возможность бесплатно получать новейшие разработки. Министерство внутренней безопасности США пыталось законодательно ограничить распространение определенных разработок в области ИИ, но потерпело поражение. Программисты просто отказались закрыть для себя возможность создавать системы с открытым программным кодом.
Сегодняшние системы ИИ страдают от ряда новых неурегулированных уязвимостей. К ним относятся атаки через фиктивные данные, используемые при обучении, а также злонамеренное вмешательство в работу нейронных сетей. Эти уязвимости не имели аналогов в прошлом, поэтому не очень понятно, как с ними справляться. Есть основания полагать, что в будущем атаки на ИИ будут более эффективными, более точными, более сложными для атрибуции и будут использовать в основном уязвимости в программном обеспечении ИИ.
Проведенные эксперименты показывают, что более 70 % атак на ИИ осуществляется с использованием ИИ. Соответственно, в будущем, по мере широкого распространения ИИ, следует ожидать нарастания количества подобных атак экспоненциальными темпами. Кроме того, при широком внедрении ИИ неизбежно усиление дифференциации в мощи и функциональных возможностях различных ИИ. Соответственно суверенностью можно сказать, что более сильные ИИ будут использоваться для атак, в том числе в целях установления программного контроля над более слабыми ИИ.
Наверняка следует ожидать атак на ИИ с использованием фишинга. В обозримой перспективе основным типом ИИ будут системы, постоянно взаимодействующие с человеком: с программистами, аналитиками или администраторами. Поскольку именно человек является наиболее уязвимым звеном в системах гибридного интеллекта, есть основания полагать, что злоумышленники будут предпочитать дешевые фишинговые атаки дорогостоящим атакам непосредственно на ИИ.
Самые современные фишинговые атаки предполагают высокий уровень социального инжиниринга[10]и хорошее знание психологических особенностей того человека, против которого осуществляется атака. В конечном счете, все делается для того, чтобы он кликнул на ссылку, которая позволит злонамеренному софту проникнуть не только в компьютер человека, но и в ИИ, с которым он взаимодействует.