Генеративные модели стремительно становятся универсальным инструментом использования как для сотрудников ИТ-компаний в сфере написания программного кода, так и для киберпреступников, использующих искусственный интеллект в атаках на корпоративные системы. Об этом RT сообщил Алексей Козлов, ведущий аналитик отдела мониторинга информационной безопасности компании «Спикател».
- Существует несколько сценариев применения ИИ злоумышленниками.
- Во-первых, это фишинг. Искусственный интеллект помогает злоумышленникам снизить затраты на проведение атак и значительно увеличивает их масштаб. Если ранее для создания фишинговых атак требовались навыки специалистов, то теперь достаточно нескольких запросов к обученной модели. Ожидается, что к 2025 году примерно 80% всех фишинговых писем будут создаваться с помощью различных форм ИИ.
- Второй сценарий — применение дипфейков и голосового клонирования. По данным исследований, каждый десятый взрослый уже стал жертвой мошеннических действий, связанных с ИИ-клонированием голосов. В юридической сфере дипфейки используются как начальный этап атак, нацеленных на кражу конфиденциальных данных, хищение средств или несанкционированное получение доступа к внутренним ресурсам компаний.
- Третий сценарий, по словам эксперта, заключается в разработке вредоносного программного обеспечения.
«Нейросети способны не только создавать убедительные фишинговые сообщения, но и помогать в написании кода для веб-сайтов, имитирующих официальные ресурсы компаний. Также нейросети могут анализировать существующие образцы вредоносного ПО и генерировать новые, более труднообнаружимые версии», — уточнил Алексей Козлов.
Ранее представители Управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России отметили, что мошенники могут подделывать документы и обращаются к операторам связи с целью получения дубликатов SIM-карт.