The post has been translated automatically. Original language: Russian
With the advent of generative AI and the ubiquity of LLM models (Large Language Models), cybersecurity is undergoing a transformation. Artificial intelligence has become both a defense tool and a weapon in the hands of intruders. In 2025, this is no longer a hypothesis, but a reality faced by both public and private entities.
According to MIT Technology Review, in 2025, more than 40% of phishing emails are created using LLM, which makes them virtually indistinguishable from real correspondence.
Key threats related to the use of AI:
- Automation of phishing and social engineering: generation of personalized emails, voice messages and deepfake videos for attacks on employees.
- Bypassing traditional protection systems: neural networks create malicious code that is not recognized by classical signature antiviruses.
- Hacking CAPTCHA, MFA, and authentication systems: using computer vision and recognition models.
- Attacks on machine learning models: poisoning (data poisoning), injection of scripts and substitution of input data.
In response to challenges, organizations are increasingly integrating AI solutions into incident detection and response systems (SOC, SIEM, SOAR).
The most effective AI applications:
- ✅ Real-time Anomaly Analysis (UEBA): Identification of atypical user and device actions.
- Advanced threat hunting: detecting attacks before they are deployed using behavioral correlation.
- Automatic classification and prioritization of incidents: taking into account the business context and MITRE ATT&CK.
- Auto-generation of remediation recommendations based on an analysis of previous incidents.
According to Gartner, by 2026, more than 60% of organizations will use AI to enhance threat detection mechanisms.
- Include AI risks in the cyber risk profile. Industrial injections, malicious script generation, and model compromise are real threats.
- Monitor the use of LLM within the organization. Create internal policies for using ChatGPT, Gemini, and other models.
- Audit all AI services and connected APIs. Special attention is paid to cloud integrations and third—party developments.
- Implement AI Threat Intelligence tools. The new platforms allow tracking the abuse of public LLMs to generate attacking promts.
- Conduct employee training. Topics: protection from deepfake, countering social attacks, conscious use of AI tools.
AI in cybersecurity is a new reality. The winner is the one who knows how to use it one step ahead of the attackers. Companies that are already implementing AI-Augmented Security today will be able not only to protect themselves, but also to create a competitive advantage against the backdrop of global threat growth.
#Astanahub #Cybersecurity #AIsecurity #AI #Informationsecurity #LLM #MITRE #SOC #SOAR #ZeroTrust #AIinCyber #DataProtection #DigitalKazakhstan
С приходом генеративного ИИ и повсеместным распространением LLM-моделей (Large Language Models), кибербезопасность переживает трансформацию. Искусственный интеллект стал одновременно и инструментом защиты, и оружием в руках злоумышленников. В 2025 году это уже не гипотеза, а реальность, с которой сталкиваются как государственные, так и частные структуры.
Согласно MIT Technology Review, в 2025 году уже более 40% фишинговых писем создаются с помощью LLM, что делает их практически неотличимыми от реальных переписок.
Ключевые угрозы, связанные с использованием ИИ:
- 📌 Автоматизация фишинга и социальной инженерии: генерация персонализированных писем, голосовых сообщений и deepfake-видео для атак на сотрудников.
- 📌 Обход традиционных систем защиты: нейросети создают вредоносный код, не распознаваемый классическими сигнатурными антивирусами.
- 📌 Взлом CAPTCHA, MFA и систем аутентификации: с помощью компьютерного зрения и моделей распознавания.
- 📌 Атаки на модели машинного обучения: отравление (data poisoning), инъекции промтов и подмена входных данных.
В ответ на вызовы организации всё чаще интегрируют AI-решения в системы обнаружения и реагирования на инциденты (SOC, SIEM, SOAR).
Наиболее эффективные направления применения ИИ:
- ✅ Анализ аномалий в реальном времени (UEBA): определение нетипичных действий пользователей и устройств.
- ✅ Расширенный threat hunting: выявление атак до их развертывания с помощью поведенческой корреляции.
- ✅ Автоматическая классификация и приоритизация инцидентов: с учётом бизнес-контекста и MITRE ATT&CK.
- ✅ Автогенерация рекомендаций по remediation на основе анализа предыдущих инцидентов.
🔗 Согласно Gartner, к 2026 году более 60% организаций будут использовать ИИ для усиления механизмов обнаружения угроз.
- Включить ИИ-риски в профиль киберрисков. Промт-инъекции, генерация вредоносных сценариев, компрометация моделей — это реальные угрозы.
- Контролировать использование LLM внутри организации. Создайте внутренние политики по использованию ChatGPT, Gemini и других моделей.
- Аудировать все ИИ-сервисы и подключенные API. Особое внимание — к облачным интеграциям и сторонним разработкам.
- Внедрить инструменты AI Threat Intelligence. Новые платформы позволяют отслеживать злоупотребление публичными LLM для генерации атакующих промтов.
- Проводить обучение сотрудников. Темы: защита от deepfake, противодействие социальным атакам, осознанное использование ИИ-инструментов.
ИИ в кибербезопасности — это новая реальность. Побеждает тот, кто умеет использовать его на шаг впереди злоумышленников. Компании, которые уже сегодня внедряют AI-Augmented Security, смогут не только защититься, но и создать конкурентное преимущество на фоне глобального роста угроз.
#Astanahub #Cybersecurity #AIsecurity #ИИ #информационнаябезопасность #LLM #MITRE #SOC #SOAR #ZeroTrust #AIinCyber #DataProtection #DigitalKazakhstan