Искусственный интеллект как угроза: казахстанские эксперты оценили риски для кибербезопасности

🛡️ ИИ и кибербезопасность: угрозы, риски и контроль
На форуме Digital Qazaqstan в Шымкенте казахстанские эксперты в области кибербезопасности обсудили, как искусственный интеллект превращается из инструмента защиты в потенциальный источник угроз — и что с этим делать на уровне бизнеса и государства.
От диалогов о базовом применении ИИ Казахстан довольно стремительно перешёл к реальности, в которой эксперты уже активно обсуждают механизмы защиты от нейросетей и потенциальные сценарии захвата городской инфраструктуры «умными» системами. На форуме Digital Qazaqstan, прошедшем в Шымкенте в 2026 году, специалисты по кибербезопасности вышли за рамки технических вопросов и затронули сложные этические и правовые аспекты применения искусственного интеллекта.
Панельную дискуссию модерировал сопредседатель комитета по информационной безопасности Альянса Qaztech Евгений Питолин. Участники сессии — представители крупных IT-компаний, государственных органов и парламента — сообща искали ответ на ключевой вопрос: искусственный интеллект сегодня — это союзник или главная уязвимость в системе цифровой безопасности?
🚀 К чему приводит гонка вендоров за хайпом вокруг ИИ
Генеральный директор MSSP.GLOBAL Даурен Салипов предложил аудитории нетривиальную метафору: искусственный интеллект — это 2000 студентов, которым можно поставить любую задачу и получить оперативную обработку колоссального объёма данных. Однако, по его убеждению, компаниям не стоит торопиться занимать роль первопроходцев в этом направлении.
💬 Даурен Салипов, генеральный директор MSSP.GLOBAL
«Чаще всего компании-пионеры делают самые большие ошибки. Многие вендоры, которые на волне хайпа экстренно применили искусственный интеллект, столкнулись с проблемами. Поэтому мы к вопросу относимся осторожно. Сейчас у нас нейросети используются для помощи первой линии в SOC — центре управления безопасностью, неэтичные ИИ-инструменты применяются для помощи в пентестах (санкционированная имитация реальной кибератаки на IT-инфраструктуру) или в брейкинге (агрессивное тестирование системы на предмет уязвимостей).»
Метафора о 2000 студентах несёт в себе важный смысл: речь идёт о быстром анализе инфраструктуры без наделения ИИ правом принимать автономные решения. Эксперт настаивает на необходимости жёсткого регулирования, поскольку нередко проблемы возникают именно из-за избыточных полномочий, которые сам вендор предоставляет нейросети. Особую осторожность он рекомендует проявлять в ситуациях, когда речь заходит о передаче искусственному интеллекту права на самостоятельные действия.
⚠️ ИИ ошибается — и иногда это «выстрел в ногу»
В ходе той же дискуссии руководитель Security Operations Center (SOC) компании PS Cloud Services Александр Косенков привёл показательный реальный кейс: в инструменте от крупного мирового вендора ИИ-модуль, предназначенный для фиксации критических инцидентов, спровоцировал ложную тревогу с серьёзными последствиями для рабочего процесса.
💬 Александр Косенков, руководитель SOC PS Cloud Services
«В инструменте использовались функции ИИ, которые позволяли определять и классифицировать инциденты, давать им описание, обогащать информацией и формулировать рекомендации по дальнейшим действиям. И в один прекрасный момент мы подпрыгнули — из инфраструктуры клиента шло обращение к IP-адресу, при проверке которого по публичным базам всё было красным-красно. Это один из признаков того, что инфраструктура скомпрометирована и нужно принимать срочные меры. Но после перепроверки оказалось, что ИИ перепутал источник сетевого обращения с целью и создал destination — адрес назначения сетевого трафика. Они были поменяны местами — и это просто выстрел себе в ногу. Но он выстрелил, не зная кому, и создал лишнюю суету и работу.»
По оценке эксперта, использование ИИ для реагирования на инциденты остаётся возможным, однако требует повышенной осторожности и обязательной верификации результатов. Президент TSARKA Group Олжас Сатиев поддержал тезис о склонности ИИ к «галлюцинациям», одновременно указав на принципиальную возможность непрерывного дообучения нейросетей. Однако, по его мнению, существует куда более острая проблема — неготовность рынка к прозрачности и открытому обсуждению сложных инцидентов.
🔴 Ложные тревоги
ИИ может неверно классифицировать инциденты, создавая панику и отвлекая команды безопасности от реальных угроз.
🧠 Галлюцинации нейросетей
Нейросети способны генерировать правдоподобные, но ошибочные выводы — особенно опасно в контексте критической инфраструктуры.
🏪 Хайп вендоров
Компании, торопливо внедряющие ИИ ради маркетинговых преимуществ, рискуют получить нестабильные и небезопасные продукты.
🔓 Избыточные полномочия ИИ
Широкий спектр прав, предоставленных нейросети самим разработчиком, может стать источником непредсказуемых уязвимостей.
⚖️ «Посередине будет тот, кто получает процент за ответственность»
Искусственный интеллект и кибербезопасность давно находятся в поле зрения законодателей. Однако стремительно меняющаяся природа этих явлений делает крайне затруднительным их чёткую фиксацию в правовых нормах. Особенно сложным этот вопрос становится применительно не к бытовому использованию ИИ, а к комплексным кейсам в сфере информационной безопасности.
💬 Екатерина Смышляева, секретарь комитета по экономической реформе и региональному развитию мажилиса РК
«Мы знаем, что практически все граждане регистрируются в социальных сетях, чьи юрисдикции не подпадают под наши требования в сфере защиты персональных данных. Очевидно, что во взаимоотношения пользователей с глобальными платформами государство не может вмешаться. Но тем не менее все идём в соцсети и доверяем свои персональные данные. И с продуктами нейросетей будет то же самое. Даже если мы некие регуляторные позиции внедрим в отношении глобальных моделей, кто на самом деле будет прислушиваться? Так что на бытовом уровне вопрос субъектного регулирования не стоит остро.»
Бизнес-аспект применения ИИ, по словам депутата, пока зафиксирован в казахстанском законодательстве об искусственном интеллекте на уровне гражданско-правовых отношений. Причина — невозможность определить исчерпывающий круг участников процесса при нынешнем уровне развития ИИ-моделей.
💬 Екатерина Смышляева — о правовой ответственности
«Чтобы чётко обозначить ответственность, мы должны знать, кто конкретно и в какой степени участвует в этом процессе. А для каждого бизнес-кейса с ИИ-моделью этот круг акторов свой. Поэтому на сегодняшний день на законодательном уровне что-то фундаментальное и статичное, на мой взгляд, невозможно. Думаю, что в ближайшее время однозначного ответа для всех кейсов не будет, всё будет определяться гражданско-правовыми отношениями.»
Даурен Салипов предложил собственное видение того, как рынок отрегулирует этот правовой вакуум в обозримой перспективе.
💬 Даурен Салипов — о модели «третьего лица»
«Допустим, появился искусственный интеллект, который очень хорошо юридически консультирует. Вместо того, чтобы мне, как компании, купить подписку на эту нейросеть, я подпишу договор с человеком или компанией, которые будут оформлять это на себя. И брать риски. Думаю, рынок пока так себя и отрегулирует — посередине будет тот, кто получает процент за ответственность.»
🏙️ Контролировать ИИ, чтобы избежать «восстания умных городов»
По мере углубления дискуссии эксперты перешли к теме потенциальной «кибервойны» и технократической революции. Центральный вопрос: не превратятся ли «умные города», в которых ИИ интегрирован во все системы жизнеобеспечения, в источник угрозы для государства? Евгений Питолин провёл параллель с голливудскими антиутопиями, где подобные сценарии давно стали привычным сюжетом.
Зампред комитета по информационной безопасности министерства искусственного интеллекта и цифрового развития Умитжан Арыкбекова обозначила принципиальную позицию государства: системы, имеющие доступ к критически важной информации, должны создаваться внутри страны — силами отечественных разработчиков.
💬 Умитжан Арыкбекова, зампред комитета по информационной безопасности Министерства ИИ и цифрового развития
«У нас создан институт развития информационной безопасности, который будет анализировать все международные стандарты. Будем смотреть, как мир движется в отношении искусственного интеллекта. Пока нет стандарта, как он должен работать и как можно защищаться. Но мы должны прийти к этому.»
💬 Даурен Салипов — о рисках «восстания умного города»
«Самое главное в этом вопросе — не упускать управление ИИ, контролировать, кто даёт доступ, какие решения и до какого уровня он может автономно принимать. Тогда риск развития такого сценария меньше. Но регуляторика в разных странах отличается. И те, кто атакуют, во избежание проблем неэтичного использования ИИ могут делать это в локациях с максимально низким регулированием этой сферы. А после начать уже "практиковаться" на странах с высокой регуляторикой. Такой сценарий вполне возможен. Но в любом случае нам нельзя забывать об управлении искусственным интеллектом и контролировать это как на уровне государства, так и на этапе внедрения в ту или иную компанию.»
🔬 Что делает MSSP.GLOBAL для прикладного применения ИИ в кибербезопасности
Завершая своё выступление, Даурен Салипов обозначил ключевое опасение относительно ближайшего будущего: переизбыток иностранных вендоров на рынке при остром дефиците собственных отечественных разработок в сфере средств защиты информации.
💬 Даурен Салипов — об угрозе недооценки рисков
«Полностью согласен с тем, что надо разрабатывать свои IT-решения в части средств защиты информации. Самое страшное — это то, что мы, наверное, недооцениваем, к чему могут привести инциденты.»
После завершения панельной сессии глава MSSP.GLOBAL подробнее рассказал о конкретных разработках компании в направлении прикладного использования искусственного интеллекта в сфере информационной безопасности — в особенности актуальных для казахстанских реалий.
💬 Даурен Салипов — о «рентгене инфраструктуры»
«Мы уже пробуем подобные решения и готовы реализовать полноценный контур: локальная модель, в которую передаются данные о сетевой топологии, конфигурациях коммутаторов, политиках межсетевых экранов и других источников, включая доменную инфраструктуру. На выходе — не просто отчёт, а своего рода рентген инфраструктуры: платформа подсвечивает архитектурные пробелы, уязвимые зоны и позволяет моделировать сценарии развития APT-атак с выдачей адресных рекомендаций по укреплению защиты. Это тот уровень аналитики, к которому рынку нужно двигаться.»
Анализ сетевой топологии и конфигураций
Локальная ИИ-модель получает данные о конфигурациях коммутаторов, политиках межсетевых экранов и доменной инфраструктуре для комплексного анализа.
«Рентген» инфраструктуры
Платформа выявляет архитектурные пробелы и уязвимые зоны — не просто формируя отчёт, а давая полноценную визуализацию слабых мест системы.
Моделирование APT-атак
Система позволяет моделировать сценарии развития целевых продвинутых угроз (APT) и формирует адресные рекомендации по укреплению защиты.
Локальная модель без передачи данных наружу
Принципиально важный аспект для казахстанских реалий — вся обработка происходит внутри контура, без передачи чувствительных данных внешним сервисам.
🎯 Итог: баланс между возможностями ИИ и контролем над ним
Форум Digital Qazaqstan 2026 года зафиксировал важный сдвиг в казахстанской повестке цифровизации: дискуссия об ИИ вышла за рамки восторженного освоения технологий и перешла в плоскость зрелой, критической оценки рисков. Эксперты сошлись во мнении: ключевым условием безопасного применения искусственного интеллекта остаётся неотступный контроль над его полномочиями — как на уровне отдельной компании, так и на уровне государства. Вопросы правового регулирования, ответственности и суверенной разработки отечественных решений в сфере информационной безопасности становятся для Казахстана стратегическим приоритетом, определяющим цифровой суверенитет страны в ближайшие годы.