Технологии

Искусственный интеллект как угроза: казахстанские эксперты оценили риски для кибербезопасности

OpenSky Team
31 марта 2026 г.
2 просмотров
Искусственный интеллект как угроза: казахстанские эксперты оценили риски для кибербезопасности
🛡️ ИИ и кибербезопасность: угрозы, риски и контроль На форуме Digital Qazaqstan в Шымкенте казахстанские эксперты в области кибербезопасности обсудили, как искусственный интеллект превращается из инс...

🛡️ ИИ и кибербезопасность: угрозы, риски и контроль

На форуме Digital Qazaqstan в Шымкенте казахстанские эксперты в области кибербезопасности обсудили, как искусственный интеллект превращается из инструмента защиты в потенциальный источник угроз — и что с этим делать на уровне бизнеса и государства.

🤖
2000 «студентов»
Метафора ИИ от Даурена Салипова: быстрая обработка задач без автономных решений
🏙️
«Умные города»
Сценарий «восстания» ИИ-инфраструктуры — тема, которую эксперты уже обсуждают всерьёз
⚖️
Гражданско-правовые отношения
Текущий уровень регулирования ИИ в бизнес-сфере согласно казахстанскому законодательству

От диалогов о базовом применении ИИ Казахстан довольно стремительно перешёл к реальности, в которой эксперты уже активно обсуждают механизмы защиты от нейросетей и потенциальные сценарии захвата городской инфраструктуры «умными» системами. На форуме Digital Qazaqstan, прошедшем в Шымкенте в 2026 году, специалисты по кибербезопасности вышли за рамки технических вопросов и затронули сложные этические и правовые аспекты применения искусственного интеллекта.

Панельную дискуссию модерировал сопредседатель комитета по информационной безопасности Альянса Qaztech Евгений Питолин. Участники сессии — представители крупных IT-компаний, государственных органов и парламента — сообща искали ответ на ключевой вопрос: искусственный интеллект сегодня — это союзник или главная уязвимость в системе цифровой безопасности?

🚀 К чему приводит гонка вендоров за хайпом вокруг ИИ

Генеральный директор MSSP.GLOBAL Даурен Салипов предложил аудитории нетривиальную метафору: искусственный интеллект — это 2000 студентов, которым можно поставить любую задачу и получить оперативную обработку колоссального объёма данных. Однако, по его убеждению, компаниям не стоит торопиться занимать роль первопроходцев в этом направлении.

💬 Даурен Салипов, генеральный директор MSSP.GLOBAL

«Чаще всего компании-пионеры делают самые большие ошибки. Многие вендоры, которые на волне хайпа экстренно применили искусственный интеллект, столкнулись с проблемами. Поэтому мы к вопросу относимся осторожно. Сейчас у нас нейросети используются для помощи первой линии в SOC — центре управления безопасностью, неэтичные ИИ-инструменты применяются для помощи в пентестах (санкционированная имитация реальной кибератаки на IT-инфраструктуру) или в брейкинге (агрессивное тестирование системы на предмет уязвимостей).»

Метафора о 2000 студентах несёт в себе важный смысл: речь идёт о быстром анализе инфраструктуры без наделения ИИ правом принимать автономные решения. Эксперт настаивает на необходимости жёсткого регулирования, поскольку нередко проблемы возникают именно из-за избыточных полномочий, которые сам вендор предоставляет нейросети. Особую осторожность он рекомендует проявлять в ситуациях, когда речь заходит о передаче искусственному интеллекту права на самостоятельные действия.

⚠️ ИИ ошибается — и иногда это «выстрел в ногу»

В ходе той же дискуссии руководитель Security Operations Center (SOC) компании PS Cloud Services Александр Косенков привёл показательный реальный кейс: в инструменте от крупного мирового вендора ИИ-модуль, предназначенный для фиксации критических инцидентов, спровоцировал ложную тревогу с серьёзными последствиями для рабочего процесса.

💬 Александр Косенков, руководитель SOC PS Cloud Services

«В инструменте использовались функции ИИ, которые позволяли определять и классифицировать инциденты, давать им описание, обогащать информацией и формулировать рекомендации по дальнейшим действиям. И в один прекрасный момент мы подпрыгнули — из инфраструктуры клиента шло обращение к IP-адресу, при проверке которого по публичным базам всё было красным-красно. Это один из признаков того, что инфраструктура скомпрометирована и нужно принимать срочные меры. Но после перепроверки оказалось, что ИИ перепутал источник сетевого обращения с целью и создал destination — адрес назначения сетевого трафика. Они были поменяны местами — и это просто выстрел себе в ногу. Но он выстрелил, не зная кому, и создал лишнюю суету и работу.»

По оценке эксперта, использование ИИ для реагирования на инциденты остаётся возможным, однако требует повышенной осторожности и обязательной верификации результатов. Президент TSARKA Group Олжас Сатиев поддержал тезис о склонности ИИ к «галлюцинациям», одновременно указав на принципиальную возможность непрерывного дообучения нейросетей. Однако, по его мнению, существует куда более острая проблема — неготовность рынка к прозрачности и открытому обсуждению сложных инцидентов.

🔴 Ложные тревоги

ИИ может неверно классифицировать инциденты, создавая панику и отвлекая команды безопасности от реальных угроз.

🧠 Галлюцинации нейросетей

Нейросети способны генерировать правдоподобные, но ошибочные выводы — особенно опасно в контексте критической инфраструктуры.

🏪 Хайп вендоров

Компании, торопливо внедряющие ИИ ради маркетинговых преимуществ, рискуют получить нестабильные и небезопасные продукты.

🔓 Избыточные полномочия ИИ

Широкий спектр прав, предоставленных нейросети самим разработчиком, может стать источником непредсказуемых уязвимостей.

⚖️ «Посередине будет тот, кто получает процент за ответственность»

Искусственный интеллект и кибербезопасность давно находятся в поле зрения законодателей. Однако стремительно меняющаяся природа этих явлений делает крайне затруднительным их чёткую фиксацию в правовых нормах. Особенно сложным этот вопрос становится применительно не к бытовому использованию ИИ, а к комплексным кейсам в сфере информационной безопасности.

💬 Екатерина Смышляева, секретарь комитета по экономической реформе и региональному развитию мажилиса РК

«Мы знаем, что практически все граждане регистрируются в социальных сетях, чьи юрисдикции не подпадают под наши требования в сфере защиты персональных данных. Очевидно, что во взаимоотношения пользователей с глобальными платформами государство не может вмешаться. Но тем не менее все идём в соцсети и доверяем свои персональные данные. И с продуктами нейросетей будет то же самое. Даже если мы некие регуляторные позиции внедрим в отношении глобальных моделей, кто на самом деле будет прислушиваться? Так что на бытовом уровне вопрос субъектного регулирования не стоит остро.»

Бизнес-аспект применения ИИ, по словам депутата, пока зафиксирован в казахстанском законодательстве об искусственном интеллекте на уровне гражданско-правовых отношений. Причина — невозможность определить исчерпывающий круг участников процесса при нынешнем уровне развития ИИ-моделей.

💬 Екатерина Смышляева — о правовой ответственности

«Чтобы чётко обозначить ответственность, мы должны знать, кто конкретно и в какой степени участвует в этом процессе. А для каждого бизнес-кейса с ИИ-моделью этот круг акторов свой. Поэтому на сегодняшний день на законодательном уровне что-то фундаментальное и статичное, на мой взгляд, невозможно. Думаю, что в ближайшее время однозначного ответа для всех кейсов не будет, всё будет определяться гражданско-правовыми отношениями.»

Даурен Салипов предложил собственное видение того, как рынок отрегулирует этот правовой вакуум в обозримой перспективе.

💬 Даурен Салипов — о модели «третьего лица»

«Допустим, появился искусственный интеллект, который очень хорошо юридически консультирует. Вместо того, чтобы мне, как компании, купить подписку на эту нейросеть, я подпишу договор с человеком или компанией, которые будут оформлять это на себя. И брать риски. Думаю, рынок пока так себя и отрегулирует — посередине будет тот, кто получает процент за ответственность.»

🏙️ Контролировать ИИ, чтобы избежать «восстания умных городов»

По мере углубления дискуссии эксперты перешли к теме потенциальной «кибервойны» и технократической революции. Центральный вопрос: не превратятся ли «умные города», в которых ИИ интегрирован во все системы жизнеобеспечения, в источник угрозы для государства? Евгений Питолин провёл параллель с голливудскими антиутопиями, где подобные сценарии давно стали привычным сюжетом.

Зампред комитета по информационной безопасности министерства искусственного интеллекта и цифрового развития Умитжан Арыкбекова обозначила принципиальную позицию государства: системы, имеющие доступ к критически важной информации, должны создаваться внутри страны — силами отечественных разработчиков.

💬 Умитжан Арыкбекова, зампред комитета по информационной безопасности Министерства ИИ и цифрового развития

«У нас создан институт развития информационной безопасности, который будет анализировать все международные стандарты. Будем смотреть, как мир движется в отношении искусственного интеллекта. Пока нет стандарта, как он должен работать и как можно защищаться. Но мы должны прийти к этому.»

💬 Даурен Салипов — о рисках «восстания умного города»

«Самое главное в этом вопросе — не упускать управление ИИ, контролировать, кто даёт доступ, какие решения и до какого уровня он может автономно принимать. Тогда риск развития такого сценария меньше. Но регуляторика в разных странах отличается. И те, кто атакуют, во избежание проблем неэтичного использования ИИ могут делать это в локациях с максимально низким регулированием этой сферы. А после начать уже "практиковаться" на странах с высокой регуляторикой. Такой сценарий вполне возможен. Но в любом случае нам нельзя забывать об управлении искусственным интеллектом и контролировать это как на уровне государства, так и на этапе внедрения в ту или иную компанию.»

🔬 Что делает MSSP.GLOBAL для прикладного применения ИИ в кибербезопасности

Завершая своё выступление, Даурен Салипов обозначил ключевое опасение относительно ближайшего будущего: переизбыток иностранных вендоров на рынке при остром дефиците собственных отечественных разработок в сфере средств защиты информации.

💬 Даурен Салипов — об угрозе недооценки рисков

«Полностью согласен с тем, что надо разрабатывать свои IT-решения в части средств защиты информации. Самое страшное — это то, что мы, наверное, недооцениваем, к чему могут привести инциденты.»

После завершения панельной сессии глава MSSP.GLOBAL подробнее рассказал о конкретных разработках компании в направлении прикладного использования искусственного интеллекта в сфере информационной безопасности — в особенности актуальных для казахстанских реалий.

💬 Даурен Салипов — о «рентгене инфраструктуры»

«Мы уже пробуем подобные решения и готовы реализовать полноценный контур: локальная модель, в которую передаются данные о сетевой топологии, конфигурациях коммутаторов, политиках межсетевых экранов и других источников, включая доменную инфраструктуру. На выходе — не просто отчёт, а своего рода рентген инфраструктуры: платформа подсвечивает архитектурные пробелы, уязвимые зоны и позволяет моделировать сценарии развития APT-атак с выдачей адресных рекомендаций по укреплению защиты. Это тот уровень аналитики, к которому рынку нужно двигаться.»

🗺️

Анализ сетевой топологии и конфигураций

Локальная ИИ-модель получает данные о конфигурациях коммутаторов, политиках межсетевых экранов и доменной инфраструктуре для комплексного анализа.

🩻

«Рентген» инфраструктуры

Платформа выявляет архитектурные пробелы и уязвимые зоны — не просто формируя отчёт, а давая полноценную визуализацию слабых мест системы.

🎯

Моделирование APT-атак

Система позволяет моделировать сценарии развития целевых продвинутых угроз (APT) и формирует адресные рекомендации по укреплению защиты.

🏠

Локальная модель без передачи данных наружу

Принципиально важный аспект для казахстанских реалий — вся обработка происходит внутри контура, без передачи чувствительных данных внешним сервисам.

🎯 Итог: баланс между возможностями ИИ и контролем над ним

Форум Digital Qazaqstan 2026 года зафиксировал важный сдвиг в казахстанской повестке цифровизации: дискуссия об ИИ вышла за рамки восторженного освоения технологий и перешла в плоскость зрелой, критической оценки рисков. Эксперты сошлись во мнении: ключевым условием безопасного применения искусственного интеллекта остаётся неотступный контроль над его полномочиями — как на уровне отдельной компании, так и на уровне государства. Вопросы правового регулирования, ответственности и суверенной разработки отечественных решений в сфере информационной безопасности становятся для Казахстана стратегическим приоритетом, определяющим цифровой суверенитет страны в ближайшие годы.

Поделитесь статьей

Расскажите друзьям об этой новости

Похожие статьи

После страшной истории школьницы из Астаны создали устройство для спасения на воде

После страшной истории школьницы из Астаны создали устройство для спасения на воде

Айзере Тусупова и Гакку Еламан – восьмиклассницы из НИШ Астаны. За 2 месяца они прошли путь от личной истории о тонущем ребенке до рабочего прототипа носимого спасательного устройства. Их браслет Spla...

16 мая0
Казахстанцам сделают доплату к пенсии до четырех полных зарплат. Но не всем

Казахстанцам сделают доплату к пенсии до четырех полных зарплат. Но не всем

Мажилис одобрил в первом чтении проект новой редакции закона «О государственной службе», который вводит систему крупных единовременных выплат для сотрудников, завершающих карьеру в госсекторе, пишет d...

16 мая0
Казахстанка вложила 7 млн тенге и запустила стартап по развитию детской речи

Казахстанка вложила 7 млн тенге и запустила стартап по развитию детской речи

Айнур Нурадил из Алматы работала в Академии наук, а затем придумала мобильное приложение AR Sana. Этот сервис помогает казахоязычным детям развивать речь – с помощью ИИ и дополненной реальности. Коман...

15 мая0
Kaspi.kz напомнил всем казахстанцам о важных налогах, которые нужно оплатить на следующей неделе

Kaspi.kz напомнил всем казахстанцам о важных налогах, которые нужно оплатить на следующей неделе

Для казахстанских самозанятых наступает время ежемесячных расчетов с государством. Сервис Kaspi.kz напомнил о необходимости внесения обязательных платежей за апрель. Digital Business разбирается, как ...

14 мая0
Главное бизнес-событие Евразии пройдет в Алматы: кто выступит на New Vision Forum в июне 2026-го

Главное бизнес-событие Евразии пройдет в Алматы: кто выступит на New Vision Forum в июне 2026-го

11–13 июня 2026 года Алматы принимает New Vision Forum – главное бизнес-событие Евразии. Три дня, более пяти тысяч участников, спикеры мирового уровня и практическая повестка для тех, кто хочет масшта...

14 мая3
Kaspi.kz дал совет, как составить резюме, которое точно выберет работодатель

Kaspi.kz дал совет, как составить резюме, которое точно выберет работодатель

Рано или поздно каждый из нас задумывается о переменах в карьере. Однако за годы работы в офисе навык «продавать себя» работодателю может притупиться. Разбираемся, как с помощью инструментов Kaspi.kz ...

14 мая0