Казахстан формирует правила игры для искусственного интеллекта: обзор заседания Мажилиса

14 мая 2025 года Мажилис Парламента РК одобрил в первом чтении проект Закона «Об искусственном интеллекте» вместе с сопутствующими поправками. Это означает, что финальная версия закона пока не принята и документ продолжает активно обсуждаться.
Мы внимательно изучили заседание, на котором рассматривался законопроект, и ниже подготовили для вас обзор ключевых положений и дискуссий. Заседание стало важным шагом на пути к созданию в Казахстане системного регулирования сферы, которая уже сегодня влияет на экономику, образование, медиа и повседневную жизнь граждан.
Суть законопроекта.
Депутат Екатерина Смылшяева представила ключевые положения проекта:
- Безопасность граждан – приоритет прав и свобод пользователей, защита персональных данных, прозрачность использования технологий.
- Правовая определённость – закон должен создать предсказуемые «правила игры» для разработчиков и инвесторов, что повысит доверие к ИИ и привлечёт капитал.
- Роль государства – определение полномочий правительства и госорганов в сфере внедрения ИИ.
- Этические принципы и авторские права – базовые нормы о допустимом применении технологий, подходы к защите интеллектуальной собственности.
- Национальная платформа искусственного интеллекта – инфраструктура, объединяющая вычислительные мощности, библиотеки данных и сервисы для разработчиков.
Законопроект состоит из 7 глав и 28 статей, направленных на организационное регулирование, безопасность и уточнение прав участников.
Сопутствующие поправки.
Одновременно были одобрены изменения в другие акты:
- Закон о защите прав потребителей и персональных данных – применение к продуктам с ИИ.
- Доступ к электронным ресурсам – для функционирования нацплатформы.
- Контроль за ИИ-контентом – предотвращение манипуляций, фейков, дипфейков.
- КоАП – административная ответственность за:
- отсутствие маркировки синтетического контента;
- неуправление рисками ИИ-систем, приведшее к ущербу здоровью или благополучию граждан.
Вопросы депутатов и ответы правительства
- Регулирование vs инновации.
Опыт ЕС показал: чрезмерная жёсткость ведёт к оттоку исследований. В Казахстане регулироваться будут только высокорисковые системы, остальные – в гибком режиме.
- Риски утечек данных. Опасение: концентрация данных на одной платформе.
Ответ: доступ только к обезличенным наборам, строгие правила защиты.
- Мошенничество и дипфейки. Вопрос: нужны ли изменения в УК?
Ответ: пока административная ответственность и маркировка, уголовные нормы на доработке.
- Образование. Депутаты отметили активное использование ChatGPT студентами.
Ответ: закон регулирует не учебный процесс, а правовую среду; вопрос образования будет обсуждаться отдельно.
- Авторские права. Вопрос: кому принадлежат произведения, созданные ИИ?
Ответ: права закрепляются за владельцем системы, но тема требует дальнейшей проработки.
Основные подходы Казахстана исходя из обсуждения и законопроекта:
- Гибкость – рамочные нормы с возможностью корректировки по мере развития технологий.
- Инфраструктура – создание национальной платформы ИИ как центра компетенций и доверия.
- Защита общества – обязательная маркировка контента, запрет социального скоринга, ограничение автономных систем.
- Привлечение инвестиций – предсказуемая правовая среда вместо избыточных барьеров.
- Открытые вопросы – авторское право и уголовная ответственность будут уточняться позднее.
Международный опыт. Казахстан движется в русле глобальных тенденций, но с поправкой на местный контекст:
- Европейский союз уже запустил AI Act — первый комплексный закон, основанный на классификации по уровням риска. Но его жёсткость вызвала критику: крупные компании начали рассматривать перенос исследований за пределы ЕС.
- США пока не приняли единый федеральный закон. Регулирование строится на уровне штатов (Колорадо принял AI Act о высокорисковых системах), а также через рекомендации и руководства для госорганов.
- Великобритания выбрала мягкий «про-инновационный» путь: регулирование через отраслевых регуляторов, без единого закона.
- Азия активно движется вперёд:
- Китай ввёл правила по алгоритмам и deepfake с обязательной маркировкой;
- Япония и Южная Корея приняли рамочные законы об ИИ, подчеркивая баланс между безопасностью и инновациями;
- Сингапур развивает собственный фреймворк для генеративного ИИ и тестовую систему AI Verify.
- Канада и Бразилия также работают над всеобъемлющими законами, но пока в стадии обсуждения.
Общая тенденция: регулирование строится по риск-ориентированному принципу (чем выше риск – тем строже правила). Обязательные элементы почти везде: маркировка синтетического контента, защита персональных данных, прозрачность алгоритмов, ответственность владельцев систем.
Выводы: Казахстан формирует собственный путь: регулировать рисковые системы, но не ограничивать инновации. При этом акцент делается на национальной инфраструктуре и доверии между государством и бизнесом.
Таким образом, страна стремится к балансу между безопасностью и развитием, позиционируя себя как юрисдикцию с системным, но гибким регулированием. Для бизнеса это означает: уже сегодня стоит готовить внутренние политики по управлению рисками ИИ, маркировке контента и защите данных – чтобы ко второму чтению закона быть готовыми к новым требованиям.
Источники и материалы для ознакомления
- Видеозапись заседания Мажилиса (14.05.2025): YouTube
- Досье на проект Закона Республики Казахстан «Об искусственном интеллекте» (январь 2025 года)https://online.zakon.kz/Document/?doc_id=34868071
Новости и комментарии по итогам заседания: Zakon.kz, другие казахстанские СМ
Комментарии 1
Авторизуйтесь чтобы оставить комментарий
Sprinter VK · Авг. 27, 2025 09:12
В свете последних новостей о законопроекте об ИИ в Казахстане, у меня сложилось мнение, что этот документ хоть и выглядит как важный шаг вперед, несет в себе ряд серьезных рисков. Главные из них — это потенциальное замедление инноваций, так как строгие правила могут отпугнуть небольшие стартапы. Также есть сомнения в реализуемости закона на практике, ведь технологии развиваются гораздо быстрее, чем законодательство, и, что важно, наши правоохранительные органы пока не готовы в цифровом отношении эффективно контролировать исполнение такого законодательства. И, конечно, вопросы ответственности и этики остаются открытыми: кто будет отвечать за ошибки ИИ, и как это будет работать в реальности? Я думаю, что к этому вопросу нужно подходить очень осторожно.