Казахстан формирует правила игры для искусственного интеллекта: обзор заседания Мажилиса

14 мая 2025 года Мажилис Парламента РК одобрил в первом чтении проект Закона «Об искусственном интеллекте» вместе с сопутствующими поправками. Это означает, что финальная версия закона пока не принята и документ продолжает активно обсуждаться.

Мы внимательно изучили заседание, на котором рассматривался законопроект, и ниже подготовили для вас обзор ключевых положений и дискуссий. Заседание стало важным шагом на пути к созданию в Казахстане системного регулирования сферы, которая уже сегодня влияет на экономику, образование, медиа и повседневную жизнь граждан.

Суть законопроекта.

Депутат Екатерина Смылшяева представила ключевые положения проекта:

  1. Безопасность граждан – приоритет прав и свобод пользователей, защита персональных данных, прозрачность использования технологий.
  2. Правовая определённость – закон должен создать предсказуемые «правила игры» для разработчиков и инвесторов, что повысит доверие к ИИ и привлечёт капитал.
  3. Роль государства – определение полномочий правительства и госорганов в сфере внедрения ИИ.
  4. Этические принципы и авторские права – базовые нормы о допустимом применении технологий, подходы к защите интеллектуальной собственности.
  5. Национальная платформа искусственного интеллекта – инфраструктура, объединяющая вычислительные мощности, библиотеки данных и сервисы для разработчиков.

Законопроект состоит из 7 глав и 28 статей, направленных на организационное регулирование, безопасность и уточнение прав участников.

Сопутствующие поправки.

Одновременно были одобрены изменения в другие акты:

  • Закон о защите прав потребителей и персональных данных – применение к продуктам с ИИ.
  • Доступ к электронным ресурсам – для функционирования нацплатформы.
  • Контроль за ИИ-контентом – предотвращение манипуляций, фейков, дипфейков.
  • КоАП – административная ответственность за:
  • отсутствие маркировки синтетического контента;
  • неуправление рисками ИИ-систем, приведшее к ущербу здоровью или благополучию граждан.

Вопросы депутатов и ответы правительства

  • Регулирование vs инновации.

Опыт ЕС показал: чрезмерная жёсткость ведёт к оттоку исследований. В Казахстане регулироваться будут только высокорисковые системы, остальные – в гибком режиме.

  • Риски утечек данных. Опасение: концентрация данных на одной платформе.

Ответ: доступ только к обезличенным наборам, строгие правила защиты.

  • Мошенничество и дипфейки. Вопрос: нужны ли изменения в УК?

Ответ: пока административная ответственность и маркировка, уголовные нормы на доработке.

  • Образование. Депутаты отметили активное использование ChatGPT студентами.

Ответ: закон регулирует не учебный процесс, а правовую среду; вопрос образования будет обсуждаться отдельно.

  • Авторские права. Вопрос: кому принадлежат произведения, созданные ИИ?

Ответ: права закрепляются за владельцем системы, но тема требует дальнейшей проработки.

Основные подходы Казахстана исходя из обсуждения и законопроекта:

  1. Гибкость – рамочные нормы с возможностью корректировки по мере развития технологий.
  2. Инфраструктура – создание национальной платформы ИИ как центра компетенций и доверия.
  3. Защита общества – обязательная маркировка контента, запрет социального скоринга, ограничение автономных систем.
  4. Привлечение инвестиций – предсказуемая правовая среда вместо избыточных барьеров.
  5. Открытые вопросы – авторское право и уголовная ответственность будут уточняться позднее.

Международный опыт. Казахстан движется в русле глобальных тенденций, но с поправкой на местный контекст:

  • Европейский союз уже запустил AI Act — первый комплексный закон, основанный на классификации по уровням риска. Но его жёсткость вызвала критику: крупные компании начали рассматривать перенос исследований за пределы ЕС.
  • США пока не приняли единый федеральный закон. Регулирование строится на уровне штатов (Колорадо принял AI Act о высокорисковых системах), а также через рекомендации и руководства для госорганов.
  • Великобритания выбрала мягкий «про-инновационный» путь: регулирование через отраслевых регуляторов, без единого закона.
  • Азия активно движется вперёд:
  • Китай ввёл правила по алгоритмам и deepfake с обязательной маркировкой;
  • Япония и Южная Корея приняли рамочные законы об ИИ, подчеркивая баланс между безопасностью и инновациями;
  • Сингапур развивает собственный фреймворк для генеративного ИИ и тестовую систему AI Verify.
  • Канада и Бразилия также работают над всеобъемлющими законами, но пока в стадии обсуждения.

Общая тенденция: регулирование строится по риск-ориентированному принципу (чем выше риск – тем строже правила). Обязательные элементы почти везде: маркировка синтетического контента, защита персональных данных, прозрачность алгоритмов, ответственность владельцев систем.

Выводы: Казахстан формирует собственный путь: регулировать рисковые системы, но не ограничивать инновации. При этом акцент делается на национальной инфраструктуре и доверии между государством и бизнесом.

Таким образом, страна стремится к балансу между безопасностью и развитием, позиционируя себя как юрисдикцию с системным, но гибким регулированием. Для бизнеса это означает: уже сегодня стоит готовить внутренние политики по управлению рисками ИИ, маркировке контента и защите данных – чтобы ко второму чтению закона быть готовыми к новым требованиям.

Источники и материалы для ознакомления

  • Видеозапись заседания Мажилиса (14.05.2025): YouTube
  • Досье на проект Закона Республики Казахстан «Об искусственном интеллекте» (январь 2025 года)https://online.zakon.kz/Document/?doc_id=34868071

Новости и комментарии по итогам заседания: Zakon.kz, другие казахстанские СМ

Комментарии 1

Авторизуйтесь чтобы оставить комментарий

В свете последних новостей о законопроекте об ИИ в Казахстане, у меня сложилось мнение, что этот документ хоть и выглядит как важный шаг вперед, несет в себе ряд серьезных рисков. Главные из них — это потенциальное замедление инноваций, так как строгие правила могут отпугнуть небольшие стартапы. Также есть сомнения в реализуемости закона на практике, ведь технологии развиваются гораздо быстрее, чем законодательство, и, что важно, наши правоохранительные органы пока не готовы в цифровом отношении эффективно контролировать исполнение такого законодательства. И, конечно, вопросы ответственности и этики остаются открытыми: кто будет отвечать за ошибки ИИ, и как это будет работать в реальности? Я думаю, что к этому вопросу нужно подходить очень осторожно.

Ответить