Автоматты аударма пайдаланылды

Қазақстан жасанды интеллект үшін ойын ережелерін қалыптастырады: мәжіліс отырысына шолу

14 2025 жылғы мамырда ҚР Парламенті Мәжілісі бірінші оқылымда "туралы" Заң жобасын мақұлдады жасанды интеллект " ілеспе түзетулермен бірге. Бұл дегеніміз Заңның соңғы нұсқасы әлі қабылданған жоқ және құжат белсенді түрде жалғасуда талқылау.

Біз заң жобасы қаралған отырысты және төменде мұқият зерделедік сіздер үшін негізгі ережелер мен пікірталастарға шолу дайындадыңыздар. Отырыс болды Қазақстанда саланы жүйелі реттеуді құру жолындағы маңызды қадам, бүгінгі таңда экономикаға, білімге, медиаға және күнделікті өмірге әсер етеді азаматтардың өмірі.

Мәні заң жобасы.

Депутат Екатерина Смылшяева жобаның негізгі ережелерін ұсынды:

  1. Азаматтардың қауіпсіздігі - пайдаланушылардың құқықтары мен бостандықтарының басымдығы, дербес деректерді қорғау, технологияны қолданудың ашықтығы.
  2. Құқықтық сенімділік - заң әзірлеушілер үшін болжамды "ойын ережелерін" құруы керек және бұл АИ-ге деген сенімді арттырады және капиталды тартады.
  3. Мемлекеттің рөлі - Үкімет пен мемлекеттік органдардың АИ енгізу саласындағы өкілеттіктерін айқындау.
  4. Этикалық принциптер және авторлық құқық - технологияларды рұқсат етілген қолдану туралы базалық нормалар, қорғау тәсілдері зияткерлік меншік.
  5. Ұлттық жасанды платформа интеллект-біріктіретін Инфрақұрылым есептеу қуаты, деректер кітапханалары және әзірлеушілерге арналған қызметтер.

Заң жобасы ұйымдастыруға бағытталған 7 тараудан және 28 баптан тұрады қатысушылардың құқықтарын реттеу, қауіпсіздік және нақтылау.

Ілеспе түзетулер.

Бір уақытта басқа актілерге өзгерістер мақұлданды:

  • Тұтынушылардың құқықтарын қорғау туралы Заң және Дербес деректер-АИ бар өнімдерге қолдану.
  • Электрондық ресурстарға қол жеткізу - ұлттық платформаның жұмыс істеуі үшін.
  • AI мазмұнын бақылау - манипуляциялардың, фейктердің, терең фейктердің алдын алу.
  • ӘҚБтК – әкімшілік жауапкершілік:
  • таңбалаудың болмауы синтетикалық мазмұн;
  • тәуекелдерді басқару АИ-азаматтардың денсаулығына немесе әл-ауқатына нұқсан келтірген жүйелер.

Сұрақтар депутаттар мен Үкіметтің жауаптары

  • Реттеу vs инновация.

ЕО тәжірибесі көрсетті: шамадан тыс қаттылық зерттеулердің кетуіне әкеледі. Қазақстанда тек қана реттелетін болады жоғары қауіпті жүйелер, қалғандары икемді режимде.

  • Деректердің бұзылу қаупі. Қорқыныш: бір платформада деректерді шоғырландыру.

Жауап: тек иесіздендірілген жиынтықтарға қол жеткізу, қорғаудың қатаң ережелері.

  • Алаяқтық және терең фейктер. Сұрақ: қажет пе ҚК-дегі өзгерістер?

Жауап: әзірге әкімшілік жауапкершілік және таңбалау, қылмыстық нормалар пысықтауда.

  • Білім. Депутаттар белсенді студенттердің ChatGPT қолдануы.

Жауап: заң оқу процесін емес, құқықтық ортаны реттейді; білім беру мәселесі бөлек талқылаңыз.

  • Авторлық құқық. Сұрақ: кімге тиесілі жасанды интеллект жасаған туындылар?

Жауап: құқықтар олар жүйенің иесіне тағайындалады, бірақ тақырып одан әрі пысықтауды қажет етеді.

Негізгі талқылау мен заң жобасын негізге ала отырып, Қазақстанның тәсілдері:

  1. Икемділік-мүмкіндігі бар негіздемелік нормалар технологиялардың дамуына қарай түзетулер.
  2. Инфрақұрылым-ұлттық инфрақұрылымды құру AI платформалары құзыреттілік пен сенім орталығы ретінде.
  3. Қоғамды қорғау - міндетті таңбалау контент, әлеуметтік скорингке тыйым салу, автономды жүйелерді шектеу.
  4. Инвестицияларды тарту-болжамды артық кедергілердің орнына құқықтық орта.
  5. Ашық сұрақтар-авторлық құқық және қылмыстық жауапкершілік кейінірек нақтыланатын болады.

Халықаралық тәжірибе. Қазақстан жаһандық үрдістер бағытында қозғалуда, бірақ жергілікті контекстке түзету:

  • Еуропалық Одақ қазірдің өзінде іске қосылды AI Act — негізделген алғашқы кешенді заң тәуекел деңгейі бойынша жіктеу. Бірақ оның қаттылығы сынға ұшырады: үлкен компаниялар зерттеулерді ЕО-дан тыс жерге көшіруді қарастыра бастады.
  • АҚШ әлі біреуін қабылдаған жоқ Федералдық заң. Реттеу штат деңгейінде құрылады (Колорадо тәуекелділігі жоғары жүйелер туралы AI Act қабылдады), сондай-ақ ұсыныстар және мемлекеттік органдарға арналған нұсқаулықтар.
  • Ұлыбритания мен жұмсақ "инновациялық" жолды таңдадым: салалық реттеу реттеушілер, бірыңғай заң жоқ.
  • Азия белсенді қозғалуда Алға:
  • Қытай алгоритмдер мен deepfake ережелерін міндетті түрде таңбалаумен енгізді;
  • Жапония ал Оңтүстік Корея тепе-теңдікке баса назар аудара отырып, жасанды интеллект туралы негіздемелік заңдар қабылдады қауіпсіздік пен инновация арасында;
  • Сингапур генеративті жасанды интеллект пен сынақ жүйесіне арналған өзіндік құрылымды дамытады AI Verify.
  • Канада және Бразилия олар сондай-ақ жан-жақты заңдармен жұмыс істейді, бірақ әзірге талқылау сатысында.

Жалпы тренд: реттеу тәуекелге бағытталған принцип бойынша құрылады (қарағанда тәуекел жоғары-ережелер неғұрлым қатаң болса). Барлық жерде міндетті элементтер: таңбалау синтетикалық контент, дербес деректерді қорғау, алгоритмдердің ашықтығы, жүйе иелерінің жауапкершілігі.

Қорытындылар: Қазақстан өз жолын қалыптастырады: тәуекел жүйелерін реттеу, бірақ шектеу емес инновация. Бұл ретте Ұлттық инфрақұрылым мен сенімге баса назар аударылады мемлекет пен бизнес арасында.

Осылайша осылайша, ел қауіпсіздік пен даму арасындағы тепе-теңдікке ұмтылады, өзін жүйелік, бірақ икемді реттеумен юрисдикция ретінде көрсету. Үшін бизнес бұл дегеніміз: қазірдің өзінде ішкі саясатты дайындауға тұрарлық AI Тәуекелдерін басқару, мазмұнды таңбалау және деректерді қорғау-екіншісіне Заңның оқылуы жаңа талаптарға дайын болу.

Дереккөздер және Танысуға арналған материалдар

  • Мәжіліс отырысының бейнежазбасы (14.05.2025): YouTube
  • Республика Заңының жобасына арналған Досье Қазақстан "жасанды интеллект туралы" (2025 жылғы қаңтар)https://online.zakon.kz/Document/?doc_id=34868071

Жаңалықтар мен пікірлер отырыс қорытындысы: Zakon.kz, басқа қазақстандық СМ

Пікірлер 1

Кіру пікір қалдыру үшін

В свете последних новостей о законопроекте об ИИ в Казахстане, у меня сложилось мнение, что этот документ хоть и выглядит как важный шаг вперед, несет в себе ряд серьезных рисков. Главные из них — это потенциальное замедление инноваций, так как строгие правила могут отпугнуть небольшие стартапы. Также есть сомнения в реализуемости закона на практике, ведь технологии развиваются гораздо быстрее, чем законодательство, и, что важно, наши правоохранительные органы пока не готовы в цифровом отношении эффективно контролировать исполнение такого законодательства. И, конечно, вопросы ответственности и этики остаются открытыми: кто будет отвечать за ошибки ИИ, и как это будет работать в реальности? Я думаю, что к этому вопросу нужно подходить очень осторожно.

Жауап беру