04.01.2026
Дата публикации
Руководитель юридической практики общественного фонда Eurasian Digital Foundation Елжан Кабышев дал экспертный комментарий о том, каких изменений стоит ожидать.
17 ноября 2025 года президент Касым-Жомарт Токаев подписал закон «Об искусственном интеллекте». Закон вводится в действие 18 января.
«Системы искусственного интеллекта определены в качестве объекта информатизации. Теперь искусственный интеллект будет признаваться в качестве инструмента достижения человеком определённых задач», — заявили по этому поводу в Акорде.
Закон, как заявлено, закрепляет принципы ответственности и подконтрольности, а также законности, справедливости, равенства, прозрачности и объяснимости, приоритета благополучия человека, свободы воли в принятии им решений, защиты данных и конфиденциальности, безопасности и защищённости и состоит в общей сложности из 31 статьи.
Редакция Factcheck.kz разбирается, что изменит этот закон, и как он повлияет на цифровую жизнь казахстанцев.
Маркировка — обязательна
Пожалуй, одной из наиболее значимых норм для пользователей интернета и создателей контента с применением искусственного интеллекта является статья 21 закона — «Обеспечение прозрачности использования систем искусственного интеллекта». В соответствии с ним, пользователи должны быть проинформированы о том, что товары, работы и услуги произведены или оказываются с использованием систем ИИ.
Пункт 2 этой же статьи сформулирован следующим образом:
"Распространение синтетических результатов деятельности систем искусственного интеллекта допускается только при условии их маркировки в машиночитаемой форме и сопровождения визуальной либо иной формой предупреждения, обеспечивающей возможность восприятия пользователем без применения методов, затрудняющих такое восприятие".
При этом, согласно пункту 3 статьи, обязанность по выполнению данных требований возлагается на собственников систем ИИ.
С точки зрения борьбы с дезинформацией данная норма выглядит весьма полезной. Она вводит правила, направленные на защиту пользователей от манипуляций и распространения ложной информации, в том числе дипфейков и автоматически сгенерированного контента.
Машиночитаемая маркировка позволяет:
Авторские права и ИИ
Статья 23 посвящена одному из самых спорных вопросов в дискуссии об искусственном интеллекте — вопросу о том, кому принадлежит авторское право на контент, созданный с помощью ИИ. Согласно первому пункту:
Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание.
Пункт 2 статьи признаёт текстовые запросы (промпты) объектами авторского права, если они являются результатом интеллектуальной творческой деятельности человека.
Тем не менее оба этих пункта вызывают вопросы. Во-первых, каким образом человек сможет доказать наличие творческого вклада в произведение, созданное с помощью ИИ? Во-вторых, как автор узнает и сможет доказать, что другой человек присвоил его промпт?
Пункт 3 статьи исключает использование произведений для обучения ИИ из перечня случаев свободного использования произведений в образовательных и научных целях.
Пункт 4 предполагает, что использование произведений (текстов, изображений, музыки и т.д.) для обучения ИИ не относится к тем действиям, через которые обычно реализуются авторские права: воспроизведение, распространение, переработка, публичный показ и т.д.
И наконец пятый пункт отмечает: «Использование произведений для обучения моделей ИИ допускается только при отсутствии запрета со стороны автора или правообладателя, выраженного в машиночитаемой форме». Этот момент может быть проблематичен, так как, в отличие от крупных платформ и медиа, многие индивидуальные авторы, публикующие свои произведения в интернете (иллюстрации, фотографии, небольшие произведения), на практике не всегда могут выразить запрет в машиночитаемой форме.
Другие права пользователей
Статья 16 закона регулирует основные правила взаимодействия человека с системами искусственного интеллекта. Она закрепляет право человека понимать, с чем именно, в каких условиях и с какими последствиями он взаимодействует. Пользователь имеет право знать правила функционирования системы, а также требовать защиты своих персональных данных и конфиденциальной информации.
Пользователь также вправе получать разъяснения по решениям, принятым с использованием ИИ, если они затрагивают его права и законные интересы. Это особенно важно в случаях, когда алгоритмы участвуют в оценке, отборе или принятии решений — например, в сфере оказания услуг, финансов, контента или доступа к информации.
Также пользователь получает право запрашивать информацию о данных, на основании которых ИИ принял то или иное решение. Важным элементом статьи, согласно закону (если такое взаимодействие не является обязательным), является право человека отказаться от взаимодействия с ИИ.
Передовой, но не без проблем
Руководитель юридической практики общественного фонда Eurasian Digital Foundation Елжан Кабышев, принимавший участие в рабочей группе по разработке закона, говорит, что ключевые рекомендации организации были учтены в финальном тексте закона.
По его словам, казахстанская модель демонстрирует некоторую степень гармонизации с передовыми практиками, но с учётом национальной специфики. Он отмечает, что Казахстан адаптировал ключевой риск-ориентированный подход из Акта об ИИ Европейского Союза: классификация систем по уровням риска и «чёрный список» запрещённых практик (манипуляции, социальный рейтинг) практически идентичны европейским. Но есть принципиальное отличие.
Соответствие принципам ОЭСР и ЮНЕСКО обеспечивается через закреплённые в законе принципы прозрачности, подотчётности и человекоцентричности. Основное отличие заключается в институциональной части: вместо независимых надзорных органов как в ЕС в Казахстане используется модель централизованного управления через профильное Министерство и Оператора платформы, что, судя по всему, обусловлено необходимостью форсированного цифрового развития.
Елжан Кабышев
Кабышев отмечает, что данный закон выстраивает модель государственно-инфраструктурного партнёрства. Баланс между интересами государства, бизнеса и правами человека достигнут через компромисс: государство выступает не только регулятором, но и драйвером рынка, создавая Национальную платформу ИИ и обеспечивая бизнес вычислительными мощностями (суперкомпьютером), что гипотетически может снижать барьер входа для стартапов.
В то же время, по словам эксперта, вызывает обеспокоенность вопрос приватности биометрических данных.
"Мы позитивно оцениваем прямой законодательный запрет на использование манипулятивных техник и социального скоринга. Однако зоной мониторинга остаётся практика применения распознавания эмоций (ст. 17). Закон разрешает эту технологию при наличии согласия. Наша задача как экспертов — следить за тем, чтобы в трудовых коллективах, учебных заведениях и других местах это согласие было действительно добровольным, а не принудительным, чтобы избежать формального подхода к защите приватности, а также было действительно обоснованным", - отметил эксперт.
Юрист рассказывает, что эксперты EDF настаивали на полном запрете биометрической идентификации в общественных местах, за исключением строго оговорённых целей безопасности. Однако в итоге законотворцы частично учли это предложение: использование таких систем ограничено «целями защиты конституционного строя и охраны правопорядка».
Какое предусмотрено наказание
Кодекс об административных правонарушениях был дополнен статьей 641-1 «Нарушение законодательства Республики Казахстан в сфере искусственного интеллекта». В соответствии с ней необеспечение собственниками систем ИИ информирования пользователей о синтетической природе контента, а также за невыполнение ими обязательств по управлению рисками систем ИИ с высоким уровнем риска, повлёкшего негативное воздействие на здоровье или благополучие людей, создание или распространение запрещённой, ложной информации, дискриминацию или нарушение прав человека и причинение иного вреда, если это действие (бездействие) не содержит признаков уголовно наказуемого деяния, — влечёт штраф на физических и должностных лиц в размере 15 месячных расчётных показателей (МРП); на субъектов малого предпринимательства или некоммерческие организации — 20; на субъекты среднего предпринимательства — 30; на субъектов крупного предпринимательства — 100 МРП.
Заключение
«Системы искусственного интеллекта определены в качестве объекта информатизации. Теперь искусственный интеллект будет признаваться в качестве инструмента достижения человеком определённых задач», — заявили по этому поводу в Акорде.
Закон, как заявлено, закрепляет принципы ответственности и подконтрольности, а также законности, справедливости, равенства, прозрачности и объяснимости, приоритета благополучия человека, свободы воли в принятии им решений, защиты данных и конфиденциальности, безопасности и защищённости и состоит в общей сложности из 31 статьи.
Редакция Factcheck.kz разбирается, что изменит этот закон, и как он повлияет на цифровую жизнь казахстанцев.
Маркировка — обязательна
Пожалуй, одной из наиболее значимых норм для пользователей интернета и создателей контента с применением искусственного интеллекта является статья 21 закона — «Обеспечение прозрачности использования систем искусственного интеллекта». В соответствии с ним, пользователи должны быть проинформированы о том, что товары, работы и услуги произведены или оказываются с использованием систем ИИ.
Пункт 2 этой же статьи сформулирован следующим образом:
"Распространение синтетических результатов деятельности систем искусственного интеллекта допускается только при условии их маркировки в машиночитаемой форме и сопровождения визуальной либо иной формой предупреждения, обеспечивающей возможность восприятия пользователем без применения методов, затрудняющих такое восприятие".
При этом, согласно пункту 3 статьи, обязанность по выполнению данных требований возлагается на собственников систем ИИ.
С точки зрения борьбы с дезинформацией данная норма выглядит весьма полезной. Она вводит правила, направленные на защиту пользователей от манипуляций и распространения ложной информации, в том числе дипфейков и автоматически сгенерированного контента.
Машиночитаемая маркировка позволяет:
- упростить выявление ИИ-контента платформами и фактчекерами;
- отслеживать распространение синтетических материалов;
- снизить риск массового распространения дипфейков в медиа и социальных сетях.
Авторские права и ИИ
Статья 23 посвящена одному из самых спорных вопросов в дискуссии об искусственном интеллекте — вопросу о том, кому принадлежит авторское право на контент, созданный с помощью ИИ. Согласно первому пункту:
Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание.
Пункт 2 статьи признаёт текстовые запросы (промпты) объектами авторского права, если они являются результатом интеллектуальной творческой деятельности человека.
Тем не менее оба этих пункта вызывают вопросы. Во-первых, каким образом человек сможет доказать наличие творческого вклада в произведение, созданное с помощью ИИ? Во-вторых, как автор узнает и сможет доказать, что другой человек присвоил его промпт?
Пункт 3 статьи исключает использование произведений для обучения ИИ из перечня случаев свободного использования произведений в образовательных и научных целях.
Пункт 4 предполагает, что использование произведений (текстов, изображений, музыки и т.д.) для обучения ИИ не относится к тем действиям, через которые обычно реализуются авторские права: воспроизведение, распространение, переработка, публичный показ и т.д.
И наконец пятый пункт отмечает: «Использование произведений для обучения моделей ИИ допускается только при отсутствии запрета со стороны автора или правообладателя, выраженного в машиночитаемой форме». Этот момент может быть проблематичен, так как, в отличие от крупных платформ и медиа, многие индивидуальные авторы, публикующие свои произведения в интернете (иллюстрации, фотографии, небольшие произведения), на практике не всегда могут выразить запрет в машиночитаемой форме.
Другие права пользователей
Статья 16 закона регулирует основные правила взаимодействия человека с системами искусственного интеллекта. Она закрепляет право человека понимать, с чем именно, в каких условиях и с какими последствиями он взаимодействует. Пользователь имеет право знать правила функционирования системы, а также требовать защиты своих персональных данных и конфиденциальной информации.
Пользователь также вправе получать разъяснения по решениям, принятым с использованием ИИ, если они затрагивают его права и законные интересы. Это особенно важно в случаях, когда алгоритмы участвуют в оценке, отборе или принятии решений — например, в сфере оказания услуг, финансов, контента или доступа к информации.
Также пользователь получает право запрашивать информацию о данных, на основании которых ИИ принял то или иное решение. Важным элементом статьи, согласно закону (если такое взаимодействие не является обязательным), является право человека отказаться от взаимодействия с ИИ.
Передовой, но не без проблем
Руководитель юридической практики общественного фонда Eurasian Digital Foundation Елжан Кабышев, принимавший участие в рабочей группе по разработке закона, говорит, что ключевые рекомендации организации были учтены в финальном тексте закона.
По его словам, казахстанская модель демонстрирует некоторую степень гармонизации с передовыми практиками, но с учётом национальной специфики. Он отмечает, что Казахстан адаптировал ключевой риск-ориентированный подход из Акта об ИИ Европейского Союза: классификация систем по уровням риска и «чёрный список» запрещённых практик (манипуляции, социальный рейтинг) практически идентичны европейским. Но есть принципиальное отличие.
Соответствие принципам ОЭСР и ЮНЕСКО обеспечивается через закреплённые в законе принципы прозрачности, подотчётности и человекоцентричности. Основное отличие заключается в институциональной части: вместо независимых надзорных органов как в ЕС в Казахстане используется модель централизованного управления через профильное Министерство и Оператора платформы, что, судя по всему, обусловлено необходимостью форсированного цифрового развития.
Елжан Кабышев
Кабышев отмечает, что данный закон выстраивает модель государственно-инфраструктурного партнёрства. Баланс между интересами государства, бизнеса и правами человека достигнут через компромисс: государство выступает не только регулятором, но и драйвером рынка, создавая Национальную платформу ИИ и обеспечивая бизнес вычислительными мощностями (суперкомпьютером), что гипотетически может снижать барьер входа для стартапов.
Бизнес получает правовую определённость и ресурсы, но взамен обязан соблюдать законодательство, в особенности маркировку сгенерированного контента и требования безопасности. Права граждан защищены через систему запретов и требований к прозрачности, хотя роль государства как оператора платформы и регулятора делает его доминирующим игроком в этом треугольнике.
"Мы позитивно оцениваем прямой законодательный запрет на использование манипулятивных техник и социального скоринга. Однако зоной мониторинга остаётся практика применения распознавания эмоций (ст. 17). Закон разрешает эту технологию при наличии согласия. Наша задача как экспертов — следить за тем, чтобы в трудовых коллективах, учебных заведениях и других местах это согласие было действительно добровольным, а не принудительным, чтобы избежать формального подхода к защите приватности, а также было действительно обоснованным", - отметил эксперт.
Юрист рассказывает, что эксперты EDF настаивали на полном запрете биометрической идентификации в общественных местах, за исключением строго оговорённых целей безопасности. Однако в итоге законотворцы частично учли это предложение: использование таких систем ограничено «целями защиты конституционного строя и охраны правопорядка».
Под манипулятивными техниками Кабышев подразумевает нормы статьи 17, которая запрещает использование ИИ для скрытого воздействия на подсознание человека или использования его уязвимостей.
Кодекс об административных правонарушениях был дополнен статьей 641-1 «Нарушение законодательства Республики Казахстан в сфере искусственного интеллекта». В соответствии с ней необеспечение собственниками систем ИИ информирования пользователей о синтетической природе контента, а также за невыполнение ими обязательств по управлению рисками систем ИИ с высоким уровнем риска, повлёкшего негативное воздействие на здоровье или благополучие людей, создание или распространение запрещённой, ложной информации, дискриминацию или нарушение прав человека и причинение иного вреда, если это действие (бездействие) не содержит признаков уголовно наказуемого деяния, — влечёт штраф на физических и должностных лиц в размере 15 месячных расчётных показателей (МРП); на субъектов малого предпринимательства или некоммерческие организации — 20; на субъекты среднего предпринимательства — 30; на субъектов крупного предпринимательства — 100 МРП.
Повторное нарушение в течение года после наложения административного взыскания, — влечёт штраф на физических лиц в размере 30 МРП, на субъектов малого предпринимательства или некоммерческие организации – 50, на субъектов среднего предпринимательства — 70, на субъектов крупного предпринимательства – 200 МРП с приостановлением или запрещением деятельности системы ИИ.
На фоне стремительного развития искусственного интеллекта в последние годы правительства по всему миру всё активнее принимают законы, политики и стратегии, направленные на регулирование этой новой технологии. Согласно базе данных ОЭСР, на сегодняшний день в 72 странах и территориях действуют специальные политики в сфере ИИ. Казахстан входит в число государств, принявших отдельный закон. Однако с учётом отсутствия универсальной модели для всего мира и продолжающегося развития искусственного интеллекта можно предположить, что национальное законодательство в этой сфере ещё не раз будет пересматриваться и дополняться.
Источник: Factcheck.kz — https://factcheck.kz/prava-cheloveka/zakon-ob-ii-v-kazahstane-chto-on-izmenit/