Каким должен быть первый комплексный закон об искусственном интеллекте в Беларуси?
18.11.2025
В «СБ. Беларусь сегодня» прошел круглый стол, где обсуждали ключевые вопросы регулирования ИИ. Среди спикеров — генеральный директор ОИПИ НАН Беларуси Сергей Владимирович Кругликов.
Италия стала первой страной в ЕС, которая приняла закон, регулирующий применение искусственного интеллекта. Документ вводит уголовную ответственность для тех, кто использует ИИ для причинения вреда, а также ограничивает доступ к технологии для детей. Может ли Беларусь перенять этот законодательный опыт Италии или нам необходим иной документ?
С. Кругликов: Любое заимствование зарубежных моделей должно происходить с учетом национальных особенностей. Вместе с тем, анализируя международный опыт, мы видим общие тенденции: определение государственного регулятора в сфере ИИ, разработка стратегии и концепции его развития, формирование технического комитета по стандартизации. Именно по такому пути идем и мы. Объединенный институт проблем информатики НАН Беларуси разработал Модельный закон о технологиях искусственного интеллекта, который в апреле этого года был принят Межпарламентской ассамблеей СНГ. Этот документ стал ориентиром для государств Содружества и фактически заложил основу для будущего национального законодательства.
Россия планирует создать суверенный ИИ, который будет опираться только на свою культуру, историю и традиционные ценности, а не копировать чужие решения. Нужен ли Беларуси собственный ИИ?
С. Кругликов: В Беларуси есть компетенции в области математического моделирования, обработки данных, интеллектуальных систем. Уровень развития ИИ у нас и в России достаточно высокий и практико‑ориентированный. Поэтому естественно, что мы развиваем свои алгоритмы, формируем собственные языковые модели. Это вопрос не только науки, но и технологического суверенитета государства. Именно поэтому работа в этом направлении ведется. В том числе и через международные площадки, такие как BRICS+AI, где Беларусь в лице нашего института является активным участником альянса по развитию искусственного интеллекта.
Кто должен нести ответственность в случае причинения вреда системой с искусственным интеллектом — разработчик, пользователь технологии или владелец? Например, в случае наезда беспилотного автомобиля на пешехода или ошибки в медицинской диагностике. Нужно ли вводить специальные нормы уголовной, гражданской или административной ответственности для таких случаев?
С. Кругликов: Надо четко понимать, что искусственный интеллект не является субъектом права. За все отвечает человек или организация, которая его создала и использует. Если ошибка произошла, то важно разобраться, на каком этапе: разработка, внедрение или эксплуатация. Также необходимо обеспечить аттестацию ИИ‑систем — подтверждение их корректной и безопасной работы в конкретной предметной области. Для этого в Беларуси и планируется создание технического комитета по стандартизации в сфере искусственного интеллекта, который будет вырабатывать единые требования к качеству и безопасности таких систем. Тогда и рисков станет значительно меньше.
Какие меры необходимы для обеспечения легального доступа разработчиков к качественным данным, в том числе к данным государственных информационных ресурсов?
С. Кругликов: Мы должны понимать, что данные — это стратегический ресурс. Для обеспечения легального доступа разработчиков к качественным данным важно выработать четкие правила их использования, классификации и проверки. Сейчас обсуждаются подходы к созданию системы таких норм, включая формирование национального технического комитета по стандартизации в сфере ИИ, который будет разрабатывать требования и процедуры работы с большими данными, в том числе государственными.
Статья приводится в сокращении, полный текст статьи по ссылке >>
Италия стала первой страной в ЕС, которая приняла закон, регулирующий применение искусственного интеллекта. Документ вводит уголовную ответственность для тех, кто использует ИИ для причинения вреда, а также ограничивает доступ к технологии для детей. Может ли Беларусь перенять этот законодательный опыт Италии или нам необходим иной документ?
С. Кругликов: Любое заимствование зарубежных моделей должно происходить с учетом национальных особенностей. Вместе с тем, анализируя международный опыт, мы видим общие тенденции: определение государственного регулятора в сфере ИИ, разработка стратегии и концепции его развития, формирование технического комитета по стандартизации. Именно по такому пути идем и мы. Объединенный институт проблем информатики НАН Беларуси разработал Модельный закон о технологиях искусственного интеллекта, который в апреле этого года был принят Межпарламентской ассамблеей СНГ. Этот документ стал ориентиром для государств Содружества и фактически заложил основу для будущего национального законодательства.
Россия планирует создать суверенный ИИ, который будет опираться только на свою культуру, историю и традиционные ценности, а не копировать чужие решения. Нужен ли Беларуси собственный ИИ?
С. Кругликов: В Беларуси есть компетенции в области математического моделирования, обработки данных, интеллектуальных систем. Уровень развития ИИ у нас и в России достаточно высокий и практико‑ориентированный. Поэтому естественно, что мы развиваем свои алгоритмы, формируем собственные языковые модели. Это вопрос не только науки, но и технологического суверенитета государства. Именно поэтому работа в этом направлении ведется. В том числе и через международные площадки, такие как BRICS+AI, где Беларусь в лице нашего института является активным участником альянса по развитию искусственного интеллекта.
Кто должен нести ответственность в случае причинения вреда системой с искусственным интеллектом — разработчик, пользователь технологии или владелец? Например, в случае наезда беспилотного автомобиля на пешехода или ошибки в медицинской диагностике. Нужно ли вводить специальные нормы уголовной, гражданской или административной ответственности для таких случаев?
С. Кругликов: Надо четко понимать, что искусственный интеллект не является субъектом права. За все отвечает человек или организация, которая его создала и использует. Если ошибка произошла, то важно разобраться, на каком этапе: разработка, внедрение или эксплуатация. Также необходимо обеспечить аттестацию ИИ‑систем — подтверждение их корректной и безопасной работы в конкретной предметной области. Для этого в Беларуси и планируется создание технического комитета по стандартизации в сфере искусственного интеллекта, который будет вырабатывать единые требования к качеству и безопасности таких систем. Тогда и рисков станет значительно меньше.
Какие меры необходимы для обеспечения легального доступа разработчиков к качественным данным, в том числе к данным государственных информационных ресурсов?
С. Кругликов: Мы должны понимать, что данные — это стратегический ресурс. Для обеспечения легального доступа разработчиков к качественным данным важно выработать четкие правила их использования, классификации и проверки. Сейчас обсуждаются подходы к созданию системы таких норм, включая формирование национального технического комитета по стандартизации в сфере ИИ, который будет разрабатывать требования и процедуры работы с большими данными, в том числе государственными.
Статья приводится в сокращении, полный текст статьи по ссылке >>