Оставить отзыв
Юридические услуги в здравоохранении
КОНСУЛЬТАЦИЯ:ЗАЯВКА
+7 495 789 43 38
8 800 77 00 728
Обратный звонок
Войти
26 марта 2026

ИИ в России получает правовую базу

912

Минцифры представило проект федерального закона, который впервые комплексно регулирует разработку, внедрение и использование технологий искусственного интеллекта. Охвачена вся цепочка — от создания моделей до взаимодействия с конечным пользователем. Разбираем основные положения и их возможные последствия для клиник.

Что регулирует законопроект

Проект распространяется на всех участников оборота ИИ-технологий: разработчиков моделей, операторов систем, владельцев сервисов и конечных пользователей. Из-под его действия выведены сферы обороны, национальной безопасности и охраны правопорядка. Вместе с тем общие правила, установленные законопроектом, могут применяться и в этих областях, если на них прямо ссылаются отраслевые нормативные акты.

Документ впервые закрепляет на уровне федерального закона понятийный аппарат: определения искусственного интеллекта, модели ИИ, системы ИИ, сервиса ИИ, больших фундаментальных моделей, доверенных моделей и других ключевых терминов.

Регуляторная лестница

Отношения в сфере ИИ предлагается регулировать на нескольких уровнях: федеральным законом, указами Президента, а также нормативными правовыми актами Правительства, федеральных министерств и ведомств, органов исполнительной власти субъектов Российской Федерации.

При этом вводится механизм обязательного согласования. Федеральные органы власти, принимающие акты по вопросам ИИ, должны получить одобрение Минцифры. Органы власти субъектов обязаны согласовывать свои акты с ФСТЭК и ФСБ, если документы затрагивают вопросы, относящиеся к компетенции этих ведомств.

Принципы регулирования

В основе риск-ориентированный подход: объем требований к ИИ-технологиям определяется их назначением, степенью автономности, влиянием на принятие юридически значимых решений, категориями обрабатываемых данных, а также вероятностью и масштабом возможного вреда.

Среди других базовых принципов — верховенство прав и свобод человека, уважение свободы воли, обеспечение технологической независимости, безопасность.

С теми принципами, что провозгласил Кодекс этики применения ИИ в сфере охраны здоровья, утвержденный в 2025 году, положения законопроекта не вступают в противоречие. Фактически профильный кодекс продолжает и дополняет этот список, закрепляя ограниченную автономность и обратимость систем ИИ. Подробнее о кодексе читайте здесь.

Доверенные модели ИИ: что это значит для клиник

Проект вводит институт доверенных моделей ИИ. Использование ИИ в государственных информационных системах и на объектах критической информационной инфраструктуры (КИИ) допускается только при условии включения модели в специальный реестр.

Условия включения в реестр:

  • прохождение проверки на соответствие требованиям безопасности (проверку проводят ФСТЭК и ФСБ);
  • соответствие отраслевым требованиям качества;
  • обработка данных исключительно на территории России.

Для клиник это положение имеет непосредственное практическое значение. В феврале 2026 года Правительство утвердило перечни типовых объектов КИИ, в которые вошел ряд систем и платформ здравоохранения:

  • информационные системы: ЕГИСЗ, МИС, ГИС ОМС, системы фармацевтических организаций;
  • системы управления оборудованием: для лучевой терапии, интенсивного наблюдения пациентов, принудительной подачи газовой смеси (аппараты ИВЛ и подачи анестетиков);
  • диагностические системы: информационные системы для клинико-лабораторных исследований;
  • хирургические системы: информационные системы для выполнения хирургических вмешательств и другие.

Подключение ИИ-инструментов к таким системам потребует повышенной осторожности. За нарушения, связанные с эксплуатацией объектов КИИ, предусмотрены существенные санкции: штраф до 500 тысяч рублей для организаций (ст. 13.12.1 КоАП РФ).

Если нарушение повлекло причинение вреда критической инфраструктуре, виновному работнику грозит лишение свободы на срок до шести лет (ч. 3 ст. 274.1 УК РФ). Судебная практика по этой статье уже формируется, и медработников тоже привлекают. При этом следствие и суды пока не выработали единообразного подхода к определению вреда. Например, уже имеются обвинительные приговоры, в которых суды квалифицировали поступление недостоверных данных в информационную систему как причинение вреда — на том основании, что это искажает массив данных и подрывает его достоверность в целом.

Поэтому до формирования реестра доверенных моделей безопаснее воздержаться от интеграции ИИ-решений в информационные системы, отнесенные к объектам КИИ.

Суверенные модели ИИ

Законопроект вводит понятия суверенных и национальных больших фундаментальных моделей и устанавливает требования к ним:

  • все стадии разработки, обучения и эксплуатации должны проходить на территории России с участием исключительно российских компаний и граждан;
  • наборы данных для обучения формируются внутри страны.

Кроме того, документ предусматривает возможность ограничения или запрета зарубежных ИИ-технологий в случаях, установленных законодательством. Конкретные основания для упомянутых ограничений определит будущая регуляторика.

Ответственность и обязанности участников

Законопроект устанавливает, что разработчик, оператор и владелец сервиса несут ответственность за результаты применения ИИ, нарушающие закон, если они заведомо знали или должны были знать о возможности получения таких результатов. При этом обязанности четко разграничены.

Разработчики моделей обязаны документировать логику работы моделей и моделировать потенциальные риски.

Операторы систем должны тестировать системы на предмет противоправного использования, незамедлительно приостанавливать эксплуатацию при выявлении угроз, вести учёт инцидентов и назначать ответственных за безопасность.

Владельцы сервисов обязаны устанавливать правила доступа с запретом противоправного использования, информировать пользователей о взаимодействии с ИИ и внедрять механизмы, ограничивающие генерацию противозаконного контента.

Пользователи обязаны соблюдать правила доступа, использовать ИИ в законных целях и не обходить встроенные механизмы безопасности.

Что это означает для медорганизаций

Законопроект не меняет сложившегося в медицине правила распределения ответственности: окончательное решение по вопросам диагностики и лечения остается за врачом, а за вредные последствия отвечают медработник и клиника.

Это означает, что ответственность за ошибки диагностики, некорректное информирование пациента на этапе записи (если она ведется с помощью ИИ-бота), утечки персональных данных и прочее подобное ложится на медицинскую организацию.

Подробнее о таких рисках – в нашем материале «Доверять ли искусственному интеллекту врачебную тайну?». </div

Документ прямо закрепляет право гражданина требовать:

  • оказания услуги без использования ИИ — конкретные случаи, когда это возможно, определит Правительство;
  • возмещения ущерба, причиненного неправомерным использованием ИИ.

Общие положения об обязательствах вследствие причинения вреда (глава 59 ГК РФ) остаются нетронутыми: участие «цифрового разума» не освобождает от компенсаций.

Однако есть и плюс. Четкое разграничение обязанностей разработчиков, операторов и других участников упрощает установление виновного лица. У клиник может появиться шанс на регрессные требования, если первопричиной ошибки — например, диагностической — стали недочеты на этапах создания и выпуска ИИ-продукта.

Маркировка генеративного контента

Контент, созданный с помощью ИИ, подлежит обязательной маркировке. На практике это означает, что, например, рекламный ролик, сгенерированный нейросетью, должен будет иметь двойную маркировку: как интернет-реклама и как контент, созданный с применением ИИ.

Порядок контроля и конкретные механизмы маркировки определят подзаконные акты, упомянутые в проекте в составе будущей нормативной базы. Не исключено, что после вступления закона в силу контролирующие органы инициируют тематические проверочные кампании.

Поэтому есть смысл отслеживать движение законопроекта, а после его принятия обратиться за разъяснениями в антимонопольные органы и Роскомнадзор как к основным регуляторам в данной сфере.

Интеллектуальная собственность

Результаты, созданные с помощью ИИ, охраняются по правилам Гражданского кодекса РФ при условии соответствия критериям охраноспособности — независимо от того, созданы они человеком или системой.

Например, информационный ролик, подготовленный маркетологом совместно с врачами при помощи ИИ, будет охраняться авторским правом как аудиовизуальное произведение (ч. 1 ст. 1259 ГК РФ) — аналогично материалам, снятым с участием людей или созданным средствами компьютерной графики. И требовать компенсации за его использование без разрешения можно будет на общих основаниях. О том, как это происходит, читайте в нашем обзоре.

При этом законопроект содержит важную оговорку: извлечение информации из объектов, защищенных авторскими или патентными правами, для формирования наборов данных и обучения ИИ не является нарушением — при условии, что экземпляр произведения получен правомерно либо произведение обнародовано и доступно для анализа.

Мониторинг и контроль

Уполномоченные органы наделяются полномочиями по непрерывному мониторингу последствий применения ИИ: сбору данных об инцидентах, оценке негативных последствий и прогнозированию угроз. При выявлении существенных рисков предусмотрено право на проведение внеплановых проверок и выдачу обязательных предписаний.

Этот подход согласуется с уже наметившимся вектором отраслевого регулирования. Ранее Росздравнадзор опубликовал проект, предусматривающий автоматическую передачу данных о работе оборудования с ИИ-технологиями в ведомственную автоматизированную информационную систему, включая сведения об ошибках.

telegram kormed

См, например, Приговор Мариинско-Посадского районного суда Чувашской Республики – Чувашии от 19 декабря 2025 г. по делу № 1-54/2025

Вам также будет интересно
Самая широкая база знаний по медицинскому праву.
Еще более 1750 статей.