Оставить отзыв
Юридические услуги в здравоохранении
КОНСУЛЬТАЦИЯ:ЗАЯВКА
+7 495 789 43 38
8 800 77 00 728
Обратный звонок
Войти
31 марта 2025

У искусственного интеллекта появился собственный кодекс

172

Межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медизделий и сервисов с использованием технологий искусственного интеллекта (ИИ) утвердила Кодекс этики применения ИИ в сфере охраны здоровья (Кодекс). Что это за документ, для чего его приняли, какие требования он вводит для ИИ — разберём далее.

Субъекты и их роли

Субъекты – это лица, которые сами принимают участие в жизненном цикле системы ИИ при ее реализации на территории РФ или в отношении которых применяются такие системы. Это могут быть:

  • физические лица, в том числе пациенты;
  • некоммерческие организации и профсообщества;
  • медорганизации всех форм собственности;
  • образовательные учреждения;
  • компании – разработчики, производители, операторы и владельцы ИИ;
  • органы управления здравоохранения;
  • независимые (локальные) этические комитеты.

В зависимости от роли субъектов системы ИИ Кодекс выделяет следующие категории:

  • разработчик системы ИИ;
  • заказчик или владелец;
  • пользователь;
  • оператор, обеспечивающий работу системы ИИ;
  • регулятор, осуществляющий нормативно-техническую регламентацию использования систем ИИ (нормативные акты, инструкции, руководства и прочие документы);
  • иные лица, на которых может повлиять применение систем ИИ.

Принципы применения ИИ

Доступность, качество, эффективность и безопасность меддеятельности с применением систем ИИ обеспечивается соблюдением основных принципов использования этих систем.

В первую очередь, системы ИИ в здравоохранении должны иметь ограниченную автономность и быть обратимыми. Система должна обеспечивать возможность проверки и одобрения субъектом всех ее решений, а также отказ от таких решений или их изменение.

Система ИИ должна быть прозрачной, а ее решения и алгоритм их принятия – понятными и объяснимыми.

Субъектам систем ИИ необходимо предоставлять обществу максимально правдивую и полную информацию об уровнях развития системы, ее возможностях, рисках, последствиях, сферах применении.

Разработчики не оставили без внимания конфиденциальность данных и безопасности пациентов – этот принцип также закреплен в Кодексе и обеспечивать его соблюдение должны субъекты системы ИИ.

Об ИИ, персональных данных и врачебной тайне мы писали здесь и здесь.

Согласно Кодексу при разработке и применении систем ИИ не допускается дискриминация по какому-либо признаку и гарантируется равный доступ к системе ИИ в зависимости от ее целей и задач.

Осознанность и подконтрольность

Отдельно отмечается, что субъекты системы ИИ при ее создании, экспертизе, применении, контроле должны соблюдать высокие стандарты профессионализма, выполнять свои обязанности и осознавать возможность своего влияния на общество и будущие технологии.

Использование систем ИИ в здравоохранении будет подотчетным. Для каждого из этапов жизненного цикла систем ИИ будут определены субъекты ИИ, принимающие на себя ответственность за воздействие систем на заинтересованных лиц и общество в целом. Это обеспечит комплексный контроль за применением технологий.

О практическом значении

Разработчики Кодекса уверяют, что реализация его принципов позволит расширить сферу применения ИИ в медицине, сформировать нравственную основу и повысить доверие граждан к таким технологиям.

Один из мотивов, по которым принят Кодекс, − повышенный риск причинения вреда здоровью пациентов в силу потенциальных ошибок обработки данных и знаний, а также рекомендаций, формируемых системами ИИ. Об этом мы рассказывали в нашем мониторинге.

Говорить, что рекомендательный документ, который содержит свод общих положений, способен снизить такие риски, пока не приходится. Насколько действенным он окажется, можно будет судить по практике его дальнейшего применения.

telegram kormed