У искусственного интеллекта появился собственный кодекс
Межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медизделий и сервисов с использованием технологий искусственного интеллекта (ИИ) утвердила Кодекс этики применения ИИ в сфере охраны здоровья (Кодекс). Что это за документ, для чего его приняли, какие требования он вводит для ИИ — разберём далее.
Субъекты и их роли
Субъекты – это лица, которые сами принимают участие в жизненном цикле системы ИИ при ее реализации на территории РФ или в отношении которых применяются такие системы. Это могут быть:
- физические лица, в том числе пациенты;
- некоммерческие организации и профсообщества;
- медорганизации всех форм собственности;
- образовательные учреждения;
- компании – разработчики, производители, операторы и владельцы ИИ;
- органы управления здравоохранения;
- независимые (локальные) этические комитеты.
В зависимости от роли субъектов системы ИИ Кодекс выделяет следующие категории:
- разработчик системы ИИ;
- заказчик или владелец;
- пользователь;
- оператор, обеспечивающий работу системы ИИ;
- регулятор, осуществляющий нормативно-техническую регламентацию использования систем ИИ (нормативные акты, инструкции, руководства и прочие документы);
- иные лица, на которых может повлиять применение систем ИИ.
Принципы применения ИИ
Доступность, качество, эффективность и безопасность меддеятельности с применением систем ИИ обеспечивается соблюдением основных принципов использования этих систем.
В первую очередь, системы ИИ в здравоохранении должны иметь ограниченную автономность и быть обратимыми. Система должна обеспечивать возможность проверки и одобрения субъектом всех ее решений, а также отказ от таких решений или их изменение.
Система ИИ должна быть прозрачной, а ее решения и алгоритм их принятия – понятными и объяснимыми.
Субъектам систем ИИ необходимо предоставлять обществу максимально правдивую и полную информацию об уровнях развития системы, ее возможностях, рисках, последствиях, сферах применении.
Разработчики не оставили без внимания конфиденциальность данных и безопасности пациентов – этот принцип также закреплен в Кодексе и обеспечивать его соблюдение должны субъекты системы ИИ.
Согласно Кодексу при разработке и применении систем ИИ не допускается дискриминация по какому-либо признаку и гарантируется равный доступ к системе ИИ в зависимости от ее целей и задач.
Осознанность и подконтрольность
Отдельно отмечается, что субъекты системы ИИ при ее создании, экспертизе, применении, контроле должны соблюдать высокие стандарты профессионализма, выполнять свои обязанности и осознавать возможность своего влияния на общество и будущие технологии.
Использование систем ИИ в здравоохранении будет подотчетным. Для каждого из этапов жизненного цикла систем ИИ будут определены субъекты ИИ, принимающие на себя ответственность за воздействие систем на заинтересованных лиц и общество в целом. Это обеспечит комплексный контроль за применением технологий.
О практическом значении
Разработчики Кодекса уверяют, что реализация его принципов позволит расширить сферу применения ИИ в медицине, сформировать нравственную основу и повысить доверие граждан к таким технологиям.
Один из мотивов, по которым принят Кодекс, − повышенный риск причинения вреда здоровью пациентов в силу потенциальных ошибок обработки данных и знаний, а также рекомендаций, формируемых системами ИИ. Об этом мы рассказывали в нашем мониторинге.
Говорить, что рекомендательный документ, который содержит свод общих положений, способен снизить такие риски, пока не приходится. Насколько действенным он окажется, можно будет судить по практике его дальнейшего применения.

Еще более 1750 статей.