Концепция ответственного искусственного интеллекта — будущее искусственного интеллекта в медицине

Обложка

Цитировать

Полный текст

Аннотация

Активное развертывание систем искусственного интеллекта (ИИ) в медицине создаёт множество трудностей. В последние годы широко обсуждается концепция ответственного искусственного интеллекта (ОИИ), направленная на решение неизбежно возникающих этических, юридических и социальных проблем. Проведён анализ научной литературы по теме, рассмотрена возможность применения концепции ОИИ для преодоления существующих проблем ИИ в медицине. Исследования возможных применений ИИ в медицине показали, что современные алгоритмы не способны удовлетворить базовые непреходящие потребности общества — справедливость, прозрачность и надёжность. С целью решения данных этических проблем была предложена концепция ОИИ, основывающаяся на трёх принципах (ART) — объясняемость и прозрачность выводов, а также ответственность за деятельность ИИ. Дальнейшее развитие, без разработки и применения ART-концепции, делает опасным и невозможным применение ИИ в таких областях, как медицина, государственное управление и т.д. Требования к объясняемости и прозрачности выводов основываются на выявленных эпистемологических (ошибочные, непрозрачные, неполные выводы) и нормативных (конфиденциальность данных, дискриминация определённых групп) проблемах применения ИИ в цифровой медицине [2]. Эпистемологические ошибки, совершаемые ИИ, не ограничиваются упущениями, связанными с объёмами и репрезентативностью исходных анализируемых баз данных. К ним также относят известную проблему «чёрного ящика» — невозможность «заглянуть» в процесс формирования выводов ИИ при обработке входных данных. Наряду с эпистемологическими ошибками также неизбежно возникают нормативные проблемы — конфиденциальность пациентов и дискриминация некоторых социальных групп вследствие отказа части пациентов на предоставление их медицинских данных для тренировки алгоритмов и в составе анализируемых баз данных, что приведёт к недостаточно точным выводам ИИ в случаях определённых гендеров, рас, возрастов и т.д.

Важно отметить, что методология анализа данных ИИ зависит от кода программы, заданного программистом, эпистемологические и логические ошибки которого неизбежно проецируются на ИИ. Отсюда следует проблема определения ответственности в случае ошибочных выводов — её распределение между самой программой, разработчиком и исполнителем. Многочисленные профессиональные ассоциации проектируют этические стандарты для разработчиков и законодательную базу для регулирования ответственности между описанными звеньями. Однако очевидно, что в разработке и утверждении такого законодательства наибольшую роль должно играть государство.

Применение ИИ в медицине, несмотря на преимущества, сопровождается множеством этических, юридических и социальных проблем. Разработка ОИИ способна не только разрешить данные трудности, но и обеспечить дальнейшее активное и безопасное развертывание систем ИИ в цифровой медицине и здравоохранении.

Об авторах

Николай Станиславович Германов

Российский национальный исследовательский медицинский университет имени Н.И. Пирогова

Автор, ответственный за переписку.
Email: n.s.germanov@gmail.com
ORCID iD: 0000-0003-1953-8794
Россия, Москва

Список литературы

  1. Dignum V. Responsibility and Artificial Intelligence. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020. doi: 10.1093/oxfordhb/9780190067397.013.12
  2. Trocin C, Mikalef P, Papamitsiou Z, et al. Responsible AI for Digital Health: a Synthesis and a Research Agenda. Inf Syst Front. 2021. Available from: https://www.researchgate.net/publication/352769689_Responsible_AI_for_Digital_Health_a_Synthesis_and_a_Research_Agenda/link/60d807df92851ca9448cf7c4/download. doi: 10.1007/s10796-021-10146-4
  3. Racine E, Boehlen W, Sample M. Healthcare uses of artificial intelligence: Challenges and opportunities for growth. Healthcare Management Forum. 2019;32(5):272–275. doi: 10.1177/0840470419843831
  4. Zednik C. Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelligence. Philos. Technol. 2021;34:265–288. doi: 10.1007/s13347-019-00382-7
  5. Astromskė K, Peičius E, Astromskis P. Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations. AI & Soc. 2021;36:509–520. doi: 10.1007/s00146-020-01008-9
  6. Burr C, Taddeo M, Floridi L. The Ethics of Digital Well-Being: A Thematic Review. Sci Eng Ethics. 2020;26:2313–2343. doi: 10.1007/s11948-020-00175-8
  7. Gotterbarn D., Bruckman M., Flick C, Miller K, Wolf MJ. ACM Code of Ethics: A Guide for Positive Action. Communications of the ACM. 2018;61(1):121–128. doi: 10.1145/3173016

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».