Ethical gaps in the ethics of artificial intelligence

Cover Page

Cite item

Full Text

Abstract

The development of neural networks and their active implementation in various spheres of the economy have raised the challenge of ethical evaluation and legal regulation of the development and application of artificial intelligence (AI) systems. Over the last decade, more than 200 ethical codes and recommendations have been created worldwide, which are actively discussed within the framework of scientific research. The majority of these documents are based on a principle-based approach that sets the boundaries of ethics in the field of AI. This article examines the ethical gaps in artificial intelligence ethics through the development of a multi-level system of strategies to overcome them. The subject of the research is specific mechanisms and strategies for transforming abstract ethical principles into functioning practices at each level. This article discusses the main approaches to addressing issues in artificial intelligence ethics. A systemic approach is proposed as a methodological basis, integrating technical solutions, organizational changes, and legal mechanisms. The applicability of the proposed approach is demonstrated through the analysis of key ethical issues in AI: systematic reproduction of biases, the "black box" problem, distribution of responsibility, the declarative nature of ethical and legal norms, and the challenges of responsibility attribution. For each problem, specific methods of resolution are outlined – from the creation of counterfactual fairness algorithms to checklists for assessing the ethics of AI systems. Conclusions are drawn that a three-level "filter" system is necessary for systematically addressing ethical gaps in AI ethics, which involves differentiating approaches at the development level, organizational changes, creating new principles for state regulation, and a shift in the paradigm of responsibility distribution. The main conclusion of the research is the need for a comprehensive systemic approach, where the rigor of regulation is proportional to the potential harm from the use of the AI system.

References

  1. Jobin A., Ienca M., Vayena E. The Global landscape of AI ethics guidelines // Nature Machine Intelligence. 2019. Vol. 1, No. 9. P. 389-399.
  2. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines. 2020. P. 99-120.
  3. Morin-Martel A. AI Ethics: Institutional Turn // Digital Society. 2025. No. 4(18).
  4. Bar-Gil O. Examining trends in AI ethics across countries and institutions via quantitative discourse analysis // AI & Society. 2025.
  5. Харитонова Ю. С., Савина В. С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. Вып. 53. С. 488-515. doi: 10.17072/1995-4190-2021-53-488-515. EDN: EUKCPY.
  6. Шталь Б. К., Шредер Д., Родригес Р. Этика искусственного интеллекта: кейсы и варианты решения этических проблем // Экономическая социология. 2024. Т. 25. № 1. С. 85-92. doi: 10.17323/1726-3247-2024-1-85-95. EDN: HVDDTQ.
  7. Buolomwini J., Gebru T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification // Proceedings of Machine Learning Research. 2018. P. 1-15.
  8. O'Neil C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016. 209 p.
  9. Смирнова А. И. Предвзятость как проблема алгоритмов ИИ: этические аспекты // Философия и общество. 2023. № 3. С. 118-126. doi: 10.20884/jfio/2023.03.07. EDN: VNZKTC.
  10. Бессараб О. С., Газизова И. И., Телякаева А. Ф. Философия искусственного интеллекта и этика технологий: как философия формирует этические принципы для развития ИИ, моральные дилеммы, связанные с роботизацией // Вестник науки. 2025. № 6(87). Т. 1. С. 1285-1296. EDN: JDJWXV.
  11. Чесалов А. Ю. Глоссариум по искусственному интеллекту: 2500 терминов. М.: Издательские решения, 2022. 670 с.
  12. Барышников П. Н. "Черный ящик" или прозрачный алгоритм: аналитический обзор источников по этике искусственного интеллекта // Вестник Томского государственного университета. Философия. Социология. Политология. 2025. № 85. С. 5-20. doi: 10.17223/1998863X/85/1. EDN: IWICPO.
  13. ГОСТ Р 59276-2020. Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения [Электронный ресурс] // Федеральное агентство по техническому регулированию и метрологии (Росстандарт). Режим доступа: https://www.rst.gov.ru/portal/gost (дата обращения 01.12.2025).
  14. Бирюков Д. Н., Дудкин А. С. Объяснимость и интерпретируемость – важные аспекты безопасности, принимаемых интеллектуальными системами (обзорная статья) // Научно-технический вестник информационных технологий, механики и оптики. 2025. Т. 25. № 3. С. 373-386. doi: 10.17586/2226-1494-2025-25-3-373-386. EDN: NHHVUJ.
  15. Custers B., Lahmann H., Scott B. From liability gaps to liability overlaps: shared responsibilities and fiduciary duties in AI and other complex technologies // AI & Society. 2025. P. 4035-4050.
  16. Ястреб Н. А. Концепции этики искусственного интеллекта: от принципов к критическому подходу // Семиотические исследования. 2024. Т. 4. № 1. С. 24-30. doi: 10.18287/2782-2966-2024-4-1-24-30. EDN: UFLHKD.
  17. Ястреб Н. А. Идеализированная когнитивная модель абстрактного понятия "искусственный интеллект" // Вестник Томского государственного университета. Философия. Социология. Политология. 2025. № 84. С. 44-54. doi: 10.17223/1998863X/84/5. EDN: SJPHNJ.

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).