Transparency of algorithms as a legal principle of automated processing of data relating to a person

Cover Page

Cite item

Full Text

Abstract

The article discusses the problems of implementing the principle of transparency of algorithms when using information technology. The computer algorithms underlying the software often remain "black boxes" for individuals. The proposed article substantiates the need for legislative stipulation of the principle of transparency of algorithms. It assumes the openness and accessibility of information about the information used by the algorithm, the sources of obtaining such information, logical circuits and mechanisms for their processing, as well as the nature of the information obtained as a result of processing, the purposes and methods of its use. Noting the positive trends in Russian legislative regulation, the author emphasizes the need to improve legislation. The study was carried out using the comparative legal method. Examples of the legal consolidation of the principle of transparency of algorithms in the legislation of foreign countries are considered. In relation to Russian legislation, gaps in regulation are noted on the basis of the formal legal method, and proposals are formulated to eliminate them. The scientific novelty of the research lies in the formulation of the content of the principle of transparency of algorithms. It is noted that the principle of transparency should be manifested in the realization by individuals of their right to receive reliable, comprehensive and understandable information about the functioning of algorithms, about the information used and about the derived data. It is emphasized that at the level of the federal law, a criterion for the comprehensibility of information for users should be formulated. The position is also expressed that in the case of using algorithms in recommendation systems or in targeted advertising, the user should be able to refuse algorithmic processing of data about him, or limit the use of certain personal information by algorithms.

References

  1. Gillespie T. The relevance of algorithms // Media Technologies: Essays on Communication, Materiality, and Society. Ed. by T. Gillespie, P. J. Boczkowski, K. A. Foot. Boston: MIT Press, 2014. P. 167–193.
  2. Aneesh A. Technologically Coded Authority: The Post-Industrial Decline in Bureaucratic Hierarchies // https://www.researchgate.net/publication/254843955_Technologically_Coded_Authority_The_Post-Industrial_Decline_in_Bureaucratic_Hierarchies (дата обращения: 13.10.2023).
  3. Пибаев И. А., Симонова С. В. Алгоритмы в механизме реализации конституционных прав и свобод: вызовы цифровой эпохи // Сравнительное конституционное обозрение. 2020. № 6. С. 31–50.
  4. Талапина Э. В. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. № 10. С. 25–39.
  5. Харитонова Ю. С., Савина В. С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. № 3. С. 488–515.
  6. Харитонова Ю. С. Правовые средства обеспечения принципа прозрачности искусственного интеллекта // Journal of Digital Technologies and Law. 2023. №. 1. С. 337–358. doi: 10.21202/jdtl.2023.14.
  7. Кутейников Д. Л., Ижаев О. А., Зенин С. С., Лебедев В. А. Алгоритмическая прозрачность и подотчетность: правовые подходы к разрешению проблемы «черного ящика» // Lex russica. 2020. Т. 73. № 6. С. 139–148. doi: 10.17803/1729-5920.2020.163.6.139-148.
  8. Харитонова Ю. С., Ян Т. Рекомендательные системы: выработка правовых подходов в России и Китае // Предпринимательское право. 2022. № 2. С. 50–58.
  9. Харитонова Ю. С., Тяньфан Я. Рекомендательные системы цифровых платформ в Китае: правовые подходы и практика обеспечения прозрачности алгоритмов // Закон. 2022. № 9. С. 40–49.
  10. Seymour W. Detecting Bias: Does An Algorithm Have to Be Transparent in Order to Be Fair? // http://ceur-ws.org/Vol-2103/paper_1.pdf (дата обращения: 13.10.2023 г.)

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).