Digital Mimicry: Protecting Personal Rights from the Illegal Use of Deepfake Technologies

Cover Page

Cite item

Full Text

Abstract

The present study is devoted to a comprehensive analysis of the phenomenon of "digital mimicry" – the illegal use of deep synthesis technologies (deepfake) in the context of protecting individual rights. The subject encompasses both criminal law and forensic aspects of the application of synthetic audio and video materials that reproduce a person's biometric characteristics (appearance, voice, facial expressions) without their consent. Special attention is paid to the qualification of unlawful acts related to deepfakes within the current Russian legislation, identifying gaps in legal regulation, and their correlation with international approaches. Typical models of criminal schemes, including deepfake fraud and "virtual kidnapping," are analyzed, as well as the issues of the admissibility of using synthetic media for cultural, educational, and law enforcement purposes. The research is based on the study of judicial practice, doctrinal sources, comparative legal data, and technological characteristics of modern deep synthesis algorithms. The study employs formal-legal, comparative-legal, forensic, and system-structural methods, combined with an analysis of judicial practice and regulatory acts. The scientific novelty of the research lies in the comprehensive interdisciplinary examination of the deepfake phenomenon from the perspectives of criminal law, forensic science, and comparative jurisprudence, as well as in formulating proposals for improving Russian legislation in the field of biometric data protection. For the first time, the main models of illegal application of deep synthesis technologies have been systematized and classified, gaps in the qualification of acts related to the forgery of images or voices have been identified, and the necessity of introducing an independent criminal offense into the Criminal Code of the Russian Federation has been justified, stipulating liability for the illegal use of synthetic biometric images. Additionally, the significance of implementing procedural guarantees ensuring the admissibility of digital evidence obtained using specialized deepfake detection algorithms has been substantiated. A conclusion has been drawn about the feasibility of developing a unified methodology for proving the fact of deepfake use, integrating automated detection systems, and harmonizing national regulations with international standards.

References

  1. Ефремова М. А., Русскевич Е. А. Дипфейк (deepfake) и уголовный закон // Вестник Казанского юридического института МВД России. 2024. Т. 15. № 2. С. 97-105. doi: 10.37973/VESTNIKKUI-2024-56-13. EDN: LXAWLM.
  2. Долгиева М. М. Квалификация дипфейк-мошенничества и киберпохищения человека // Актуальные проблемы российского права. 2024. Т. 19. № 11. С. 106-113. doi: 10.17803/1994-1471.2024.168.11.106-113. EDN: GDLNXP.
  3. Мосечкин И. Н. Дипфейк-технологии и биометрические данные: направления уголовно-правового регулирования // Вестник Санкт-Петербургского университета. Право. 2025. Т. 16. № 1. С. 95-110. doi: 10.21638/spbu14.2025.107. EDN: QGPADN.
  4. Уртаева Э. Б. Возможности и угрозы применения искусственного интеллекта (ИИ) в политических коммуникациях // Общество: политика, экономика, право. 2024. № 2. С. 44-51. doi: 10.24158/pep.2024.2.3. EDN: UALQLW.
  5. Иванов В. Г., Игнатовский Я. Р. Deepfakes: перспективы применения в политике и угрозы для личности и национальной безопасности // Вестник РУДН. Серия: Государственное и муниципальное управление. 2020. Т. 7. № 4. С. 379-386. doi: 10.22363/2312-8313-2020-7-4-379-386. EDN: YJJUWH.
  6. Красовская Н. Р., Гуляев А. А. Технологии манипуляции сознанием при использовании дипфейков // Власть. 2020. Т. 28. № 4. С. 93-98. doi: 10.31171/vlast.v28i4.7439. EDN: GQJJQY.
  7. Васильева И. А., Халина Н. В. Дипфейк как технология призрачных коммуникаций // PR и реклама в изменяющемся мире: региональный аспект. 2021. № 25. С. 111-116. EDN: DDCSUY.
  8. Купка И. П., Щербаков С. С. Дипфейк как информационное оружие современности // Динамика медиасистем. 2023. Т. 3. № 1. С. 375-381. EDN: IAHENL.
  9. Яценко Т. С. Проблемы гражданско-правового регулирования посмертного использования нематериальных благ // Журнал российского права. 2023. Т. 27. № 7. С. 35-46. doi: 10.12737/jrp.2023.077. EDN: DMSJHN.
  10. Никишин В. Д. Репутационная безопасность и медиабезопасность компаний и проектов в контексте целей устойчивого развития и ESG-принципов // Актуальные проблемы российского права. 2022. Т. 17. № 9. С. 73-82. doi: 10.17803/1994-1471.2022.142.9.073-082. EDN: MKOIFG.
  11. Калятин В. О. Дипфейк как правовая проблема: новые угрозы или новые возможности? // Закон. 2022. № 7. С. 87-103. doi: 10.37239/0869-4400-2022-19-7-87-103. EDN: FENGGS.
  12. Минбалеев А. В. Проблемы гражданско-правовой защиты личных неимущественных прав в процессе цифрового профилирования граждан // Гражданское право. 2022. № 2. С. 9-11. doi: 10.18572/2070-2140-2022-2-9-11. EDN: TQOLTI.
  13. Апостолова Н. Н. Достоверность доказательств и технологии дипфейка // Российский судья. 2023. № 11. С. 7-11. doi: 10.18572/1812-3791-2023-11-7-11. EDN: OUSXSG.
  14. Лаптев В. А. Deepfake и иные продукты искусственного интеллекта на пути развития онлайн-правосудия // Актуальные проблемы российского права. 2021. Т. 16. № 11. С. 180-186. doi: 10.17803/1994-1471.2021.132.11.180-186. EDN: HOMQCG.
  15. Батоев В. Б. Об использовании технологии "Deepfake" в оперативно-розыскной деятельности // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2023. № 1. С. 70-76. doi: 10.36511/2078-5356-2023-1-70-76. EDN: MKPHSD.

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).