Joint Super-Resolution and Tissue Patch Classification for Wholeslide Histological Images

封面

如何引用文章

全文:

详细

Segmentation of wholeslide histological images through the classification of tissue types of small fragments is an extremely relevant task in digital pathology, necessary for the development of methods for automatic analysis of wholeslide histological images. The extremely large resolution of such images also makes the task of increasing image resolution relevant, which allows storing images at a reduced resolution and increasing it if necessary. Annotating whole slide images by histologists is complex and time-consuming, so it is important to make the most efficient use of the available data, both labeled and unlabeled. In this paper we propose a novel neural network method to simultaneously solve the problems of super-resolution of histological images from 20× optical magnification to 40x and classifying image fragments into tissue types at 20× magnification. The use of a single encoder as well as the proposed neural network training scheme allows to achieve better results on both tasks compared to existing approaches. The PATH-DT-MSU WSS2v2 dataset presented for the first time in this paper was used for training and testing the method. On the test sample, an accuracy value of 0.971 and a balanced accuracy value of 0.916 were achieved in the classification task on 5 tissue types, for the super-resolution task, values of PSNR = 32.26 and SSIM = 0.89 were achieved. The source code of the proposed method is available at: https://github.com/Kukty/WSI_SR_CL.

全文:

  1. ВВЕДЕНИЕ

Пример полнослайдового гистологического изображения из набора PATH-DT-MSU WSS2v2 с выполненной полигональной разметкой на 5 классов ткани, включая фон.

Современная цифровая патология позволяет получать большие объемы гистологических изображений в очень высоком разрешении при оптическом увеличении ×40. Такие изображения называются полнослайдовыми и позволяют полностью визуализировать исследуемыей препарат. Пример полнослайдового изображения с разметкой приведен на рис. 1. На эффективную обработку таких объемных и сложных по структуре изображений на данный момент способны только методы глубокого обучения [1, 2]. Подобные методы могут упростить и автоматизировать многие процессы, важные для специалистов-гистологов, например, позволяют проводить грубую сегментацию образца с разделением на несколько типов ткани путем классификации отдельных небольших фрагментов (патчей) [3, 4]. Также большой объем полнослайдовых гистологических изображений, полученных с увеличением ×40, делает актуальной и задачу повышения разрешения (например, с ×20 до ×40), позволяя хранить в 4 раза меньше информации и повышать разрешение изображений при необходимости [5, 6].

 

Рис. 1. Пример полнослайдового гистологического изображения из набора PATH-DT-MSU WSS2v2 с выполненной полигональной разметкой на 5 классов ткани, включая фон

 

Большинство существующих методов автоматической обработки и анализа гистологических изображений ориентированы только на решение одной фиксированной задачи цифровой патологии, например, повышения разрешения [7] или классификации фрагментов ткани [4]. Однако гораздо более эффективным представляется построение моделей, решающих сразу несколько задач, максимально эффективно использующих имеющиеся данные. Данное направление только развивается и пока не получило широкого освещения. Однако существуют подходы, объединяющие в себе несколько моделей. Так, в работе [8] предложена нейросетевая модель, выполняющая повышение разрешения фрагментов изображений с последующей классификацией результатов. При этом подход является избыточным, так как информация, используемая нейросетью для классификации, сгенерирована этой же нейросетью по изображению более низкого разрешения. Данная работа вдохновлена подходами [9] и [10], которые показывают хорошие результаты на задачах повышения разрешения и сегментации.

Основной вклад данной работы заключается в следующем:

  • предложен нейросетевой метод одновременного решения задачи повышения разрешения (с увеличения ×20 на ×40) и классификации фрагментов (на ×20 увеличении) полнослайдовых гистологических изображений, демонстрирующий лучший результат на используемом наборе изображений по сравнению с существующими методами;
  • предложена двухэтапная схема обучения, включающая в себя обучение вспомогательной и основной нейросетевых моделей;
  • представлена обновленная версия полигональной разметки коллекции полнослайдовых изображений PATH-DT-MSU WSS2v2;
  • программно реализованы (в виде библиотеки) pytorch-совместимые загрузчики данных, позволяющие извлекать патчи из полигональной разметки с соблюдением баланса классов;
  • предложенный метод одновременного решения двух задач из области цифровой патологии более эффективен с точки зрения обучения и позволяет провести обучение быстрее по сравнению с обучением двух отдельных моделей.
  1. ПОСТАНОВКА ЗАДАЧИ

Необходимо построить и обучить нейросетевую модель, работающую с фрагментами полнослайдовых гистологических изображений, имеющую один вход (патч 224 × 224 × 3 на увеличении ×20) и два выхода (изображение 448 ×448 ×3 на увеличении ×40 и вектор вероятностей длины N, соответствующий N типам ткани). Первый выход соответствует увеличенному в 2 раза входному патчу, второй выход – предсказанию типа ткани входного патча. Таким образом, эта нейросетевая модель должна одновременно решать задачи повышения разрешения и классификации фрагментов полнослайдовых изображений.

  1. ИСПОЛЬЗУЕМЫЙ НАБОР ДАННЫХ

В данной работе используется набор полнослайдовых гистологических изображений PATH-DT-MSU WSS2v21 с полигональной разметкой участков по типу ткани. Данный набор изображений был собран и подготовлен лабораторией математических методов обработки изображений факультета вычислительной математики и кибернетики МГУ имени М.В. Ломоносова и кафедрой патологии Медицинского научно-образовательного центра МГУ имени М.В. Ломоносова.

Набор данных PATH-DT-MSU постоянно обновляется и расширяется. В текущей работе впервые представлен поднабор WSS2v2, который предоставляет более подробную и уточненную разметку поднабора WSS1v1, представленного ранее [11]. Используемый набор данных состоит из 10 полнослайдовых изображений препаратов при раке желудка, полученных с оптическим увеличением × 40, разрешение изображений составляет около 110000 × 90000 пикселов. Полигональная разметка имеет 5 классов, включающих в себя классы 4 типов ткани (AT, LP, MM, TUM) и фона (BG). Площадь размеченных областей обучающей выборки составляет 1560, 7098, 533, 895, 1303 млн пикселов для классов AT, BG, LP, MM, TUM соответственно на увеличении ×40. Площадь размеченных областей тестовой выборки составляет 1086, 8032, 318, 743, 1199 млн пикселов для классов AT, BG, LP, MM, TUM соответственно на увеличении ×40. Пример полнослайдового изображения с визуализацией разметки из набора PATH-DT-MSU WSS2v2 приведен на рис. 1.

  1. ПРЕДЛАГАЕМЫЙ МЕТОД

Предлагаемый в данной работе метод, одновременно решающий задачи повышения разрешения и классификации фрагментов полнослайдовых гистологических изображений, включает в себя этапы подготовки данных, построения и обучения вспомогательной и основной нейросетевой модели. Данные этапы описаны ниже.

Предлагаемый подход одновременного решения двух задач можно рассматривать как метод с частичным привлечением учителя (англ. semi-supervised learning), так как вспомогательная нейросетевая модель обучается на большом количестве неразмеченных данных для задачи повышения разрешения, затем из нее формируется основная модель, которая обучается на относительно небольшом количестве размеченных данных для задачи классификации.

Подготовка данных

Особенностью используемого в работе набора данных PATH-DT-MSU WSS2v1 является полигональная разметка частей изображения, соответствующих разным типам ткани. Такая разметка хорошо интерпретируема с медицинской точки зрения, удобна для самого процесса разметки, но не подходит для обучения сверточный нейронных сетей, которые обычно работают с небольшими прямоугольными или квадратными фрагментами (патчами). Для решения этой проблемы написана библиотека psimage2 для извлечения патчей из полнослайдовых изображений. Извлечение может проходить как полностью случайно (для задачи повышения разрешения разметка не требуется), так и в соответствии с размеченными полигонами. Во втором случае патчи могут извлекаться как по равномерной сетке (на этапе тестирования), так и случайно (на этапе обучения).

При обучении модели в задаче повышения разрешения патчи из полнослайдового изображения извлекаются случайно, без привязки к разметке, поэтому в обучающую выборку могут попадать фоновые однородные патчи, обучение на которых может привести к ухудшению качества работы. Для предотвращения этого недостатка в данной работе используется энтропия Шеннона [12] для фильтрации фоновых патчей:

HX=-i=1npilog2pi, (1)

где pi – яркость i-го пиксела патча. Значения с низкой энтропией (< 0.2) не попадают в обучающую выборку при решении задачи повышения разрешения.

Архитектура нейронных сетей

В данной работе используются две нейронных сети: вспомогательная (рис. 2) и основная (рис. 3). Обучение происходит последовательно.

 

Рис. 2. Архитектура вспомогательной нейронной сети для повышения разрешения

 

Рис. 3. Архитектура основной нейронной сети для повышения разрешения и классификации

 

Вспомогательная модель представляет собой генеративно-состязательную сеть [13] с UNet-подобным дискриминатором [14]. Данная модель обучается для задачи повышения разрешения на фрагментах изображений без разметки.

Основная модель имеет один вход и два выхода (повышение разрешения, классификация) и обучается и для задачи классификации, и для задачи повышения разрешения, но уже на размеченных фрагментах.

Обе эти модели имеют общий кодировщик, играющий роль экстрактора признаков. Данный кодировщик состоит из двух сверточных слоев и 15 RRDB блоков [15], каждый из которых состоит из трех RDB (Residual-Dense-Block) [16] блоков. Каждый RDB блок состоит из пяти сверточных слоев с активационной функцией Leaky-RELU.

Ветка увеличения размерности основной модели состоит из декодировщика, включающего в себя 4 сверточных слоя. Данный декодировщик совпадает с декодировщиком, используемым в вспомогательной модели, и реализует операцию пиксельного перемешивания (англ. pix shuffle) [17].

Классифицирующая ветка основной модели состоит из двух остаточных блоков [18] и полносвязного слоя.

Обучение вспомогательной модели

Полная функция потерь на первом этапе может быть выражена как взвешенная сумма трех функций потерь:

L=λ1LL1+λ2Lper+λ3Lgan, (2)

где LL1 – попиксельная функция потерь; Lper – функция потерь восприятия [19]; Lgan – генеративно-состязательная функция потерь [20], позволяющая сохранять большее число деталей на изображении. В данной работе значения весов были выбраны как λ1 = 0.2, λ2 = 1.0 и λ3 = 1.0.

Обучение основной модели

Кодировщик вспомогательной сети, обученный на предыдущем этапе, используется в качестве экстрактора признаков и в основной предлагаемой нейросетевой модели (рис. 3). На этом этапе обучения происходит тонкая настройка данного экстрактора признаков и его адаптация для решения задачи классификации, при этом сохраняя его эффективность для решения задачи повышения разрешения. В качестве функции потерь используется сумма функции L1, используемой для выхода с повышением разрешения, и кросс-энтропии, используемой для выхода с предсказанием вектора вероятности классов:

L=LL1+LCE. (3)

Стоит отметить, что в работе используется дополнительная регуляризация со сглаживанием меток (англ. label smoothing) [21], повышающая устойчивость модели в задаче классификации.

Детали реализации

Во всех экспериментах нейросетевые модели обучались на обучающей выборке набора изображений PATH-DT-MSU WSS2v2 и тестировались на соответствующей тестовой выборке набора. В качестве аугментаций использовались вертикальные и горизонтальные отражения, Гауссово размытие, поворот. Более сложные аугментации, такие как изменения цвета, яркости, тона и т. д., не использовались, так как они негативно влияют на результаты повышения разрешения [22]. Размер пакета был выбран равным 32. Обучение проводилось с помощью оптимизатора ADAM с разогревом. Начальная скорость обучения выбиралась 1 × 10–3 и убывала по косинусному правилу. При обучении основной модели в полносвязном слое классификатора использовался Dropout с отключением 25% нейронов. Каждая из моделей (вспомогательная и основная) обучались по 50 эпох.

Предлагаемый в работе метод программно реализован на языке Python 3. При этом использовались фреймворк pytorch и разработанная авторами библиотека psimage3. Также были реализованы загрузчики данных, совместимые с pytorch, позволяющие извлекать патчи из полигональных разметок, проводя при этом балансировку данных по классам.

  1. РЕЗУЛЬТАТЫ

В табл. 1 приведены результаты предложенного метода для задачи классификации фрагментов гистологических изображений на 5 классов по типам ткани. Модели, с которыми проводилось сравнение, были предобучены на наборе изображений ImageNet, после чего дообучены на патчах, полученных из набора PATH-DT-MSU WSS2v2. Видно, что признаки, полученные общим кодировщиком во время обучения вспомогательной модели, информативны и для задачи классификации и позволяют в итоге получить лучшие результаты как по общей, так и по сбалансированной точности.

 

Таблица 1. Результаты различных нейросетевых моделей, предварительно обученных на ImageNet, для задачи классификации патчей на 5 классов для тестовой выборки набора изображений PATH-DT-MSU WSS2v2 при ×20 увеличении

Точность

Метод

AT

BG

LP

MM

TUM

Общая

Сбалансированная

ResNet50 [18]

0.947

1.000

0.871

0.929

0.810

0.969

0.911

DenseNet121 [23]

0.942

1.000

0.833

0.941

0.810

0.968

0.905

Efficient Net [24]

0.930

1.000

0.913

0.942

0.738

0.963

0.904

Mobile Net [25]

0.961

1.000

0.807

0.907

0.789

0.966

0.893

SR+CLS (предложенный)

0.947

1.000

0.873

0.911

0.849

0.971

0.916

ResNet50 (на патчах ×40)

0.962

1.000

0.846

0.949

0.827

0.973

0.917

 

В табл. 2 приведены результаты предложенного метода для задачи повышения разрешения фрагментов гистологических изображений для метрик отношения пикового сигнала к шуму (PSNR) и индекса структурного сходства (SSIM)[26]. Видно, что дообучение кодировщика в основной модели позволяет улучшить эффективность в задаче повышения разрешения за счет использования дополнительной информации о классах, которой не было у вспомогательной модели.

 

Таблица 2. Сравнение моделей повышения разрешения в задаче увеличения с ×20 до ×40 для тестовой выборки набора изображений PATH-DT-MSU WSS2v2 (аннотации не использовались)

Метрика

Метод

3em]PSNR

3em]SSIM

SRGAN [13]

27.2

0.78

ESRGAN [27]

31.82

0.86

SR+CLS (предложенный)

32.66

0.89

 

Матрица ошибок для тестовой выборки PATH-DT-MSU WSS2v2 представлена в табл. 3.

 

Таблица 3. Матрица ошибок классификации патчей предлагаемого метода (на тестовой выборке набора изображений PATH-DT-MSU WSS2v2). GT – истинные значения, Pred – предсказанные

Pred

GT

AT

BG

LP

MM

TUM

AT

4631

110

10

91

48

BG

7

38571

0

1

2

LP

0

0

1210

1

175

MM

91

0

6

2763

173

TUM

320

6

342

102

4334

 

  1. ЗАКЛЮЧЕНИЕ

В данной работе предложен новый нейросетевой метод одновременного решения задач классификации и повышения разрешения фрагментов полнослайдовых гистологических изображений. Метод включает в себя последовательное обучение вспомогательной и основной нейросетевых моделей. Благодаря общему кодировщику, участвующего при решении обеих задач и использующего при обучении максимально возможное количество информации, продемонстрированы лучшие результаты предложенного метода как для задачи классификации, так и для задачи повышения разрешения. Достигнутые значения сбалансированной точности классификации 0.916 и PSNR = 32.36, SSIM = 0.89 для задачи повышения разрешения на тестовой выборке набора изображений PATH-DT-MSU WSS2v2 позволяют говорить о применимости предложенного метода на практике и использовании в реальных системах обработки и анализа гистологических изображений.

  1. ИСТОЧНИК ФИНАНСИРОВАНИЯ

Исследования выполнены при финансовой поддержке Российского научного фонда в рамках научного проекта № 22-41-02002.

1 https://imaging.cs.msu.ru/en/research/histology/path-dt-msu

2 https://github.com/xubiker/psimage

3 https://github.com/xubiker/psimage

×

作者简介

Zh. Sun

Lomonosov Moscow State University

编辑信件的主要联系方式.
Email: sbitb0009@gse.cs.msu.ru
俄罗斯联邦, Moscow

A. Khvostikov

Lomonosov Moscow State University

Email: khvostikov@cs.msu.ru
俄罗斯联邦, Moscow

A. Krylov

Lomonosov Moscow State University

Email: kryl@cs.msu.ru
俄罗斯联邦, Moscow

A. Sethi

Indian Institute of Technology Bombay

Email: asethi@ee.iitb.ac.in
印度, Mumbai

I. Mikhailov

Lomonosov Moscow State University

Email: imihailov@mc.msu.ru
俄罗斯联邦, Moscow

P. Malkov

Lomonosov Moscow State University

Email: pmalkov@mc.msu.ru
俄罗斯联邦, Moscow

参考

  1. Hu W. et al. A state-of-the-art survey of artificial neural networks for whole-slide image analysis: from popular convolutional neural networks to potential visual transformers // Computers in Biology and Medicine. 2023. V. 161. P. 107034.
  2. Rodriguez J.P.M. et al. Artificial intelligence as a tool for diagnosis in digital pathology whole slide images: A systematic review // Journal of Pathology Informatics. 2022. P. 100138.
  3. Wulczyn E. et al. Deep learning-based survival prediction for multiple cancer types using histopathology images // PloS one. 2020. V. 15. № 6. P. e0233678.
  4. Khvostikov A., Krylov A., Mikhailov I., Malkov P. Visualization and Analysis of Whole Slide Histological Images // Lecture Notes in Computer Science. 2023. V. 13644. P. 403–413.
  5. Juhong A. et al. Super-resolution and segmentation deep learning for breast cancer histopathology image analysis // Biomedical Optics Express. 2023. V. 14. № 1. P. 18–36.
  6. Afshari M., Yasir S., Keeney G.L., Jimenez R.E., Garcia J.J., Tizhoosh H.R. Single patch super-resolution of histopathology whole slide images: a comparative study // Journal of Medical Imaging. 2023. V. 10. № 1. P. 017501–017501.
  7. Chen Z., Wang J., Jia C., Ye X. Pathological image super-resolution using mix-attention generative adversarial network // International Journal of Machine Learning and Cybernetics. 2023. P. 1–11.
  8. Xie L., Li C., Wang Z., Zhang X., Chen B., Shen Q., Wu Z. SHISRCNet: Super-resolution And Classification Network For Low-resolution Breast Cancer Histopathology Image // Medical Image Computing and Computer Assisted Intervention – MICCAI 2023. 2023. P. 23–32.
  9. Salgueiro L., Marcello J., Vilaplana V. SEG-ESRGAN: A Multi-Task Network for Super-Resolution and Semantic Segmentation of Remote Sensing Images // Remote Sensing. 2022. V. 14. № 22. P. 5862.
  10. Wang L., Li D., Zhu Y., Tian L., Shan Y. Dual super-resolution learning for semantic segmentation // Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020. P. 3774–3783.
  11. Khvostikov A., Krylov A., Mikhailov I., Malkov P., Danilova N. Tissue type recognition in whole slide histological images // CEUR Workshop Proceedings. 2021. V. 3027. P. 50.
  12. Larkin K.G. Reflections on shannon information: In search of a natural information-entropy for images //arXiv preprint arXiv:1609.01117, 2016.
  13. Ledig C. et al. Photo-realistic single image super-resolution using a generative adversarial network // Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. P. 4681–4690.
  14. Schonfeld E., Schiele B., Khoreva A. A U-Net based discriminator for generative adversarial networks // Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020. P. 8207–8216.
  15. Wang X., Xie L., Dong C., Shan Y. Real-ESRGAN: Training real-world blind super-resolution with pure synthetic data // Proceedings of the IEEE/CVF international conference on computer vision. 2021. P. 1905–1914.
  16. Zhang Y., Tian Y., Kong Y., Zhong B., Fu Y. Residual dense network for image super-resolution // Proceedings of the IEEE conference on computer vision and pattern recognition. 2018. P. 2472–2481.
  17. Shi W. et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network // Proceedings of the IEEE conference on computer vision and pattern recognition. 2016. P. 1874–1883.
  18. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // Proceedings of the IEEE conference on computer vision and pattern recognition. 2016. P. 770–778.
  19. Schreiber S., Geldenhuys J., De Villiers H. Texture synthesis using convolutional neural networks with long-range consistency and spectral constraints // 2016 Pattern Recognition Association of South Africa and Robotics and Mechatronics International Conference (PRASA-RobMech). IEEE. 2016. P. 1–6.
  20. Krichen M. Generative adversarial networks // 14th International Conference on Computing Communication and Networking Technologies (ICCCNT). IEEE. 2023. P. 1–7.
  21. Müller R., Kornblith S., Hinton G.E. When does label smoothing help? // Advances in neural information processing systems. 2019. P. 4696–4705.
  22. Yoo J., Ahn N., Sohn K.A. Rethinking data augmentation for image super-resolution: A comprehensive analysis and a new strategy // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020. P. 8375–8384.
  23. Huang G. et al. Densely connected convolutional networks // Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. P. 4700–4708.
  24. Tan M., Le Q. Efficientnetv2: Smaller models and faster training // International conference on machine learning. PMLR. 2021. P. 10096–10106.
  25. Howard A.G. et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications // arXiv preprint arXiv:1704.04861, 2017.
  26. Chen Z., Guo X., Woo P.Y., Yuan Y. Super-resolution enhanced medical image diagnosis with sample affinity interaction // IEEE Transactions on Medical Imaging. 2021. V. 40. № 5. P. 1377–1389.
  27. Wang X. et al. ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks // Computer Vision–ECCV 2018 Workshops: Munich, Germany, September 8–14, 2018. Proceedings. Part V 15. Springer International Publishing. 2019. P. 63–79.

补充文件

附件文件
动作
1. JATS XML
2. Fig. 1. Example of a full-slide histological image from the PATH-DT-MSU WSS2v2 set with polygonal markup performed on 5 tissue classes, including the background

下载 (916KB)
3. Fig. 2. Architecture of the auxiliary neural network for resolution enhancement

下载 (337KB)
4. Fig. 3. Basic neural network architecture for resolution and classification enhancement

下载 (239KB)

版权所有 © Russian Academy of Sciences, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».