Искусственный интеллект, шахматы и риски современной цивилизации

Обложка

Цитировать

Полный текст

Аннотация

В настоящее время сфера искусственного интеллекта является одним из наиболее интенсивно развивающихся направлений современной науки. Предметом статьи является актуальная проблематика, связанная с интенсивным развитием искусственного интеллекта. Цель работы состоит в выявлении возможных проблем в данном вопросе и предложения способов их разрешения. В работе используется социосимметричный подход, согласно которому исследуется аналогичная проблематика, актуализированная в пространстве шахмат. Методологической основой исследования является экстраполяция, позволяющая применить метод искусственного интеллекта в социокультурном пространстве. Проанализированы мнения современных учёных и философов по этому вопросу. Показано, что столь популярный в сфере культуры сценарий выхода искусственного интеллекта из-под контроля человечества вряд ли представляет реальную опасность для нашей цивилизации. Рассмотрены актуальные проблемы, связанные с развитием компьютерных технологий в шахматах. Данный подход обусловлен тем, что шахматы во многом являются отражением реально существующей социокультурной проблематики. Выявлено, что появление шахматных программ, превосходящих силой людей, не привело к каким-либо негативным проблемам в шахматном пространстве. Таким образом, подтвержден тезис о том, что сам по себе сильный искусственный интеллект не несет сколько-нибудь реальной угрозы человечеству. При этом обращение к шахматной тематике показывает, что одной из наиболее злободневных проблем в шахматах – связанных с развитием компьютерных технологий – является читерство – использование шахматных программ для достижения победы нечестным путем. Выявлена связь между читерством в шахматах и возможностью применения аналогичных технологий в глобальном масштабе, что с высокой долей вероятности может привести к цивилизационному кризису. Как отмечали исследователи данного вопроса, искусственный интеллект может быть использован в качестве инструмента по установлению автократического режима (Ван Цзяньган), или стать средством для радикальных социально-политических процессов (Г. И. Колесникова). В заключении выдвинуты предложения по наиболее эффективным методам борьбы с возможным использованием искусственного интеллекта для радикального изменения вектора развития нашей цивилизации. Они, по нашему мнению, должны включать в себя методологии трансгуманизма и философии техники, создавая, таким образом, междисциплинарный подход к философии искусственного интеллекта.

Полный текст

Введение

Вряд ли подлежит сомнению тот факт, что перед нашим обществом стоит ряд злободневных проблем, связанных с дальнейшим развитием цивилизации. Они лежат в различных плоскостях: социальных, политических, культурных, технологических. Рассмотрению одной из таких проблем и посвящено данное исследование.

Сегодня под термином искусственный интеллект понимается комплекс программных средств, имеющий возможность осуществлять интеллектуальную деятельность, аналогичную интеллектуальной деятельности человека. В настоящее время искусственный интеллект является феноменом не только в научно-техническом, но и в социокультурном значении. Проблемы, относящиеся к сфере компьютерных наук и нейрофизиологии, выходят за рамки нашего исследования. Однако искусственный интеллект ставит перед нами также вопросы, относящиеся к социально-философскому контексту. Наиболее актуальной из них является выявление и оценка рисков, связанных с бурным развитием искусственного интеллекта. Исследование данной проблемы и предложение возможных путей её решения является основной целью данной работы.

Следует отметить, что идеальным объектом для изучения искусственного интеллекта являются шахматы – не зря известный советский математик А. С. Кронрод сравнивал их с дрозофилой [9, с. 149], с которой в свое время был связан бурный прогресс генетической науки. Отмечалось также, что и многие другие учёные «…работающие в области искусственного интеллекта, неоднократно указывали на шахматы как на характерный пример полезный для исследования мыслительных процессов человека» [10, с. 126]. Проблема изучения развития искусственного интеллекта в контексте шахмат состоит в ограниченности горизонта знаний у специалистов, занимающихся разработкой данной тематики. Среди шахматистов сложно найти ученых, занимающихся социокультурными и философскими проблемами, а ученые, владеющие этим материалом, как правило, далеки от понимания тонкостей шахмат. Доходит до того, что в некоторых научных работах можно встретить неправильные названия шахматных фигур: «тура, офицер» [12, c. 644]. Безусловно, подобные солецизмы негативно влияют на восприятие результатов исследований.

В качестве исключения можно упомянуть лишь М. М. Ботвинника – чемпиона мира по шахматам, доктора технических наук, занимавшегося созданием искусственного интеллекта, способного играть в шахматы. Он отмечал, что «принятие решений с помощью компьютеров может помочь в решении тех трудных задач, которые сейчас стоят перед человечеством» [2, с. 223]. Как видно из этой цитаты, его понимание значимости компьютерных программ выходило далеко за пределы шахматной доски.

Немаловажным является и тот факт, что шахматы общепризнано и заслуженно считаются не просто игрой, а одним из феноменов культуры. Уникальные в своем триединстве (искусство, наука, спорт) они занимают значимое место в современном культурном пространстве. Более того, как отмечалось, «шахматы на протяжении всей истории человечества повторяют, а зачастую и предвосхищают процессы, происходящие в социокультурной и общественно-политической сфере, в научной и философской мысли» [13, с. 12]. Данное явление, которое можно охарактеризовать термином социосимметрия, позволяет попытаться обратиться к актуальной шахматной проблематике, с целью спроецировать её на возможные риски глобального характера, связанные с развитием искусственного интеллекта.

Искусственный интеллект как угроза

Идея создания искусственного шахматного интеллекта впервые была актуализирована основоположниками данного направления в современной науке. В середине XX столетия проблематикой, связанной с разработкой шахматных программ, занимались Н. Винер [5, с. 246], А. Тьюринг [18] и К. Шеннон [17]. Исследователи того времени предполагали, что «Если когда-нибудь получится создать удачную машину для игры в шахматы, возможно, люди постигнут суть своих усилий» [16, p. 320]. Работа над их совершенствованием продолжалась всю вторую половину XX века, и уже в конце прошлого столетия суперкомпьютер Deep Blue, разработанный компанией IBM, смог победить действующего чемпиона мира по шахматам (Матч Deep Blue – Гарри Каспаров, Нью-Йорк, май 1997 г.).

В настоящее время в специализированной литературе выделяется три вида искусственного интеллекта: слабый (ограниченный); сильный (сравнимый с человеком); и наиболее интересующий нас сверхсильный: «… превосходящий человека принципиально – настолько, насколько человек по творчеству превосходит слабый ИИ» [6, с. 8]. Отметим, что основной критерий способности искусственного интеллекта мыслить – тест Тьюринга – для шахматных программ остался давно пройденным этапом. Согласно тесту Тьюринга, машина считается мыслящей, если разговаривающий с ней человек неспособен понять, с кем он разговаривает – с человеком или с машиной. Безусловно, слабый искусственный интеллект легко определить по грубым ошибкам, как в процессе общения, так и при игре в шахматы. Современные же шахматные программы настолько превосходят людей, что если их и можно отличить от человека, то лишь по огромному превосходству в силе игры. Многие новые пути в шахматной теории и стратегии были раскрыты компьютерными программами, что уверенно позволяет отнести их к третьему типу искусственного интеллекта, актуализированного в контексте шахмат.

Наиболее злободневная современная проблематика шахмат связана, несомненно, с интенсивным развитием шахматных компьютерных программ. В настоящее время вершиной шахматной компьютерной эволюции является «AlphaZero» – нейронная сеть, созданная в 2017 году разработчиками компании DeepMind. Как отмечается, «Самостоятельно раскрыв базовые принципы, стратегии и тактики шахматного спорта и преодолев недостатки мышления предшественников в сыгранных партиях, «AlphaZero» представила мировому сообществу уровень интеллекта, значительно превосходящий человеческий» [11, с. 104]. Принципиальное отличие «AlphaZero» от существующих до неё шахматных программ состоит в том, что базовые понятия и тонкости шахмат не были в ней заложены изначально, а изучались самостоятельно, что является ярким примером торжества искусственного интеллекта над стандартным программным алгоритмом.

Переходя непосредственно к теме глобальных проблем, связанных с развитием искусственного интеллекта, можно констатировать, что одной из наиболее тиражируемых экзистенциальных угроз для человечества является восстание машин (захват искусственным интеллектом власти над миром). Как отмечает Г. И. Колесникова, «В современной реальности на различных уровнях, от научных и государственных до «кухонных» разговоров и различных дискуссий в СМИ, активно муссируются темы искусственного интеллекта (ИИ), «разумности» машин и вероятность их восстания» [8, с. 34]. Действительно, эта тема весьма популярна как в художественной литературе фантастического и постапокалиптического содержания (впервые в фантастическом рассказе-притче Р. Шекли «Страж-птица» ещё в 1953 году), так и в кинематографе, от культового «Терминатора» (1984 г.) до современного сериала «Мир дикого запада» (2016–2022 гг.). Однако в последнее время она стала подвергаться широкому обсуждению и в научной среде. Как отмечалось в современном исследовании А. Д. Иоселиани и А. Д. Цхалидзе «Искусственный интеллект: социально-философское осмысление», одним из актуальных вопросом по данной теме будет: «Какие опасности таит в себе ИИ, насколько непредсказуем его потенциал?» [7, c. 197]. Перечисляя возможные сценарии дальнейшего развития событий, авторы среди них отмечают и пессимистичный: «Как только у бездушной машины появится самосознание, она фактически превратится в человека, только гораздо более умелого. И если, будет конфликт с этим устройством, то последствия будут очень печальными» [7, с. 199]. Стоит отметить, что о подобной эвентуальной угрозе высказывались такие современные учёные и изобретатели, как Б. Гейтс, Э. Маск и С. Хокинг. В частности, по мнению Э. Маска вероятность того, что искусственный интеллект уничтожит человечество, составляет от 10 до 20%1. Аналогичного мнения придерживается видный американский учёный М. Тегмарк. В своем труде «Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта» он отмечал: «Непонятно, как вдохновить сверхразумный ИИ конечной целью, которая не была бы неопределенной и не приводила бы к истреблению человечества, и это снова возвращает нас к исследованиям некоторых сложнейших вопросов философии» [15, с. 424].

Показателен и тот факт, что, описывая возможные негативные последствия выхода из-под контроля человека ИИ, исследователи прибегают к аналогиям, связанным с шахматами. Так, современный шведский философ Н. Бостром, директор Института будущего человечества, считает, что в таком случае «никаких шансов на противостояние в духе кинофильма про Терминатора, никаких перестрелок с железными киборгами. Нас ждет шах и мат – как в поединке шахматного компьютера «Дип Блю» с первоклассником» [1, с. 12]. Отметим, что со времени выхода работы Н. Бострома шахматные программы стали несоразмерно сильнее ведущих шахматистов планеты, усугубив, таким образом, его апокалиптические прогнозы.

Тем не менее, большинство исследователей данного вопроса считают, что опасность преувеличена – по крайней мере, на данном этапе развития цивилизации и при нынешнем уровне развития искусственного интеллекта. Не зря одна из глав в труде М. Тегмарка называется «Мир в следующие 10 тысяч лет». В работе «Этика искусственного интеллекта» российский учёный, доктор философских наук А. В. Разин, анализируя возможные риски, подытоживает: «Я полагаю, что все эти опасения совершенно беспочвенны» [14, с. 72]. Безусловно, при этом, как отмечает М. А. Вертелецкая, проблематику, связанную с последствиями широкого внедрения в социум искусственного интеллекта, «…необходимо рассматривать сейчас, и именно в ракурсе философских концепций, обладающих многовековыми знаниями миросоздания и мироустройства в целом, отражающих наблюдения как возвышения, так и гибель многих цивилизаций и позволяющих осознать реальность в социальной перспективе» [4, с. 8]. Таким образом, в настоящее время гипотезы на тему восстания машин ограничены творчеством авторов научно-фантастических произведений и, в какой-то мере, экстраполяциями учёных-футурологов.

Читерство в глобальном контексте

Для понимания актуальных на сегодняшний день вопросов, связанных с искусственным интеллектом, обратимся к рассмотрению аналогичной проблематики в пространстве шахмат. Опасения, что развитие мощности компьютеров приведет к эсхатологическим процессам в шахматах, не подтвердились. Однако с появлением программ, превосходящих сильнейших гроссмейстеров, в шахматном социуме возникло такое негативное явление, как читерство (от англ. to cheat – мошенничать). Под читерством подразумевается использование в процессе партии подсказок, получаемых от шахматных программ. Инструментарий технической части читерства очень широк – от использования беспроводных наушников до пронесенного в турнирный зал телефона. Первые случаи читерства были отмечены в конце XX века, а уже в 2006 году связанная с подозрениями в использовании технических средств история была предана огласке во время матча на первенство мира (т. н. «туалетный скандал»). В настоящее время существует античитинговая комиссия ФИДЕ, на крупных соревнованиях турнирные помещения оборудуют средствами защиты, но тем не менее проблема читерства становится все более актуальной с каждым годом. По меткому выражению российского шахматиста и публициста Д. В. Кряквина, читерство является шахматной чумой XXI века.

Какая же проблема, связанная с искусственным интеллектом, аналогичная читерству в шахматах, может возникнуть в широком её понимании в социальном контексте?

Данный вопрос подвергает анализу Ван Цзяньган в работе «Может ли искусственный интеллект привести к автократии». Автор рассматривает несколько сценариев, согласно которым человечество может попасть в зависимость от машин. Согласно первому из них, «Искусственный интеллект как атрибут машины является отличным авторитарным инструментом, с его помощью возможно продолжение традиционной формы власти. Группа людей, владеющих технологиями искусственного интеллекта, может с его помощью держать в состоянии рабства остальных людей» [3, с. 251]. Также он отмечает, что с помощью искусственного интеллекта можно реформировать систему управления и упростить задачу социального регулирования и контроля. По его мнению, авторитарное управление в таком случае будет избавлено от негативных человеческих факторов, таких, как коррупция и некомпетентность. К тому же, как пишет Ван Цзяньган, «… искусственный интеллект может эффективно и точно выполнять приказы, не ограничиваясь такими понятиями, как законность, мораль, желание и т. п.» [3, с. 251–252], что сделает намного более эффективным механизм управления. Также немаловажно, что, по его мнению, «… искусственный интеллект может дать правителям мощный силовой механизм… Искусственный интеллект может более эффективно выполнять для автократов силовую функцию» [3, с. 252]. Таким образом, в работе Ван Цзяньгана мы видим цельную картину того, как искусственный интеллект может быть использован для установления и поддержания авторитарного режима.

Аналогичное мнение высказывают работники IT отрасли. В частности, Т. В. Даниэлян – заместитель директора по разработке технологий компании ABBYY – отмечая, что опасения по поводу восстания машин ни на чем не основаны, делает примечательную оговорку: «… если восстание машин и случится, то потому, что в нем будет заинтересован кто-то из людей»2. Исходя из её слов, можно предположить, что искусственный интеллект может быть использован как инструмент для захвата власти над человечеством.

Данная проблематика была рассмотрена и в работе Г. И. Колесниковой «Искусственный интеллект: проблемы и перспективы». Там отмечалось, что «Пока у ИИ нет мотивации, он остаётся инструментом» [8, с. 37]. Данное утверждение можно интерпретировать в том же ракурсе, что и идеи Ван Цзяньгана и Т. В. Даниэлян. Мы видим, что в работах этих авторов искусственный интеллект, не являясь самостоятельной социальной единицей, может играть детерминирующую роль в насильственном изменении общественно-политических установок. Развивая свою мысль, Г. И. Колесникова продолжает: «Развитие техники по целям близко целям рабовладельческого общества: и если рабы, как мы знаем, вышли из-под контроля хозяев и стали властвовать ими, высока вероятность повторения истории на новом витке сомнительного развития» [8, с. 37]. Обратившись к исторической науке, можно отметить, что рабы сами по себе крайне редко играли самостоятельную роль (в качестве исключения отметим лишь восстание Спартака). А вот использование рабов для захвата власти в том же Древнем Риме было явлением достаточно тривиальным. Таким же образом искусственный интеллект в современных условиях может быть использован для революционной трансформации общественно-политической системы, что неизбежно вызовет глубокий цивилизационный кризис.

Также представляется обоснованным предположение, что следующая проблема в контексте шахмат, связанная с цифровизацией, будет заключаться в использовании чипов, расширяющих возможности человека. Как отмечал С. А. Грязнов, «За последние несколько десятилетий технология имплантации микрочипов превратилась из научной фантастики в реальность; сегодня сотни тысяч людей по всему миру имеют внутри себя чипы или электронные передатчики»3. Как в шахматах, так и в более широком смысле, данная технология может быть использована как в благих целях, так и для выполнения задач, идущих в разрез с современными цивилизационными представлениями о добре и зле.

Заключение

Таким образом, рассмотрение состояния современных шахмат показало, что возникающие в них проблемы могут быть актуализированы при их переносе в более широкое социальное пространство. Особое внимание здесь необходимо уделить бурно развивающейся сфере компьютерных технологий. Данные риски следует учитывать при построении вектора трансформации современной техногенной цивилизации в условиях перехода в новую социальную реальность. Проблема читерства в глобальном масштабе, связанная с угрозой использования ИИ, может нести определенные риски для развития нашей цивилизации.

К сожалению, на настоящий момент не выработаны эффективные методы борьбы с читерством в шахматах, которые можно было бы попытаться трансформировать и применить в более глобальном масштабе. Тем не менее, на наш взгляд, исследователям искусственного интеллекта следует отслеживать тенденции развития борьбы с читерством в шахматах. Вместе с тем решение вышеизложенной проблематики, по нашему мнению, по большей части заключается в парадигме философского инструментария. Искусственный интеллект должен рассматриваться не только в рамках нейрофизиологического и технократического подхода, но и в контексте социокультурной модернизации, с помощью методологии трансгуманизма и философии техники. Междисциплинарный подход к философии искусственного интеллекта позволит человечеству решить новую возникающую проблематику, от антропоморфизации компьютерных программ до нового понимания проблемы мышления. Чем сильнее влияние искусственного интеллекта на окружающий нас социум, тем нужнее философия для его понимания и решения новых возникающих проблем, в том числе и эксплицированных в результате данного исследования.

 

1 Tangalakis-Lippert K. Elon Musk says there could be a 20% chance AI destroys humanity – but we should do it anyway // Business insider. – URL: https://www.businessinsider.com/elon-musk-20-percent-chance-ai-destroys-humanity-2024-3 (accessed: 05.05.2024).

2 Кантышев П. Какие угрозы несет человечеству искусственный интеллект // Ведомости. – URL: https://www.vedomosti.ru/technology/articles/2016/02/29/631757-kakie-ugrozi-neset-chelovechestvu-iskusstvennii-intellekt (дата обращения: 16.03.2022).

3 Грязнов С. А. Чипирование людей: миф или реальность? // Инновации. Наука. Образование. – 2020. – № 11. – С. 459–462. – EDN: NMZAVD.

×

Об авторах

Георгий Шаликович Пилавов

Луганский государственный аграрный университет им. К. Е. Ворошилова

Автор, ответственный за переписку.
Email: Pilav29@mail.ru
ORCID iD: 0000-0001-6845-3282

кандидат философских наук, доцент кафедры философии

Россия, Луганск

Список литературы

  1. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии / Пер. с англ. С. Филина – М.: Манн, Иванов и Фербер, 2016. – 496 с.
  2. Ботвинник М. М. Аналитические и критические работы 1928–1986: Статьи, воспоминания. – М.: Физкультура и спорт, 1987. – 528 с.
  3. Ван Ц. Может ли искусственный интеллект привести к автократии // Социология. – 2019. – № 1. – С. 249–254. – EDN: HZDNMD.
  4. Вертелецкая М. А. Социальные и философские предпосылки возникновения искусственного интеллекта // Европейское социально-экономическое пространство. Инновации в науке и образовании. Материалы международной научно-практической конференции. Калининград, 2019. – С. 4–9. – EDN: CVDKOX.
  5. Винер Н. Кибернетика, или Управление и связь в животном и машине /Пер. с англ. И. В. Соловьева. – М.: Советское радио, 1958. – 325 с.
  6. Войцехович В. Э., Вольнов И. Н., Малинецкий Г. Г. Ожидаемая эволюция ИИ: от слабого к сильному ИИ (философско-антропологические вопросы) // Проблемы онто-гносеологического обоснования математических и естественных наук. – 2021. – № 12. – С. 6–10. – EDN: URRWZT.
  7. Иоселиани А. Д., Цхададзе Н. В. Искусственный интеллект: социально-философское осмысление // Медицина. Социология. Философия. Прикладные исследования. – 2019. – № 2. – С. 196–202. – EDN: NGBTRM.
  8. Колесникова Г. И. Искусственный интеллект: проблемы и перспективы // Видеонаука. – 2018.– № 2(10). – С. 34–39. – EDN: USZKOV.
  9. Кронрод А. С. Беседы о программировании. – М.: Едиториал УРСС, 2004. – 248 с.
  10. Куев А. И. Модификация шахматных программ как процесс развития способностей искусственного интеллекта // Вестник науки Адыгейского республиканского института гуманитарных исследований имени Т. М. Керашева. – 2019. – № 19 (43). – С. 125–134. – EDN: YPNWIZ.
  11. Михайлова И. В., Ахметов А. З., Петрова М. А. Alphazero как мейнстрим эволюции шахматного спорта // Теория и практика физической культуры. – 2020. – № 5. – С. 103–104. – EDN: ROAKQQ.
  12. Никишин М. Б., Макушев В. А. Методология и проблематика разработки искусственного интеллекта шахматных программ // XLIX Огарёвские чтения. Материалы научной конференции в 3 частях. Том Часть 2. – Саранск. – 2021. – С. 643–649. – EDN: QDZHWB.
  13. Пилавов Г. Ш. Шахматы как отражение социально-философских концепций эпохи Просвещения // Гуманитарный вестник Донского государственного аграрного университета. – 2023. – № 1. – С. 12–19. –EDN: IRKUYO.
  14. Разин А. В. Этика искусственного интеллекта // Философия и общество. – 2019. – № 1 (90). – С. 57–73. – EDN: YPCXWS.
  15. Тегмарк М. Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта. – М.: Издательство ACT: CORPUS, 2019. – 560 с.
  16. Newell A., Shaw J. C., Simon H. A. (1958) Chess-Playing Programs and the Problem of Complexity. IBM Journal of Research and Development, Vol. 2, No. 4, pp. 320–335. – https://doi.org/10.1147/rd.24.0320. (In Eng.).
  17. Shannon C. (1950) Programming a Computer for Playing Chess. Philosophical Magazine. Ser. 7. Vol. 41, No. 314. pp. 256–275. (In Eng.).
  18. Turing A. M. (1950) Computing Machinery and Intelligence. The Mind. Vol. 59. No. 236. pp. 433–460. (In Eng.).

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Пилавов Г.Ш., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».