Проблема ориентации искусственного интеллекта на человеческие ценности (AI value alignment) и социология морали

Обложка

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

В статье кратко рассмотрены существующие представления о возможностях контроля людей над искусственным интеллектом. Обосновывается тезис об их неполноте с точки зрения учета асимметрий контроля и технологических реалий, возникших в ходе «цифровой революции». Представлен анализ причин, по которым социология и социальная психология морали приобретают решающую роль и новое масштабное поле исследований для разработки этически-ориентированных систем искусственного интеллекта, что вновь подтверждает важность теоретически-фундированного эмпирического изучения нормативного измерения социальной жизни. Предложены социологическое обоснование и истолкование принципа «совмещения ценностей» (AI value alignment), выдвигаемого некоторыми авторами в качестве решения проблем этической ориентации систем искусственного интеллекта.

Об авторах

Инна Феликсовна Девятко

Национальный исследовательский университет «Высшая школа экономики»; Институт социологии ФИНСЦ РАН

Москва, Российская Федерация

Список литературы

  1. Быков А.В. Понятие «альтруизм» в социологии: от классических концепций к практическому забвению // Вестник РУДН. Серия: Социология. 2015. №1. С. 5-18 [Bykov A.V. The concept of “altruism” in sociology: From classical theories to practical oblivion. RUDN Journal of Sociology. 2015. No. 1: 5-18 (In Russ.)].
  2. Девятко И.Ф. О теоретических моделях, объясняющих восприятие справедливости на микро-, мезо- и макроуровнях социальной реальности. Социология: методология, методы, математическое моделирование. 2009. № 29. C. 10-29. [Deviatko I.F. (2009) On Theoretical Models Explaining the Perception of Justice on Micro, Meso and Macro Levels of Social Reality. Sociology: methodology, methods, mathematical modeling. No. 29: 10-29 (In Russ.)]
  3. Девятко И. Ф. Понятие нормы в социологической теории: от классических оснований к новым интерпретациям природы норм и множественности нормативных систем // Нормы и мораль в социологической теории: от классических концепций к новым идеям / Отв. ред.: И.Ф. Девятко, Р.Н. Абрамов, И.В. Катерный. М.: Весь мир, 2017. С. 10–42. [Deviatko I.F. (2017) Social Norms: From Attempts of Definition towards New Interpretations of Sources of Normative Value and Plurality of Normative Systems. In: Norms and Morals in Sociological Theory: from Classical Interpretations to New Ideas. Ed. by I.F. Deviatko, R.N. Abramov, I.V. Katerny. Мoscow: Ves’ mir. (In Russ.)].
  4. Девятко И.Ф. Социологические теории деятельности и практической рациональности. М.: «Аванти плюс», 2003. [Deviatko I.F. (2003) Sociological Theories of Agency and Practical Rationality. Moscow: Avanti Plus. (In Russ.)]
  5. Калинин Р.Н. Изучение дистрибутивной справедливости в социальных науках: обзор концептуализаций и методологических подходов // Социология: методология, методы, математическое моделирование. 2019. № 49: 7-56. [Kalinin R. N. Distributive Justice Research in Social Sciences: A Review of Conceptualizations and Methodological Approaches. Sociology: methodology, methods, mathematical modeling. 2019. No 49: 7-56. (In Russ.)].
  6. Калинин Р.Г., Девятко И.Ф. Кто заплатит за водопровод: социальный контекст восприятия дистрибутивной справедливости // Мониторинг общественного мнения: Экономические и социальные перемены. 2019. № 2: 95—114. [Kalinin R.G., Deviatko I.F. (2019) Who should pay for a water pipe: social context of distributive justice perception. Monitoring obshchestvennogo mneniya: ekonomicheskie i social'nye peremeny [Monitoring of Public Opinion: Economic and Social Changes]. No. 2: 95—114. (In Russ.)].
  7. Awad E., Dsouza S., Kim R. е.a. (2018) The Moral Machine Experiment. Nature. 563: 59–64. doi: 10.1038/s41586-018-0637-6.
  8. Balwit A., Korinek A. (2022) Aligned with Whom? Direct and Social Goals for AI Systems. CEPR Discussion Paper No. DP17298. Available at SSRN: https://ssrn.com/abstract=4121483 (accessed at 21.05.2023).
  9. Bostrom N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
  10. Boudon R., E. Betton. (1999) Explaining the Feelings of Justice. Ethical Theory and Moral Practice. Vol. 2: 365-398.
  11. Carroll L. (1895) What the Tortoise Said to Achilles. Mind. 1895 (April). IV (14): 278–280. doi: 10.1093/mind/IV.14.278.
  12. Curry O.S., Mullins D.A., Whitehouse H. (2019) Is It Good to Cooperate?: Testing the Theory of Morality-as-Cooperation in 60 Societies. Current Anthropology. 60(1): 47–69. doi: 10.1086/701478.
  13. Deviatko I.F., Gavrilov K.A. (2020) Causality and Blame Judgments of Negative Side Effects of Actions May Differ for Different Institutional Domains. SAGE Open. October 2020. doi: 10.1177/2158244020970942.
  14. Foa E.B., Foa U.G. Resource Theory of Social Exchange. In: Handbook of Social Resource Theory: Theoretical Extensions, Empirical Insights, and Social Applications Critical Issues в Social Justice. Ed. by K. Törnblom, A. Kazemi. New York, NY: Springer New York, 2012: 15–32.
  15. Franklin M., Awad E., Lagnado D. (2021). Blaming Automated Vehicles in Difficult Situations. iScience. 24(4). 102252.
  16. Gabriel I. (2020) Artificial Intelligence, Values, and Alignment. Minds & Machines. 30: 411–437. doi: 10.1007/s11023-020-09539-2.
  17. Gray K., MacCormack J.K., Henry T., Banks E., Schein C., Armstrong-Carter E., Abrams S., Muscatell K.A. (2022) The Affective Harm Account (AHA) of Moral Judgment: Reconciling Cognition and Affect, Dyadic Morality and Disgust, Harm and Purity. Journal of Personality and Social Psychology. 123(6): 1199-1222. doi: 10.1037/pspa0000310.
  18. Greene J.D., Sommerville R.B., Nystrom L.E., Darley J.M., Cohen J.D. (2001) An fMRI Investigation of Emotional Engagement in Moral Judgment. Science. 293:2105–2107. doi: 10.1126/science.1062872.
  19. Guglielmo S. (2015) Moral Judgment as Information Processing: An Integrative Review. Frontiers in Psychology. 6(1637). doi: 10.3389/fpsyg.2015.01637.
  20. Haidt J. (2012) The Righteous Mind: Why Good People Are Divided by Politics and Religion. Pantheon.
  21. Kahane G. (2015) Sidetracked by Trolleys: Why Sacrificial Moral Dilemmas Tell Us Little (or Nothing) about Utilitarian Judgment. Social Neuroscience. 10(5): 551-560. doi: 10.1080/17470919.2015.1023400.
  22. Keiper A., Schulman A.N. (2011) The Problem with 'Friendly' Artificial Intelligence. The New Atlantis. No. 32: 80-89. URL: https://www.thenewatlantis.com/publications/the-problem-with-friendly-artificial-intelligence (accessed at 02.06.2023).
  23. Konow J. (2003) Which Is the Fairest One of All? A Positive Analysis of Justice Theories. Journal of Economic Literature. Vol. XLI. (December): 1188-1239.
  24. Levy M.G. (2023) Chatbots Don’t Know What Stuff Isn’t. Quanta. May 12. 2023. URL: https://www.quantamagazine.org/ai-like-chatgpt-are-no-good-at-not-20230512/ (accessed 21.05.2023).
  25. Mitchell S., Potash S., Barocas E.S., D'Amour A., Lum K. (2021) Algorithmic Fairness: Choices, Assumptions, and Definitions. Annual Review of Statistics and Its Application. 8(1): 141-163.
  26. Phillips E., Zhao X., Ullman D., B.F. Malle. (2018) What is Human-like? Decomposing Robots' Human-like Appearance Using the Anthropomorphic roBOT (ABOT) Database. In: Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction (HRI '18). Association for Computing Machinery. New York, NY, USA: 105–113. doi: 10.1145/3171221.3171268.
  27. Rawls J. (1971) A Theory of Justice. Cambridge, MA: Harvard University Press.
  28. Wang X., Zhang Y., Zhu R. (2022) A Brief Review on Algorithmic Fairness. Management System Engineering. 1 (7). URL: https://link.springer.com/article/10.1007/s44176-022-00006-z (accessed 21.05.2023). doi: 10.1007/s44176-022-00006-z.
  29. Weidinger L., McKee K.R., Everett R., et al. (2023) Using the Veil of Ignorance to Align Ai Systems with Principles of Justice. Proc. Natl. Acad. Sci. U.S.A., 18(120). (accessed 21.05.2023). doi: 10.1073/pnas.2213709120.
  30. Weidinger L., Uesato J., Rauh M., Griffin C., et al. (2022) Taxonomy of Risks Posed by Language Models. In 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT '22). Association for Computing Machinery, New York, NY, USAН: 214–229. doi: 10.1145/3531146.3533088.
  31. Wiener N. (1960) Some Moral and Technical Consequences of Automation. Science. May 6. 131(3410): 1355-1358. doi: 10.1126/science.131.3410.1355.
  32. Yaari M., M. Bar-Hillel. (1984) On Dividing Justly. Social Choice and Welfare. Vol. 1 (1): 1-24.
  33. Yudkowsky E. (2008) Artificial Intelligence as a Positive and Negative Factor in Global Risk. In: Bostrom N., Ćirković M. (eds) Global Catastrophic Risks. Oxford University Press: 308–345.

© Российская академия наук, 2023

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».