High-Speed Convolution Core Architecture for Privacy-Preserving Neural Networks

Cover Page

Cite item

Full Text

Abstract

Due to legal restrictions or restrictions related to companies' internal information policies, businesses often do not trust sensitive information to public cloud providers. One of the mechanisms to ensure the security of sensitive data in clouds is homomorphic encryption. Privacy-preserving neural networks are used to design solutions that utilize neural networks under these conditions. They exploit the homomorphic encryption mechanism, thus enabling the security of commercial information in the cloud. The main deterrent to the use of privacy-preserving neural networks is the large computational and spatial complexity of the scalar multiplication algorithm, which is the basic algorithm for computing mathematical convolution. In this paper, we propose a scalar multiplication algorithm that reduces the spatial complexity from quadratic to linear, and reduces the computation time of scalar multiplication by a factor of 1.38.

Full Text

1. ВВЕДЕНИЕ

Методы искусственного интеллекта (ИИ) [1] набирают все большую популярность в последние годы. Если в 2000-х гг. ИИ зачастую интересовались только исследовательские круги, то в последние десятилетия ИИ набирает популярность во всех областях человеческой деятельности. Если проанализировать научно-технические достижения, то можно отметить следующее. На рост популярности методов ИИ в большей степени повлияло развитие децентрализованных вычислительных архитектур, в том числе облачных вычислений, аппаратных ускорителей, а также общая тенденция увеличения вычислительной мощности устройств. Методы ИИ сегодня применяются в производстве для повышения эффективности автоматизации, в медицине и финансовых структурах для анализа больших данных и т. д. С ростом популярности языковых моделей и запуском GPT с открытым исходным кодом методы ИИ охватили еще большее количество сфер человеческой деятельности [2].

Однако, как и в конце ХХ в., когда появился Интернет/Всемирная паутина, методы ИИ стали предметом различных дискуссий [3], как с точки зрения закона и законотворчества, так и с точки зрения безопасности данных. Задачи, решаемые ИИ, как правило, сопряжены с обработкой больших объемов данных, а в случае с теми же языковыми моделями – очень больших объемов данных. Большие данные [4] могут содержать информацию с ограниченным доступом, например, если ИИ используется компаниями для обработки данных пользователей, в медицинской организации – персональные данные пациентов, муниципальной/государственной – данные граждан, внутренние документы, в финансовых организациях – данные клиентов, информация о счетах, биржевые котировки и т. д. Все вышеперечисленные данные зачастую являются конфиденциальными и охраняются законом, например, в Российской Федерации это Федеральный закон от 27 июля 2006 г. № 152-ФЗ “О персональных данных”, который направлен на усиление контроля за обработкой и распространением личной информации граждан [5]. Если методы ИИ используются внутри закрытой сети, вопросы безопасности можно решить стандартными методами, но создание и поддержка высокопроизводительной закрытой сети требует больших вычислительных ресурсов и финансирования. Поэтому зачастую эффективнее обратиться к поставщику услуг облачных вычислений, что и делает большинство компаний. При аренде вычислительных мощностей сеть становится общедоступной, что создает риск компрометации конфиденциальных данных. Хотя поставщики облачных услуг гарантируют безопасность данных, хранящихся в облаке, гарантировать безопасность вычислений на данный момент практически невозможно, поскольку можно хранить данные в зашифрованном виде, но не обрабатывать.

Таким образом, возникает проблема обработки конфиденциальных данных ИИ в публичных сетях. В качестве решения проблемы можно рассмотреть такой криптографический примитив, как полностью гомоморфное шифрование (ПГШ) [6], он позволяет выполнять гомоморфные операции сложения и умножения над зашифрованными данными. Этого достаточно, например, для работы нейронных сетей (НС) [7], когда нам нужно обрабатывать входные данные с помощью уже обученных нейронов. В этой области также существуют нерешенные проблемы, например, с аппроксимацией некоторых функций активации. Кроме того, хотя для матриц операции можно реализовать на основе сложения и умножения (вычитание реализуется как сложение положительных и отрицательных чисел), из-за особенностей схем ПГШ возникает большая избыточность данных, что приводит к неэффективной работе конфиденциальных НС. Цель данной работы – исследовать матричное умножение в контексте гомоморфного шифрования для повышения эффективности использования памяти, разработать новый алгоритм и протестировать его эффективность для конфиденциальных НС.

Работа организована следующим образом: в разделе 2 рассматриваются конфиденциальные НС и методы их организации, в разделе 3 представлено исследование конфиденциального умножения матриц, в разделе 4 анализируются полученные результаты на основе экспериментального исследования, в разделе 5 подводятся итоги проделанной работы и описываются будущие работы.

2. НЕЙРОННЫЕ СЕТИ, СОХРАНЯЮЩИЕ КОНФИДЕНЦИАЛЬНОСТЬ

2.1. Искусственная нейронная сеть

Математическая модель искусственных нейронных сетей представляет собой линейную композицию взаимосвязанных нейронов с нелинейными функциями активации (рис. 1).

 

Рис. 1. Модель искусственной нейронной сети.

 

Входной слой обрабатывает входные данные, скрытый слой выполняет вычисления, а выходной слой отвечает за выходную информацию. Искусственная НС, как и биологическая НС, работает посредством активации нейронов, т. е., когда значение внутри нейрона достигает функции активации, следующему нейрону передаются ее значение. Каждый нейрон имеет свое базовое значение (вес). Тогда состояние нейрона S можно описать как

S=i=0nxiwi,

где xi – значение i-го входа нейрона; wi – вес i-го входа; n – количество входов нейрона. Передача значений следующему нейрону осуществляется посредством функции активации:

Y = f (S ),

где f (S ) – функция активации. Например, сигмоидальная функция активации [8], определяется как

fS=11+eaS . (1)

С математической точки зрения, НС – это многопараметрическая задача нелинейной оптимизации, где веса нейронов скрытого слоя представляют собой параметры, а нейроны выходного слоя – ограничения. Чтобы нейронная сеть работала правильно, ее нужно обучить. Обучение происходит путем изменения внутренних значений весов нейронов. Существует несколько способов обучения, как с учителем, так и без него. Самый популярный способ обучения с учителем – минимизация ошибок. На основе этого типа обучения строятся сети с обратным распространением, которые используются для поиска закономерностей, прогнозирования и качественного анализа. Анализируя рис. 1, можно заметить, что если ввести операцию умножения матриц, то можно повысить эффективность обработки данных, как это и делается в большинстве случаев. Чтобы строить НС, сохраняющие конфиденциальность, необходимо ввести понятие криптографического примитива ПГШ.

2.2. Полностью гомоморфное шифрование и схема CKKS

Полностью гомоморфное шифрование (ПГШ) – криптографический примитив, развивающий идеи гомоморфного шифрования (ГШ). ГШ позволяет выполнять гомоморфное сложение или гомоморфное умножение над зашифрованным текстом. Примерами ГШ являются асимметричные шифры, такие как RSA [9], ElGamal [10] и др. Криптографы еще в 1980-х гг. предполагали, что полностью гомоморфное шифрование, когда шифр позволяет выполнять и гомоморфное сложение, и гомоморфное умножение, возможно. Первая схема ПГШ была представлена Джентри в его работе 2009 г. [6]. Однако эта схема не была эффективной и обрабатывала двоичные биты с помощью логических операций довольно долго (по сравнению с современными схемами), кроме того, схема имела большие ограничения на количество допустимых операций (количество операций, после которых сообщение может быть восстановлено). За следующие 15 лет сам Джентри [11–13] и его последователи [14–17] разработали новые схемы ПГШ, которые работают с целыми числами, выполняются быстрее и ослабляют ограничения на вид и количество операций.

Следующим шагом в истории ПГШ стала схема CKKS (первоначально HEaaN), которая позволяет обрабатывать рациональные числа [18]. CKKS – это система гомоморфного шифрования, предназначенная для эффективного выполнения приближенных арифметических операций над зашифрованными данными. Она идеально подходит для вычислений с вещественными или комплексными числами над полем C N/2. Пространство открытых текстов и пространство шифротекстов имеют одну и ту же область

ZQX/XN+1,

где N – чаще всего степень двойки.

Пакетное кодирование CN2ZQX/XN+1 отображает массив комплексных чисел в многочлен со свойством: decodeencodem1encodem2m1m2decodeencodem1encodem2m1m2, где  – покомпонентное умножение, а  – негациклическая свертка.

Схема CKKS работает по стандарту [19], который содержит рекомендуемые параметры для 128-битных ключей ГШ троичной формы su1,0,1N. Шифрование в CKKS осуществляется путем вычисления полиномов Лагранжа в поле комплексных чисел.

Схема использует приближенную арифметику для построения шифротекстов. Рассмотрим заданную арифметику. В начале мы фиксируем основание p > 0 и модуль q0, причем q = p q0 при 0 < lL. Целое число p будет использоваться в качестве основы для масштабирования в приблизительных расчетах. В качестве параметра безопасности λ выбирается такой параметр, что M=Mλ,qL для полиномиального кольца. При границах < lL уровня шифротекста l определяется вектор в ℛ𝓀𝓆 для фиксированного целого числа k.

  1. Генерация ключей: процесс шифрования начинается с генерации ключей: открытого ключа pk и закрытого ключа sk. Закрытый ключ используется для дешифровки данных, а открытый – для их шифрования.
  2. Шифрование: чтобы зашифровать вектор открытого текста x, выполняются следующие действия:
  • Дополнение: вектор m(x) дополнен нулями, длина вектора равна заданной степени двойки N;
  • Кодирование: вектор открытого текста x кодируется в полином открытого текста m(x), который является полиномиальным представлением сообщения;
  • Гомоморфное шифрование: полином m(x) шифруется с помощью pk для получения полинома c(x) шифротекста, при этом контролируется уровень шума шифротекста – количество специально вносимых ошибок e, удовлетворяющее |e|caneMax, для выражения c,sk=m+eMaxmod qL.
  1. Десшифрование: для дешифровки полинома c(x) шифротекста выполняются следующие действия:
  • Гомоморфное дешифрование: полином c(x) дешифруется с помощью секретного ключа для получения полинома mxc,skmod ql в пространстве открытых текстов;
  • Декодирование: для получения исходного текстового вектора x текстовый полином m(x) снова преобразуется из полинома в полином сообщений.
  1. Гомоморфные операции: CKKS поддерживает несколько приближенных арифметических операций над зашифрованными данными, включая сложение и умножение. Гомоморфное сложение и умножение можно выполнять в пространстве шифротекстов без необходимости их дешифровки:
  • Гомоморфное сложение: при получении двух шифротекстов c1(x) и c2(x), представляющих зашифрованные значения m1(x) и m2(x) соответственно, выполняется гомоморфное сложение путем сложения соответствующих коэффициентов по модулю: c(x) = c1(x) + c2(x), при этом ошибки e1 и e2 также суммируются;
  • Гомоморфное умножение: при наличии двух шифротекстов c1(x) и c2(x), представляющих зашифрованные значения m1(x) и m2(x) соответственно, гомоморфное умножение выполняется путем преобразования зашифрованных полиномиальных текстов для последующего покомпонентного умножения по модулю исходного модульного текста и обратного преобразования: c(x) = c1(x) + c2(x), для умножения выделяются собственные границы ошибок emult ∈ ℛ с emultcan emultMaxl, где emultMax(l ) заданная константа.

Как сложение, так и умножение приводят к увеличению ошибки аппроксимации e, схема CKKS позволяет дешифровать данные, если ошибка находится в определенных пределах. При использовании схемы CKKS важно контролировать рост ошибки, который зависит от количества операций и их порядка. Учитывая особенности арифметики, умножение вносит большую погрешность. Различные программные реализации схемы CKKS предлагают разные способы контроля уровня ошибки.

2.3. Нейронные сети, сохраняющие конфиденциальность

Интерес к нейронным сетям, сохраняющим конфиденциальность (НССК), возник несколько лет назад. В своем обзоре [20] авторы исследуют эту концепцию с теоретической точки зрения, рассматривая основные задачи и проблемы, с которыми сталкиваются исследователи при построении НССК на основе ПГШ. В основе НССК лежит концепция Machine Learning as a Service (MLaaS) [21], которая схожа с концепциями облачных вычислений [22–24]. В статье даны определения операций ПГШ, включая проблемные операции. Помимо умножения матриц, также упоминается бутстраппинг [25], который используется для увеличения количества допустимых операций умножения. Также описаны инструменты для работы с ПГШ [26–28], включая используемые в НССК [29]. Проблема ускорения НССК, работающих в ПГШ, упоминается в статье отдельно. Эта тема также популярна среди исследователей, например, в [30] изучается ускорение операции умножения матриц путем модификации метода Хавели [31]. Однако операции умножения, основанные на этом методе, по-прежнему достаточно ресурсоемки. В следующем разделе подробно рассмотрена операция умножения матриц и способы повышения скорости обработки данных.

3. ОПЕРАЦИЯ УМНОЖЕНИЯ МАТРИЦ В ПРИБЛИЖЕННОЙ СХЕМЕ ГОМОМОРФНОГО ШИФРОВАНИЯ

Умножение матриц – базовая операция для многих систем, в том числе и для НС. Рассмотрим ее алгоритм, основанный на умножении квадратных матриц a и b размера n × n:

ci,j=k=1nai,kbk,j,

где i,j,k1,n¯, c – результат умножения. В открытом виде этот алгоритм довольно прост. Однако в ПГШ его выполнение невозможно, так как мы не можем отдельно обратиться к элементу каждого внутреннего вектора. Рассмотрим подробно метод Хавели [31]. Для выполнения матричного умножения в ПГШ матрицы должны быть закодированы в диагональном представлении. Затем для выполнения умножения необходимо выполнить несколько операций вращения со вспомогательными матрицами. Рассмотрим пример.

Пусть матрица A размера m × m представлена в зашифрованном виде y0, ... , ym–1, где yi = (A0,i, A1,i+1, ... , Am–1, m+1). Сначала, yij= Aj,j+1. Далее, кусочное произведение между вектором весов и матрицей w = vA, где v=v0, v1, , vn1 – входной вектор, может быть вычислено как:

v0=x0, x1, , xn1y0, y1,  , yn1== x0y0, x1y1, , xn1yn1,

v1=xn1, x0, , xn2yn1, y0,  , yn2== xn1yn1, x0y0, , xn2yn2,

...,

vn1=x1, x2, , xn1, x0y1, y2, , yn1, y0== x1y1, x2y2, , xn1yn1, x0y0,

где  – покомпонентное произведение векторов.

Однако есть и другой способ, который подходит для НССК. Возникает вопрос, настолько ли необходим подобный уровень конфиденциальности.

Учитывая тот факт, что в настоящее время невозможно обучить НС в ПГШ за приемлемое время, НС обучается в открытом виде. Справедливо заметить, что значения весов являются открытыми и могут быть общедоступными и существует возможность их компрометации. Тогда нет смысла их шифровать, и мы можем применять их в открытом виде. Тогда можно использовать модифицированный алгоритм, основанный на предыдущем, где входная матрица кодируется в диагональном представлении, а веса представляются в виде вектора. Такое умножение рассматривается как умножение матрицы на скаляр, которое реализуется посредством операций умножения и вращения. Рассмотрим пример.

Пусть матрица A размера n × n представлена в зашифрованном виде a0, ... , am–1, где ai = (A0,i, A1,i+1, ... , An–1, n+1). Сначала, aij= Aj,j+1. Следующее произведение w = vA, где v=v0, v1, , vn1 – входной вектор, может быть вычислено как

v0=x0a0, a1,  , an1,

v1=x1an1, a0,  , an2,

...,

vn1=xn1a1, a2,  , an1,a0.

Этот метод требует m операций вращения, умножения и сложения. Кроме того, вспомогательные матрицы w и v в зашифрованном виде занимают много памяти, как и промежуточные зашифрованные матрицы до получения результата. Из формул видно, что, используя открытые значения, мы не только сокращаем количество операций, но и расход памяти. Для подтверждения выводов было проведено экспериментальное исследование (рис. 2).

 

Рис. 2. Исследование потребления памяти предлагаемым методом.

 

Из данных, представленных на рис. 2a, можно сделать вывод, что предложенный алгоритм позволяет сократить объем памяти в среднем в 7.89 раза. Линия тренда для данных, представленных на рис. 2b, равна 0.0656n2 – 0.4452n + 2.0912 с коэффициентом детерминации R2 = 0.9925. Таким образом, можно сделать вывод, что пространственная сложность уменьшилась с O(n4) до O(n2) для произведения матриц размера n × n. Учитывая, что для произведения квадратных матриц размера n × n необходимо вычислить n2 скалярных умножений и 2n2 циклических сдвигов векторов, пространственная сложность алгоритма скалярного умножения с зашифрованными данными снижается с O(n2) до O(n).

Как видно на рис. 2b, потребление памяти сократилось с квадратичного закона до линейного. Это дает преимущество в эффективности при работе с НССК. Однако, учитывая специфику схемы CKKS, необходимо проверить, не повлияли ли внесенные изменения на точность результата. Для этого необходимо построить нейронную сеть и провести исследование. Далее рассмотрим скорость, с которой выполняются вычисления. Стоит отметить, что на рис. 3a показана общая скорость выполнения операций, включая шифрование и дешифрование.

Анализируя рис. 3a, можно сказать, что предложенный метод выполняет умножение быстрее. Этот эффект достигается как за счет нового подхода к умножению, так и за счет того, что шифрование и дешифрование упрощаются, поскольку умножение выполняется на открытом векторе весов НССК. Кроме того, мы предлагаем проанализировать соотношение скоростей методов (рис. 3b).

 

Рис. 3. Исследование времени вычисления операции умножения матриц.

 

Линии тренда зависимости времени от n для алгоритма Хавели 0.0634n4 – 1.8561n3 + 20.897n2– – 88.794n + 118.56, для предложенного алгоритма 0.0461n4 – 1.3405n3 + 14.955n2– 63.491n + 84.81 с коэффициентом детерминации для обеих линий равным R2 = 0.9995 (рис. 3a). Асимптотически выигрыш во времени при увеличении n равен

limn0.0634n41.8561n3+20.897n288.794n+118.560.0461n41.3405n3+14.955n263.491n+84.811.38.

Время работы алгоритма для произведения квадратных матриц n × n уменьшилось в среднем в 1.49 раза (рис. 3b). С увеличением размера график становится более линейным, что можно объяснить увеличением избыточности, которая зависит от длины вектора, в то время как при малых размерах она зависит как от конструкции вектора, так и от вспомогательных матриц, необходимых для вращения.

В целом можно сказать, что предложенный метод эффективен как с точки зрения потребления памяти, так и скорости вычислений. Стоит отметить, что этот результат достигается за счет снижения конфиденциальности, а именно конфиденциальности весов НССК, при условии, что веса являются общеизвестными при обучении НССК в открытом виде.

4. ИССЛЕДОВАНИЕ ТОЧНОСТИ

В рамках исследования были проведены эксперименты по обучению и тестированию нейронной сети, а также ее зашифрованной версии на наборе данных MNIST. Целью эксперимента было оценить производительность модели в обычном и зашифрованном режимах, а также изучить влияние гомоморфного шифрования на производительность и точность модели. Аппаратная конфигурация состоит из процессора Intel(R) Xeon(R) CPU E5–2696 v3 с тактовой частотой 2.30 ГГц, 32 ГБ оперативной памяти DDR4 с частотой 2133 МГц и твердотельного накопителя объемом 1 ТБ. Среднее время измерялось путем запуска алгоритмов на платформе 10 000 раз. В ходе эксперимента собирались данные о потерях при обучении и тестировании, а также о точности классификации для каждого класса. Для этого была построена НС на основе следующей математической модели.

Рассмотрим сверточную нейронную сеть (СНС) со следующими слоями и параметрами:

  • Входное изображение: I, одноканальное изображение.
  • Первый сверточный слой (C1): применяет 4 фильтра с размером ядра 7 × 7 с шагом 3 и размером 0.
  • Первый слой – полносвязный (F1): преобразует упрощенные карты признаков с использованием H-нейронов.
  • Второй полносвязный слой (F2): сопоставляет скрытый слой с выходным слоем с O-нейронами.

Математические операции, выполняемые СНС, выглядят следующим образом:

  1. Работа первого сверточного слоя может быть определена как

C1I=Conv2dI, K1,S1,P1,

где Ki = 7 × 7 – размер ядра, с шагом S1 = 3 и размером P1 = 0.

  1. Выходной сигнал C1 проходит через функцию активации и, возможно, другие операции, такие как объединение или нормализация, после чего сглаживается и поступает в первый слой с полным подключением.
  2. Работа первого полносвязанного слоя может быть определена как

F1X = XWF1+bF1,

где X – входной вектор для F1; WF1 и bF1 представляют собой веса и смещения F1 соответственно.

  1. Работа второго полносвязанного слоя аналогично определяется как

F2Y= YWF2+bF2,

где Y – входной вектор F2, полученный из выхода F1; WF2 и bF2 – веса и смещения F2 соответственно. Эта модель описывает структуру СНС, подчеркивая последовательность от обработки на сверточном слое до генерации конечного вывода через полносвязанные слои.

СНС была выбрана в качестве модели потому, что ПГШ обладает свойствами как гомоморфизма, так и автоморфизма, благодаря которым вращение зашифрованных матриц для реализации матричного умножения реализовать достаточного просто. Кроме того, эти свойства позволяют достаточно эффективно выполнять математическую операцию свертки [32]. Далее рассмотрим результаты работы полученной модели. А именно, данные о потерях (рис. 4).

 

Рис. 4. Исследование функции потерь для PPNN.

 

На рис. 4 показана динамика потерь нейронной сети в процессе обучения для 10 эпох. По оси абсцисс откладывается номер теста, равный количеству эпох (от 1 до 10), а по оси ординат – количество потерь. На графике видно уменьшение потерь с каждой последующей эпохой, что свидетельствует об адекватном поведении модели при использовании нового алгоритма обучения.

На рис. 5 показана точность классификации модели на тестовых данных для каждого из 10 классов. По оси абсцисс представлены классы (от 0 до 9), а по оси ординат – процент точности для каждого класса. График помогает наглядно представить, как модель справляется с классификацией различных категорий, выявляя классы, в которых модель работает лучше или хуже.

 

Рис. 5. Исследование точности PPNN для различных классов.

 

Результаты экспериментов показывают, что нейронная сеть демонстрирует высокую точность как в обычном, так и в зашифрованном режимах, причем в зашифрованном режиме общая точность несколько повышается. Это говорит о том, что применение гомоморфного шифрования не оказывает существенного негативного влияния на способность модели к классификации. Кроме того, тот факт, что в некоторых классах зашифрованная СНС показывает более точные результаты, требует дополнительных исследований.

5. ЗАКЛЮЧЕНИЕ

Результатом исследования по адаптации НССК для работы с ПГШ стали результаты, которые подчеркивают потенциал и ограничения данного подхода. Исследование показывает, что, изменив метод умножения зашифрованных матриц, можно успешно использовать НССК при сохранении эффективности обработки данных и потребления памяти.

Анализ результатов тестирования НССК показал, что модель демонстрирует улучшение производительности с каждой эпохой, что видно по снижению потерь при тестировании. Это говорит о том, что НССК адекватно адаптируется к зашифрованным данным и эффективно их обрабатывает. Результаты тестирования модели показали высокую точность классификации как для каждого из классов, так и в целом, что подтверждает эффективность модели в задачах классификации. Интересно отметить, что зашифрованная версия модели показала сопоставимую, а в некоторых случаях даже более высокую точность, что говорит о том, что применение ПГШ не оказывает существенного негативного влияния на способность модели к классификации. Тем не менее следует отметить, что использование приближенной ПГШ требует дальнейших исследований для оптимизации баланса между безопасностью, конфиденциальностью и производительностью модели. Важно изучить влияние различных типов аппроксимации функции активации на точность и общую производительность модели, а также разработать методы улучшения производительности НССК.

В статье предложен алгоритм скалярного умножения, позволяющий уменьшить пространственную сложность с O(n2) до O(n) и сократить время вычисления скалярного умножения в 1.38 раза.

Результаты данного исследования открывают новые перспективы для разработки безопасных НС, особенно в тех областях, где требуется обработка конфиденциальных данных, а также подчеркивают важность продолжения исследований в этой области для достижения оптимального сочетания безопасности, конфиденциальности и эффективности в НССК. В будущем планируется исследовать и разработать методы выполнения других операции в НССК для повышения эффективности вычислений, потребления памяти, точности и конфиденциальности.

6. ИСТОЧНИК ФИНАНСИРОВАНИЯ

Исследование выполнено за счет гранта Российского научного фонда № 19-71-10033, https://rscf.ru/project/19-71-10033/.

×

About the authors

M. A. Lapina

North Caucasian Center for Mathematical Research, North Caucasus Federal University

Author for correspondence.
Email: mlapina@ncfu.ru
Russian Federation, 1, Pushkina st., Stavropol, 355017

E. M. Shiriaev

North Caucasian Center for Mathematical Research, North Caucasus Federal University

Email: eshiriaev@ncfu.ru
Russian Federation, 1, Pushkina st., Stavropol, 355017

M. G. Babenko

North Caucasian Center for Mathematical Research, North Caucasus Federal University

Email: mgbabenko@ncfu.ru
Russian Federation, 1, Pushkina st., Stavropol, 355017

I. Istamov

Samarkand State University named after Sharof Rashidov

Email: istamovismoilzoda@gmail.com
Uzbekistan, 15, University blv. Samarkand, 140104

References

  1. Hunt E.B. Artificial intelligence. Academic Press, 2014.
  2. Radford A. et al. Improving language understanding by generative pre-training. OpenAI, 2018.
  3. Wamser F. et al. Traffic characterization of a residential wireless Internet access // Telecommunication Systems. Springer, 2011. V. 48. P. 5–17.
  4. Sagiroglu S., Sinanc D. Big data: A review // 2013 international conference on collaboration technologies and systems (CTS). IEEE, 2013. P. 42–47.
  5. О персональных данных [Electronic resource]. http://pravo.gov.ru/proxy/ips/?docbody&nd= 102108261 (accessed: 16.06.2024)
  6. Gentry C. A fully homomorphic encryption scheme. Stanford university, 2009.
  7. Yegnanarayana B. Artificial neural networks. PHI Learning Pvt. Ltd., 2009.
  8. Pratiwi H. et al. Sigmoid activation function in selecting the best model of artificial neural networks // Journal of Physics: Conference Series. IOP Publishing, 2020. V. 1471. № 1. P. 012010.
  9. Rivest R.L., Shamir A., Adleman L. A method for obtaining digital signatures and public-key cryptosystems // Commun. ACM. 1978. V. 21. № 2. P. 120–126.
  10. ElGamal T. A public key cryptosystem and a signature scheme based on discrete logarithms // IEEE transactions on information theory. IEEE, 1985. V. 31. № 4. P. 469–472.
  11. Gentry C. Fully homomorphic encryption using ideal lattices // Proceedings of the forty-first annual ACM symposium on Theory of computing. Bethesda MD USA: ACM, 2009. P. 169–178.
  12. Van Dijk M. et al. Fully Homomorphic Encryption over the Integers // Advances in Cryptology – EUROCRYPT 2010 / ed. Gilbert H. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. V. 6110. P. 24–43.
  13. Gentry C., Halevi S. Implementing gentry’s fully-homomorphic encryption scheme // Advances in Cryptology–EUROCRYPT 2011: 30th Annual International Conference on the Theory and Applications of Cryptographic Techniques, Tallinn, Estonia, May 15–19, 2011. Proceedings 30. Springer, 2011. P. 129–148.
  14. Brakerski Z. Fully homomorphic encryption without modulus switching from classical GapSVP // Annual Cryptology Conference. Springer, 2012. P. 868–886.
  15. Brakerski Z., Vaikuntanathan V. Fully Homomorphic Encryption from Ring-LWE and Security for Key Dependent Messages // Advances in Cryptology – CRYPTO 2011 / ed. Rogaway P. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. V. 6841. P. 505–524.
  16. Brakerski Z., Gentry C., Vaikuntanathan V. (Leveled) Fully Homomorphic Encryption without Bootstrapping // ACM Trans. Comput. Theory. 2014. V. 6. № 3. P. 1–36.
  17. Dijk M. van et al. Fully homomorphic encryption over the integers // Annual international conference on the theory and applications of cryptographic techniques. Springer, 2010. P. 24–43.
  18. Cheon J.H. et al. Homomorphic encryption for arithmetic of approximate numbers // International conference on the theory and application of cryptology and information security. Springer, 2017. P. 409–437.
  19. Homomorphic Encryption Standardization – An Open Industry / Government / Academic Consortium to Advance Secure Computation [Electronic resource]. https://homomorphicencryption.org/ (accessed: 10.12.2022)
  20. Pulido-Gaytan B. et al. Privacy-preserving neural networks with Homomorphic encryption: Challenges and opportunities // Peer-to-Peer Netw. Appl. 2021. V. 14. № 3. P. 1666–1691.
  21. Ribeiro M., Grolinger K., Capretz M.A. Mlaas: Machine learning as a service // 2015 IEEE14th international conference on machine learning and applications (ICMLA). IEEE, 2015. P. 896–902.
  22. Manvi S.S., Shyam G.K. Resource management for Infrastructure as a Service (IaaS) in cloud computing: A survey // Journal of network and computer applications. Elsevier, 2014. V. 41. P. 424–440.
  23. Rodero-Merino L. et al. Building safe PaaS clouds: A survey on security in multitenant software platforms // computers & security. Elsevier, 2012. V. 31. № 1. P. 96–108.
  24. Cusumano M. Cloud computing and SaaS as new computing platforms // Commun. ACM. 2010. V. 53. № 4. P. 27–29.
  25. Chen H., Chillotti I., Song Y. Improved bootstrapping for approximate homomorphic encryption // Advances in Cryptology–EUROCRYPT 2019: 38th Annual International Conference on the Theory and Applications of Cryptographic Techniques, Darmstadt, Germany, May 19–23, 2019, Proceedings, Part II. Springer, 2019. P. 34–54.
  26. Microsoft SEAL: C++. Microsoft, 2023.
  27. OpenFHE.org – OpenFHE – Open-Source Fully Homomorphic Encryption Library [Electronic resource]. https://www.openfhe.org/ (accessed: 01.04.2024)
  28. Dai W., Sunar B. cuHE: A homomorphic encryption accelerator library // International Conference on Cryptography and Information Security in the Balkans. Springer, 2015. P. 169–186.
  29. Benaissa A. et al. TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic Encryption: arXiv:2104.03152. arXiv, 2021.
  30. Lee J.-W. et al. Privacy-preserving machine learning with fully homomorphic encryption for deep neural network // IEEE Access. IEEE, 2022. V. 10. P. 30039–30054.
  31. Halevi S., Shoup V. Algorithms in helib // Annual Cryptology Conference. Springer, 2014. P. 554–571.
  32. Özerk Ö. et al. Efficient number theoretic transform implementation on GPU for homomorphic encryption // The Journal of Supercomputing. Springer, 2022. V. 78. № 2. P. 2840–2872.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Fig. 1. Model of artificial neural network.

Download (24KB)
3. Fig. 2. Study of memory consumption by the proposed method.

Download (22KB)
4. Fig. 3. Study of the computation time of matrix multiplication operation.

Download (21KB)
5. Fig. 4. Study of loss function for PPNN.

Download (9KB)
6. Fig. 5. Study of PPNN accuracy for different classes.

Download (17KB)

Copyright (c) 2024 Russian Academy of Sciences

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».