Determining the optimal number of clusters when identifying neighborhood models

Cover Page

Cite item

Full Text

Abstract

In this paper, we consider a special case of an input-output neighborhood model with one node, two inputs, and one output. Identification and testing of the quadratic model was performed on synthetic data. The input data was generated according to the law of uniform distribution. For this model, the analysis of the influence of the choice of the number of clusters on the results of identification and forecasting is carried out. The well–known fuzzy clustering method, fuzzy C-means, was chosen for the study. To determine the optimal number of clusters, several methods for assessing the quality of fuzzy clustering have been considered, namely: the Xie-Beni, Kwon, and Tang-Sun-Sun minimization indices, which consider intracluster similarity, and the Fuzzy Simplified Silhouette maximization index, which considers intercluster difference. To compare the effect of the number of clusters on the results of identification and prediction of the neighborhood model, the identification parameters were determined before and after fuzzy clustering for a different number of clusters. Graphs of the outputs of the test sample and outputs obtained from the model, without clustering and with a different number of clusters, as well as graphs of forecast errors before and after clustering are presented. A program in the Python programming language was implemented to perform the calculations.

Full Text

Введение

Окрестностный подход является развитием теории математического моделирования дискретных распределенных систем. Разработаны методы их параметрической идентификации и смешанного управления. При этом входы, состояния и выходы, а также параметры моделей могут быть как действительными, так и комплексными числами [1].

В работе проводится нечеткая кластеризация окрестностной модели. Кластерный анализ позволяет объединять объекты в кластеры на основе схожести некоторых признаков, свойственных каждому объекту какого-либо множества [2]. Объединение происходит с помощью вычисления расстояния между этими объектами [3]. Нечеткие методы кластеризации позволяют одному и тому же объекту принадлежать одновременно нескольким (или даже всем) кластерам, но с различной степенью принадлежности.

Для оценки качества и компактности кластеров используются четыре индекса качества кластеризации: индексы Xie-Beni, Fuzzy Simplified Silhouette, Kwon, Tang-Sun-Sun [4-5].

В работе выполняется исследование влияния выбора оптимального количества кластеров на результаты идентификации и прогноза, полученного по модели. Проводится оценка кластеризации для разного количества кластеров, идентификация модели до и после кластеризации.

Все расчеты были выполнены в программе, реализованной на языке программирования Python.

Исходные данные

Рассмотрим окрестностную модель (ОМ) вида «вход-выход», которую можно описать как  где:

 – это структура окрестностной модели, где  – множество узлов,  – множество окрестностных связей;

 – векторы входов и выходов ОМ в текущий момент времени;

− функция пересчета выходов.

Общий вид функции  для узла  окрестностной модели описывается формулой:

 

где  – количество окрестностных связей по выходам,  – количество окрестностных связей по входам для узла , .

Общий вид системы представлен формулой:

 

В работе рассматривается квадратичная окрестностная модель с одним узлом (рис. 1).

 

Рис. 1. Окрестностная модель

Частный случай системы (2) общего вида для рассматриваемой модели представлен формулой: 

 

 В квадратичном случае формула (3) имеет вид:

 

 

где  – параметры модели.

Исследование проводилось на синтетических данных. Объем выборки составляет 10000 строк, фрагмент выборки представлен в табл. 1. Входные данные ( ) распределены равномерно, а выходные данные  вычислялись по формуле

 

Таблица 1. Фрагмент выборки исходных данных

 

 

 

0,598

9,292

3,568

3,092

4,317

0,516

1,839

7,348

8,554

3,235

4,906

0,560

2,545

5,088

2,727

5,179

8,268

7,818

8,311

2,487

3,686

2,145

8,680

7,115

6,795

1,304

0,777

 

Данные были разделены на обучающую и тестовую выборки, в отношении 80 % на 20 % соответственно.

Определение оптимального количества кластеров

В работе использовался один из наиболее известных методов кластеризации – метод нечетких C-средних [6]. К недостаткам метода можно отнести необходимость задания количества кластеров . На практике не всегда известно, на какое оптимальное количество кластеров нужно разделить данные [7]. Задание неправильного  может привести к перекрывающим кластерам или к случаю, когда точки слишком удалены от центров кластеров [8-10]. Часто используемым подходом к выбору оптимального  является перебор различного количества кластеров и последующий выбор конкретного количества, которое обеспечивает наилучший результат в соответствии с определенным критерием качества.

В статье рассмотрены четыре индекса оценки качества кластеризации: Xie-Beni, Fuzzy Simplified Silhouette, Kwon, Tang-Sun-Sun.

В индексе Xie-Beni компактность и обособленность кластеров измеряются с использованием внутрикластерных отклонений и межкластерного расстояния [11]:

 

Меньшие значения индекса указывают на компактные и хорошо разделенные кластеры [12].

Значение силуэта является мерой того, насколько объект похож на свой собственный кластер по сравнению с другими кластерами. Индекс силуэта анализирует расстояния от каждой точки данных до ее собственного кластера и ближайшего соседнего кластера:

 

где  — расстояние между объектом  и ближайшим кластером-прототипом , к которому  принадлежит наибольшей степенью принадлежности, а  — расстояние между объектом  и вторым ближайшим кластером-прототипом.

Индекс Fuzzy Simplified Silhouette представляет собой нечеткую версию упрощенного силуэта [13]:

 

 

где  и  — первый и второй по величине элементы i-ой строки матрицы нечеткого разбиения, соответственно,

       — весовой коэффициент, определяемый пользователем.

Чем больше значение индекса, тем более четко выделены кластеры, и они представляют собой компактные, плотно сгруппированные облака точек.

Индекс Kwon представляет собой модификацию Xie-Beni и определяется как [14]:

 

 

где

Аналогично индексу Kwon, индекс Tang-Sun-Sun является модификацией индекса Xie-Beni [15]:

 

 

где  — это показатель минимизации.

 

В работе проводилась оценка качества кластеризации для разного количества кластеров от двух до десяти. В табл. 2 представлены результаты.

 

Таблица 2. Результаты оценки качества кластеризации

Кол-во кластеров

Xie-Beni

Fuzzy Simplified Silhouette

Kwon

Tang-Sun-Sun

2

0,276

0,577

2767,073

2701,334

3

0,119

0,623

1196,173

1180,915

4

0,083

0,646

829,503

820,234

5

0,145

0,610

1454,343

1425,661

6

0,107

0,634

1071,278

1054,032

7

0,118

0,630

1191,861

1169,682

8

0,085

0,632

861,326

847,827

9

0,074

0,641

741,679

730,504

10

0,102

0,637

1029,890

1009,102

Как видно из табл. 2, в случае девяти кластеров получены оптимальные значения для индексов минимизации, то есть получаются компактные и хорошо разделенные кластеры. Самый неудовлетворительный результат получен при двух кластерах. В случае с индексом Fuzzy Simplified Silhouette наилучший результат получен при разделении выборки на четыре кластера.

 

Сравнение результатов кластеризации

По обучающей выборке найдены центры кластеров, на основании которых выполнена кластеризация тестовой выборки. Для сравнительного анализа в работе количество кластеров выбрано на основе оценки качества кластеризации: наилучшее по индексам минимизации (девять), наихудшее (два) и наилучшее по индексу максимизации (четыре). В табл. 3 показаны центры кластеров, полученные при разбиении выборки на кластеры.

 

Таблица 3. Центры кластеров

Количество кластеров

2

4

9

3,163

3,600

2,568

7,514

4,955

 

6,870

6,304

7,590

7,595

8,483

8,473

  

2,396

2,451

1,685

8,296

  

7,533

2,492

5,134

8,482

    

8,457

1,714

    

5,217

1,616

    

1,676

4,563

    

1,634

1,395

    

8,338

4,955

На рис. 2-4 представлены результаты кластеризации тестовой выборки с разным количеством кластеров.

Рис. 2. Результаты кластеризации с

Рис. 3. Результаты кластеризации с

Рис. 4. Результаты кластеризации с

Идентификация окрестностной модели

Идентификация объектов – это построение оптимальных математических моделей по реализациям их входных и выходных данных. В конечном итоге задача сводится к оценке степени идентичности модели реальному объекту.

В работе рассматривается квадратичная окрестностная модель (4). Для ее идентификации необходимо для узла  решить переопределенную систему линейных уравнений:  где

 

   – объем выборки.

Матрицу параметров  находим по формуле

 

 

где  – псевдообратная матрица .

Для поиска ошибок идентификации необходимо получить модельные значения функции пересчета состояния  по формуле (7) для найденных параметров  и сравнить с исходными данным  Для нахождения среднеквадратичной ошибки (MSE) используется формула (8).

В работе проводилась идентификация до и после кластеризации. По обучающей выборке находились параметры модели и на основе них был выполнен прогноз для тестовой выборки и рассчитаны ошибки прогноза.

В табл. 4 приведены ошибки прогноза до и после кластеризации при разном количестве кластеров.

 

Таблица 4. Ошибки прогноза

Наименование ошибки

До кластеризации

После кластеризации

2 кластера

4 кластера

9 кластеров

MSE

6,661

6,346

5,881

2,308

Ниже представлены графики значений  и  для тестовой выборки до и после кластеризации (рис. 5-8), а также графики ошибок прогноза до и после кластеризации (рис. 9).

Рис. 5. График  и  для тестовой выборки до кластеризации

Рис. 6. График  и для тестовой выборки при двух кластерах

Рис. 7. График  и  для тестовой выборки при четырех кластерах

Рис. 8. График  и  для тестовой выборки при девяти кластерах

Рис. 9. График MSE прогноза при разном количестве кластеров

Из рис. 5-9 видно, что для рассматриваемой выборки оптимальным является четыре кластера, что и было получено в результате исследования качества кластеризации по индексу Fuzzy Simplified Silhouette. Ошибка MSE прогноза при этом составила 5,881. Время выполнения расчетов 28,04 секунды.

Конечно, можно выбрать для построения модели и девять кластеров, как показывают индексы минимизации. При этом ошибка MSE прогноза уменьшается приблизительно в 2,5 раза и составила 2,308, что является существенным в некоторых исследованиях. Однако разбиение на большее количество кластеров требует дополнительных вычислительных и временных ресурсов. Здесь время выполнения расчетов составило 285,38 секунд. Поэтому при определении оптимального количества кластеров при решении задачи идентификации следует учитывать допустимую точность прогноза и времени вычислений.

Заключение

В исследовании с помощью методов оценки качества нечеткой кластеризации на основе нечетких C-средних и в результате идентификации окрестностной модели на кластеризованных данных определено оптимальное количество кластеров для рассматриваемой выборки.

Идентификация данных с нечеткой кластеризацией может быть использована в задачах, где требуется нечеткое распознавание, гибкая классификация с учетом неопределенности данных и анализа сложных, перекрывающихся шаблонов. Одной из областей применения является биометрия и безопасность, в частности, распознавание лиц с нечеткими признаками.

___________________________

© Седых И.А., Макаров К.Н., 2025

×

About the authors

Irina A. Sedykh

Lipetsk State Technical University

Author for correspondence.
Email: kirik0-1@yandex.ru
ORCID iD: 0000-0003-0012-8103

Dr. Sc. (Technical), Associate Professor

Russian Federation, 30 Moskovskaya St., Lipetsk, 398055, Russia

Kirill N. Makarov

Lipetsk State Technical University

Email: kirik0-1@yandex.ru
ORCID iD: 0009-0008-9556-7910

graduate student

Russian Federation, 30 Moskovskaya St., Lipetsk, 398055, Russia

References

  1. Sedykh I.A., Makarov K.N. “Identification of quadratic complex-valued dynamic neighborhood models on clustered data and without clustering”, Management of Large Systems (Upravleniye bol'shimi sistemami), issue 111, Moscow: IPU RAS, 2024. pp. 66-80.
  2. Sedykh I.A., Makarov K.N. “Fuzzy clustering of complex-valued data”, News of Educational Institutions of the Chernozem Region (Vesti uchebnykh zavedeniy Chernozem'ya), 2023, vol. 19, no. 2 (72), pp. 46-57.
  3. Sedykh I.A., Makarov K.N. “Clusterization of complex data by the k-means method”, Bulletin of Lipetsk State Technical University (Vestnik Lipetskogo gosudarstvennogo tekhnicheskogo universiteta), 2022, no. 2 (48), pp. 5-11.
  4. Vendramin L., Naldi M.C., Campello R.J.G.B. “Fuzzy clustering algorithms and validity indices for distributed data”, Partitional Clustering Algorithms, Springer, Cham, 2015, available at: https://doi.org/10.1007/978-3-319-09259-1_5.
  5. Xie X.J., Wang Y., Zhong L. “A new fuzzy clustering validity index with strong robustness”, Fuzzy Information & Engineering and Operations Research & Management. Advances in Intelligent Systems and Computing, 2014, vol. 211, Springer, Berlin, Heidelberg, available at: https://doi.org/10.1007/978-3-642-38667-1_31.
  6. Kenger O.N., Cebi S., Cevik Onar S., Oztaysi B., Tolga A.C., Sari I.U., Ozceylan E. “A comparative analysis of fuzzy C-means, K-means, and K-medoids clustering algorithms for analysis countries’ COVID-19 risk”, Intelligent and Fuzzy Techniques for Emerging Conditions and Digital Transformation, INFUS 2021. Lecture Notes in Networks and Systems, 2022, vol. 307, Springer, Cham, 2022, available at: https://doi.org/10.1007/978-3-030-85626-7_4.
  7. Liu Xy., Fan Jc., Chen Zw. “Improved fuzzy C-means algorithm based on density peak”, Int. J. Mach. Learn. & Cyber., 2020, vol. 11, pp. 545–552, available at: https://doi.org/10.1007/s13042-019-00993-8.
  8. Sardar T.H., Ansari Z. “MapReduce-based fuzzy C-means algorithm for distributed document clustering”, J. Inst. Eng. India Ser. B., 2022, vol. 103, pp. 131–142, available at: https://doi.org/10.1007/s40031-021-00651-0.
  9. Xu D., Tian Y. “A comprehensive survey of clustering algorithms”, Ann. Data. Sci., 2015, vol. 2, pp. 165–193, available at: https://doi.org/10.1007/s40745-015-0040-1.
  10. Abasi A.K., Khader A.T., Al-Betar M.A. et al. “A novel hybrid multi-verse optimizer with K-means for text documents clustering”, Neural Comput & Applic., 2020, vol. 32, pp. 17703–17729, available at: https://doi.org/10.1007/s00521-020-04945-0.
  11. Muranishi M., Honda K., Notsu A. “Xie-Beni-Type fuzzy cluster validation in fuzzy co-clustering of documents and keywords”, Soft Computing in Artificial Intelligence, Advances in Intelligent Systems and Computing, 2014, vol. 270, Springer, Cham, available at: https://doi.org/10.1007/978-3-319-05515-2_4.
  12. Br Sitepu K.A., Sitompul O.S., Situmorang Z. "Analysis of fuzzy C-means and analytical hierarchy process (AHP) models using Xie-Beni index", 2019 International Conference of Computer Science and Information Technology (ICoSNIKOM), pp.1-6, 2019.
  13. Starczewski A., Przybyszewski K. “Improvement of the simplified silhouette validity index”, Artificial Intelligence and Soft Computing, ICAISC 2018. Lecture Notes in Computer Science, 2018, vol. 10842, Springer, Cham, available at: https://doi.org/10.1007/978-3-319-91262-2_39.
  14. Kwon S.H., Kim J., Son S.H. “Improved cluster validity index for fuzzy clustering,” Electronics Letters, 2021, vol. 57, no. 21, pp. 792–794.
  15. Rustam, Gunawan A.Y., Kresnowati M.T.A.P. “Data dimensionality reduction technique for clustering problem of metabolomics data”, Heliyon, 2022, vol. 8, no.6, art. e09715.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2026 Sedykh I.A., Makarov K.N.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).