ОНЛАЙН МОДИФІКАЦІЯ МЕТОДУ Х-СЕРЕДНІХ НА ОСНОВІ АНСАМБЛЮ САМООРГАНІЗОВНИХ МАП Т. КОХОНЕНА
Ключові слова:
кластерування, метод Х-середніх, ансамбль нейронних мереж, самоорганізовна мапа, самонавчання, нейронна мережа Т. Кохонена, міра схожості
Анотація
Розглянуто послідовну модифікацію методу кластерування Х-середніх. Цей підхід базується на ідеї ансамблю кластерувальних нейронних мап Т. Кохонена. При цьому кожна кластерувальна мережа містить різну кількість нейронів, яка визначається можливою кількістю кластерів. Всі члени ансамблю працюють паралельно, а якість кластерування визначається за допомогою індексу Цаліньського-Харабаша. Проведені експериментальні дослідження на даних з репозіторія UCI підт-вердили ефективність запропонованого підходу.
Завантаження
Дані завантаження ще не доступні.
Посилання
1. Gan G. Data Clustering: Theory, Algorithms and Application / G. Gan, Ch. Ma, J.Wu. – Philadelphia: SIAM, 2007. – 455 p.
2. Xu R. Clustering, IEEE Press Series on Computational Intelligence / R. Xu, D.C. Wunsch. – Hoboken, NJ: John Wiley & Sons, Inc., 2009. – 370 p.
3. Pelleg D. X-means: extending K-means with efficient estimation of the number of clusters / D. Pelleg, A. Moor // Proc. 17th Int. Conf. on Machine Learning. – San Francisco: Morgan Kaufmann. – 2000. – P.727-730.
4. Ishioka T. An expansion of X-means for automatically determining the optimal number of clusters / T. Ishioka // Proc. 4th IASTED Int. Conf. Computational Intelligence. Calgary, Alberta. 2005. P.91-96.
5. Bifet A. Adaptive Stream Mining: Pattern Learning and Mining from Evolving Data Streams / A. Bifet. Amsterdam: IOS Press, 2010. 224 p.
6. Kohonen, T. Self-OrganizingMaps / T.Kohonen. Berlin: Springer-Verlag, 1995. 362 p.
7. Strehl A. Cluster Ensembles – A knowledge reuse framework for combining multiple partitions / A. Strehl, J. Ghosh // Journal of Machine Learning Research. – 2002. – № 2. – P.583-617.
8. Topchy A. Clustering ensembles: models of consensus and weak partitions / A. Topchy, A.K. Jain, W. Punch // IEEE Transactions on Pattern Analysis and Machine Intelligence. – 2005. – № 27. – P.1866-1881.
9. Alizadeh H. To improve the quality of cluster ensembles by selecting a subset of base clusters / H. Alizadeh, B.Minaei-Bidgoli, H.Parvin // Journal of Experimental & Theoretical Artificial Intelligence. – 2013. – № 26. – P.127-150.
10. Charkhabi M. Cluster ensembles, majority vote, voter eligibility and privileged voters / M. Charkhabi, T. Dhot, S.A. Mojarad // Int. Journal of Machine Learning and Computing. – 2014. – № 4. – P.275-278.
11. Bodyanskiy Ye. Computational intelligence techniques for data analysis / Ye. Bodyanskiy // Lecture Notes in Informatics. – Bonn: GI. – 2005. – P.15-36.
12. Бодянский Е.В. Искусственные нейронные сети: архитектуры, обучение, применения / Е.В. Бодянский, О.Г. Руденко. – Харьков: ТЕЛЕТЕХ, 2004. – 372 с.
13. Аналіз та обробка потоків даних засобами обчислювального інтелекту: Монографія / Є.В. Бодянський, Д.Д. Пелешко, О.А. Винокурова, С.В. Машталір, Ю.С. Іванов. – Львів: Вид-во Львів. політехніки, 2016. – 235 c.
14. Murphy P.M. UCI Repository of machine learning databases / P.M. Murphy, D. Aha. – URL: http://www.ics.uci.edu/mlearn/ MLRepository.html.CA:University of California, Department of Information and Computer Science, 1994.
2. Xu R. Clustering, IEEE Press Series on Computational Intelligence / R. Xu, D.C. Wunsch. – Hoboken, NJ: John Wiley & Sons, Inc., 2009. – 370 p.
3. Pelleg D. X-means: extending K-means with efficient estimation of the number of clusters / D. Pelleg, A. Moor // Proc. 17th Int. Conf. on Machine Learning. – San Francisco: Morgan Kaufmann. – 2000. – P.727-730.
4. Ishioka T. An expansion of X-means for automatically determining the optimal number of clusters / T. Ishioka // Proc. 4th IASTED Int. Conf. Computational Intelligence. Calgary, Alberta. 2005. P.91-96.
5. Bifet A. Adaptive Stream Mining: Pattern Learning and Mining from Evolving Data Streams / A. Bifet. Amsterdam: IOS Press, 2010. 224 p.
6. Kohonen, T. Self-OrganizingMaps / T.Kohonen. Berlin: Springer-Verlag, 1995. 362 p.
7. Strehl A. Cluster Ensembles – A knowledge reuse framework for combining multiple partitions / A. Strehl, J. Ghosh // Journal of Machine Learning Research. – 2002. – № 2. – P.583-617.
8. Topchy A. Clustering ensembles: models of consensus and weak partitions / A. Topchy, A.K. Jain, W. Punch // IEEE Transactions on Pattern Analysis and Machine Intelligence. – 2005. – № 27. – P.1866-1881.
9. Alizadeh H. To improve the quality of cluster ensembles by selecting a subset of base clusters / H. Alizadeh, B.Minaei-Bidgoli, H.Parvin // Journal of Experimental & Theoretical Artificial Intelligence. – 2013. – № 26. – P.127-150.
10. Charkhabi M. Cluster ensembles, majority vote, voter eligibility and privileged voters / M. Charkhabi, T. Dhot, S.A. Mojarad // Int. Journal of Machine Learning and Computing. – 2014. – № 4. – P.275-278.
11. Bodyanskiy Ye. Computational intelligence techniques for data analysis / Ye. Bodyanskiy // Lecture Notes in Informatics. – Bonn: GI. – 2005. – P.15-36.
12. Бодянский Е.В. Искусственные нейронные сети: архитектуры, обучение, применения / Е.В. Бодянский, О.Г. Руденко. – Харьков: ТЕЛЕТЕХ, 2004. – 372 с.
13. Аналіз та обробка потоків даних засобами обчислювального інтелекту: Монографія / Є.В. Бодянський, Д.Д. Пелешко, О.А. Винокурова, С.В. Машталір, Ю.С. Іванов. – Львів: Вид-во Львів. політехніки, 2016. – 235 c.
14. Murphy P.M. UCI Repository of machine learning databases / P.M. Murphy, D. Aha. – URL: http://www.ics.uci.edu/mlearn/ MLRepository.html.CA:University of California, Department of Information and Computer Science, 1994.
Опубліковано
2017-09-27
Як цитувати
БОДЯНСЬКИЙ, Є., ДЕЙНЕКО, А., ЖЕРНОВА, П., & РЄПІН, В. (2017). ОНЛАЙН МОДИФІКАЦІЯ МЕТОДУ Х-СЕРЕДНІХ НА ОСНОВІ АНСАМБЛЮ САМООРГАНІЗОВНИХ МАП Т. КОХОНЕНА. Розвиток транспорту, (1(1), 96-107. https://doi.org/10.33082/td.2017.1-1.10
Розділ
ІНФОРМАЦІЙНІ ІНТЕЛЕКТУАЛЬНІ ТЕХНОЛОГІЇ В АВТОМАТИЗОВАНИХ СИСТЕМАХ ОБРОБКИ ДАНИХ

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.

