Neural Gas

Neural Gas ist ein an selbstorganisierende Karten angelehnter, lernender Algorithmus zur Klassifizierung vektorieller Daten. Er wurde 1991 von Thomas Martinetz und Klaus Schulten vorgestellt.[1] Die Bezeichnung begründet sich auf der Dynamik der Merkmalsvektoren, deren Verteilung im Datenraum während des Lernprozesses an die Ausbreitung eines Gases erinnert. Anwendung findet es überall dort, wo Datenkompression oder Vektorquantisierung durchgeführt werden müssen, also zum Beispiel in der Spracherkennung, der Bildverarbeitung oder der Mustererkennung. Als robust konvergierende Alternative zum k-Means-Algorithmus wird es auch zur Clusteranalyse eingesetzt. Prominente Erweiterungen des Neural Gas sind das Growing Neural Gas und die Topology Representing Networks.

Arbeitsweise

Gegeben sei eine Häufigkeitsverteilung P(x) von Datenvektoren x sowie eine endliche Zahl von Merkmalsvektoren wi, i=1,...,N.

Mit jedem Zeitschritt t wird ein zufällig aus P gewählter Datenvektor präsentiert. Danach wird zunächst die Entfernungsrangfolge der Merkmalsvektoren zum gegebenen Datenvektor x bestimmt. i0 bezeichnet den Index des nächstliegenden Merkmalsvektors, i1 den Index des zweitnächsten usw. und iN-1 den Index des zu x entferntesten Merkmalsvektors. Dann wird jeder Merkmalsvektor adaptiert. Der Adaptionsschritt lautet für k=0,...,N-1

mit ε als Adaptionsschrittweite und λ als sogenannte Nachbarschaftsreichweite. ε und λ nehmen dabei mit der Zahl t der Adaptionsschritte ab. Nach ausreichend vielen Adaptionsschritten decken die Merkmalsvektoren den Datenraum gleichmäßig ab.

Kommentare

  • Der Adaptionsschritt des Neural Gas kann als Gradientenabstieg auf einer Kostenfunktion interpretiert werden.
  • Durch Adaption nicht nur des nächstliegenden Merkmalsvektors, sondern in abnehmendem Maße auch der im Entfernungsrang folgenden Merkmalsvektoren wird im Vergleich zum K-Means-Algorithmus eine robuste und von der Initialisierung weitgehend unabhängige Konvergenz erzielt.
  • Als Lernrate hat sich bewährt:

mit εstart = 1 als Startlernrate und εend = 0,001 als Lernrate zum Ende des Verfahrens, d. h. nach tmax Stimuluspräsentationen.

  • Als Nachbarschaftreichweite hat sich bewährt:

mit λstart = N/2 als Reichweite zu Beginn und λend = 0,01 als Reichweite zum Ende des Verfahrens.

Literatur

  • T. M. Martinetz, K. J. Schulten: A „neural-gas“ network learns topologies. Konferenzbeitrag zur ICANN-91, Espoo, Finnland, S. 397–402 in K. Mäkisara et al. (Hrsg.): Artificial Neural Networks, North-Holland, Amsterdam, 1991, ISBN 9780444891785.
  • T. Martinetz, S. Berkovich, K. Schulten: „Neural-gas“ Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks 4, 1993, S. 558–569.
  • T. Martinetz, K. Schulten: Topology representing networks. Neural Networks 7, 1994, S. 507–522.

Einzelnachweise

  1. Oliver Kramer: Dimensionality Reduction with Unsupervised Nearest Neighbors. Springer, 2013, ISBN 978-3-642-38651-0, eingeschränkte Vorschau in der Google-Buchsuche.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.