Nächste-Nachbarn-Klassifikation

mathematische Methode zur Schätzung von Wahrscheinlichkeitsdichtefunktionen
Dies ist die gesichtete Version, die am 1. Mai 2022 markiert wurde. Es existiert 1 ausstehende Änderung, die noch gesichtet werden muss.

Die Nächste-Nachbarn-Klassifikation ist eine nichtparametrische Methode zur Schätzung von Wahrscheinlichkeitsdichtefunktionen. Der daraus resultierende K-Nearest-Neighbor-Algorithmus (KNN, zu Deutsch „k-nächste-Nachbarn-Algorithmus“) ist ein Klassifikationsverfahren, bei dem eine Klassenzuordnung unter Berücksichtigung seiner nächsten Nachbarn vorgenommen wird. Der Teil des Lernens besteht aus simplem Abspeichern der Trainingsbeispiele, was auch als lazy learning („träges Lernen“) bezeichnet wird. Eine Datennormalisierung kann die Genauigkeit dieses Algorithmus erhöhen.[1][2]

K-Nächste-Nachbarn in einer zweidimensionalen Punktmenge mit k=1 (dunkelblau) und k=5 (hellblau). Der Radius der Kreise ist nicht fest.

k-Nearest-Neighbor-Algorithmus

Bearbeiten

Die Klassifikation eines Objekts   (oft beschrieben durch einen Merkmalsvektor) erfolgt im einfachsten Fall durch Mehrheitsentscheidung. An der Mehrheitsentscheidung beteiligen sich die k nächsten bereits klassifizierten Objekte von  . Dabei sind viele Abstandsmaße denkbar (Euklidischer Abstand, Manhattan-Metrik usw.).   wird der Klasse zugewiesen, welche die größte Anzahl der Objekte dieser   Nachbarn hat. Für zwei Klassen kann ein Unentschieden bei der Mehrheitsentscheidung durch ein ungerades   verhindert werden.

 
Voronoi-Diagramm mit sieben Stützstellen

Für ein klein gewähltes   besteht die Gefahr, dass Rauschen in den Trainingsdaten die Klassifikationsergebnisse auf den Testdaten verschlechtert. Für   ergibt sich ein Voronoi-Diagramm. Wird   zu groß gewählt, besteht die Gefahr, Punkte mit großem Abstand zu   in die Klassifikationsentscheidung mit einzubeziehen. Diese Gefahr ist insbesondere groß, wenn die Trainingsdaten nicht gleichverteilt vorliegen oder nur wenige Beispiele vorhanden sind. Bei nicht gleichmäßig verteilten Trainingsdaten kann eine gewichtete Abstandsfunktion verwendet werden, die näheren Punkten ein höheres Gewicht zuweist als weiter entfernten. Ein praktisches Problem ist auch der Speicher- und Rechenaufwand des Algorithmus bei hochdimensionalen Räumen und vielen Trainingsdaten.

Siehe auch

Bearbeiten

Literatur

Bearbeiten
  • Wolfgang Ertel: Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. 3. Auflage. Springer Vieweg, Wiesbaden 2013, ISBN 978-3-8348-1677-1.
  • Thomas A. Runkler: Data Analytics Models and Algorithms for Intelligent Data Analysis. 1. Auflage. Springer Vieweg, Wiesbaden 2012, ISBN 978-3-8348-2588-9.

Einzelnachweise

Bearbeiten
  1. S. Madeh Piryonesi, Tamer E. El-Diraby: Role of Data Analytics in Infrastructure Asset Management: Overcoming Data Size and Quality Problems. In: Journal of Transportation Engineering, Part B: Pavements. Band 146, Nr. 2, Juni 2020, ISSN 2573-5438, doi:10.1061/JPEODX.0000175.
  2. Trevor Hastie: The elements of statistical learning: data mining, inference, and prediction. with 200 full-color illustrations. Springer, New York 2001, ISBN 0-387-95284-5 (englisch, Weitere Autoren: Robert Tibshirani, Jerome Friedman).