Home
Verbesserung von Klassifikationsverfahren: Informationsgehalt der k-N�chsten-Nachbarn nutzen
Loading Inventory...
Barnes and Noble
Verbesserung von Klassifikationsverfahren: Informationsgehalt der k-N�chsten-Nachbarn nutzen
Current price: $69.99
Barnes and Noble
Verbesserung von Klassifikationsverfahren: Informationsgehalt der k-N�chsten-Nachbarn nutzen
Current price: $69.99
Loading Inventory...
Size: OS
*Product Information may vary - to confirm product availability, pricing, and additional information please contact Barnes and Noble
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.