Hoppa till sidans huvudinnehåll

Verbesserung von Klassifikationsverfahren

Informationsgehalt der k-Nächsten-Nachbarn nutzen

Häftad, Tyska, 2015

Av Dominik Koch

799 kr

Beställningsvara. Skickas inom 10-15 vardagar
Fri frakt för medlemmar vid köp för minst 249 kr.

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Produktinformation

  • Utgivningsdatum2015-12-03
  • Mått148 x 210 x 14 mm
  • Vikt326 g
  • FormatHäftad
  • SpråkTyska
  • SerieBestMasters
  • Antal sidor224
  • Upplaga15001
  • FörlagSpringer Fachmedien Wiesbaden
  • ISBN9783658114756

Tillhör följande kategorier