Seite 1 von 1

Curse of dimensionality

Verfasst: Mo 27. Sep 2010, 11:09
von Niklas
Hallo zusammen,
kann hier vielleicht nochmal jemand erklären was genau am "Curse of dimensionality" schlecht / gut ist. Auf den Folien findet sich ja nur der Satz
Eine steigende Anzahl von Dimensionen der Beobachtungsvektoren erfordert exponentiell ansteigende Anzahl von Trainingsdaten!
Aber warum genau erfordert eine steigende Anzahl von Dimensionen mehr Trainingsdaten. Mal abgesehen davon, dass es Platzverschwedung ist und unnötig Speicher- und Rechenleistung benötigt, wenn der Beobachtungsraum zu 80% leer ist fällt mir kein weiterer Kritikpunkt auf.

Danke schonmal
niklas

Re: Curse of dimensionality

Verfasst: Mo 27. Sep 2010, 13:57
von IriZ
Genau das wurde ich gefragt...:)
So wirklich erklären konnte ich es auch nicht, aber Herr Aach meinte, dass auch bei unendlich viel Speicherplatz und unendlich guter Rechenleistung der leere Beobachtungsraum das Problem darstellt. Je mehr Dimensionen, desto mehr Trainingsdaten braucht man um überhaupt ein wenig Informationen aus den Daten ziehen zu können. Wenn du dich an die Gummibärchen erinnerst, dort war der Farbraum sehr leer, nachdem die Daten von einer Tüte Gummibärchen drin waren. Wenn mehr Dimensionen da sind, steigt der Bedarf an Trainingsdaten exponentiel an um auch nur annähernd abschätzen zu können, wie sich irgendwas verhält.
Schwammige Erklärung, aber was besseres fällt mir grad nicht ein. Frag nochmal nach, wenn du was genauer wissen willst :)