Perzeptron Trainingsdaten < Künstl. Intelligenz < Praktische Inform. < Hochschule < Informatik < Vorhilfe
|
Hi!
Ich habe eine Frage zum Perzeptron und linear seperablen Mengen:
Zur Wiederholung: Ein Perzeptron "feuert" genau dann, wenn (für den 2 dimensionalen Fall) [mm] w_1*x_1+w_2*x_2 \ge \Theta [/mm] gilt.
Nun gibt es ja verschiedene Lernalgorithmen für Perzeptrons. Häufig wird dabei der Trick verwandt, dass negative Beispiel in positive Beispiele verkehrt werden, indem man die negativen Beispiele invertiert. Rein formelmäßig macht das auch Sinn, denn durch das Invertieren dreht sich dann irgendwann das [mm] \ge [/mm] in ein < usw.
Jedoch kann ich das grafisch irgendwie nicht direkt "fassen". Hierzu mal ein Beispiel:
Die XOR-Funktion kann ja nicht von einem Perzeptron entschieden werden, da die Menge nicht linear seperable ist: (P = positive Beispiele, N = negative Beispiele)
[mm] P=\{(0,1), (1,0) \} [/mm] und [mm] N=\{(0,0),(1,1)\} \Rightarrow P'=\{(0,0),(1,0),(0,1),(1,1)\}=P \cup [/mm] -N
Erstmal ist die Menge P' jetzt linear seperable, was ja nicht Sinn der Sache ist! Der Algorithmus den ich zum Erkennen einer linear seperablen Menge kenne, schließt nun konsequenterweise die triviale Lösung [mm] (\Theta [/mm] = 0) aus. (Das macht dann formelmäßig wieder Sinn) Dennoch ist die Menge ja weiterhin linear seperable, was ja nicht Sinn der Sache ist, oder?
Was übersehe ich gerade?
Gruß
Pille
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:20 Fr 02.03.2012 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|