history_in_a_nutshell
Dies ist eine alte Version des Dokuments!
History in a nutshell
Diese sehr kurze Übersicht über die Geschichte der neuronalen Netze soll hauptsächlich von Personen und deren Leistungen erzählen, die in den noch folgenden Lernabschnitten zu neuronalen Netzen besprochen werden.
1943 | Warren McCulloch und Walter Pit | |
1949 | Donald O. Hebb beschrieb in seinem Buch The Organization of Behaviour die mittlerweile klassische Hebb'sche Lernregel als einfaches universelles Lernkonzept individueller Neurone. Die Hebb'sche Lernregel bildet bis heute die Grundlage fast aller Lernverfahren für neuronale Netze. | |
1958 | Rosenblatt entwickelte das Perzeptron ein sehr bekanntes neuronales Netz. Desweiteren lieferte Rosenblatt auch den Beweis dafür, dass das Perzeptron alles repräsentieren kann, was es mit dem von ihm angegebenen Lernverfahren lernen kann. Dies ist als Perzeptron-Konvergenz-Theorem bekannt. | |
1969 | Marvin Minsky und Seymour Papert führten in ihrem Klassiker „Perceptrons“ eine genaue mathematische Analyse des Perzeptrons durch und zeigten, dass das Modell viele wichtige Probleme wie z.B. das XOR-Problem nicht lösen kann. Leider folgerten sie daraus, dass auch mächtigere Modelle als das Perzeptron die gleichen Probleme aufweisen und bezeichneten das gesamte Gebiet der neuronalen Netze als „research dead-end“. Dies erwies sich als falsch, war aber dennoch der Auslöser dafür, dass Forschern auf diesem Gebiet in den nächsten 15 Jahren nur wenige Forschungsgelder zur Verfügung standen. |
history_in_a_nutshell.1705843158.txt.gz · Zuletzt geändert: 2024/01/21 13:19 von torsten.roehl