Die Animation wurde von Frederic Florian und Dennis Brodersen mit Gimp erstellt.

Netzwerk Topologien

Neuronale Netze bestehen aus Neuronen, die untereinander verbunden sind. Die Verbindungen  werden als Gewichte bezeichnet. Z.B. bezeichnet  wij  die Verbindungsstärke (das ist eine reelle Zahl) zwischen Neuron i und Neuron j.   Je nachdem auf welche Art und Weise dies geschieht, werden verschiedene Strukturen unterschieden. Diese grundsätzlich verschiedenen Strukturtypen werden als Topologien bezeichnet.

Weiterlesen: Netzwerk Topologien

Lernen in neuronalen Netzen

Lernen in künstlichen neuronalen Netzen bedeutet im Allgemeinen, Allgorithmen zu finden, die die Verbindungsgewichte (wij )  zwischen den Neuronen so anpassen, dass das neuronale Netz bei Eingabe eines Musters die gewünschte Ausgabe berechnet. Siehe hierzu auch im Abschnitt die Hebb'sche Lernregel.

Weiterlesen: Lernen in neuronalen Netzen

Die Hebbsche Lernregel

Die Hebbsche Lernregel wurde 1949 von Donald Hebb aufgestellt, sie ist die Grundlage für viele weitere Lernregeln bei Neuronalen Netzen. Sie liefert eine Erklärung für das Lernen in Neuronalen Netzwerken über Neuronen, die gemeinsame Synapsen haben. 

Weiterlesen: Die Hebbsche Lernregel

Alles oder Nichts! - Die Aktivierungsfunktion

Die Aktivierungsfunktion bestimmt, wie der Aktivierungszustand eines Neurons von der Eingabe aller anderen Neuronen, die mit diesem Neuron N  verbunden sind, abhängt.
Der Aktivierungszustand eines Neurons kann  entweder aktiv (Neuron feuert) oder inaktiv (Neuron ruht) sein.
Zwei häufig gebrauchte Aktivierungsfunktionen werden weiter unten vorgestellt. Im Allgemeinen sind diese Funktionen monoton steigend.

Weiterlesen: Alles oder Nichts! - Die Aktivierungsfunktion