lernalgorithmus
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
lernalgorithmus [2025/01/25 08:30] – [Test & Aufgaben] torsten.roehl | lernalgorithmus [2025/01/29 10:58] (aktuell) – [Netzeingabe $net$] torsten.roehl | ||
---|---|---|---|
Zeile 7: | Zeile 7: | ||
* **Ausgabeneuron** $y_1$ oder $o$ für **O**utput. | * **Ausgabeneuron** $y_1$ oder $o$ für **O**utput. | ||
* **Gewichte** $w_{11}$ , $w_{21}$ und $w_{31}$ | * **Gewichte** $w_{11}$ , $w_{21}$ und $w_{31}$ | ||
- | * Das Gewicht $w_{31}$ hat immer den Wert< | + | * Das Gewicht $w_{31}$ hat (in unserem Beispiel) |
{{ : | {{ : | ||
<WRAP center round tip 90%> | <WRAP center round tip 90%> | ||
- | Die Schwelle θ wird durch ein konstantes Gewicht $w_{31}=−0.1$ festgelegt. Nur die Gewichte $w_{11}$ und $w_{21}$ werden gelernt, um alle Trainingsmuster wiedergeben zu können. | + | Die Schwelle θ wird durch ein konstantes Gewicht |
Zeile 27: | Zeile 27: | ||
\begin{equation} net_j = \sum w_{ij} \cdot x_i \end{equation} | \begin{equation} net_j = \sum w_{ij} \cdot x_i \end{equation} | ||
Da wir nur ein Ausgabeneuron haben ist $net_j=net_1=net$ also folgt für drei Eingabeneuronen: | Da wir nur ein Ausgabeneuron haben ist $net_j=net_1=net$ also folgt für drei Eingabeneuronen: | ||
- | \begin{equation} net = \sum_1^3 w_{1j} \cdot x_i = w_{11} | + | \begin{equation} net = \sum_{i=1}^3 w_{i1} \cdot x_i = w_{11} |
+ | Dabei wird verwendet, dass $x_3=1$ gesetzt worden ist. | ||
==== Aktivierungsfunktion ==== | ==== Aktivierungsfunktion ==== | ||
Die Aktivierungsfunktion für das // | Die Aktivierungsfunktion für das // |
lernalgorithmus.1737793827.txt.gz · Zuletzt geändert: 2025/01/25 08:30 von torsten.roehl