Eigenschaften künstlicher neuronaler
Netze
Beim intensiven Studium Neuronaler Netze erkennt man viele
Eigenschaften, sowohl positive als auch negative.
Im folgenden werden einige positive Eigenschaften genannt:
-
Lernfähigkeit: NN können
ihr Verhalten (Ausgaben) schneller als fest programmierte Algorithmen geänderten
Eingaben anpassen, da sie mit einer Vielzahl von Trainingsmustern durch
ein spezielles Lernverfahren trainiert werden und meistens nicht programmiert
werden.
-
Parallelität: NN sind hochgradig parallel und daher
sehr geeignet, um eine Implementierung oder Simulation auf parallelen Rechnern
durchzuführen.
-
Verteilte Wissensrepresentation: Nahezu alle NN haben ihre
wichtige Information in ihren Gewichten verankert. Dies ist der Grund für
die massive Parallelität und für die weitaus höhere Fehlertoleranz
des gesamten Modells gegenüber dem Ausfall einzelner Neuronen oder
Verbindungen.
-
Höhere Fehlertoleranz: Dadurch, dass das "Wissen" der
NN verteilt gespeichert ist, entsteht eine höhere Fehlertoleranz gegenüber
herkömmlichen Algorithmen beim Ausfallen einzelner Neuronen oder Verbindungen.
Dies ist allerdings nicht automatisch bei jedem trainierten NN der Fall,
nur wenn beim Erstellen des Systems Fehlertoleranz berücksichtigt
wurde.
-
Inhaltsbezogene Speicherung von Information: Konventionelle
Computersysteme und Programme haben ihre Information adressbezogen gespeichert.
Dies ist hier nicht so. Die Information ist assoziativ gespeichert. Es
ist somit leicht, zum eingegeben Muster ein ähnliches ausgeben zu
lassen.
-
Robustheit gegenüber Störungen oder verrauschten
Daten: Wurden bei NN die richtigen Trainingsmuster angewandt, so reagieren
sie nicht so empfindlich auf Störungen oder verrauschte Daten, wie
herkömmliche Algorithmen.
-
Default-Werte und spontane Generalisierung: Oft werden von
NN automatisch Prototypen von Eingabemustern, die dem selben Typ entsprechen,
erstellt. Dies liefert Default-Werte für nicht vollständig spezifizierte
Parameter von Mustern, die dann als Eingabe an ein neuronales Netz angelegt
werden.
-
Aktive Repräsentation: NN bringen Repräsentationen
hervor, die nicht passiv sind und auf welche kein aktives Programm zugreift.
Die Repräsentation der Information aus den Gewichten wirkt zusätzlich
an der Verarbeitung mit.
Wie schon erwähnt, besitzen Neuronale Netze auch
negative Eigenschaften, von denen nun einige vorgestellt werden:
-
Wissenserwerb ist nur durch Lernen
möglich: Gerade durch die verteilte Information der NN ist es schwer,
dem gesamten System ein basiertes Grundwissen mitzugeben. Fast ausschließlich
ist das Erlangen von Wissen für NN nur durch das Lernen möglich.
Es gibt nur vereinzelte NN-Systeme, bei denen es möglich ist, ihnen
ein Basiswissen mitzugeben.
-
Keine Introspektion möglich: NN können ihr Wissen
oder den Problemlösungsvorgang nicht analysieren. Außerdem ist
bei Netzwerken eine Analyse der Information sehr schwierig.
-
Logisches (sequentielles) Schließen ist kompliziert:
Es gibt zwar schon Ansätze hierfür, aber aufgrund der dafür
benötigten Neuronen und Verbindungen ist logisches sequentielles Schließen
durch Interferenzketten bei NN kaum realisierbar.
-
Lernen ist relativ langsam: Viele Lernverfahren sind sehr
zeitaufwendig, besonders, wenn Netzwerksysteme angewandt werden, die vollständig
über die jeweiligen Ebenen miteinander verknüpft sind, wo also
jedes Neuron einer Schicht mit allen Neuronen der nächsten Schicht
verknüpft ist. Dieses Problem wurde zwar schon in Angriff genommen,
ist aber derzeitig noch nicht vollständig lösbar.