Natürlich spielen in unterschiedlichen Fachgebieten
verschiedene Gesichtspunkte eine Rolle. In der Biologie sowie der Medizin
interessieren vor allem die Gemeinsamkeiten des Modells mit dem biologischen
Original. Es wird daran gearbeitet, künstliche neuronale Netze zu
schaffen, die möglichst viele der Eigenschaften des als Grundlage
verwendeten biologischen Vorbilds besitzen, damit man mit Hilfe von Simulation
der Modelle Rückschlüsse auf noch unbekannte Eigenschaften des
Originals ziehen kann.
Psychologen arbeiten besonders daran, mit Hilfe der Modelle
die Ursachen bestimmter psychologischer Phänomene des menschlichen
Gehirns zu entschlüsseln und vorauszusagen. Informatiker haben ein
besonderes Interesse an der Lernfähigkeit künstlicher neuronaler
Netze, durch die versucht wird, sogenannte intelligente Systeme zu entwickeln.
Mathematiker zeigen besonderes Interesse für die Eigenschaften der
sehr vereinfachten KNN, zum Beispiel in Hinsicht auf das Verhalten von
Lernalgorithmen. Die Elektrotechniker stellen schließlich spezielle
Hardware zur Simulation neuronaler Netze her, mit deren Hilfe diese Netze
viel schneller trainiert werden können als mit reinen Software-Simulationen.
Die frühen Anfänge der Entwicklung neuronaler
Netze waren in der Zeit von 1942 bis 1955. Walter Pitts und Warren Mc Culloch
veröffentlichten 1943 eine Arbeit über einfache Klassen neuronaler
Netze, die jede arithmetische oder logische Funktion berechnen konnten,
aber sie gaben hierfür keine praktischen Anwendungen an. Donald O.
Heleb entwickelte ein universales Lernkonzept individueller Neuronen. Er
setzte damit einen Grundstein für alle neuronalen Lernverfahren.
Die Blütezeit neuronaler Netze begann 1955 und dauerte
bis ca. 1969. Frank Rosenblatt und Charles Wightman entwickelten den ersten
erfolgreichen Neurocomputer. Dieser konnte für Mustererkennungsprobleme
eingesetzt werden. Außerdem beschrieben diese Wissenschaftler verschiedene
Varianten des Perzeptrons und gaben einen Beweis an, dass das Perzeptron
alles, was es repräsentieren kann, durch das von ihnen entwickelte
Lernverfahren lernen kann. Auch viele andere Wissenschaftler beschäftigten
sich zu dieser Zeit mit neuronalen Netzen und halfen dadurch mit, die NN
so zu entwickeln, wie wir sie heute kennen.
Jedoch wurden die Grenzen der damals entwickelten Modelle
erkannt, was dazu führte, dass das Interesse an KNN nachließ.
1969 ergaben genaue Untersuchungen des Perzeptrons, dass es viele wichtige
Probleme nicht repräsentieren kann. Deshalb wurde es ruhiger um die
KNN, trotzdem waren auch zu dieser Zeit Wissenschaftler mit ihnen beschäftigt.
Teuvo Kohonen stellte 1972 einen speziellen Assoziativspeicher vor und
wurde 1984 durch seine selbstorganisierenden Karten (Kohonen-Karten), bekannt.
Außerdem wurde 1974 von Paul Werbos das Backpropagation-Verfahren
entwickelt.
1985 bewältigten Hopfield-Netze schwierige Optimierungsaufgaben.
Dies überzeugte viele Wissenschaftler, und somit begann ein neuer
Aufschwung. 1986 fanden weitere Entwicklungen und Publikationen des Lernverfahrens
Backpropagation statt. Bis heute dauert eine rasende Entwicklung der künstlichen
neuronalen Netze an.
Proseminar-Startseite |