Leseempfehlungen zur Künstlichen Intelligenz, Teil 3
In diesem 3. Teil soll es um künstliche neueronale Netze (WP) gehen,
eine Technologie, die zur Zeit sehr angesagt ist, wenn es darum geht,
Computersysteme intelligenter zu machen oder sich computertechnisch
neuen Herausforderungen zu stellen. Wieder ist es natürlich fraglich,
wie weit man hier von der Intelligenz eines Computersystems (also einer
Maschine) reden kann. Auf jeden Fall geht es um Fähigkeiten und
Tätigkeiten die man mit Intelligenz in Verbindung bringt, solange sie
ein Mensch besitzt bzw. ausführt. Vorbild für künstliche neuronale Netze
ist das Netz aus Neuronen und Verbindungen in den Gehirnen (WP) von Mensch und Tier. Für die IT-Welt sind künstliche neuronale Netze Maschinenmodelle wie die Vector Support Machine die wir im 2. Teil kennen
gelernt haben. Sie werden auch im gleichen Kontext und in der gleichen
Art eingesetzt. Alles, was wir also schon über Data-Science und
maschinelles Lernen (Trainieren) gelesen haben, bezieht sich auch auf
künstliche neuronale Netze. Ob mit künstlichen neuronalen Netzen die
Vorgänge in Gehirnen von Lebewesen nachgebildet werden ist für
IT-Anwendungen zweitrangig.
Wir wollen einen kleinen Abstecher machen, denn es gibt auch
Forscher, die gerade das Gehirn als ihr Fachgebiet haben und die sind
natürlich daran interessiert mit künstlichen neuronalen Netzen wirkliche
Vorgänge in Gehirnen zu simulieren. In diesem Zusammenhang sollte man
zwei neurowissenschaftliche Großprojekte nennen: das Human Brain Project der EU und das Brain Activity Map Project der USA. 2014 bekamen die Neurowissenschaftler John O’Keefe , May-Britt Moser und Edvard Moser für
Erkenntnisse über Bereiche in Gehirnen, die auf räumliches Orientieren
spezialisiert sind, den Nobelpreis für Medizin. Hier ist ein Abstract
des Vortrags “Grid cells and our sense of space” ,
den Edvars Moser November 2016 auf einer Mathematiktagung in Trondheim
(Norwegen) gehalten hat. Das Ehepaar Moser lehrt und forscht an der
Universität in Trondheim.
Um jetzt auf die künstlichen neuronalen Netzen einzugehen, lassen wir als erstes Jürgen Schmidhuber (WP) zu Wort kommen, einer der führenden KI-Forscher in Deutschland. In dem Zeit-Artikel “Eine Maschine, klüger als der Mensch” schreibt er über sich und seine Forschung. Einen sehr guten Überblick über künstliche neuronale Netze bekommt man durch einen Online-Kurs von Günter Daniel Rey und Fabian Beck ,
der z.Z. eine Juniorprofessur an der Universität Duisburg Essen hat.
Viel detaillierter behandelt David Kriesel das Thema in einem Skript das
man auf seiner Home-Page findet. Kriesel ist durch seine vielbeachteten Vorträge auf dem Chaos Communication Congress (WP) bekannt.
Interessierte Laien wird sein Skript zu technisch und zu mathematisch
sein, doch das erste Kapitel “Einleitung, Motivation und Geschichte” ist
auch für sie zu empfehlen. David Kriesel bietet auf seiner Site auch
eine Software-Bibliothek mit dem Namen SNIPE (Scalable and Generalized
Neural Information Processing Engine) an, welches ein Java-Framework für
neuronale Netze ist. Das Skript nimmt zum Teil Bezug darauf.
Man beachte den Unterschied zwischen den in gewisser Weise einfachen
sogenannten Feedforward-Netzen und den rückgekoppelten Netzen. Bei den
Feedforward-Netzen sind die Neuronen in Schichten organisiert und die
Verbindungen gehen immer nur von einer Schicht zu der darauf folgenden
Schicht und nie zurück. Das Netz wird so verwendet, dass man die
Eingabeneuronen jeweils mit einem Wert belegt und dann die Werte der
Ausgabeneuronen ausliest. Ändert man die Eingabewerte, so muss man das
als ein neues vom vorherigen unabhängiges Experiment ansehen. Ein
typischer Einsatzbereich solcher Netze ist die Bildanalyse, wenn jedes
Bild unabhängig ist und keinen Bezug zum Vorgänger hat.
Bei den rückgekoppelten Netzen geht man von sich taktweise
verändernden Eingabedaten aus. Man muss sich das dann so vorstellen,
dass die rückgekoppelten Daten auf die neuen Daten des Folgetaktes
treffen. Als typisches Anwendungsfeld denke man Spracheverarbeitung. In
den rückgekoppelten Netzen hat man also in jedem Takt eine Erinnerung an
den vorhergehenden Takt.
1997 kamen Jürgen Schmidhuber und sein Schüler Sepp Hochreiter (WP:en) zu
einem Konzept, wie man in einem rückgekoppelten Netz eine Erinnerung
(s.o.) länger aufbewahren kann, um sie später verwenden zu können.
Dieses Konzept nannten sie Long short-term memory (WP) also
langes Kurzzeitgedächnis. Die Abkürzung ist LSTM. Es dauerte aber noch
etwa 10 Jahre, bis die LSTM-Netze den Weg aus dem Elfenbeinturm der
Wissenschaft in die IT-Praxis gefunden haben. Hören wir Jürgen
Schmidhuber in einem Vortrag . Wer eine technische Einführung in LSTM-Netze sucht, kann “Understanding LSTM Networks” von Christopher Olah lesen.
Kommen wir jetzt noch zu den Chancen und Risiken der künstlichen Intelligenz. Einen guten Überblick gibt dieses Diskussionspapier der Stifftung für Effektiven Altruismus . Dort werden auch die Themen Superintelligenz (WP) und Bewusstsein (WP) angesprochen. Zu Superintelligenz lese man dieses Interview in der Zeit mit Nick Bostrom oder
man lese Bostroms bei Suhrkamp erschienenes Buch “Superintelligenz.
Szenarien einer kommenden Revolution”. Bezüglich Bewusstsein stellt sich
die Frage, ob Maschinen so etwas wie Bewusstsein überhaupt haben
können, sowie die damit verknüpfte Frage, wie Neurowissenschaftler
Bewusstsein erklären. Ich empfehle diese beiden Artikel vom Zeit-Autor Ulrich Schnabel (WP) : “Haben Maschinen Bewußtsein?” von 1997 und “Was ist das Ich?” von 2012.
Dieser Beitrag wurde unter
Allgemein veröffentlicht. Setze ein Lesezeichen auf den
Permalink.