Leseempfehlungen zur Künstlichen Intelligenz, Teil 3
In diesem 3. Teil soll es um künstliche neueronale Netze (WP) gehen,
 eine Technologie, die zur Zeit sehr angesagt ist, wenn es darum geht, 
Computersysteme intelligenter zu machen oder sich computertechnisch 
neuen Herausforderungen zu stellen. Wieder ist es natürlich fraglich, 
wie weit man hier von der Intelligenz eines Computersystems (also einer 
Maschine) reden kann. Auf jeden Fall geht es um Fähigkeiten und 
Tätigkeiten die man mit Intelligenz in Verbindung bringt, solange sie 
ein Mensch besitzt bzw. ausführt. Vorbild für künstliche neuronale Netze
 ist das Netz aus Neuronen und Verbindungen in den Gehirnen (WP) von Mensch und Tier. Für die IT-Welt sind künstliche neuronale Netze Maschinenmodelle wie die Vector Support Machine die wir im 2. Teil kennen
 gelernt haben. Sie werden auch im gleichen Kontext und in der gleichen 
Art eingesetzt. Alles, was wir also schon über Data-Science und 
maschinelles Lernen (Trainieren) gelesen haben, bezieht sich auch auf 
künstliche neuronale Netze. Ob mit künstlichen neuronalen Netzen die 
Vorgänge in Gehirnen von Lebewesen nachgebildet werden ist für 
IT-Anwendungen zweitrangig.
Wir wollen einen kleinen Abstecher machen, denn es gibt auch 
Forscher, die gerade das Gehirn als ihr Fachgebiet haben und die sind 
natürlich daran interessiert mit künstlichen neuronalen Netzen wirkliche
 Vorgänge in Gehirnen zu simulieren. In diesem Zusammenhang sollte man 
zwei neurowissenschaftliche Großprojekte nennen: das Human Brain Project der EU und das Brain Activity Map Project der USA. 2014 bekamen die Neurowissenschaftler John O’Keefe , May-Britt Moser und Edvard Moser für
 Erkenntnisse über Bereiche in Gehirnen, die auf räumliches Orientieren 
spezialisiert sind, den Nobelpreis für Medizin. Hier ist ein Abstract 
des Vortrags “Grid cells and our sense of space” ,
 den Edvars Moser November 2016 auf einer Mathematiktagung in Trondheim 
(Norwegen) gehalten hat. Das Ehepaar Moser lehrt und forscht an der 
Universität in Trondheim.
Um jetzt auf die künstlichen neuronalen Netzen einzugehen, lassen wir als erstes Jürgen Schmidhuber (WP) zu Wort kommen, einer der führenden KI-Forscher in Deutschland. In dem Zeit-Artikel “Eine Maschine, klüger als der Mensch” schreibt er über sich und seine Forschung. Einen sehr guten Überblick über künstliche neuronale Netze bekommt man durch einen Online-Kurs von Günter Daniel Rey und Fabian Beck ,
 der z.Z. eine Juniorprofessur an der Universität Duisburg Essen hat. 
Viel detaillierter behandelt David Kriesel das Thema in einem Skript das
 man auf seiner Home-Page findet. Kriesel ist durch seine vielbeachteten Vorträge auf dem Chaos Communication Congress (WP) bekannt.
 Interessierte Laien wird sein Skript zu technisch und zu mathematisch 
sein, doch das erste Kapitel “Einleitung, Motivation und Geschichte” ist
 auch für sie zu empfehlen. David Kriesel bietet auf seiner Site auch 
eine Software-Bibliothek mit dem Namen SNIPE (Scalable and Generalized 
Neural Information Processing Engine) an, welches ein Java-Framework für
 neuronale Netze ist. Das Skript nimmt zum Teil Bezug darauf.
Man beachte den Unterschied zwischen den in gewisser Weise einfachen 
sogenannten Feedforward-Netzen und den rückgekoppelten Netzen. Bei den 
Feedforward-Netzen sind die Neuronen in Schichten organisiert und die 
Verbindungen gehen immer nur von einer Schicht zu der darauf folgenden 
Schicht und nie zurück. Das Netz wird so verwendet, dass man die 
Eingabeneuronen jeweils mit einem Wert belegt und dann die Werte der 
Ausgabeneuronen ausliest. Ändert man die Eingabewerte, so muss man das 
als ein neues vom vorherigen unabhängiges Experiment ansehen. Ein 
typischer Einsatzbereich solcher Netze ist die Bildanalyse, wenn jedes 
Bild unabhängig ist und keinen Bezug zum Vorgänger hat.
Bei den rückgekoppelten Netzen geht man von sich taktweise 
verändernden Eingabedaten aus. Man muss sich das dann so vorstellen, 
dass die rückgekoppelten Daten auf die neuen Daten des Folgetaktes 
treffen. Als typisches Anwendungsfeld denke man Spracheverarbeitung. In 
den rückgekoppelten Netzen hat man also in jedem Takt eine Erinnerung an
 den vorhergehenden Takt.
1997 kamen Jürgen Schmidhuber und sein Schüler Sepp Hochreiter (WP:en) zu
 einem Konzept, wie man in einem rückgekoppelten Netz eine Erinnerung 
(s.o.) länger aufbewahren kann, um sie später verwenden zu können. 
Dieses Konzept nannten sie Long short-term memory (WP) also
 langes Kurzzeitgedächnis. Die Abkürzung ist LSTM. Es dauerte aber noch 
etwa 10 Jahre, bis die LSTM-Netze den Weg aus dem Elfenbeinturm der 
Wissenschaft in die IT-Praxis gefunden haben. Hören wir Jürgen 
Schmidhuber in einem Vortrag . Wer eine technische Einführung in LSTM-Netze sucht, kann “Understanding LSTM Networks” von Christopher Olah lesen.
Kommen wir jetzt noch zu den Chancen und Risiken der künstlichen Intelligenz. Einen guten Überblick gibt dieses Diskussionspapier der Stifftung für Effektiven Altruismus . Dort werden auch die Themen Superintelligenz (WP) und Bewusstsein (WP) angesprochen. Zu Superintelligenz lese man dieses Interview in der Zeit mit Nick Bostrom oder
 man lese Bostroms bei Suhrkamp erschienenes Buch “Superintelligenz. 
Szenarien einer kommenden Revolution”. Bezüglich Bewusstsein stellt sich
 die Frage, ob Maschinen so etwas wie Bewusstsein überhaupt haben 
können, sowie die damit verknüpfte Frage, wie Neurowissenschaftler 
Bewusstsein erklären. Ich empfehle diese beiden Artikel vom Zeit-Autor Ulrich Schnabel (WP) : “Haben Maschinen Bewußtsein?” von 1997 und “Was ist das Ich?” von 2012.
 
											
		
						
							Dieser Beitrag wurde unter 
Allgemein veröffentlicht. Setze ein Lesezeichen auf den 
Permalink.