Denk, Maschine!

Grafik: MW
Künstliche Intelligenz

Intelligente Maschinen sind ein alter Menschheitstraum. Maschinelle Lernverfahren haben sie uns in den letzten Jahren ein gutes Stück nähergebracht. Doch noch ist die menschliche Intelligenz unerreicht. 

Wissenschaftliche Betreuung: Dr. Marc-Oliver Gewaltig

Veröffentlicht: 30.05.2019

Das Wichtigste in Kürze
  • Es gibt keine verbindliche Definition für künstliche Intelligenz. Es geht darum, Maschinen zu bauen, die komplexere Probleme ohne menschliche Hilfe lösen können.  
  • Nach optimistischen Versuchen mit allgemeinen Problemlösern folgten die spezialisierten Expertensysteme.
  • Der aktuelle Boom geht auf Verfahren des maschinellen Lernens zurück, vor allem auf das Deep Learning mit künstlichen neuronalen Netzen. Diese Systeme sind bereits in vielen Bereichen im Einsatz. 
  • Auch diese Systeme haben Nachteile, darunter ihr Datenhunger, ihre Undurchsichtigkeit und ihre Tendenz, bestehende Verhältnisse zu konservieren. 
  • Die Zukunft der KI könnte darin bestehen, lernende Verfahren und klassisches Programmieren zu verbinden. 
Natürliche und künstliche Intelligenz

Menschen und Tiere stellen mit ihren Fähigkeiten die Vorbilder für intelligente Maschinen. Umgekehrt benutzt die Kognitionsforschung intelligente Maschinen, um zu testen, ob ihre Annahmen über die menschliche Intelligenz richtig sind. Dabei hat die KI-Forschung in den letzten sechzig Jahren auch gezeigt, wie wenig wir noch immer darüber wissen, wie die menschliche Intelligenz funktioniert. Ein Kind betrachtet ein oder zwei Bilder einer Giraffe und kann diese dann im Zoo, auf Fotos und als Stofftier erkennen. Ein Lernsystem benötigt tausende Giraffenbilder, um in die Nähe dieser Leistung zu kommen. Offenbar gibt es dort einen gravierenden aber bis heute nicht verstandenen Unterschied. Nur auf die Größe künstlicher neuronaler Netze zu schauen und diese mit dem Gehirn zu vergleichen, ist daher nicht sehr aussagkräftig. Es fehlt zum einen die Verknüpfungsstruktur und zum anderen all das, was natürliche Kognition auch ausmacht: Einflüsse von Hormonen auf das Gehirn, den Körper, die Umwelt. 

„Kohlenstoffchauvinismus“ nennen Kritiker die These, dass Intelligenz nur in biologischen Systemen, in Menschen und Tieren, entstehen könne, nicht auf der Basis von Siliziumchips. Sie ist bislang weder bestätigt noch wiederlegt. Tatsächlich stellen die „intelligent“ genannten künstlichen Systeme den Menschen in immer mehr Bereichen in den Schatten. Doch sie können nicht von einer Aufgabe zu einer anderen wechseln, und man kann sie auch nicht einfach zusammenschalten, um eine Superintelligenz zu bekommen. In seiner Flexibilität ist der Mensch bislang ungeschlagen. 

Die kognitive Wende in der Psychologie

Das Gehirn als Computer, der Geist als sein Programm: Diese Metapher, die uns heute hölzern und eindimensional erscheinen mag, war bei ihrem Aufkommen ein Befreiungsschlag gegen die Black Box, in die der Behaviorismus die Vorgänge im Kopf gesperrt hatte. Wenn Denken sich – der damals vorherrschenden Annahme gemäß – als inneres Manipulieren von Symbolen nach Regel beschreiben lässt, müsste man es auch im Computer realisieren können. Und wenn Datenverarbeitung ein gutes Modell für das Denken ist, besteht kein Grund mehr, das kognitive Geschehen für nebulös und die Beschäftigung damit für ein unwissenschaftliches Unterfangen zu halten. 

Viele frühe Arbeiten zur KI verstanden sich explizit auch als psychologische Theorien. Warren McCulloch und Walter Pitts entwickelten ihre Neuronenmodelle, um zu prüfen, was das Gehirn berechnen könne. Allen Newell und Herbert Simon beschrieben ihren „General Problem Solver“ als „ein Programm, das menschliches Denken simuliert“. In Begriffen der Datenverarbeitung durfte wieder von inneren Zuständen gesprochen werden. Aktuell scheint allerdings das Internet die vernetzte Natur des Denkens besser wiederzugeben als der einzelne Computer. 

1955 ging bei der Rockefeller Foundation ein ambitionierter Förderantrag ein: Zehn Forscher um den jungen Mathematiker John McCarthy planten, in nur zwei Monaten „signifikante Fortschritte“ auf einem Feld zu erzielen, das in diesem Antrag erst seinen Namen erhielt: Künstliche Intelligenz. Ihr Optimismus überzeugte, und die handverlesene Gruppe verbrachte den Sommer des Jahres 1956 am Dartmouth College in Hanover, New Hampshire damit, „herauszufinden, wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu bilden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten waren, und sich selbst zu verbessern“. Bis heute gibt es keine verbindliche Definition vonkünstlicher Intelligenz, doch die in McCarthys Antrag genannten Fähigkeiten bilden den Kern dessen, was Maschinen leisten sollten, um diesen Titel zu verdienen. 

Die Dartmouth-Konferenz gilt heute als der Startschuss der KI-Forschung, dabei waren die Forscher damals schon mitten drin, nur ein griffiger Name hatte dem Unternehmen noch gefehlt. Der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts hatten schon 1943 erste künstliche neuronale Netze entworfen, der Informatiker Allen Newell und der Sozialwissenschaftler Herbert Simon präsentierten auf der Tagung ihr Programm „Logical Theorist“, das logische Theoreme beweisen konnte. Noam Chomsky arbeitete an seiner generativen Grammatik, der zufolge unsere Fähigkeit, immer neue Sätze zu bilden, auf einem unbewusst bleibenden Regelsystem beruht. Wenn man dieses ausbuchstabierte, sollte man nicht auch Maschinen dazu bringen können, Sprache zu gebrauchen? 

1959 präsentierten Herbert Simon, John Clifford Shaw und Allen Newell dann ihren „General Problem Solver 1“, der Schach und „Türme von Hanoi“ spielen konnte. 1966 machte Joseph Weizenbaum mit ELIZA von sich reden, einem Dialog-Programm, das einen Psychologen mimte. Er selbst war vom Erfolg des recht einfach gestrickten, auf Signalwörter reagierenden Systems überrascht. 

Rückschläge und neue Ansätze

Intelligente Maschinen schienen in dieser optimistischen Aufbruchsphase der neuen Disziplin zum Greifen nahe. Doch auch Rückschläge ließen nicht auf sich warten. Ein Übersetzungsprogramm für Englisch und Russisch, das die US-Armee sich im Kalten Krieg gewünscht hatte, ließ sich nicht realisieren, und auch autonome Panzer waren nicht so schnell zu entwickeln, wie die Forscher dies versprochen hatten. Ende der 1970er Jahre und noch einmal zehn Jahre später kamen militärische und staatliche Geldgeber zu dem Schluss, die Forscher hätten den Mund zu voll genommen, und kürzten die Mittel massiv. Diese Phasen gingen als „KI-Winter“ in die Geschichte ein. 

Im Rückblick sehen wir heute klarer, warum die frühen KI-Forscher ihr Projekt so sehr unterschätzten: „Die Forschung wird auf der Annahme basieren, dass jeder Aspekt des Lernens oder jeder andere Aspekt von Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine dazu gebracht werden kann, sie zu simulieren“, heißt es gleich im zweiten Satz des oben zitierten Förderantrags. Eine so genaue Beschreibung ist bis heute illusorisch. Nach über 60 Jahren KI-Forschung sehen wir heute vielmehr klarer, wie wenig die menschliche Intelligenz bislang verstanden ist.

Hatte die erste Generation von KI-Forschern auf „universellen Problemlöser“ gesetzt, entstanden in den 1970ern erste, bescheidenere Expertensysteme: Dialogprogramme, die auf ein Gebiet spezialisiert waren, etwa auf die Diagnose von Infektionen oder die Analyse von Daten aus Massenspektrometern. Für diese Systeme befragte man Experten nach ihrem Vorgehen und versuchte es in einem Programm nachzubilden. 

Doch diese „symbolisch“ genannte Art der Programmierung deckt nur denjenigen Teil der menschlichen Kognition ab, den der Mensch sich bewusst machen, den er ausbuchstabieren kann. Alles, was sich mehr oder weniger unbewusst abspielt, geht dabei verloren. Wie etwa erkennt man ein vertrautes Gesicht in einer Menschenmenge? Und was genau unterscheidet einen Hund von einer Katze? Hier punkten die Verfahren des maschinellen Lernens, denen wir den aktuellen Boom der KI verdanken: Sie rütteln sich ihre Feinstruktur selbst zurecht, man muss Ihnen die Welt nicht ausbuchstabieren. 

Maschinelles Lernen und ein neuer Boom

Der Bereich „Maschinelles Lernen“ umfasst zahlreiche unterschiedliche Verfahren, am meisten macht derzeit das Deep Learning, das „tiefe Lernen“ auf der Basis künstlicher neuronaler Netze (KNN) von sich reden. Ein solches KNN ist im Groben den neuronalen Netzen des Gehirns nachempfunden. „Künstliche Neuronen“ sind in Schichten zu einem Netz angeordnet. Sie nehmen Aktivierungssignale auf und verrechnen sie zu einem Ausgabesignal. Dieser Prozess wird auf konventionellen Rechnern mit dafür optimierten Prozessoren ausgeführt. Ein KNN hat eine Eingabeschicht, die die Daten – etwa die Pixelwerte eines Bildes – aufnimmt; darauf folgen eine unterschiedliche Anzahl „versteckter“ Schichten (hidden layers), in denen das Berechnen stattfindet, und eine Ausgabeschicht, die das Ergebnis präsentiert. Die Verbindungen zwischen den „Neuronen“ sind gewichtet, sie können die Signale also verstärken oder abschwächen. Ein KNN wird nicht programmiert, es wird trainiert: Es startet mit zufälligen Gewichtungen und produziert erst einmal ein zufälliges Ergebnis, wird dann aber in tausenden von Trainingsläufen immer wieder korrigiert, bis es zuverlässig arbeitet. Vorwissen über mögliche Lösungen, wie der Mensch es angesammelt hat, brauchen diese Systeme nicht. 

Auch das Rechnen mit künstlichen neuronalen Netzen hat frühe Vorläufer: Frank Rosenblatt präsentierte schon 1958 das Perzeptron, ein System, das mithilfe von Fotozellen und mit Kabelverbindungen simulierten Neuronen einfache Muster erkennen konnte. Für Rosenblatt schien damals klar, dass die Zukunft der Informationsverarbeitung in solchen statistischen statt in logischen Verfahren zu suchen sei. Doch das Perzeptron funktionierte oft nicht sehr gut. Als Marvin Minsky und Seymour Papert 1969 in Buchlänge die Grenzen dieses Verfahrens darlegten, wurde es um die KNN erst einmal wieder still. Dass dieses Verfahren jetzt einen solchen Boom erlebt, liegt daran, dass heute bessere Algorithmen zu Verfügung stehen, etwa Verfahren für mehrschichtige Netze entwickelt wurden, dass genug Daten vorhanden sind, um diese Systeme zu trainieren, und Rechner mit ausreichender Kapazität, um diese Prozesse zu realisieren. Zudem erweisen sie im Einsatz täglich ihren Nutzen. 

Eine Technik, viele Anwendungen

Systeme, die mit maschinellem Lernen arbeiten, spielen inzwischen nicht nur Schach und Go, sie analysieren auch Röntgenaufnahmen oder Bilder von Hautveränderungen auf Krebs, übersetzen Texte und berechnen die Platzierung von Werbeeinblendungen im Internet. Einer der vielversprechendsten Anwendungsbereiche heißt „predictive maintenance“ (etwa: vorausschauende Wartung): Entsprechend trainierte Systeme erkennen, wenn sich z.B. das Betriebsgeräusch einer Maschine verändert. So können diese gewartet werden, bevor sie ausfallen und die Produktion lahmlegen.

Empfohlene Artikel

Die Schwachstellen

Lernende Systeme finden in großen Datenmengen Strukturen, die wir ohne sie übersehen würden. Ihr Datenhunger ist allerdings auch eine Schwachstelle dieser Verfahren. Man kann sie eben nur dort einsetzen, wo genug aktuelle Daten im richtigen Format zur Verfügung stehen, um sie zu trainieren. Ein anderes Problem ist die Undurchsichtigkeit des Lernprozesses: Das System liefert Ergebnisse, aber keine Begründungen dafür. Dies ist problematisch, wenn Algorithmen etwa darüber entscheiden, ob jemand einen Kredit bekommt. Zudem benutzen dieses Verfahren die Daten der Vergangenheit, um Modelle zu bilden, mit denen sie neue Daten klassifizieren – und neigen so dazu, bestehende Strukturen zu konservieren oder zu verstärken.

Ein neuer Winter?

Angesichts dieser Probleme mehren sich Stimmen, die prophezeien, auf den aktuellen Hype werde eine Phase der Enttäuschung, ein neuer KI-Winter folgen. In der Tat sind Debatten um Superintelligenzen dazu angetan, unrealistische Erwartungen zu wecken. Doch KI-Winter entstanden, weil den Forschern Fördergelder gekürzt wurden. Aktuell sehen wir das Gegenteil: Nationale KI-Förderstrategien schießen aus dem Boden, immer mehr Forschungszentren und Lehrstühle werden eingerichtet. Vor allem aber liefern die heutigen Verfahren des maschinellen Lernens schon einsatzreife Produkte für Industrie, Handel, Wissenschaft und Militär. All das spricht gegen einen neuen KI-Wintereinbruch. 

Wohl aber sollten wir realistischer betrachten, was machbar ist: Die aktuellen KI-Systeme sind Spezialisten. In der komplexen Welt, in der wir uns bewegen, werden sie noch lange nicht ohne menschliches Wissen auskommen. Vielleicht liegt die Zukunft der KI-Systeme in hybriden Verfahren, die beide Ansätze, das symbolische Programmieren und das Lernen, zusammenbringen. 

Zum Weiterlesen:

  • Margaret Boden: Artificial Intelligence. A very short introduction. Oxford University Press, 2018 
  • Ulrich Eberl: Smarte Maschinen. Wie Künstliche Intelligenz unser Leben verändert. München 2016 
  • Soshanna Zuboff: Das Zeitalter des Überwachungskapitalismus. Frankfurt a.M. 2018 

No votes have been submitted yet.

Autor

Wissenschaftliche Betreuung

Lizenzbestimmungen

Dieser Inhalt ist unter folgenden Nutzungsbedingungen verfügbar.

BY-NC-SA: Namensnennung, nicht kommerziell, Weitergabe unter gleichen Bedingungen