Wer seinen häuslichen Sprachassistenten des Shoppingriesen Amazon nach dessen Intelligenz fragt, bekommt gegenwärtig zu hören: „Ja, ich denke, also bin ich.“ Gelernt hat Alexa das von eifrigen Mitarbeitern des weltgrößten Onlinehändlers. Aber ist da etwas dran? Wie intelligent sind Systeme, die gegenwärtig unter dem Sammelbegriff „Künstliche Intelligenz“ in aller Munde sind? Was ist „Künstliche Intelligenz“ (KI) eigentlich? Was macht sie intelligent? Und wie sehr verändert KI unser Leben? Für das Titelthema „KI“ befragte Matthias Zimmermann den Kognitionswissenschaftler Prof. Dr. Reinhold Kliegl, die Bildungswissenschaftlerin Prof. Dr. Rebecca Lazarides und den Informatiker Prof. Dr. Tobias Scheffer.
Was ist Künstliche Intelligenz eigentlich und was unterscheidet sie von menschlicher Intelligenz?
Lazarides: Ganz allgemein könnte man sagen, es geht um die Entwicklung von Computerprogrammen oder Maschinen, die Verhalten zeigen, das wir bei Menschen als intelligent bezeichnen würden. Allerdings gibt es keine einzige klare Definition zum Begriff Künstliche Intelligenz, sondern zahlreiche verschiedene. In Bezug auf menschliche Intelligenz ist das ähnlich – ein Bericht, der vom Board of Scientific Affairs der American Psychological Association her-ausgegeben wurde, beschreibt das wie folgt: „Indeed, when two dozen prominent theorists were recently asked to define intelligence, they gave two dozen, somewhat different, definitions.“
Kliegl: Künstliche Intelligenz ist das Teilgebiet der Informatik, das in den 1950er Jahren zu-sammen mit der Experimentellen Psychologie und Teilbereichen der Linguistik die Kognitionswissenschaften begründete. Das gemeinsame Ziel dieser „Interdisziplin“ waren und sind theoretisch fundierte Erklärungen von genuin menschlichen Leistungen u.a. der Wahrnehmung, des Gedächtnisses, der Sprache, des Denkens sowie des Problemlösens und der Steuerung von Handlungen. KI ist also im Computer oder Roboter implementierte Kognition, die komplexes menschliches Verhalten simuliert. Diese Simulationen müssen nicht nur richtiges Verhalten, sondern auch typische menschliche Fehler reproduzieren, wenn sie als Erklärung menschlichen Verhaltens dienen sollen. Die Fehler sind natürlich im eher anwendungsorientierten Ingenieurkontext von KI völlig unerwünscht; hier geht es darum, Programme zu bauen, die schnell und fehlerfrei funktionieren. Dieser Zielkonflikt führt dazu, dass KI- und menschliche Intelligenzforschung sich sehr stark voneinander unterscheiden. Es vereint sie zwar, dass sie genau definierte menschliche Maximalleistungen als Benchmark nehmen (z.B. Schach, Go, Bild- und Spracherkennung). Die Kognitionswissenschaft versucht, diese Leistungen zu erklären; die KI nimmt solche Erklärungen häufig als heuristischen Ausgangspunkt, versucht sie dann aber zu übertreffen.
Scheffer: Menschliche Intelligenz gilt grob gesagt als das, was ein Intelligenztest misst, aber Frau Lazarides hat ja schon ausgeführt, dass es keine richtige Definition gibt. Das Forschungsgebiet „Künstliche Intelligenz“ beschäftigt sich mit verschiedensten Problemstellungen, deren Lösung man bei einem Menschen als Intelligenzleistung ansieht. Heutige KI-Systeme lösen spezialisierte Aufgaben, beispielsweise können sie Go spielen oder Personen in Videoaufnahmen mit deren Passfotos vergleichen. Eine vollständige Künstliche Intelligenz wäre ein technisches System, das einem Menschen in allen Intelligenzleistungen mindestens ebenbürtig ist.
Lazarides: Im Exzellenzcluster „Science of Intelligence“ der Technischen Universität Berlin und der Humboldt-Universität zu Berlin definieren wir intelligente Verhaltensweisen als zielgerichtetes, kosteneffizientes (z.B. physische, rechnerische Kosten) und auf die reale Lebenswelt übertragbares Verhalten. Im Cluster untersuchen wir aus interdisziplinärer Perspektive übergeordnete Prinzipien solcher Verhaltensweisen. Dabei nutzen wir unsere Forschungsergebnisse, um intelligentes Verhalten bei Menschen besser zu verstehen und neue intelligente Technologien zu schaffen. In meinem Teilprojekt interessiert mich beispielweise, wie mit intelligenten Tutorensystemen und Lernrobotern bzw. Social Learning Companions soziale Lernprozesse bei Schülerinnen und Schülern unterstützt werden können.
Ist der Vergleich hilfreich oder hinderlich?
Scheffer: Mit ihrem visionären Ziel, Intelligenz auf technische Systeme zu übertragen, definiert sich die Künstliche Intelligenz als ambitionierte Forschungsrichtung! Dies hat der KI seit den 1950er Jahren zu Aufmerksamkeit und ambitioniertem wissenschaftlichen Nachwuchs verholfen. Bruce Lee soll gesagt haben, man müsse nicht jedes Ziel auch zwangsläufig erreichen, ein Ziel könne ebenso als etwas dienen, auf das man hinstreben kann.
Kliegl: Für das Verständnis der Dynamik komplexer kognitiver Prozesse, die menschlicher Intelligenz zugrunde liegen, brauchen wir Computermodelle. Technische Hardware- und Softwareentwicklungen in der KI liefern immer bessere Werkzeuge dafür. Hier sehe ich ganz klar Vorteile darin, dass KI und menschliche Intelligenzforschung gemeinsame Benchmarks haben.
Was kann KI von menschlicher Intelligenz lernen – und wie verhält es sich umgekehrt?
Lazarides: Um genau das herauszufinden, nutzen wir im Cluster einen synthetischen Ansatz – wir verbinden die Forschung aus „analytischen Disziplinen“ wie z.B. Soziologie oder Erziehungswissenschaft mit der Forschung aus „synthetischen Disziplinen“ wie der Robotik oder Informatik. Im Gegensatz zu Menschen oder Tieren lassen sich synthetische Artefakte wie z.B. Roboter einfacher manipulieren und modifizieren. Das erlaubt es uns, verschiedene Verhaltensweisen im Rahmen solcher Manipulationen sehr genau zu beobachten. Beispielsweise können Roboter programmiert werden, die ungeachtet der Umgebungsbedingungen sehr langsam Aufgaben lösen, und solche, die das sehr schnell tun – mit diesen Robotern können wir dann bestimmte Lehr-Lerntechniken erproben und so selbst mehr über Lernprozesse lernen, die uns auch helfen, menschliches Lernen besser zu verstehen. Andererseits beobachten wir an Menschen Verhaltensweisen, die sich so nicht in Experimenten mit KI zeigen, und müssen bestimmte Konzepte erweitern, die wir in Bezug auf die Arbeit mit KI-Systemen haben.
Scheffer: Die Fähigkeit zu lernen bildet meiner Auffassung nach den Kern der Intelligenz. Aus den Daten, die wir Menschen zurücklassen, lernen KI-Systeme heute beispielsweise, Texte aus einer Sprache in eine andere zu übersetzen, Fußgänger und deren Absichten im Verkehr zu erkennen oder Kreditausfallrisiken einzuschätzen. Eines der wenigen KI-Systeme, die nichts mehr vom Menschen lernen können, ist das Go-Programm AlphaGo Zero. Während frühere Versionen der Software aus Datenbanken menschlicher Go-Spiele gelernt haben, lernt die aktuelle Version nur noch aus Spielen gegen sich selbst. Menschliche Spieler sind weit abgeschlagen und beschreiben AlphaGo als außerirdisch; der Weltranglistenerste Ke Jie erklärte AlphaGo gar zum Gott des Go.
Kliegl: Eine Schwäche von KI-Programmen im Vergleich zur menschlichen Intelligenz ist ihre Spezifität. Sie funktionieren bisher fast alle nur für sehr eng beschriebene Anwendungen. Im Vergleich dazu zeichnen sich Menschen durch ihre Fähigkeit zur Verallgemeinerung und zum Transfer auf neue Situationen aus. Das ist sicher ein Bereich, in dem KI vom Menschen lernen kann. Ein Beispiel dafür, wie diese Schwäche aktuell überwunden wird, wurde unlängst veröffentlicht. Es gibt jetzt AlphaZero, das nicht nur das bereits erwähnte AlphaGo Zero in Go, sondern auch das beste Schachprogramm und das beste Shogi-Programm (japanisches Schach) schlägt. AlphaZero lernt also nicht nur nichts vom Menschen, sondern durch die Kombination eines sehr allgemeinen Lernprinzips mit den für das Go-Programm verwendeten Suchalgorithmen konnte die Go-Leistung auf die beiden Schachvarianten übertragen werden. Das allgemeine Lernprinzip (Reinforcement Learning) „belohnt“ zielführende Züge.
Was kann KI von menschlicher nicht lernen – und umgekehrt?
Scheffer: Seit der Geburt dieses Forschungsgebietes suchen Skeptiker nach einer roten Linie, die Künstliche Intelligenz für immer von menschlicher Intelligenz trennen wird. Die Argumentation basiert zumeist darauf, dass Computer fundamentalen, theoretischen Grenzen von Berechenbarkeit unterliegen. Dabei wird jedoch davon ausgegangen, dass menschliche Gehirne von diesen mathematischen Zusammenhängen ausgenommen sind. Menschliche Go-Spieler können sicherlich von AlphaGo lernen, wahrscheinlich aber nicht mit der Geschwindigkeit, mit der AlphaGo seine eigenen Fähigkeiten weiter verbessert.
Kliegl: Wenn ich die Frage auf ein umfassenderes Verständnis von menschlicher Intelligenz erweitere, dann sehe ich keinen Weg, wie subjektives Erleben oder Bewusstsein auf plausible Weise in Künstlicher Intelligenz abgebildet werden kann. Ich kann mir nicht recht vorstellen, dass ein Computerprogramm, das von sich behauptet, sehr glücklich zu sein, weil es ein Problem gelöst hat, das Gleiche empfindet wie ein Mensch. Ich weiß auch gar nicht, wie wir das wissen könnten.
Braucht KI den Menschen und braucht der Mensch KI? Und wenn ja, wozu?
Scheffer: Heute braucht die KI den Menschen. Mit jedem Captcha, das wir lösen, erzeugen wir neue Trainingsdaten für Bildverarbeitungsmodelle. Das KI-System Watson, das 2011 die Spielshow „Jeopardy“ gewonnen hat, lernt aus von Menschen geschriebenen Büchern und inzwischen aus medizinischen Veröffentlichungen. Menschen profitieren umgekehrt enorm von der KI. Das Äquivalent einer Google-Suchanfrage war früher ein Nachmittag in der Bibliothek. Mithilfe automatischer Übersetzungen können wir heute auch chinesische Texte halbwegs verstehen.
Kliegl: In den meisten Fällen beruhen die Leistungen der aktuell bekanntesten KI-Programme zur Sprach- und Bilderkennung auf oft gigantischen Datenbanken menschlichen Verhaltens, die für das Trainieren der Algorithmen, die den KI-Leistungen zugrunde liegen, unentbehrlich sind. Allerdings, wie gesagt, ist das für Schach, Shogi und Go offenbar nicht mehr der Fall. Wir nutzen KI-Produkte – häufig ohne es zu wissen – in unserem Alltag. Die aktuellen Probleme der Menschheit, die wir auch mit dem technologischen Fortschritt erzeugt haben, werden wir perspektivisch ohne KI wohl kaum in den Griff bekommen.
Lazarides: Ich sehe da ein wechselseitiges Verhältnis zwischen Mensch und KI, das mich besonders in Bezug auf Forschungsprozesse interessiert. Wir als Wissenschaftler profitieren beispielsweise sehr stark von der Arbeit mit KI, unter anderem wenn es darum geht, mehr über Lernprozesse zu erfahren. Zur Beantwortung von Fragen, die menschliches Lernen betreffen, ist KI sehr nützlich. Andererseits erfahren wir durch die Beschäftigung mit menschlichen Lernprozessen mehr über effektives Lernen bei KI-Systemen. Insofern nutzen – und brauchen – wir sie in unserem Alltag, aber auch in der Forschung.
Wie verändert KI unser Leben – heute und in Zukunft?
Lazarides: Als Juniorprofessorin in der Schulpädagogik interessiert mich diese Frage besonders bei schulischen Bildungsprozessen. Dazu gehört einerseits die Frage, welche Bedeutung KI in Zukunft für Schulunterricht haben wird. Für die Bildungsforschung besteht die Herausforderung unter anderem darin, die Rolle von KI für die Unterstützung menschlicher Lehr- und Lernprozesse im Unterricht zu untersuchen. Andererseits stellt sich die Frage, wie Schule Kindern und Jugendlichen jene Kompetenzen vermitteln kann, die sie zu einem selbstbestimmten und verantwortlichen Umgang mit KI befähigen. Das bedeutet auch, damit verbundene Chancen und Herausforderungen zu diskutieren und gemeinsam zu reflektieren.
Scheffer: Die Künstliche Intelligenz hat bislang noch nicht viel von ihrem Potenzial entfaltet. KI steckt heute beispielsweise in Suchmaschinen, Spracheingabe, Musikempfehlungen und Gesichtserkennung. In absehbarer Zukunft wird sie Fahrzeuge autonom fahren lassen, in der Präzisionsmedizin wird sie Chemotherapien durch besser verträgliche, auf die individuelle Zelllinie abgestimmte Therapien ersetzen und in der Präzisionslandwirtschaft wird sie dabei helfen, gesündere Lebensmittel mit geringerem Einsatz von Energie, Wasser und Pflanzenschutzmitteln zu erzeugen.
Kliegl: Die erwähnten Beispiele zeigen, dass unser Leben bereits auf vielfältige Weise von KI durchdrungen ist und dass dies nur der Anfang ist. Eine Herausforderung für die Zukunft wird sein, dass KI-basierte Entscheidungen fair und transparent sind und ethisch verantwortungsvolle Handlungsoptionen anbieten. Es gibt koordinierte Anstrengungen, KI-Techniken für sehr viele und sehr unterschiedliche aktuelle Probleme der Menschheit fruchtbar zu machen. Einen Überblick gab z.B. das Programm des Workshops „AI for the Social Good“ auf der Konferenz NeurIPS 2018.
Wie verändert KI Ihr Leben? Und Ihre Forschung?
Scheffer: Maschinelles Lernen hat von Anfang an den Schwerpunkt meiner Forschung gebildet.
Lazarides: In meiner Forschung befasse ich mich mit der Frage, wie eine pädagogisch sinnvolle und zielgerichtete Implementierung von KI in unterrichtlichen Lehr-Lernsettings stattfinden kann. Dabei verändert sich durch die Beschäftigung mit der Rolle von KI-Systemen für Unterrichts- und Lernprozesse auch meine eigene Forschung und wird interdisziplinärer. Im Exzellenzcluster arbeite ich beispielsweise eng mit Forschern aus Informatik und Robotik zusammen. Generell geht es nach wie vor darum, Schülerinnen und Schüler in ihren Lernprozessen effektiv entsprechend ihrer individuellen Bedarfe zu fördern und damit verbundene Fragen theoriegeleitet empirisch zu untersuchen. Allerdings spielt die Frage, welchen expliziten Nutzen KI-Systeme hierfür haben, eine größere Rolle.
Kliegl: Künstliche Intelligenz liefert Methoden, die für meine Forschung sehr wichtig sind. Ich sehe kaum Möglichkeiten, dass wir Theorien über die Dynamik komplexer kognitiver Prozesse und dem Verhalten, das sie steuern bzw. durch das sie gesteuert werden, ohne die Modellierung experimenteller und Beobachtungsdaten prüfen können. Nehmen Sie die Blicksteuerung beim Lesen oder beim Betrachten von Bildern als ein Beispiel für das Zusammenspiel von Wahrnehmung, Wissen, Erinnerung, Sprechen sowie Programmierung und Ausführung der Augenbewegungen. Methoden der KI sind nahezu unentbehrlich für ein Verständnis dafür, wie diese Prozesse orchestriert werden. Es ist aber wichtig, dass wir die Methoden der KI, mit denen wir unsere Theorien prüfen, nicht mit den Theorien selbst verwechseln.
Die Wissenschaftler
Prof. Dr. Tobias Scheffer ist Professor für Maschinelles Lernen an der Universität Potsdam. Er war Emmy-Noether-Nachwuchsgruppenleiter an der Humboldt-Universität zu Berlin und Leiter der Arbeitsgruppe Maschinelles Lernen am Max-Planck-Institut für Informatik in Saarbrücken. In einem gemeinsamen Projekt mit dem Max-Planck-Institut für molekulare Genetik arbeitet er an Verfahren des maschinellen Lernens für Krebs-Therapien. Gemeinsam mit Cisco entwickelt er Lernverfahren für die Erkennung von Computerviren und Angriffen auf Netzwerke. In weiteren Projekten entwickelt er Lernverfahren für die On-Board-Diagnose in Autos und die Modellierung von Kreditausfallrisiken. Er ist Mitglied des Sonderforschungsbereichs „Data Assimilation“ an der Universität Potsdam.
E-Mail: schefferucs.uni-potsdampde
Prof. Dr. Rebecca Lazarides ist Juniorprofessorin für Schulpädagogik mit dem Schwerpunkt Unterrichts- und Schulentwicklung an der Universität Potsdam. Nach dem Studium der Erziehungswissenschaft an der Freien Universität Berlin promovierte sie an der Technischen Universität Berlin zum Thema Unterricht und Interesse von Schülerinnen und Schülern im Fach Mathematik. Ihre Schwerpunkte liegen auf der Schul- und Unterrichtsforschung mit einem Fokus auf den Bedingungen des Unterrichts, die die motivational-affektive Entwicklung von Schülerinnen und Schülern im Unterricht der Sekundarstufen möglichst optimal fördern. In diesem Zusammenhang untersucht Lazarides als Principal Investigator im Exzellenzcluster „Science of Intelligence“ der Technischen Universität Berlin und der Humboldt-Universität zu Berlin in interdisziplinärer Kooperation die Rolle roboterbasierter Lernbegleiter für die Förderung von Motivation im Unterricht.
E-Mail: lazarideuuni-potsdampde
Prof. Dr. Reinhold Kliegl ist Professor für Allgemeine Psychologie mit dem Schwerpunkt Kognition. Nach der Promotion an der University of Colorado arbeitete er am Max-Planck-Institut für Bildungsforschung; seit 1993 ist er an der Universität Potsdam. In seiner Forschung untersucht er das Zusammenspiel sprachlicher, visueller und okulomotorischer Prozesse beim Lesen, bei Aufgaben zur räumlichen Aufmerksamkeitsverschiebung und bei Belastung des Arbeitsgedächtnisses sowie neuronale Korrelate und alterskorrelierte und andere individuelle Unterschiede in diesen Prozessen. Im SFB „Die Grenzen der Variabilitat in der Sprache” forscht Kliegl dazu, ob sich grammatische Grenzen durch Training verschieben lassen. Auch die Modellierung des Zusammenhangs von kognitiver und körperlicher Fitness und individueller Unterschiede bei Kindern und älteren Erwachsenen in diesen Prozessen ist ein aktueller Forschungsschwerpunkt.
E-Mail: kliegluuni-potsdampde
Text: Matthias Zimmermann
Online gestellt: Agnes Bressa
Kontakt zur Online-Redaktion: onlineredaktionuuni-potsdampde