Bereits in den frühen 1970er-Jahren wurde offensichtlich, dass die Herausforderungen des Projekts KI grob unterschätzt wurden. Basierend auf dem Erfolg von Expertensystemen (XPS) pumpten in den 80er-Jahren sowohl die Industrie als auch die Regierungen dennoch viel Geld in die KI-Forschung. In den 1990er-Jahren hatten sich KI-Forscher dann, trotz vieler kommerzieller Erfolge, den Ruf erworben, leere Versprechungen zu machen. Ein Teil von ihnen zögerte nun, überhaupt Vorhersagen zu machen, und vermied jede Erwähnung von Künstlicher Intelligenz aus Angst, als „Träumer“ abgestempelt zu werden. Die KI-Community hatte sich damit in zwei Lager gespalten.
Schwache KI
Verfechter der schwachen KI (engl. weak oder narrow AI) wollen mithilfe von Computern ein eingeschränktes Problem oder eine begrenzte Aufgabe mindestens so gut wie ein Mensch – oder sogar besser – lösen. Eine der bekanntesten Formen von schwacher KI ist Apples Siri beziehungsweise Amazon Alexa.
Obwohl diese Assistenten bei der Erledigung verschiedener spezifischer Aufgaben sehr hilfreich sind, sind sie keineswegs intelligent im menschlichen Sinn. Alle erfolgreichen KI-Lösungen basieren derzeit auf dem eher ingenieurwissenschaftlichen Konzept der „schwachen“ KI. Nach dem amerikanischen Philosophen John Searle ist „schwache KI nützlich, um Hypothesen über den Geist zu testen, aber sie ist nicht wirklich Geist.“ Andere Experten verwenden hier gerne das Bild des Spezialisten, oder, weniger freundlich, das Bild des nützlichen Fachidioten.
Starke KI
Artificial General Intelligence (AGI), künstliche allgemeine Intelligenz oder auch „starke” KI, ist als eine Maschine definiert, die die Fähigkeit besitzt, ihre Intelligenz auf jedes beliebige Problem anzuwenden, und sich dabei selbst an eine sich verändernde Umgebung anpassen kann. Eine solche AGI existiert derzeit nicht. Es gibt auch keine Idee, wie eine solche Maschine konstruiert werden könnte. Starke KI ist heute also eher ein theoretisches, philosophisches Konstrukt als eine praktische Disziplin.
Die Steigerung der AGI ist die Superintelligenz, die ihr fast zwangsläufig folgen muss. Im Jahr 2014 veröffentlichte der schwedische Philosoph Nick Bostrom dazu seinen New York Times Bestseller „Superintelligence: Paths, Dangers, Strategies“. Er argumentiert, dass die Erschaffung einer Künstlichen Intelligenz eine nahezu unendliche Intelligenzexplosion auf einer digitalen Zeitskala auslösen wird. Eine AGI wäre somit die letzte und größte Erfindung der Menschheit. Bostroms These wirft die intellektuell reizvolle Frage auf, wie und ob man eine solche Entität kontrollieren kann.
Persönlich kann ich der Unterteilung in „schwache“ und „starke“ Künstliche Intelligenz wenig abgewinnen. Eine „schwache“ KI ist auch kein „erster Schritt“ auf dem Weg zu einer „starken“ KI. Das Gedankenexperiment einer Superintelligenz finde ich dann aber wieder folgerichtig und intellektuell reizvoll. Die aktuell wieder medial zunehmenden Aussagen zu einer künstlichen allgemeinen Intelligenz sehe ich als ein Zeichen sehr großer Naivität oder im Streben nach finanziellen Mitteln begründet.
Wir sollten weiter sehr hart an konkreten Problemlösungen mithilfe „schwacher“ KI-Technologien arbeiten und dabei gerne auch über die Möglichkeiten und Risiken „starker“ KI philosophieren. Im Augenblick beobachte ich jedoch genau das Gegenteil: Es wird viel über „schwache“ KI philosophiert. Sie wird aber nicht eingesetzt. Dafür werden Projekte initiiert, die eine „starke“ KI erfordern. Sicher kein Weg, der Erfolg verspricht.