Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

SIGS DATACOM GmbH

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de

Schwach ist stark. Stark ist schwach

Die erste Generation von KI-Forschern war Mitte der 1950er-Jahre fest davon überzeugt, dass künstliche allgemeine Intelligenz möglich sei und dass sie dieses Ziel in wenigen Jahrzehnten erreichen würden. Eine Fehleinschätzung. Heute vertreten Forscher wieder ähnliche Thesen.
Author Image
Dr. Stefan Wess

geschäftsführender Gesellschafter


  • 27.08.2021
  • Lesezeit: 3 Minuten
  • 77 Views

Bereits in den frühen 1970er-Jahren wurde offensichtlich, dass die Herausforderungen des Projekts KI grob unterschätzt wurden. Basierend auf dem Erfolg von Expertensystemen (XPS) pumpten in den 80er-Jahren sowohl die Industrie als auch die Regierungen dennoch viel Geld in die KI-Forschung. In den 1990er-Jahren hatten sich KI-Forscher dann, trotz vieler kommerzieller Erfolge, den Ruf erworben, leere Versprechungen zu machen. Ein Teil von ihnen zögerte nun, überhaupt Vorhersagen zu machen, und vermied jede Erwähnung von Künstlicher Intelligenz aus Angst, als „Träumer“ abgestempelt zu werden. Die KI-Community hatte sich damit in zwei Lager gespalten.

Schwache KI

Verfechter der schwachen KI (engl. weak oder narrow AI) wollen mithilfe von Computern ein eingeschränktes Problem oder eine begrenzte Aufgabe mindestens so gut wie ein Mensch – oder sogar besser – lösen. Eine der bekanntesten Formen von schwacher KI ist Apples Siri beziehungsweise Amazon Alexa.

Obwohl diese Assistenten bei der Erledigung verschiedener spezifischer Aufgaben sehr hilfreich sind, sind sie keineswegs intelligent im menschlichen Sinn. Alle erfolgreichen KI-Lösungen basieren derzeit auf dem eher ingenieurwissenschaftlichen Konzept der „schwachen“ KI. Nach dem amerikanischen Philosophen John Searle ist „schwache KI nützlich, um Hypothesen über den Geist zu testen, aber sie ist nicht wirklich Geist.“ Andere Experten verwenden hier gerne das Bild des Spezialisten, oder, weniger freundlich, das Bild des nützlichen Fachidioten.

Starke KI

Artificial General Intelligence (AGI), künstliche allgemeine Intelligenz oder auch „starke” KI, ist als eine Maschine definiert, die die Fähigkeit besitzt, ihre Intelligenz auf jedes beliebige Problem anzuwenden, und sich dabei selbst an eine sich verändernde Umgebung anpassen kann. Eine solche AGI existiert derzeit nicht. Es gibt auch keine Idee, wie eine solche Maschine konstruiert werden könnte. Starke KI ist heute also eher ein theoretisches, philosophisches Konstrukt als eine praktische Disziplin.

Die Steigerung der AGI ist die Superintelligenz, die ihr fast zwangsläufig folgen muss. Im Jahr 2014 veröffentlichte der schwedische Philosoph Nick Bostrom dazu seinen New York Times Bestseller „Superintelligence: Paths, Dangers, Strategies“. Er argumentiert, dass die Erschaffung einer Künstlichen Intelligenz eine nahezu unendliche Intelligenzexplosion auf einer digitalen Zeitskala auslösen wird. Eine AGI wäre somit die letzte und größte Erfindung der Menschheit. Bostroms These wirft die intellektuell reizvolle Frage auf, wie und ob man eine solche Entität kontrollieren kann.

Persönlich kann ich der Unterteilung in „schwache“ und „starke“ Künstliche Intelligenz wenig abgewinnen. Eine „schwache“ KI ist auch kein „erster Schritt“ auf dem Weg zu einer „starken“ KI. Das Gedankenexperiment einer Superintelligenz finde ich dann aber wieder folgerichtig und intellektuell reizvoll. Die aktuell wieder medial zunehmenden Aussagen zu einer künstlichen allgemeinen Intelligenz sehe ich als ein Zeichen sehr großer Naivität oder im Streben nach finanziellen Mitteln begründet.

Wir sollten weiter sehr hart an konkreten Problemlösungen mithilfe „schwacher“ KI-Technologien arbeiten und dabei gerne auch über die Möglichkeiten und Risiken „starker“ KI philosophieren. Im Augenblick beobachte ich jedoch genau das Gegenteil: Es wird viel über „schwache“ KI philosophiert. Sie wird aber nicht eingesetzt. Dafür werden Projekte initiiert, die eine „starke“ KI erfordern. Sicher kein Weg, der Erfolg verspricht.

. . .

Author Image

Dr. Stefan Wess

geschäftsführender Gesellschafter
Zu Inhalten

Dr. Stefan Wess ist geschäftsführender Gesellschafter der Empolis Management GmbH, anerkannter Hightech-Experte und KI-Pionier. Er ist außerdem Mitglied im Aufsichtsrat des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), im Vorstand der Science & Innovation Alliance Kaiserslautern sowie Kurator der Fraunhofer Gesellschaft.


Artikel teilen

Nächster Artikel
360°-Sicht auf das Projekt