JavaSPEKTRUM: Trifft der Begriff „Künstliche Intelligenz“ die derzeitigen Entwicklungen?
Boos: Das ist ein sehr schwammiger Begriff. Eigentlich würde ich lieber von „intelligenter Automatisierung“ sprechen. Doch auch diese Bezeichnung löst bei vielen falsche Assoziationen aus. Er wird mit Fabriken und Robotern in Zusammenhang gebracht. So müssen wir wohl mit dem KI-Begriff leben, auch wenn ich ihn nicht mag.
››Ein Prozess ist automatisierbar, weil es das Wissen darüber gibt‹‹
Wie sieht die Welt in zehn Jahren aus?
Bis dahin werden viele Prozesse automatisiert ablaufen. Das heißt allerdings nicht nur, dass Maschinen immer mehr Aufgaben übernehmen. Denn bislang bedeutet Automatisieren lediglich: Ein Prozess wird standardisiert, es wird eine Maschine entworfen und programmiert. Das ist zeitaufwendig und teuer. Doch die Veränderungsgeschwindigkeit steigt, und die Veränderungen lassen sich nicht mehr standardisieren und einfach in Programme fassen. Der entscheidende Punkt: KI hat dieses Standardisierungsproblem nicht mehr. Maschinen sind vielmehr mit dieser Technologie selbst in der Lage, Wissen zusammenzusetzen. Und damit wird der Automationsgrad sprunghaft ansteigen. Für die Zukunft gilt damit nicht mehr: Ein Prozess ist automatisierbar, weil es einen standardisierten Ablauf dafür gibt. Das neue Motto heißt: Ein Prozess ist automatisierbar, weil es das Wissen darüber gibt.
Wie weit sind wir noch davon entfernt?
Das dauert wahrscheinlich keine zehn Jahre mehr. Wie schnell sich Innovationen etablieren, lässt sich am Beispiel Auto verdeutlichen, einer der großen Disruptionen. Anfangs machten sich Menschen noch Gedanken darüber, ob es nicht besser wäre, wenn jemand mit einer Fahne vorneweg läuft. Keine zehn Jahre später waren die Straßen voller Autos. Noch ein Beispiel: das Smartphone. Auch dieses wurde innerhalb kurzer Zeit ein absolutes Erfolgsmodell. Wenn wir für die flächendeckende Elektrifizierung noch 40 Jahre gebraucht haben, waren es beim Smartphone schon unter fünf Jahre. Man sollte sich also nicht der Illusion hingeben, dass zum Beispiel der breite Einsatz von selbstfahrenden Autos noch zehn oder mehr Jahre entfernt ist.
Im Zusammenhang mit KI wird viel von Transparenz und Ethik gesprochen. Für wie wichtig halten Sie diese Debatte?
Transparenz ist wichtig, aber sie kann Vertrauen nicht ersetzen. Unsere Gesellschaft ist auf Vertrauen aufgebaut. Das Thema Ethik und Moral indes ist so hoch kritisch, dass gesellschaftlich breit diskutiert werden muss. Maschinen kennen weder Ethik noch Moral, sie haben kein Selbstbewusstsein. Maschinen lernen auf Basis unseres Wissens. Auch dazu ein Beispiel: Microsoft stellte den Bot „Tay“ auf KI-Basis ins Netz, damit er lernen sollte, wie junge Menschen kommunizieren – und kurze Zeit später gab der Bot Nazi-Parolen von sich, weil sich vor allem Nazis mit ihm unterhielten. Tay wurde darauf hin sofort abgeschaltet. Dabei war nicht Tay selbst das Problem, sondern die Leute, von denen er gelernt hat.
Scheitert die Nachvollziehbarkeit von Algorithmen bei uns Normalbürgern an ihrer Komplexität?
Ich glaube, man hat immer Schwierigkeiten, den nächsten Schritt zu überschauen. Menschen an der Grenze der 1. industriellen Revolution haben auch nicht komplett verstanden, was auf sie zukommt. Doch am Ende des Tages ist die Lebenssituation für viele wirklich besser geworden. Schon die Komplexität eines Toasters ist hoch. In einer Lebenszeit jedenfalls könnte niemand allein einen Toaster bauen, wenn er auch alle Einzelteile wie Blech, Plastik, Kabel usw. selbst entwickeln und produzieren müsste. Aber die Natur ist auch komplex – will sagen, wir müssen nicht alles im Detail verstehen, um damit umgehen zu können, auch nicht um auf Basis vorhandener komplexer Strukturen Innovationen zu realisieren.
Warum kann man KI vertrauen?
Das ist die spannende Frage. Wir haben ein System geschaffen, in dem wir versuchen, Menschen nicht mehr zu vertrauen. Das ist befremdlich und es sind komplizierte Konstruktionen mit überbordender Bürokratie entstanden – aus Angst vor Betrug. Selbstverständlich muss Datenmissbrauch immer drakonisch bestraft werden – aber man muss auch Vertrauen haben. Denn schließlich fahren die allermeisten von uns auch Auto – ohne die Technik bis ins letzte Detail verstanden zu haben.
Wie steht es um das KI-Verständnis in Unternehmen?
KI ist eine Basis-Technologie, die jedes Unternehmen für sich unterschiedlich nutzen kann. Um die Werkzeuge einzusetzen, müssen Unternehmen sie weder selbst bauen können noch die Technik komplett verstanden haben. Beispiel Stahlproduktion. Sie war für die industrielle Revolution eine Grundlage. Allerdings müssen und mussten die wenigsten Unternehmen Stahl bearbeiten. KI darf sicher kein Geheimnis sein. Aber umfassendes Wissen darüber darf auch keine Voraussetzung sein, um sie zu nutzen.
Welche Rolle spielen bei der KI-Adaption die ITler, vor allem die Entwickler und Architekten?
Die Entwickler spielen eine große Rolle. Denn die Frage, wie Anwender mit der Technologie umgehen, ist immer ein Teil der Entwicklung. Wir leben in einer Welt, in der Hardware von Software kontrolliert wird, und das bedeutet, dass die Entwickler am Ende bestimmen, wie wir mit Technik umgehen. Und je besser die Entwickler sind, desto besser wird der Umgang mit KI.
Die Architekten indes haben eine noch viel kritischere Rolle inne, weil sie am Ende das Zusammenspiel von Komponenten bestimmen. Sie definieren das grundlegende Design der Systeme. Hier ist Entscheidungsfreiheit das Kokriterium, denn wenn beim Design industrialisierte Prozesse oder Systeme ohne Entscheidungsfreiheit das Ergebnis sind, hilft KI überhaupt nichts. Hier trennt sich die Spreu vom Weizen: Für die sinnvolle KI-Adaption innerhalb von Unternehmen sind Architekten gefragt, die weniger starr denken. Und ob ein Unternehmen schnell oder langsam von KI profitieren kann, hat viel mit den Architekturen zu tun, in die diese Technologien eingebettet werden.
››Es muss eine Kultur des Ausprobierens etabliert werden‹‹
Wenn Sie mit Risiken oder Nachteilen von KI konfrontiert werden, was würden Sie entgegnen?
KI selbst ist eine Technik, und eine Technik an sich hat sehr wenige Nachteile. Die Nachteile entstehen in der Nutzung. Wenn wir damit beispielsweise anderen schaden, ist das ein Nachteil. Die Frage ist: Wie kommen wir in eine Position, in der wir nachteilige Anwendungen verhindern können? KI-Technik jedoch, die unsere eigene Erfahrung wiederverwertbar macht, ohne dass wir da sein müssen, die ist neutral. Deshalb ist es entscheidend, dass das, was ethisch und moralisch richtig ist, gemacht wird und das ethisch Anrüchige eben nicht. Übrigens muss man das sehr früh entscheiden, um eine Chance zu haben, ethisch unsaubere Anwendungen vom Markt zu verbannen.
Was halten Sie von der KI-Strategie der Bundesregierung?
Ich glaube, wir sind auf dem richtigen Weg. Natürlich kann man sich streiten, ob wir genügend Geld dafür ausgeben. Das kann nur Hand in Hand mit der Wirtschaft funktionieren. Wir müssen uns politisch gesehen mit drei großen Dingen auseinandersetzen:
Wie kann man KI überhaupt optimal einsetzbar machen? Dazu muss eine Kultur des Ausprobierens etabliert werden – ohne schon die Ansätze durch zu viele Regulierungen im Keim zu ersticken. Dabei sollten allerdings unsere ethischen und moralischen Werte von der Technologie nicht berührt werden.
Wie gehen wir mit den Veränderungsprozessen um? Denn es werden Arbeitsplätze verloren gehen. Dabei kann es sich die Wirtschaft aufgrund der bereits bestehenden Konkurrenzsituation zwischen Plattform-Ökonomie und traditionellen Unternehmen nicht leisten, die Menschen nach Hause zu schicken. Sie muss viel mehr neue Arbeitsplätze schaffen, um überhaupt konkurrenzfähig zu bleiben.
Wie bereiten wir uns im Bereich Bildung und Ausbildung auf eine Welt vor, in der der Automationsgrad wesentlich höher sein wird? Im Bereich Bildung gibt es in Deutschland zu viele Köche, die den Brei verderben.
››Im Digitalrat gibt es eine große Offenheit über Parteigrenzen hinweg‹‹
Hat die Politik begriffen, dass Sie Vordenker sein muss?
Ja und ich glaube, darum wurde überhaupt ein Gremium wie der Digitalrat einberufen und darum sind die Mitglieder auch engagiert und setzen ihre Zeit ein. Im Digitalrat gibt es eine große Offenheit über Parteigrenzen hinweg. Und es gibt das große Bedürfnis, zu lernen, was überhaupt machbar ist und wie man Einfluss nehmen kann. Denn viele der klassischen Einflussnahmen funktionieren einfach nicht mehr. Das Verständnis, dass etwas getan werden muss, das ist gut.
Wie kann man sich die Arbeit im Digitalrat vorstellen?
Er berät die Politik und hält ihr den Spiegel vor. Und dadurch, dass wenig öffentlich stattfindet, können die Mitglieder offen über alle Themen sprechen. Und deren Bandbreite ist groß. Es geht dann darum, die verschiedenen Sichtweisen zusammenzubringen und Veränderungen unter vielen Aspekten zu beleuchten.
Wie ist es um KI hierzulande im Ländervergleich bestellt?
Europa ist momentan in einer schlechten Situation. Wir haben keine Plattformfirmen. Wir fangen langsam mit Strategien an – und wir sind noch schlecht in der Umsetzung. Was wir unbedingt tun müssen: Umsetzen! China hat Deutschland den Rang des „execution Mekka“ abgelaufen, obwohl die Forschung unter dem deutschen Niveau liegt. Aber die Umsetzung ist besser. Deshalb sollten wir jetzt Gas geben.
Chris Boos hat 1995 Arago in Deutschland gegründet und erweiterte die bestehenden Grenzen der KI-Technologie, um eine allgemeine KI aufzubauen. Er ist überzeugt, maschinelles Denken und maschinelles Lernen integrieren zu können. Neben seiner Führungsrolle bei Arago ist Chris Boos als strategischer Unternehmens- und Politikberater tätig. Seit Sommer 2018 ist er Mitglied im Digitalrat der Bundesregierung.