Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

SIGS DATACOM GmbH

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de

Wer AI sagt, muss auch BI sagen

BI-Spektrum sprach mit Benedikt Bonnmann, Leiter Line of Business Data & Analytics beim IT-Dienstleister adesso, über Data-driven, die Bedeutung von Datenplattformen und die Trends in Sachen AI und Analytics im kommenden Jahr.


  • 09.12.2021
  • Lesezeit: 11 Minuten
  • 80 Views

Auf Ihrem LinkedIn-Profil bezeichnen Sie Data-driven Companies als Ihr „Herzensthema“ – was verstehen Sie unter Data-driven?

Bonnmann: Ich befasse mich bereits mein ganzes Berufsleben mit dem Thema Daten. Aus heutiger Perspektive bedeutet Data-driven ein bestimmtes Mindset: Es geht darum, im Unternehmen einen Data-First-Denkansatz zu etablieren, und zwar in der Kunden- wie auch in der internen Prozessperspektive. Also weg von Gefühlen, weg von personenbezogenen Expertenprozessen hin zu evidenzbasierten Entscheidungen im Bereich von Prozessen und Strategien.

Ist das nicht ein bisschen viel verlangt?

Bonnmann: Ja, keine Frage. Aber wenn Unternehmen das nicht tun, verlieren sie das Potenzial der Automatisierung. In den Daten steckt der Brennstoff, um KI-Modelle zu modellieren, zu trainieren und schlussendlich zu betreiben. Wenn sie die Daten nicht einer sinnvollen Verwertung zuführen, werden sie gegenüber dem Wettbewerb langfristig verlieren.

Warum hört man in Deutschland so selten, dass KI und Analytics vor allem Automatisierung vorantreiben?

Bonnmann: Aus meiner Sicht liegt das auf der Hand. KI befeuert im Jahr 2021 in erster Linie die Automatisierung und sehr spezifische Use-Cases mit klarem Fokus. Ich denke, es wird deshalb so selten artikuliert, weil in Deutschland KI landläufig sehr stark mit Terminator-Szenarien in Verbindung gebracht wird. Es wird nicht als Technologie oder Methodik gesehen, die Effizienz verbessern kann, sondern es wird mit Sorge und Angst vor Überwachung gesehen. Und selbst wenn über Automatisierung geredet wird, löst das wieder neue Ängste aus, nämlich die vor dem Verlust von Arbeitsplätzen.

Wo sehen Sie die größten Hürden und Widerstände für einen flächendeckenderen Einsatz von Analytics und KI? German angst ist das eine, aber auf der Seite der Anbieter ist ja auch keineswegs alles perfekt.

Bonnmann: Eine wichtige Hürde ist die Angst vor dem Unverstandenen. Weitere Hürden sind fehlende Daten. Die Datensilos, die hiesige Unternehmen in den letzten 15 bis 20 Jahren ausgeprägt haben, sind phänomenal – die sind in technologischer Diversität kaum zu überbieten. Das Zusammenführen dieser Daten ist deshalb mit hohen Investments verbunden. Die Anti-Cloud-Haltung, der wir nach wie vor in vielen Unternehmen begegnen, macht es nicht einfacher. Die Cloud ist eindeutig ein Beschleuniger KI-basierter Anwendungen und Services. Ohne die Infrastruktur und Services oder auch zunehmend ohne vortrainierte Algorithmen aus der Cloud sind KI und Analytics sehr viel schwieriger umzusetzen. Das gilt insbesondere für mittelständische Unternehmen, die ja mit diesen vortrainierten Algorithmen (KI aus der Steckdose) bei weitem weniger Entwicklungsaufwand leisten müssen als ohne. Aber wenn Unternehmen die Cloud nicht dafür nutzen wollen, ist das alles deutlich mühsamer. Außerdem fehlt Unternehmen häufig die Gesamtperspektive auf das Thema. Natürlich kann man KI Use-Case-basiert angehen. Aber Dinge wie Datenaufbereitung und Datenzugriff kann man erst lösen, wenn man sich des Datenthemas für das gesamte Unternehmen annimmt. Es gilt für BI, Analytics und AI gleichermaßen – nach dem Motto: „Wer AI sagt, muss auch BI sagen.“ Dafür brauchen Unternehmen ordentlich zugriffsfähige und katalogisierte Daten. Deshalb sehen wir zurzeit Datenplattformen als einen wesentlichen Umsetzungstrend.

Was steckt genau hinter diesen Datenplattformen? Ist der Begriff gleichzusetzen mit Daten-Pipeline?

Bonnmann: Nein. Daten-Pipelines sind eine Übertragungsstrecke, mit der die Daten aus unterschiedlichen Quellen in ein Datenmodell, an einen Report, ein KI-Modell oder ähnliche Einsatzzwecke geführt werden. Datenplattformen begreifen wir als ein gesamthaftes Framework, um Daten zugriffsfähig zu machen und sie auch in datengetriebene Produkte zu überführen. Dazu gehören Transport, Speichern, Verwaltung und zentrale Bereitstellung der Daten in der Form, in der sie von den Fachbereichen benötigt werden. Auf diese Plattform greifen dann auch Data Scientists und KI-Experten zu und können darauf ihre Modelle entwickeln. Die Datenplattform mit KI-Services sehen wir heute als die Lösungsstrategie für das KI-Thema. Die Entwicklung einer solchen Plattform hat vier Dimensionen: Technologie, Organisation, Skills, Prozesse. Es ist also kein rein technisches Problem, sondern ein Vorhaben, das auch in die Organisation eingreift.

Haben die inzwischen sehr weit verbreiteten digital-kollaborativen Arbeitsformen Einfluss auf die Nutzung von Analytics und BI?

Bonnmann: Wir erleben als Unternehmen natürlich gravierende Auswirkungen der COVID-Krise. Wir kommunizieren anders untereinander und mit Kunden. Wir haben verschiedene Modi Operandi ausprobiert. Aber explizite Auswirkungen auf den Umgang mit Daten sind mir eigentlich nicht aufgefallen. Die Digitalisierung und damit der Fokus auf die Verwertung von Daten hat sich allenfalls erheblich beschleunigt.

Das ist die letzte Ausgabe von BI-Spektrum in diesem Jahr. Zeit eigentlich, auch über die Trends im BI- und Analytics-Markt für das kommende Jahr zu sprechen. Welche neuen und bleibenden technischen und Markt-Trends sehen Sie für das kommende Jahr? Wird das Thema Explainable AI an Bedeutung gewinnen?

Bonnmann: Ja, diesen Trend sehen wir. Aber er wird zunächst vor allem in den regulierten Wirtschaftsbereichen zum Thema werden. Außerdem wird er getrieben von der Angst, die Ergebnisse eines KI-Algorithmus nicht zu verstehen. Wir sehen, wie der Trend durch die regulatorische Anforderung nach „Trustworthy AI“ stark Fahrt aufnimmt. In der Vorgabe wird verlangt, dass die Algorithmen fair, nichtdiskriminierend und ohne Vorurteile sein müssen. Das wird ähnliche Auswirkungen haben wie die Datenschutz-Grundverordnung. Ich persönlich glaube jedoch, dass es in aller Regel nicht notwendig ist, den einzelnen KI-Algorithmus so weit erklärbar zu machen, wenn man es schaffen würde, einen transparenten Softwareentwicklungsprozess mit klarer Struktur aufzusetzen, in den KI voll integriert ist. Das würde standardmäßig zu guten und fairen Modellen führen.

Würde mehr Explainable AI auch die Akzeptanz voranbringen?

Bonnmann: Ja. Dinge, die ich verstehe und nachvollziehen kann, akzeptiere ich leichter. Auf der anderen Seite kann man nicht alles erklären. Wieso erkennt Google, dass Sie auf Fotos einen Keks in der Hand halten, und schickt Ihnen dann Ads für Kekse?

Das mit dem Keks ist noch nett, aber wenn Alexa Sie fragt, ob Sie Benedikt oder Christoph sind und Sie dann auffordert, Sätze zu sprechen, um Sie eindeutig zu identifizieren, dann ist das schon ein bisschen spooky, oder?

Bonnmann: Klar, die Frage nach der Data Privacy geht damit natürlich einher. Es ist auch „besonders“, dass man Vorschläge für Einkäufe erhält, wenn man sich vorher über bestimmte Produkte oder Produktgruppen unterhalten hat. Auf der anderen Seite sind das genau die Automatisierungsschritte, über die wir bereits gesprochen haben. Und da stellt sich mir nicht so sehr die Frage: „Mache ich das?“, sondern: „Wann mache ich das?“ Denn wenn ich das nicht mache, macht es garantiert ein Konkurrent.

Muss die Frage nicht lauten: „Wie gestalte ich das?“

Bonnmann: Da bin ich dabei. Aus der Frage resultiert die „Trustworthy AI“-Initiative. Auf der anderen Seite legen wir uns als Europäer damit auch wieder einen Stein in den Weg, obwohl wir solche Dinge noch in sehr geringem Umfang selbst machen. Und für 80 bis 85 Prozent der Anwendungsfälle spielen solche Fragen eigentlich keine Rolle. Wenn es darum geht, Bewerbungen auszusortieren, dann muss ich das natürlich sehr sensibel behandeln. Aber muss ich die gleichen Kriterien anlegen, wenn es um Umsatzprognosen geht?

Wie entwickelt sich das Thema Embedded Analytics im kommenden Jahr weiter?

Bonnmann: Es wird noch wichtiger, als es in den letzten Jahren schon geworden ist, obwohl es bisher noch nicht so richtig zum Fliegen kam. Das könnte sich 2022 ändern. Die Performance der Systeme, die das ermöglicht, ist jetzt vorhanden. Ich halte Embedded Analytics für einen zentralen Baustein einer Data-driven Company. Eigentlich ist Embedded nichts anderes als eine Echtzeitauswertung der operativen Daten, um daraus eine Entscheidungsunterstützung abzuleiten. Das ist genau das, was man in einer Data-driven Company erreichen möchte. Im Intelligent Enterprise, das zum Beispiel SAP propagiert, sollen die Mitarbeitenden in allen Systemen mit solchen eingebetteten Analysen unterstützt werden. Da geht es beileibe nicht immer um die tiefschürfenden Deep-Learning-Algorithmen, sondern auch um einfache Entscheidungsbäume mit entsprechenden nachgelagerten – hoffentlich intelligenten – Prozessen.

Wird damit das Thema Self-Service-BI und Analytics obsolet?

Bonnmann: Im Gegenteil, Embedded Analytics befeuert das massiv. Aber es verlagert sich zum Teil in die operativen Systeme. Je stärker Sie die Systeme mit Embedded-Funktionen anreichern, desto größer wird die Nachfrage nach entscheidungsunterstützenden Daten und im Anschluss einer Self-Service-Analyse ebendieser Daten.

Wie entwickelt sich das Thema Automatisierung von Entscheidungen und Entscheidungsunterstützung im Jahr 2022 weiter?

Bonnmann: Wir sehen die automatisierte Entscheidungsunterstützung als einen sehr guten Zwischenschritt. Gerade wenn ein Mitarbeitender die Analyse einer KI bestätigt oder verwirft, nehme ich sehr viel Leistungsanforderungen von der KI weg und stärke gleichzeitig die Akzeptanz von KI bei den betroffenen Menschen. Das ist wie der Unterschied zwischen dem teilautomatisierten und dem autonomen Fahren. Teilautomatisierung unter Aufsicht eines Menschen ist ungleich leichter zu erreichen als ein autonom fahrendes System. Oder denken Sie an Diagnoseunterstützung in der Medizin. Das begrüßt jeder. Doch wenn die Maschine allein entscheidet, das ist Hautkrebs, hat jeder größte Bedenken. Deshalb wird das Thema Augmented AI im kommenden Jahr ein starker Trend – von komplett automatisierten Entscheidungen sind wir noch deutlich weiter entfernt.

Wie steht’s im kommenden Jahr mit Analytics und AI as a Service?

Bonnmann: Das ist der Enabler für KI schlechthin. Wir werden da eine starke Zunahme erleben. Diese Services öffnen Tür und Tor für die vernünftige Adaption von KI. Sie senken die Investitionshöhe dramatisch. Dadurch wird KI auch für mittelständische Unternehmen realistisch nutzbar. Bilderkennung per Cloud-Service kostet heute fast gar nichts mehr. Wenn ich das selbst machen muss,inklusive der zuzukaufenden Daten, wird das viel zu teuer. Dort, wo es möglich ist, sollten Unternehmen unbedingt vortrainierte Algorithmen verwenden und sie da wo nötig an ihren Use-Case anpassen. Cloud ist deshalb ein weiterer zentraler Trend, der das KI-Thema im kommenden Jahr massiv voranbringt.

Wirkt sich GAIA-X auf Analytics und KI im kommenden Jahr aus?

Bonnmann: Ja, und zwar insofern, als es den Unternehmen das Datasharing in sicheren Umgebungen erlaubt. Datasharing ist ein großer und wichtiger Trend in den kommenden Jahren: Die 2020er-Jahre werden ein Jahrzehnt des Datasharing. Denken Sie an das Datenökosystem Catena-X der Automobilindustrie, das einen unternehmensübergreifenden Datenaustausch aller Beteiligten der Wertschöpfungskette ermöglicht. Hier können Daten sogar eine Währung sein. Solche Plattformen werden ein signifikanter Enabler für Machine Learning. Ich kann nicht mehr nur auf meine eigenen Daten zum Training der Modelle zugreifen, sondern auch auf die von Dritten. Das ermöglicht viele neue digitale Geschäftsmodelle. Wir von adesso haben für das Sharing bereits eine eigene Firma gegründet: die adesso Lakes Deutschland. Wir glauben fest daran.

Was hat adesso im kommenden Jahr in Sachen Analytics und KI vor?

Bonnmann: Wir sehen das als eines unserer strategischen Handlungsfelder. Wir investieren hier in Personalaufbau und Intellectual Property, also im Prinzip in eigene wiederverwendbare Modelle, die wir in verschiedenen Kundenszenarien einsetzen können. Wir werden uns um Trustworthy AI kümmern sowie um Data- und AI-Plattformen. Wir wollen solche zentralen Plattformen entwickeln, die es Unternehmen ermöglichen, KI zentral voranzutreiben. Außerdem werden Natural Language Processing (NLP) und Natural Language Generation (NLG) eine wichtige Rolle bei uns spielen.

. . .


Artikel teilen