Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

SIGS DATACOM GmbH

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de

Veni, vidi, vici?

Seit über einem Jahr beschäftigt ChatGPT neben der Informatik-Community auch die breite Öffentlichkeit. Sowohl die Stärken als auch die Risiken dieser KI-Technologie bringen uns zum Staunen und ebenso zum kritischen Nachdenken.

Author Image
Michael Stal

Chefredakteur von JavaSPEKTRUM


  • 26.01.2024
  • Lesezeit: 5 Minuten
  • 17 Views

Uns stellt sich ein Bündel von Fragen, etwa:

  • Welche gesellschaftlichen Auswirkungen sind zu erwarten?
  • Inwiefern wirken sich KI-Systeme, beispielsweise solche mit Transformer-Architekturen, in Zukunft auf unser Leben aus?
  • Wie können wir unliebsame Konsequenzen vermeiden?

Viele potenzielle und als negativ empfundene Auswirkungen kommen uns dabei in den Sinn, zum Beispiel die radikale Änderung des Berufsumfelds oder staatliche Eingriffe in das Privatleben. Mit einem Rankingsystem versucht beispielsweise China seine Bürger auf sozialen Medien zu durchleuchten und zu belohnen/bestrafen. Unternehmen tauschen ihre über Kunden erhobenen Daten miteinander aus oder verwenden das Kaufverhalten von Kunden als Basis für Marketingmaßnahmen. All dies ließ sich bislang auch schon ohne KI bewerkstelligen, aber mit KI ergeben sich ganz neue, weitgehende und oft intransparente Möglichkeiten.

"Mit KI ergeben sich ganz neue und oft intransparente Möglichkeiten"

Als Entscheidungsträger, Architekten und Entwickler obliegt uns eine gesellschaftliche Mitverantwortung, sobald wir in unseren Anwendungen KI im Allgemeinen und Transformer-Architekturen im Speziellen einsetzen. Wir können uns nicht auf Befehlsketten berufen, sobald wir eine unethische KI implementieren. Negative Konsequenzen unseres Handelns und unserer Arbeitsergebnisse sollten uns stets bewusst sein. Dies schlägt sich in allen Aspekten unserer Arbeit nieder, also in allen Phasen und in allen Aktivitäten.

Die Schattenseiten der Technologie zeigen sich zum Beispiel verstärkt in aktuellen geschichtlichen Ereignissen wie etwa dem Gaza-Krieg und der russischen Aggression in der Ukraine. In beiden Fällen hat sich auf sozialen Netzwerken ein frappierender Anstieg von Propagandanachrichten mithilfe von Fake-Bildern und Fake-Videos, sogenannten Deep Fakes, gezeigt, deren Authentizität sich nur sehr schwer einschätzen lässt. Anwendungen à la Midjourney, ChatGPT und Dall-E machen es möglich. Auch rechtsextreme und stark ideologische Parteien setzen in ihren plakativen Botschaften auf künstlich generierte Bilder, um die Wirkung ihrer politischen Inhalte zu verstärken und um meiner Meinung nach Menschen beziehungsweise Wähler auf subtile Art zu manipulieren. Sobald sich Menschen aber nicht mehr sicher sein können, was Wirklichkeit und was Fälschung ist, haben wir einen Kipppunkt erreicht, der einer bewussten Manipulation von Menschen freien Raum lässt. Weitere Beispiele sind täuschend echte Fakes bekannter Nachrichtensendungen, denen andere Tonspuren unterlegt sind. Wenn wir diesen Nachrichten vertrauen, öffnen potenzielle Fakes der Beeinflussung Tür und Tor.

Wie lässt sich also KI so einsetzen, dass sie positive Effekte auf unser Leben hat, aber keine negativen?

Im EU-Entwurf "Vorschlag für eine Verordnung des europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union" finden sich hierzu einige Vorgaben und Rahmenbedingungen.

KI-Systeme können dabei eigenständige Systeme oder Komponenten von Anwendungen sein. Gewollt sind KI-Anwendungen, die einen positiven Effekt für ihre Nutzer, Gruppen, Gemeinschaften oder die Gesellschaft erzielen. Ungewollt sind Systeme mit hohen Risiken, etwa durch Verletzung von Menschenrechten oder durch Manipulation von Meinung und Verhalten. Schon ein unbewusstes Bias in Datensätzen kann zu negativen Auswirkungen führen. Um so schlimmer, wenn veraltete oder unrichtige Daten zum Einsatz kommen. Das jüngste Urteil des Europäischen Gerichtshofs zur Schufa verdeutlicht dies am Beispiel der Verwendung des Schufa-Ratings für Konsumenten-Kreditwürdigkeit. Die Kreditwürdigkeit eines Bürgers kann durch verschiedene Faktoren zu gering ausfallen, ohne dass dies Betroffenen bewusst ist. Kein Wunder also, dass die Verordnung sich auch mit der Bereitstellung solcher Daten und deren Weiterverarbeitung beschäftigt.

››KI dient den Menschen – nicht umgekehrt!‹‹

Um für mehr Transparenz zu sorgen, sollen Betreiber von KI-Anwendungen Nutzer beziehungsweise Betroffene darüber informieren, dass KI mit im Spiel ist. Zudem müssen die Arbeitsweisen der KI-Systeme insofern Transparenz aufweisen, als sie die zum Trainieren verwendeten Daten, die logischen Abläufe innerhalb der KI und das Überwachen nachvollziehbar machen müssen. Das betrifft insbesondere Hochrisikosysteme, die im Ernstfall zu gesundheitlichen Schäden oder sogar Tod von Menschen führen können. Wir sprechen hier von Maschinen, Robotern, Steuerungen, medizinischen Geräten und fortschrittlichen Waffensystemen. Auch heute schon haben Ärzte bei ihrer Befundung mittels KI-unterstützter Software in bildgebenden Systemen das letzte Wort. KI dient den Menschen – nicht umgekehrt!

Die EU strebt an, eine Marktfragmentierung zu vermeiden, indem sie für ihre Mitgliedsstaaten einen rechtlichen Rahmen vorgibt. Würden einzelne Staaten ihre eigenen Gesetze festlegen, wäre die grenzübergreifende Nutzung von KI-Systemen stark beeinträchtigt und die notwendige Rechtssicherheit nicht gegeben, wodurch Innovation gehemmt würde.

Im Gegenzug möchte die Verordnung aber auch einen sicheren Rechtsrahmen festlegen, um das Innovieren, Entwickeln und Verwenden von KI-Systemen in der EU zu fördern und der EU eine Führungsrolle in Sachen KI-Technologien zu verschaffen.
Hier öffnet sich somit großer Raum zum gesellschaftlichen Diskurs und zum Nachdenken.

Ihr Prof. Dr. Michael Stal

. . .

Author Image

Michael Stal

Chefredakteur von JavaSPEKTRUM
Zu Inhalten

Prof. Dr. Michael Stal beschäftigt sich bei der Corporate Technology der Siemens AG mit Software- und Systemarchitekturen, Digitalisierung und KI. An der University of Groningen hält er Vorlesungen und betreut Doktoranden. Außerdem ist er Chefredakteur von JavaSPEKTRUM.


Artikel teilen

Nächster Artikel
Von Anforderungen und Zielen