Verantwortung nicht in Algorithmen auflösen
Mit Methoden des maschinellen Lernens beschäftigt sich Marcus Becker seit mehr als fünf Jahren. Bei der Analyse der Lernmethoden von KI fasziniert den Mathematiker am meisten die Anwendung seiner Disziplin: „Machine Learning Algorithmen verbinden mehrere Teilbereiche der Mathematik auf überaus elegante Weise. Was mich überrascht, wie einfach es heutzutage ist, komplexe Programmier-Codes schnell zu erzeugen – mit Chat GPT sogar ohne die
Programmiersprache zu beherrschen.“
Ergebnisse der KI faszinieren Fachwelt wie Öffentlichkeit, die viel Hoffnungen auf diese Methode setzen mit der vorhandene Sachverhalte herausgesucht und nach dem Wahrscheinlichkeitsprinzip auf verblüffend brauchbare Weise kombiniert werden. Hier hakt Becker ein. Will man diese komplexen Modelle nachvollziehen, kommen ernste Fragen auf: „Künstliche neuronale Netze zählen zu den sogenannten Black Box Algorithmen. Wir können im Vorhinein also nicht genau feststellen, wie das Modell mit gegebenen Input-Informationen umgehen wird.“
Fluch und Segen zugleich?
Deshalb regt Becker an, herauszufinden, nach welchen Kriterien der Algorithmus Informationen als „beste oder passende Sachverhalte“ identifiziert. Zumal es quasi sich selbstverstärkende Algorithmen gibt: „Das geschieht durch kontinuierliche Wechselwirkungen mit ihrer Umwelt. Hier spielt die Einschätzung der Wahrscheinlichkeit, in welcher Art und Weise Algorithmen in Zukunft mit ihrer Umwelt weiter interagieren können, natürlich eine maßgebende Rolle.“
Als Stochastiker freut Becker sich darüber, wie gut die Anwendung von Wahrscheinlichkeitstheorie in der Praxis funktioniert. Aber als Forscher fühlt er sich auch der Wahrheitssuche verpflichtet. Es geht ihm dabei vor allem um das Problem der Überprüfbarkeit. Künstlich erzeugte Vorhersagen durch KI sollte man nicht ungeprüft übernehmen, zumal, wenn es um tragende Entscheidungen geht. Wichtig wäre ein dokumentierter Nachweis für die Richtigkeit der KI-Ergebnisse: „Nur so können Black Box Algorithmen als Hebel der menschlichen Entscheidungskompetenz sinnvoll eingesetzt werden.“
Becker geht der Frage konkret am Fall der automatisierten Anlageberatung nach, die auf KI-Methoden fußt. Ungeklärt sind dabei etwa die Haftbarkeit und die Frage des Verschuldens. Becker verweist darauf, dass das deutsche Haftungsrecht von einer Pflichtverletzung ausgeht, welche zu einem Schaden führt. Doch wie soll das geklärt werden, wenn selbst Entwickler der KI-Methoden oft nicht mehr den Fehler finden können: „Dieses Kausalitätsproblem bereitet große Probleme. Eines davon ist die Beweisbarkeit von Pflichtverletzungen. Daran knüpft sich die Frage, wer in solchen Konstellationen die Beweislast trägt. Da KI-Systeme nicht als eine eigenständige Rechtspersönlichkeit gelten, ist nach aktueller Rechtslage daher auf das Fehlverhalten des Nutzers abzustellen, der sich des Black Box Algorithmus bedient, nach §280 Abs. 1 Bürgerliches Gesetzbuch.“ Anders gesagt: Der Nutzer ist selbst schuld, wenn er Black Box Algorithmen vertraut.
Wenn sich Wissensblasen verfestigen
Gesetzgeber oder Regulierungsstellen sind gefragt. Den kürzlichen Vorstoß der EU zur KI-Regulierung, den sogenannten „EU AI Act“, begrüßt Becker, bleibt aber auch skeptisch: „Der Regulierungsvorstoß zur KI-Haftung weist in die richtige Richtung. Eine einheitliche KI-Regelung ist begrüßenswert. Ob sie jedoch die Risiken beim Einsatz von KI verringern, bleibt offen, zum Beispiel, weil die Frage nach der eigenständigen Rechtspersönlichkeit ungeklärt ist.
Weiterhin führt der Mathematik-Professor vor Augen, wohin sich die Gesellschaft entwickelt, wenn sie sich den Black Box Algorithmen ohne Hinterfragung ergibt. Auch gibt Becker zu bedenken, dass eine Technik, die kontinuierlich das bereits Vorhandene und Erlernte abgreift und zusammenstellt, „Auswirkungen auf unseren Erkenntnisstand im Allgemeinen hat, wenn sich unser Informationsstand nicht mehr erweitern wird. Wir bewegen uns dann in einer Wissensblase. Das dürfte den Fortschritt zumindest verlangsamen.“
Black Box öffnen
Dabei liegt ein Ausweg nahe, wie Marcus Becker hinzufügt – die Überhand über die Algorithmen zu behalten: „Ich fordere, Transparenzalgorithmen einzusetzen, sogenannte Explainable AI oder kurz XAI.“ So ließe sich die Black Box von KI-Methoden öffnen. Denn: „Es gibt eine Vielzahl von Erklärungsmodellen (wie z.B. LIME und SHAP), die quasi universal anwendbar sind. Allerdings nutzen die Firmen diese kaum, auch weil sie nicht gesetzlich vorgeschrieben sind. Sie würden allerdings das Nutzervertrauen erhöhen.
KI gesteuerte finanzielle Planungsinstrumente, sogenannte „Robo Advisor“, ließen sich grundsätzlich in Einklang mit Datenschutzbestimmungen bringen. Dennoch gilt: „Ohne zusätzliche Erklärungssysteme kann man die Entscheidungen der Black Boxen nicht interpretieren und auf ihre ökonomische Gültigkeit hin prüfen“.
Die International School of Management (ISM) ist eine staatlich anerkannte, private Hochschule in gemeinnütziger Trägerschaft und zählt zu den führenden privaten Hochschulen in Deutschland. An Standorten in Dortmund, Frankfurt/Main, München, Hamburg, Köln, Stuttgart und Berlin wird in kompakten und anwendungsbezogenen Studiengängen der Führungsnachwuchs für international orientierte Wirtschaftsunternehmen ausgebildet. Zum Studienangebot gehören Vollzeit-Programme, berufsbegleitende und duale Studiengänge sowie das digitale Fernstudium. In Hochschulrankings schafft es die ISM mit hoher Lehrqualität, Internationalität und Praxisbezug regelmäßig auf die vordersten Plätze. Das internationale Netzwerk umfasst rund 190 Partnerhochschulen.
ISM International School of Management GmbH
Otto-Hahn-Str. 19
44227 Dortmund
Telefon: +49 (231) 975139-0
Telefax: +49 (231) 975139-39
http://www.ism.de
Head of Marketing & Sales
Telefon: +49 (231) 975139-31
Fax: +49 (231) 975139-39
E-Mail: maxie.strate@ism.de