Eine präzisierende Antwort zur Algorithmenethik

Von Bernhard Thomas 21.01.2019

Bild: geralt - programming-942487 auf Pixabay. Verwendung unter den Bedingungen der Creative Commons 0, also also gemeinfreie Datei.

Diese Antwort von Bernd Thomas bezieht sich auf den Bericht unseres Kollegen Alexander Klier unter dem Titel "Die 8 Gebote der Algorithmenethik". Es handelt sich um eine Ergänzung bzw. Präzisierung in Bezug auf das Thema Künstliche Intelligenz, dem wir uns in loser Folge über verschiedene Blogbeiträge nähern.

 

1. Präzisierungen zu Algorithmen, KI und Entscheidungssysteme

Ich finde es zuerst einmal sehr gut, dass ihr von "Entscheidungssystemen" sprecht. Also Algorithmen, die zu Entscheidungen führen, Entscheidungen unterstützen oder Entscheidungen "fällen", d.h. unmittelbar in Handeln umsetzen. Das bringt uns erst einmal von "KI" weg, bzw. verallgemeinert das Problem der Ethik auf Systeme, die Effekte haben, welche man doch ganz gerne moralischen Prinzipien unterwerfen möchte. Nicht jeder Algorithmus ist ein Enstcheidungssystem, klar. Aber der Übergang ist nicht scharf. Der Algorithmus für das schriftliche Dividieren zweier Zahlen ist sicher kein "Entscheidungssystem". Die Bahnberechnung und Steuerungsoptimierung einer Raumkapsel zum Wiedereintritt in die Atmosphäre ist einerseits nur eine Berechnung (Physik plus Numerische Mathematik) andererseits "vertraut" die Space Crew aber den berechneten Steuerungen bzw. lassen diese direkt in die realen Steuerungssysteme eingehen.

Die Optimierung von Finanzsystemen mit Hang zu Tax-Savings kann andererseits gesellschaftlich fraglich werden. Autonomes Fahren und automatische Bewerberauswahl basieren letztlich auf Entscheidungssystemen, die man gerne "KI" zuordnet. Je weniger "beherrschbar" - im Sinne Deines Blogbeitrags - oder vielmehr: je weniger verstehbar die Entscheidungen / Algorithmen sind, desto mehr sieht man den Bedarf von "moralischer" Absicherung. Noch weniger verstehbar oder beherrschbar sind andererseits bereits die "Entscheidungssysteme" des Menschen. Aber dafür hat der Mensch sich ja über Jahrtausende ein (kulturell durchaus unterschiedliches und zetlich veränderliches) Moralsystem entwickelt.

 

2. Modelle und Algorithmen

Üblicherweise entwickelt man in der Wissenschaft Modelle und Theorien (also formale Systeme), damit man in diesem Rahmen Zusammenhänge verstehen bzw. ableiten kann. Diese können aber so komplex werden, dass dieses wiederum (fast) unmöglich zu verstehen ist oder nur für wenige noch durchschaubar ist. Das dann natürlich auch für Algorithmen bzw. Programme, die diese Modelle abbilden. Man ersetzt so aber lediglich unverstehbare Entscheidungsprozesse durch unverstehbare algorithmische Entscheidungsverfahren. Mit einem Unterschied: für erstere kann man prinzipiell argumentative "Erklärungen" vom Entscheider verlangen, für letztere wohl lediglich "Beherrschbarkeit" - oder SW-Ingenieure, die Traces fahren können.

Bei der Modellbildung und entsprechender Algorithmen-Entwicklung verzichtet man oft auch bewusst und prinzipiell auf Verstehbarkeit. Zum einen, indem man stochastisch simuliert (d.h. "den Zufall" einsetzt als algorithmische Komponente - was ein Widerspruch ist, deshalb auch "Pseudo"-Zufall), zum anderen, indem man riesige, hochdimensionale Paramterräume verwendet. Das müsste man als Thema in diesem Kontext aber gesondert ausführen.

 

3. Machine Learning

Catrin Misselhorn (vom Lehrstuhl für Wissenschaftstheorie und Technikphilosophie in Stuttgart) schreibt über Maschinenethik (sic, ohne Bindestrich) und spricht dabei von "KI"-Systemen erst ab und oberhalb der Leistung des maschinellen Lernens. Was ich ganz in Ordnung finde, denn ein System wie etwa "3 gewinnt", das nur Regeln abspielt, ist aus heutiger Sicht nichts Aufregendes mehr. Ein System, das Regeln findet (aus Vorspielen) schon eher! Aber das fällt auch schon unter "Lernen". Meine Einschätzung ist übrigens, dass Machine Learning heutzutage künstlich intelligent geredet wird. Was - algorithmisch - bei den ML-Verfahren passiert, sind im mathematischen Sprachgebrauch Paramteranpassungen (massiv, schon!), Paramteroptimierung, stochastische Simulation. Im Informatik-Kontext, kann man das ja mit "Lernen" (von Paramtern) bezeichnen. "Lernen" in der Alltagssprache hat aber auch andere (wissenschaftliche und gesellschaftliche) Bedeutungen. Mindestens: aus vorhandenem Wissen (Erfahrung) etwas (Richtiges, Brauchbares) ableiten für neue Situationen. Das entspricht schon auch dem ML-Schema: Training-Set, (Validierungs-Set, technischer Trick zur apriori Bewertung des "Wissens"), Test-Set (neue Situationen).

Unser Problem ist aber, dass meistens in Diskussionen der volle Kontext von alltagssprachlichem "Lernen" mitgedacht wird, während wir eigentlich nur einen - schlichten oder pfiffigen, auf jeden Fall leistungsfähigen - Optimierungsalgorithmus vorliegen haben. Man könnte das vermeiden, indem man sich angewöhnt, statt von Machine Learning von Computational Statistics zu sprechen. Das Problem der Beherrschbarkeit - und Regulierung - von Entscheidungssystemen und deren Nutzung bleibt davon natürlich unberührt.

 

4. Algorithmen und Ethik

Noch eine kurze Bemerkung zur Anwendung von "Ethics" auf Entscheidungssysteme (inkl. KI-Systeme). Bei Catrin Misselhorn findet man unter Maschinenethik ("Maschine") einen dort näher definierten Ansatz bzw. die Forderung, ethische Prinzipien in Algorithmen "einzubauen". Das ist ein weiter gehender und m. E. auch wichtiger Aspekt. Also nicht nur der Entwurf und die Verwendung von Algorithmen (durch Menschen, Orgasnisationen etc.) sollte Moralvorstellungen unterworfen sein, sondern Regeln moralischen Handels sollten auch schon algorithmisch implementiert werden. Ob das geht, ist vielleicht diskussionswürdig - aber warum nicht? Und da wir gerade von lerndenen Systemen sprechen: ich stelle mir vor, dass parallel zu den primären "Lernzielen" (z.B. Kandidatenauswahl) moralische Regeln die Zielsetzung eines algorithmen-spezifischen Machine Learning sein könnten und damit den betreffenden Algorithmus in seiner Implementierung mit einer "Algorithmenethik" versehen.