Die 8 Gebote einer Algorithmenethik

Von Alexander Klier 14.01.2019

Bild: geralt – algorithm-3859537 auf Pixabay. Verwendung unter den Bedingungen der Creative Commons 0 bzw. als gemeinfreie Datei.

"Im Gegensatz zum Menschen ist Software nicht tagesformabhängig und wendet nicht willkürlich in Einzelfällen neue, vielleicht ungeeignete oder diskriminierende Kriterien an. Doch genau diese Konsistenz algorithmischer Systeme birgt gleichzeitig Risiken: Auch fehlerhafte oder ethisch unangemessene Entscheidungslogiken würde ein System in jedem Einzelfall zuverlässig anwenden" (Lischka & Klingel 2017).

 

Auf Einladung unserer Partnerfirma MaibornWolff hatte ich die Gelegenheit, am Donnerstag, den 10. Januar 2019 an einem Meetup mit dem Titel "Die 8 Gebote der Algorithmenethik" teilzunehmen. In einem – mutmaßlich aufgrund der Wetterlage – kleineren Kreis (gegenüber der Zahl der Anmeldungen) wurden von Carla Hustedt vom Projekt Algorithmenethik der Bertelsmann Stiftung und Michael Puntschuh von iRights Lab (einem ThinkTank zum Thema Digitalisierung der Gesellschaft) die genannten acht Gebote der Algorithmen-Ethik vorgestellt. Anschließend hatten wir in kleineren Arbeitsgruppen die Gelegenheit, jeweils zwei der acht Gebote intensiver zu diskutieren und unsere Fragen und Überlegungen daran wiederzugeben. Den Schluss bildete eine nochmalige gemeinsame Betrachtung der Diskussionsergebnisse.

Auf Twitter wurde ein Teil der Veranstaltung unter dem Hashtag #algorules gezwitschert. Und hier gibt es die präsentierten Folien. Am Ende des Beitrags stehen weitere empfehlenswerte Literaturhinweise. Bevor ich auf die zwei Gebote zurückkomme, die wir im Rahmen unserer kleinen Gruppe diskutiert hatten, möchte ich erst einmal kurz den Gesamtrahmen abstecken bzw. die Begriffe klären, die uns bewegt haben. Das bietet sich vor allem deshalb an, weil dieses Thema grundlegend ist und als (bisher kleineren) Spezialfall natürlich auch das Thema Ethik einer künstlichen Intelligenz beinhaltet.

 

Algorithmenethik – Systemische Anleihen bei Professionsethiken

An dieser Stelle ist es zunächst erst einmal sinnvoll, kurz auf die beiden Begriffe und ihre Bedeutung einzugehen, die im Terminus Algorithmen-Ethik, die damit als sogenannte Bindestrich- oder Bereichtsethik daherkommt, enthalten sind.

Algorithmische Entscheidungsysteme sind längst keine Utopie mehr, vielmehr sind sie schon lange und ganz praktisch im Einsatz. Beispiele dafür sind die Kreditvergabesysteme der Banken oder auch automatisierte Systeme der Bewerberauswahl in großen Unternehmen (insbesondere in den USA). Dabei können diese Systeme ohne Zweifel - positiv wie negativ - gewaltigen Einfluss auf die Teilhabechancen von Menschen haben, weil sie menschliche Entscheidungen, wie bereits im Eingangszitat angesprochen, (stark) skalieren. In einer der präsentierten Folien ist das sehr schön veranschaulicht worden.

Bild: Alexander Klier - Präsentationsfolie während der Veranstaltung, auch auf Twitter verfügbar.

 

Der Fokus des Projektes liegt deshalb auf der Betonung algorithmischer Entscheidungssysteme, weil die Betrachtung nur der Software bzw. alleine des Codes viel zu kurz greifen würde. Werden die Entscheidungen vom System vorbereitet? Werden die Entscheidungen vom System bereits (unwiderruflich) getroffen? Das sind nur einige der Fragen, die über die reine Programmierung hinausweisen. Was macht nun algorithmische Entscheidungsysteme aus? Gegenüber der Betrachtung der zu Grunde liegenden Software beispielsweise der Zielbezug, also wofür ein bestimmter Algorithmus genau eingesetzt werden soll. Weiter auch die verschiedenen Rollen, die bezüglich der Entwicklung und Anwendung eines solchen Algorithmus notwendig sind. Dazu gehören nicht nur Tester*innen und Datensammler*innen (für das "Training" algorithmischer Systeme) sondern auch all diejenigen Personen, die diese Algorithmen konkret anwenden bzw. deren Ergebnisse zur Kenntnis geben (vermitteln) müssen.

"Der Entwicklungsprozess von algorithmischen Entscheidungssystemen ist lang und eine große Anzahl unterschiedlicher Akteure ist daran beteiligt. Deshalb können an vielen Stellen Fehler passieren" (Zweig, Fischer & Lischka 2018). Nicht nur die Fehleranfälligkeit zeigt, wie wichtig der Wechsel der Ebene der Betrachtung ist. Auch bei uns hat sich in einer ersten Diskussion diese Notwendigkeit sofort gezeigt, weil auch wir sehr schnell auf den Programmcode rekurriert haben, im Rahmen der Veranstaltung konkret am Beispiel des autonomen Fahrens. Auf dieser Ebene sind aber die wichtigen ethischen Fragestellungen oder Empfehlungen gar nicht sinnvoll anwendbar.

Bezüglich einer Ethik bei der Anwendung von algorithmischen Systemen geht es dem Projekt darum, von verschiedenen Professionskodizes her kommend, sinnvolle Regeln aufzustellen und Empfehlungen zu machen. Was kann man nun vom hippokratischen Eid der Ärzte oder auch dem Pressekodex von Journalist*innen lernen? Auch hier gingen wir in der Diskussion sehr schnell in medias res. Wir waren uns grundsätzlich einig, dass es - und das zeigen erfolgreiche Berufsethiken eben deutlich - auch Sanktionsmechanismen bei Nichteinhaltung von Regeln geben muss, sollen die Gebote einer Algorithmenethik wirksam in Unternehmen umgesetzt werden. Daneben bleibt es zentral, eine gesellschaftliche Debatte über algorithmische Systeme zu initiieren und permanent fortzuentwickeln, wie es grundsätzlich die Zielstellung dieses Projekt ist. Diskursanlässe gibt es wahrlich genug, denn "zum Beispiel kann schon die Auswahl von Daten und die Messbarmachung von Konzepten (wie 'Kreditwürdigkeit') zu Beginn des Entwicklungsprozesses normative Setzungen enthalten, die in bestimmten Fällen grundsätzliche ethische Wertvorstellungen berühren" (Lischka & Klingel 2018).

Bild: Alexander Klier – die acht bisher existierenden Regeln, präsentiert von Carla Hustedt vom Projekt Algorithmenethik. Bild verfügbar auch auf Twitter.

 

Die Gebote 2 und 6

Wie einführend schon erwähnt, hatten wir die Gelegenheit, zwei der acht Regeln in kleineren Gruppen genauer zu diskutieren. Ich habe mich der Gruppe angeschlossen, welche die Regeln 2 (Verantwortung zuweisen) und 6 (Beherrschbarkeit sichern), als Gebote formuliert, vertieft diskutiert hat. In der Gruppe waren wir uns sehr schnell einig, dass wir beiden Geboten, aufgrund ihrer ausführlicheren Begründung, grundsätzlich zustimmen. Wir hatten aber auch sehr viele Fragen bezüglich einer konkreten Umsetzung. Ebenfalls waren wir uns unsicher, inwiefern nicht bestimmte Formulierungen, beispielsweise in Fragen der Zuweisung von Verantwortung an natürliche Personen, gegebenenfalls (um juristische Personen) zu erweitern sind. Insgesamt war es eines der spannendsten Themen, über das Verhältnis von persönlicher Verantwortung gegenüber der Entscheidung in Organisationen, besonders der Gruppen und Teams darin, nachzudenken. Es ist auf jeden Fall deutlich geworden, dass es hier weiterer Konkretisierungen bedarf, um nicht Gefahr zu laufen, bei einzelnen Verantwortlichen hängen zu bleiben, wenn es um eine organisationale Verantwortung insgesamt geht. Umgekehrt leitet Carla Hustedt aus der Verantwortlichkeit der Unternehmen ab, dass es ein "Vermummungsverbot" (bzw. natürlich eine Kennzeichnungspflicht) für algorithmische Systeme, speziell für künstliche Intelligenz, geben muss.

Beim Thema Beherrschbarkeit war ein zentraler Diskussionsaspekt von uns der, zu klären, was Beherrschbarkeit eigentlich genau bedeuten kann. Wiederum am Beispiel des autonomen Fahrens kann es – zumindest bei diesem Beispiel – nicht darum gehen, dass sozusagen Menschen in konkreten Entscheidungsprozessen "das letzte Wort" haben, weil die Systeme hier schneller als die Menschen reagieren (können) müssen. Auch hier wiederum zeigte sich, wie wichtig es ist, auf eine Ebene darüber zu gehen und algorithmische Systeme im Gesamtzusammenhang ihres Einsatzes (auf das Ziel hin) zu betrachten. In jedem Fall muss es künftig an den unterschiedlichen "Stellschrauben" definierte Prozesse geben, in denen immer wieder Menschen kritisch überprüfen können, ob die Beherrschbarkeit des Systems weiterhin gewährleistet ist. Für einen Teil der bereits im Einsatz befindlichen Entscheidungssysteme bieten sich dabei sogenannte "kontrafaktische Erklärungen" als fest vorgegebener Bestandteil des Algorithmus an.


Video: Fraunhofer Institut (2017) – Sandra Wachter erklärt den Zusammenhang kontrafaktischer Erklärungen am Beispiel der DS-GVO. Ein Vorschlag, der insbesondere beim Einsatz von künstlicher Intelligenz eine ganz praktische Bedeutung gewinnen dürfte.

 

Was lässt sich daraus für KIs ableiten?

Im Prinzip ist erst einmal jede Software, also auch eine KI, ein Algorithmus, da sie regelbasiert arbeitet. Umgekehrt ist aber nicht jede Software ein algorithmisches Entscheidungssystem und schon gar nicht eine künstliche Intelligenz. Als Hauptunterscheidungskriterium zwischen algorithmischen Entscheidungssystemen und einer künstlichen Intelligenz gilt normalerweise die "Fähigkeit" des Systems, eigenständig "lernen" zu können (Stichworte dazu sind Deep Learning und Machine Learning). Dabei wird eine große Menge von Daten nach im Prozess entstehenden Kriterien ausgewertet und (zu-) geordnet. Die daraus resultierenden Ergebnisse bleiben für Menschen "opak", also undurchsichtig, weil sie sich erst aus der realen Anwendung des Softwareprogramms ergeben. Das stellt wiederum besondere Herausforderungen an die ethischen Gütekriterien, weil beispielsweise die Frage, was in einem solchen Fall Beherrschbarkeit und Verantwortlichkeit (um bei den beiden Geboten 2 und 6 zu bleiben) heißt, oder heißen kann, spezifisch zu beantworten ist.

Ableitungen für den Einsatz von KIs, als hochspezialisierte Mustererkennungssysteme, lassen sich auf der Ebene von Entscheidungssystemen sehr grundsätzlich vornehmen. Zum einen, nimmt man den Ausgangspunkt algorithmischer Entscheidungssysteme ernst, anhand der Frage des Zielbezugs. Wenn es einen solchen Katalog an Forderungen bzw. Geboten erst einmal gibt, dann lässt sich daraus sehr schnell die Frage ableiten, ob der Einsatzzweck einer KI moralisch gerechtfertigt, gut oder eben auch unmoralisch ist. Das ist nämlich etwas, was man nur auf einer Metaebene, also einer Ebene über dem konkreten Programmiercode, der Ebene der eine KI einsetzenden Organisation und der betroffenen Menschen, beurteilen kann. Zum anderen kann man aus den bisherigen Diskussionen ableiten, dass es in keinem Fall darauf hinauslaufen darf, der künstlichen Intelligenz selbst (bzw. dem Programmcode) eine Verantwortlichkeit zuzuerkennen. Verantwortlich bleiben die Menschen, die am gesamten Prozess beteiligt sind, auch und gerade im Rahmen ihrer organisationalen Verantwortlichkeit. Damit kommt man sehr schnell von individualethischen Reflexionen auf eine sozialethisch notwendige Ebene, insbesondere auf die Frage kollaborativer Verantwortlichkeiten, die ebenfalls an den entsprechenden Stellen zu klären ist.

Nicht zufällig kamen wir bereits am Anfang der Veranstaltung auf die Frage nach Sanktionsmechanismen und letztlich natürlich auch die wichtige Unterscheidung moralisch korrekten Handelns sowie ethischer Kriterien zur Beurteilung eines solchen. Erfolgreich umgesetzt können algorithmenethische Gebote nur, wenn es tatsächlich einen Sanktionskatalog und auch eine unabhängige (allparteiissche) Instanz gibt, die Verstöße feststellen und mit Strafe belegen kann. Das ist nicht nur den demokratischen Spielregeln geschuldet, sondern auch an der Erkenntnis orientiert, dass nur dann professionsethische Regeln die Handlungen in Organisationen leiten können. Mit anderen Worten: Erst mit Transparenz (Vermummungsverbot), aber auch Kontrollfunktionen und Sanktionsmöglichkeiten können die organisationalen Anreizsysteme so gestaltet werden, dass nicht am Ende unmoralisches Handeln, über den Umweg des Unternehmenserfolges, belohnt wird. Diese Stichworte rufen (hoffentlich) wiederum die Politik, bzw. das Ansinnen einer politische Regulierung, auf den Plan.

Höchste Zeit also, dass es eine Ethik für Algorithmen gibt und daraus abgeleitet Regeln für die Entwicklung, den Einsatz und schließlich einer (moralischen) Bewertung einer künstlichen Intelligenz. Wir werden dieses Thema im Rahmen unserer Blogreihe zum Thema künstliche Intelligenz immer wieder einfließen lassen. Nicht zuletzt auch deshalb, um ein politisches Statement dazu abzugeben.

Hier geht es zum ersten Teil unserer Blogreihe, der sich mit der Frage der Intelligenz einer künstlichen Intelligenz aus ersetzt.

Hier hat mein Kollege Bernd Thomas präzisierende Ausführungen zum Thema gemacht.

 

Addendum

In der ersten Fassung hatte ich als Vortragenden von iRights Lab - gemäß der Einladung - Philipp Otto stehen. Tatsächlich anwesend war - und vorgetragen hat - aber Michael Puntschuh. Das habe ich korrigiert.

Volker Maiborn hat in seinem Blog etwas ausführlicher zu der Frage von Ethik und Moral, gut und böse in Sachen Algorithmenethik Stellung genommen. Der auch sonst lesenswerte Beitrag mit dem Titel "Algorithmenethik, oder: Warum nicht alle guten Algorithmen zu 'den Guten' gehören" ist hier zu finden: https://www.maibornwolff.de/blog/algorithmenethik-was-ist-ein-guter-algorithmus.

Der Vortrag wurde aufgezeichnet und ist über den YouTube Kanal von MaibornWolff hier zu finden: https://youtu.be/Gs_7yYz5ea4. Die erweiterte Einladungsseite von MaibornWolff ist hier zu finden: https://www.maibornwolff.de/aktuell/algorithmenethik-seien-sie-teil-der-diskussion

 


 

Quellen bzw. lesenswerte weitere Literatur: