Wie uns Watson von der Mühsal des Lernens befreit: AI, Lernen und soziale Algorithmen

Von Siegfried Lautenbacher Von Alexander Klier 11.08.2017

Bild: geralt - robot-507811_1920 auf Pixabay. Verwendung unter den Bedingungen der Creative Commons 0 (gemeinfreie Datei). Verwendung unter den Bedingungen der Creative Commons 0 (gemeinfreie Datei).

Wie Lernen in digital geprägten Unmgebungen funktioniert, gehört zu den zentralen Themen von Beck et al.. Nachdem nun Künstliche Intelligenz zum Hypethema No. 1 hochgejazzt wurde, ist es logisch, dass sie auch mit dem Thema Lernen in Verbindung gebracht wird. Übernehmen nun auch hier die Maschinen das Kommando? Oder befreien sie uns gar von der Mühsal des Lernens? Ein “lernerloses Lernen” oder ein “autonomes Lernen ohne Lernende” scheint in Griffweite. Mindestens jedoch soll die eingesetzte KI Entscheidungen treffen dürfen und bereits eigenständig lernen können. Konkreter Anlass für diesen Blogartikel war ein Beitrag von Stefan Heil, der sich mit den Einsatzmöglichkeiten von IBM Watson im Bereich der (digitalen) betrieblichen Aus- und Fortbildung auseinandersetzt.

Wir wollen mit diesem Artikel einen Schritt zurücktreten und zeigen, dass es sich lohnt, bei fundamentalen Technologien frühzeitig über die einzuschlagenden Pfade nachzudenken. Im Bereich des digitalen Lernens verhält es sich nämlich genauso, wie in anderen Bereichen: hier gibt es nicht nur Pfade, sondern auch Rückkoppelungen und Verstärkungen, die diese zu einer Pfadabhängigkeit ausbauen. Bis eine Technologie schließlich in einer festgefahrenen Situation endet (Lock-In), aus der sie nur disruptiv verdrängt werden kann. Eine Debatte über eine “allmächtige” KI lenkt von diesen Überlegungen ab.

Zur Analyse gehen wir in drei Schritten vor und bedienen uns entsprechender Literatur:

  1. Im Problemaufriss werden wir den Blogbeitrag von Stefan Heil analysieren und auf ein unseres Erachtens problematisches Grundkonzept hinweisen.
  2. Daran schließt sich ein kurzer Exkurs zu Audrey Watters (sie ist eine kundige Bloggerin im Bereich digitaler Bildung) Blogbeitrag "Driverless Ed-Tech: The History of the Future of Automation in Education" an. Ihre Grundaussage ist die, dass die Anwendung von Algorithmen im Bereich des digitalen Lernens hochpolitisch ist und diese Politik in der konkreten Programmierung steckt.
  3. Schließlich wollen wir mit Felix Stalder, der aufzeigt, welche kulturellen Vorstellungen hinter Algorithmen stecken, erkunden, worin eigentlich die Herausforderung des Einsatzes von Watson, bzw. etwas allgemeiner von Algorithmen, im Bereich der digitalen Bildung liegt.

Zunächst also zu Stefan Heil und den Aussagen seines Blogbeitrages.
 

Kompetenz auf Knopfdruck?

"Dank technologischer Errungenschaften wie dem Corporate LMS, kann Wissen und Kompetenz auf Knopfdruck an den Mitarbeiter transferiert werden. Bei den zum Einsatz kommenden ‚Self Paced Learning‘-Programmen reduziert sich die ‚Selbststeuerung‘ des Lernprozesses für den Mitarbeiter leider allzu oft auf die banale Entscheidung, wann die ‚Weiter‘ Taste gedrückt wird" (Heil 2017).


Die Problemstellung ist für uns bereits zu Beginn und zur Einführung grundgelegt. Sie kommt in obigem Zitat in den Begriffen der "Selbststeuerung" von Lerner*innen und entsprechenden Programmen zum Ausdruck. Hier gibt Stefan Heil einen kritischen Hinweis darauf, dass sich eine solche Funktionalität digitaler Lernanwendungen nicht auf das Drücken der Enter-Taste reduzieren lassen darf. Obwohl "der Glaube an die simplistische Mechanisierbarkeit von Wissenserwerb" (a.a.O.) im Eingangszitat kritisch zum Ausdruck kommt (Wissenstransfer per Knopfdruck), analysiert Stefan Heil die derzeitige Problematik der betrieblichen Aus- und Fortbildung anhand der gleichen Kriterien - und folgt ihnen damit. Die Frage, ob die bestehende Weiterbildungslandschaft nicht ihrerseits ein Teil des Problems sei, ist aus dieser Sicht vollkommen richtig. Doch der Schluss, dass eine "Informationsüberlastung" (Information Overflow) der Mitarbeiter*innen das Kernproblem sei, ist aus unserer Sicht so nicht nachzuvollziehen. Um diesen Overflow zu verhindern gilt es für ihn jedenfalls, "endlich wieder das Individuum in den Mittelpunkt zu stellen" (a.a.O.). Dazu macht er auch konkrete Vorschläge, wie etwa den einer Individualisierung der Inhalte, einer Orientierungshilfe bezüglich der Lerninhalte und schließlich eines offenen und eigenmotivierten Lernansatzes. Zuzustimmen ist ihm sicherlich dabei, dass traditionelle LMS (Lernmanagementsysteme) nicht dazu in der Lage sind, die von ihm vorgeschlagenen selbstgesteuerten Lernprozesse zu ermöglichen. Mit "starren Zuweisungsmechanismen" stehen sie solchen Lösungen sogar im Wege.

Hier kommen nun explizit die Algorithmen (bzw. Watson) ins Spiel: "Mit ausgereiften Analyticsmethoden werden hier die Lernbedarfe des Einzelnen antizipiert und mit den am besten geeigneten Elementen aus einem stetig wachsenden Pool an granularen Lernelementen abgeglichen" (a.a.O.). Aus unserer Sicht wird damit aber, bereits stark pfadabhängig, das Grundkonstrukt einer problematischen Lernvorstellung bestärkt: Die Vorstellung von alleine - und quasi völlig autark - vor sich hin lernender Mitarbeiter*innen, die bereits im Begriff “selbstorganisiert” steckt (siehe dazu bei Interesse die vertieften Ausführungen von Alexander Klier). "Konstruktivistische Lerntheorien […] zeigen seit langem, dass Lernen und Wissenserwerb ein hochindividueller Prozess ist, dessen Ergebnis gar nicht wirklich von Außen determiniert werden kann" (a.a.O.). Auch diese Aussage, die nur für einen kleineren Teil konstruktivistischer Lerntheorien gilt, weist für uns auf den Kern des Problems hin. Dass nämlich das Lernen selbst, also im Sinne einer Beschreibung der Lernprozesse von Menschen, nur noch als völlig individualistische Konstruktion, die einem neoliberalen Menschenbild folgt, erscheint.

Ist das ein richtiger Ansatz? Ist hier das Problem überhaupt richtig erfasst und beschrieben worden, um eine Lösung anbieten zu können? Wir meinen, nein, denn bereits im alltäglichen Betrieb ist leicht zu beobachten, dass das Lernen von Menschen nahezu immer ein sozialer Prozess ist. Das gilt umso mehr für den Kontext von Unternehmen und noch mehr für den Bereich digitaler Kollaboration. Betrachtet man spezieller ein anderes Produkt der IBM, nämlich Connections, dann wird das Problem dieser Sichtweise noch einmal besonders klar. Unseres Erachtens steckt nämlich, aufgrund der eingeschlagenen Pfade, in der spezifischen Programmierung der Algorithmen reine Politik.

Radikal individualistisch

"Unlike the routes of ‚traditional‘ education – the lecture hall, the classroom – those routes that are prescribed for and by the collective, ‚personalized software‘ is for you and you alone. The computer is a radically individualistic, individualizing technology; education becomes a radically individualistic act" (Audrey Watters 2017).


Audrey Watters beginnt ihre Analyse der derzeitigen Entwicklung im Bereich des digitalen Lernens mit der Beschreibung einer Probefahrt in einem der ersten “selbstfahrenden” Autos. Im Rahmen dieser Fahrt wurde ihr bewusst, wie die Ingenieure und Entwickler im Silicon Valley Lernen betrachten: als das Sammeln einer immensen Flut an Daten. Aus den Daten sind dann (Land-) Karten zu entwickeln, entlang derer die Studierenden ihre "eigenen Wege" gehen können, um entweder einen Kurs erfolgreich zu Ende zu führen, oder im Job lernend zurechtzukommen. Hier wird Lernen auch als dem Folgen eines Pfades betrachtet, den man allerdings alleine entlang geht. Ihr Vergleich mit dem “lernerlosen Lernen” ist deshalb gut gewählt, weil hinter den verschiedenen neuen Begriffen, wie etwa dem der Selbstorganisation beim Lernen, der geschickte Versuch steht, durch eine Neudefinition der Worte zu verschleiern, dass es für viele Unternehmen bei der "Digitalen Disruption" tatsächlich um eine dramatische Deregulierung des Marktes geht. Um eine "Uberisierung" der Bildung mit einer Entwertung professioneller Pädagogik als "Megatrend". Sozusagen um eine Deregulierung durch eine “pädagogenlose Pädagogik” ("lenkendenlose Schulen"), die als politisches Vorhaben ein entsprechendes Marktpotenzial schaffen soll und sich komplementär in den entsprechenden Anwendungen und Programmen widerspiegelt.

"The car is a prototype of sorts for the concept of ‚personalization‘". Audrey Watters macht sehr deutlich, dass dieses politische Programm Konsequenzen bis hinein in den Programmcode von entsprechenden Algorithmen im Bereich des Lernens hat. Insbesondere der Individualismus ist der Schlüssel zum Verständnis des Vorgehens. Er war es, und auch hier trägt der Vergleich, bereits bezüglich der Entwicklung von Autos und des Individualverkehrs. Die im Begriff der Selbststeuerung versprochene “Freiheit” der Lerner*innen führt weiter zu der Frage: Was bedeutet das genau? Bekommen die verschiedenen Institutionen nun mehr Mitbestimmungsrechte? Können die entsprechenden HR-Abteilungen oder auch L&D-Departments bessere didaktische Konzepte einkaufen? Das Gegenteil wird nach Audrey Watters der Fall sein, denn die zugrunde liegenden Algorithmen (die KI) werden noch undurchsichtiger sein, als es jetzt bereits politische Entscheidungen bezüglich der jeweiligen Curricula sind. Vor allem aber gilt: "The ‚driverless university,‘ rather, is controlled by the engineers who write the algorithms, those who model the curriculum, those who think they can best navigate a learning path. There is still a ‚driver,‘ but that labor and decision-making power is obscured" (a.a.O). Insofern steckt in der Entwicklung der Lernalgorithmen eine radikal individualistische (neoliberale) Politik. Dem sozialwissenschaftlichen Diskurs folgend nennt Felix Stalder diese Entwicklung "postdemokratisch".
 

Algorithmen die wir brauchen

"Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen […] Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind" (a.a.O.). (Stalder 2017a).


Felix Stalder wiederum zeigt sehr gut, dass sich "digitale Verhaltensweisen" genauso wie die postdemokratische Entwicklung bereits lange vorher kulturell abgezeichnet haben. Ihm gelingt dabei weiter der Nachweis, dass auch das reine Programmieren als Tätigkeit in solche kulturellen Prozesse und vor allem politische Bedeutungen eingebunden ist. Keine Technik, auch nicht als digitale Anwendung, ist politisch oder kulturell "neutral". Mit den neu entwickelten Algorithmen im Zuge von Big Date erleben wir beispielsweise “eine verstärkte Rückkehr der Mathematik [...] in die Organisation des Sozialen [...] Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren" (a.a.O.). Die Blindheit den Prozessen gegenüber kann man wiederum unschwer auch im Bereich der digitalen Bildung sehen. Lernen wird hier in einem sehr sehr eingeschränkten Sinn gesehen und auf das Prozessieren (vergleichbar einer CPU) von "Learning Nuggets" (Informationen) beschränkt. Heraus kommt dann ein entsprechendes Ergebnis, nämlich Wissen als rein im Gedächtnis abgespeicherte Information, die man qua Multiple Choice abfragen, bewerten und auch gut managen kann. Doch bezüglich dieser Wissensform sind nicht nur die Maschinen den Menschen tatsächlich überlegen, das eigentlich Merkmal menschlichen Lernens und Wissens, insbesondere im Bereich der Kompetenzbildung, wird hierüber schlichtweg nicht erfasst. Unsere Kernkritik an dieser Entwicklung, und hier schließt sich der Kreis zum einführenden Teil dieses Blogs, lautet: damit wird die soziale Bedingtheit menschlichen Lernens und auch kollektiven Wissens völlig aus den Augen verloren. Welche Algorithmen brauchen wir denn nun, um dies anders zu gestalten? Und was bedeutet das wiederum für das digitale Lernen und die Bereitstellung von Informationen?
 

Es gibt kein privates Lernen

"Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten" (Stalder 2017).


Wir beziehen uns im Rahmen unserer Schlussfolgerungen ganz bewusst auf eine Grammatik der digitalen Zusammenarbeit beim Lernen. Anhand des Lernens von Sprachen kann man besonders deutlich zeigen, dass es sich beim Lernen von Menschen eigentlich immer um ein soziales Lernen handelt. Hier geht phylogenetisch die Sprachgemeinschaft immer der Ontogenese der individuelle Sprachentwicklung voraus. Dieser Tatbestand bedeutet zugleich, das mindestens das Lernen einer Sprache kollaborativ erfolgt, weil bereits die Bedeutung von Worten aus ihrem aktiven Gebrauch entsteht und von der entsprechenden Sprachcommunity geprägt wird. Grammatische Regeln helfen dabei, das Allgemeine aus den einzelnen Anwendungsfällen zu filtern und damit das individuelle Lernen zu strukturieren. Wittgensteins Sprachanalysen folgend stellen wir deshalb für das digitale Lernen die These auf: Es gibt kein “privates” (rein individuelles) Lernen. Allenfalls mehr oder weniger gelungene Versuche, das soziale und kollaborative Element beim Lernen in die Rahmenbedingungen (Setting) zu verlagern oder über technische Prozesse und Medien (wozu auch Bücher und Tafeln gehören) zu implementieren. Und damit diesen Tatbestand oft genug zu verstecken, wie es auch bezüglich der Algorithmen geschieht. Eine KI, die das nicht “versteht”, kann beim Lernen nicht wirklich hilfreich sein. In einer solchen Ausrichtung wird sie einfach nicht akzeptiert bzw. benutzt (auch hier gleicht es Kollaborationsplattformen), weil sie das Freiheitsversprechen einer echten Partizipation am Lernprozess nicht einlösen kann.

Was heißt das nun für Watson und seine Freunde?

Für uns zuallerst, dass auch das digitale Lernen im organisationalen Kontext kollaborativ organisiert (im Sinne von didaktisch gestaltet) werden muss und genau darin noch viele unentdeckte Potenziale stecken. Wenn Lernen als sozialer Prozess gestaltet und gelebt wird und die KI dies unterstützt, ändert sich nämlich plötzlich auch der Aspekt der Mühsamkeit. Unter den richtigen Bedingungen macht gemeinsames Lernen Spaß und (erst) ein Peer-Feedback auf Augenhöhe bringt in der Kompetenzbildung wirklich weiter. Soziales Lernen in den Unternehmen ist auch deshalb sinnvoll, weil es an den konkreten (kollaborativen) Problemen der Gruppen und Teams ansetzt, und darüber wiederum zu einem individuell intrinsischen Ziel werden kann. Wenn Watson hierbei kollaborativ unterstützt und die letzten mühseligen Elemente, wie etwa das Sammeln, Clustern und Zuordnen der vorhandenen und/oder benötigten Informationen für die Community, übernimmt, dann befreit es uns tatsächlich von der Mühsal des Lernens. Auch eine individuelle Informationsüberlastung kann kollektiv recht einfach aufgelöst werden, weil gar nicht jeder alles wissen muss. Mit sozialen Lernprozessen geht eine "kognitive Arbeitsteilung" praktisch wie von alleine einher. Watson wiederum wird erst darin seinen Platz finden.

Konsequenterweise müssen Algorithmen das kollaborative Lernen berücksichtigen, also beispielsweise als Teil einer Gruppe auf die verschiedenen Interessen und Perspektiven Rücksicht nehmen können. Ein letzter Aspekt unserer Grammtik digitaler Zusammenarbeit beim Lernen ist insofern der, dass die mit der AI kooperierenden Menschen Einfluss auf die Arbeitsweise der Algorithmen nehmen können müssen, damit die Wechselseitigkeit (Augenhöhe, Nutzungsoffenheit) gewahrt bleibt. Nur so werden die Betroffenen selbst schließlich die Autonomie der Gestaltung des Lernprozesses zurückgewinnen und das Freiheitsversprechen tatsächlich einlösen können. Begrifflich geht es dann allerdings nicht mehr um selbstorganisiertes Lernen, sondern um selbstbestimmte Lernprozesse. Um ein lerner*innenzentriertes Lernen (Mathetik) und damit um partizipatives soziales Lernen.

Wir denken, dass jetzt der rechte Zeitpunkt dafür ist, diese Debatte zu starten und darüber nachzudenken, wie Watson, (Deep) Machine Learning oder noch einmal allgemeiner Lernalgorithmen, im Sinne einer Grammatik und Didaktik des Social Learning gestaltet werden können. Wir freuen uns auf kritisches Feedback, das wir mit weiteren geeigneten Beiträgen und gegebenenfalls sogar Veranstaltungen dazu unterfüttern wollen.

 


Verwendete Literatur

 

 


 

Über die Autoren

Siegfried Lautenbacher Gründer und Geschäftsführer
Gründer und Geschäftsführer bei Beck et al. Services. Lead Consultant für High Performance

Alexander Klier Social Learning Consultant
Social Collaboration und Social Learning gehören zusammen. Gemeinsam denkt man weiter.

Follow me