Die Nutzung von Bildungsdaten durch neue Verfahren wie «Machine Learning» oder künstliche Intelligenz wirft grundlegende Gerechtigkeitsfragen auf. Diese Fragen ergeben sich aus dem Zusammenspiel von Daten und Algorithmen: Algorithmen reproduzieren Muster in bestehenden Daten. Dies kann zu folgenreichen Verzerrungen und Ausblendungen führen (Stichwort «algorithmische Diskriminierung»). Umgekehrt kann eine umsichtig ausgestaltete digitale Nutzung von Bildungsdaten zum Abbau von Benachteiligungen beitragen, wenn Aspekte der Rechenschaft und Fairness in Design und Entwicklung durchgängig berücksichtigt werden.

Gemeinsam für eine soziale und pädagogisch nachhaltige Datennutzungspolitik

Im Kooperationsprojekt «Algorithmic Sorting in Education – Vernetzung und Implikationen» gehen Forschende der PH Zürich und die Fachagentur Educa gemeinsam der Frage nach, wie eine Datennutzungspolitik aussehen kann, die solche Fragen der sozialen Gerechtigkeit angemessen berücksichtigt. Zu denken ist dabei beispielsweise an Richtlinien für die sozial verantwortungsvolle und nachhaltige Gestaltung digitaler Bildungstechnologien. Ebenso wie die Definition von Prozessen und Formaten, die ein Monitoring der sozialen Implikationen des Zusammenspiels von Algorithmen und Daten im schulischen Alltag erlauben.

Die Kooperation zwischen der PH Zürich und Educa basiert auf einem Forschungsprojekt, das vom Schweizerischen Nationalfonds finanziert wird und von 2022 bis 2026 läuft. Dieses Projekt geht der Frage nach, wie pädagogische und technologische Logiken und Praktiken in der Entwicklung und Nutzung von neuen Bildungstechnologien zusammenspielen. Damit untersucht das Projekt das Wechselspiel von zwei Handlungsfeldern, die für die Arbeit an und mit KI in der schulischen Bildung eine Schlüsselrolle spielen, bislang aber kaum in ihren vielfältigen Wechselbezügen in den Blick genommen wurden.

«  Die vielfältigen Wechselbezüge zwischen dem technologischen und dem pädagogischen wurden bisher zu wenig ins Blickfeld genommen.  »

KI-gestützte Bildungstechnologien aus unterschiedlichen Perspektiven erforschen

Um diese Zusammenhänge zu klären, setzt das Projekt an den Erfahrungen, Erwartungen und Einschätzungen von Lehrpersonen, Entwicklerinnen und Entwicklern an. Ein Teilprojekt konzentriert sich dabei auf das pädagogische Feld, ein zweites auf das technologische.

Andrea Isabel Frei erforscht in ihrem Promotionsprojekt anhand von teilnehmenden Beobachtungen und Fallstudien aktuelle Rahmenbedingungen der Entwicklung neuer Bildungstechnologien. Im Fokus ihrer Promotion stehen EdTech-Startups und die vielfältigen «Prüfungen», die diese bestehen müssen, bevor sie ihr Produkt erfolgreich auf dem Bildungsmarkt lancieren können.

Das zweite Teilprojekt verschiebt den Fokus von der Entwicklung von Technologien auf deren Nutzung. Mario Steinberg fragt in seiner Promotion danach, wie Lehrpersonen digitale Bildungstechnologien im schulischen Alltag einsetzen, um Unterrichtssituationen zu gestalten.

Dialog als Schlüsselelement für eine faire Datennutzungspolitik

Erste Erkenntnisse aus diesen Forschungstätigkeiten werden in den kommenden Monaten im Kooperationsprojekt mit dem Programm zur Entwicklung einer Datennutzungspolitik von Educa diskutiert und aufgearbeitet. Schon aus den ersten Schritten «im Feld» ergeben sich wichtige Hinweise für das Verständnis möglicher ungewünschter Benachteiligungseffekte neuer Formen der algorithmischen Datennutzung.

So wird eindrücklich die Schwierigkeit greifbar, eine einfache Antwort auf die Frage zu geben, ob eine Technologie sozial «fair» ist oder nicht. Das liegt allein schon an der Vielzahl der involvierten Akteurinnen und Akteure sowie der Prozesse, die in der Entwicklung und Nutzung von Technologien Spuren hinterlassen. Diese Komplexität gilt es zu verstehen, um Ansatzpunkte zur Vermeidung von algorithmischen Diskriminierungen und die Realisierung von Gerechtigkeitsversprechen neuer Bildungstechnologien zu gewährleisten. Wie und an welchen Stellen im Prozess kann und soll beispielsweise eine pädagogische und «moralische» Reflexion von Algorithmen und Daten stattfinden? Wie kann eine solche organisiert werden, ohne Konflikte mit den alltäglichen Anforderungen der Startup-Szene zu verursachen?

«  Eine Vielzahl an Akteurinnen und Akteuren sowie Prozessen hinterlassen Spuren in der Entwicklung und Nutzung von Technologien. Diese Komplexität gilt es zu verstehen.  »

Rahmenbedingungen für Innovation verstehen

Mit Blick auf die Entwicklung neuer Bildungstechnologien gilt es, die herausfordernden Rahmenbedingungen zu verstehen, unter denen innovative Tools entwickelt werden. Dies wird laut Andrea Isabel Frei deutlich, wenn man sich die alltäglichen Aufgaben vergegenwärtigt, mit denen beispielsweise ein EdTech-Startup konfrontiert ist. Der Weg von der Produktidee zum einsatzbereiten und alltagstauglichen Lerntool ist von zahlreichen «Testsituationen» geprägt. Idealtypisch hierfür ist das Pitching vor Investorinnen und Investoren oder auch die Kundenakquise auf EdTech-Fairs oder vergleichbaren Anlässen. Für die Gestaltung einer Datennutzungspolitik ist hier entscheidend: Kaum eine dieser «Prüfungen» ist von sich aus pädagogisch gesättigt. Wir müssen also über Wege nachdenken, pädagogische und bildungspolitische Anliegen und Expertise zuverlässig in den Entwicklungsprozess von Technologien einzubringen, ohne Innovationsprozesse zu blockieren. Eine innovative Datennutzungspolitik kann hierfür einen wichtigen Rahmen bieten.

Pädagogisch sinnvoller Einsatz erfordert Hintergrundwissen

Deutlich wird auch in den Arbeiten von Mario Steinberg, wie sehr die tatsächlichen sozialen Folgen von Technologien für die schulische Bildung von vielen kleinen Entscheidungen abhängen, die Lehrpersonen in ihrem Berufsalltag treffen. Die sinnvolle pädagogische Nutzung einer Bildungstechnologie erfordert ein Verständnis dafür, wie diese funktioniert und welche Daten sie auf welche Art verarbeitet. An einer angemessenen Data Literacy (und auch Algorithm Literacy) mangelt es aber meist. Das kann Gefühle der De-Professionalisierung ebenso nach sich ziehen wie Dynamiken der Verantwortungsdelegation: Wenn der Algorithmus Schülerinnen und Schüler als «stark» oder «schwach» klassifiziert, wird dies kaum hinterfragt, wenn das entsprechende Hintergrundwissen fehlt.

Das Kooperationsprojekt zwischen Educa und der PH Zürich will diese meist nicht auf den ersten Blick ersichtlichen Bezüge zwischen Technologie und Pädagogik verstehen und im Dialog mit den beteiligten Akteurinnen und Akteuren dafür sensibilisieren. Mehr noch: Es will Wege aufzeigen, wie ein solcher Dialog als dauerhaftes Element einer sozial gerechten Datennutzungspolitik aussehen und funktionieren kann.

Gastbeitrag

Prof. Dr. Kenneth Horvath, Abteilungsleiter Bildungswissenschaftliche Forschung PH Zürich

ähnliche Beiträge

Die vierte Folge der Podcast-Serie «Daten im digitalen Bildungsraum» thematisiert die Befragung zur «Digitalisierung in der Schweizer Bildung». Anhand konkreter Beispiele wird klar, wie das Schliessen von Datenlücken zu evidenzbasierten Politikentscheiden beitragen kann.

Die rasante Entwicklung der künstlichen Intelligenz (KI) fordert das Bildungssystem. Nebst interessanten Möglichkeiten führt KI auch zu Unsicherheiten und stellt neue Anforderungen an das System. Einige dieser Möglichkeiten, Unsicherheiten und Anforderungen diskutieren wir folglich in unserem Dossier «KI in der Bildung».

Das Projekt IDENTI des Kantons Luzerns beschäftigt sich mit der digitalen Identität der Schülerinnen und Schüler und beleuchtet die Rahmenbedingungen von digitalen Lehrmitteln und Applikationen. Karin Weber und Reto Buchmann, Co-Projektleitung, haben für uns erste Lösungsansätze für die identifizierten Herausforderungen skizziert.