bwp@ Spezial AT-3 - September 2021

Wirtschaftspädagogik in Österreich 2021

Beiträge zum 14. Österreichischen Wirtschaftspädagogikkongress

Hrsg.: Peter Slepcevic-Zach & Susanne Kamsker

Learning Analytics – Die Crux der Dateninterpretation Betrachtung der Grenzen und Chancen einer pädagogisch-didaktischen Verwertbarkeit von Daten digitaler Lernumgebungen anhand eines Anwendungsszenarios im Masterstudium Wirtschaftspädagogik

Beitrag von Silvia Lipp & Gernot Dreisiebner
Schlüsselwörter: Learning Analytics; Logfiles; Fachdidaktik; Mixed-Methods

Die Nutzung digitaler Bildungsangebote durch Lernende geht mit der Erzeugung einer umfassenden Menge an digitalen Daten einher. Die Analyse, Darstellung und Interpretation dieser Daten – mit dem Zweck der Verbesserung von Lehr-Lernprozessen – wird als Learning Analytics bezeichnet. Obwohl Learning Analytics eine originär pädagogische Zielsetzung aufweist, nimmt die technische Komponente (z. B. Datengenerierung) nach wie vor großen Raum im Forschungsdiskurs ein. Die (korrekte) Interpretation dieser Daten durch Lehrende wie auch Lernende ist jedoch keineswegs ein Selbstläufer und stellt erhöhte Anforderung an die involvierten Parteien. In diesem Kontext widmet sich der vorliegende Beitrag der Frage: Welchen Limitationen unterliegt eine reine Logfile-Betrachtung aus Daten digitaler Lehr-Lernsettings beim Versuch diese in den pädagogisch-didaktischen Kontext zu übersetzen? Im Beitrag erfolgt zunächst eine Skizzierung des Forschungsfeldes. Es wird zudem die Betrachtung eines aktuellen Forschungsprojektes vorgenommen, im Zuge dessen Learning-Analytics-Elemente in einer fachdidaktischen Lehrveranstaltung implementiert und in Form eines Dashboards visualisiert wurden. Durch einen Mixed-Methods Ansatz in einem sequenziellen kombiniert quantitativ und qualitativ vertiefendem Design sollen Erkenntnisse einer pädagogischen Verwertbarkeit der Logfiles gezogen werden. So wird deutlich, dass die im konkreten Anwendungsszenario erhobenen digitalen Datenspuren per se wenig direkten Interpretationswert für die Verbesserung von Lehr-Lernprozessen liefern. Ansatzpunkte zur Überwindung dieser Übersetzungshürde sollten demnach mehr Eingang in Forschungsvorhaben finden.

Learning Analytics – The Crux of Data Interpretation Examining the Limitations and Potentials of a Pedagogic-Didactic Exploitability of Digital Learning Data shown alongside an Application Scenario within the Masters’ Programme of Business Education and Development

English Abstract

The utilization of digital educational settings through learners implicates the generation of an increasingly high amount of data. The analysis, presentation and interpretation of this data – for the sole purpose of enhancing learning processes – is defined as Learning Analytics. Despite its originally pedagogic aims, the technical component (e.g. data generation) is still an important topic within the literary discourse among Learning Analytics. The interpretation of this data through teachers and learners is no simple task and demands sophisticated requirements from the involved parties. Within this context, the paper addresses the following questions: Which limitations arise due to a solely logfile-based approach, when trying to translate data from the logfiles into a pedagogic-didactic context? Within the paper, the research field is described in short. In addition, insights into a current research project are given, where elements of Learning Analytics (e.g. dashboards) have been implemented into a designated university course. By utilizing a mixed-methods-approach in a sequential quantitative/qualitative research design, insights into the pedagogic usability of logfiles should be obtained. It becomes apparent, that within the discussed scenario, the data from logfiles exhibits a relatively low value for the improvement of learning processes. Approaches to address this issue of ‘translation from logfiles into a pedagogic context’ should therefore be more widely considered in the current scientific discourse around Learning Analytics.

1 Einleitung

Die Digitalisierung hat sich mittlerweile als fixer Bestandteil unseres lebensweltlichen Daseins etabliert und gilt als Treiber gesamtgesellschaftlicher Entwicklungen (vgl. Lucht/Larbi/Angerhöfer 2020, 81), welche auch das Bildungssystem tangieren (vgl. Gloerfeld 2020, 4). Die Veränderungen der Arbeitswelt, mit dem Wandel bestehender Berufsfelder, Arbeitsabläufe und Geschäftsprozesse, bedingen eine Neuausrichtung von Bildungsprozessen für Lernende in dieser zunehmend digitaler, komplexer, volatiler und unsicher werdenden Berufswelt (vgl. Lucht/Larbi/Angerhöfer 2020, 84; 87). Digitaler Bildung kommt in diesem Zusammenhang eine Schlüsselfunktion in der Entwicklung einer nachhaltigen wirtschaftlichen Zukunftsfähigkeit zu (vgl. Fürst et al. 2020, 28), um auf neue Mensch-Maschine-geprägte Tätigkeitsbereiche vorzubereiten. Ein wichtiger Aspekt liegt dabei auf der Befähigung der Lernenden selbst und deren Unterstützung in der Entwicklung geforderter Kompetenzen (vgl. Bär 2020). Steigendes Potenzial wird in diesem Kontext vor allem der Nutzung von Daten aus digitalen Lernumgebungen zugeschrieben, wobei sich Möglichkeiten der digitalen Transformation in Bildungskontexten erst auszuformen beginnen. Das Forschungsfeld Learning Analytics, als die Nutzung von Daten aus digitalen Lehr-Lernarrangements zur Optimierung von Lernprozessen (vgl. Leitner et al. 2019, 4), gewinnt dahingehend im deutschsprachigen Raum zunehmend an Bedeutung. Daraus eröffnen sich Möglichkeiten Lernende datengestützt zum selbstgesteuerten Lernen anzustoßen (vgl. Lodge et al. 2019; Winne 2017) bzw. lebenslanges Lernen zu fördern. Zudem kann eine zielgerichtete individuelle Lernprozessbegleitung ermöglicht werden, was sich wiederum positiv auf die Employability der Lernenden auswirken kann (vgl. Seiler et al. 2018, 598). Learning Analytics rückt damit auch ins Interesse der Betriebs- und Wirtschaftspädagogik.

Trotz großem Potenzial liegt die Herausforderung und damit der Erfolg eines Einsatzes von Learning Analytics auf einer vorgelagerten Ebene, in der Übersetzung gesammelter Daten in den pädagogischen Kontext (vgl. Lockyer/Heathcote/Dawson 2013, 1455). Für die Interpretation von Daten aus digitalen Lernumgebungen ist nach wie vor die Expertise von Lehrenden gefragt (vgl. Grandl et al. 2017, 1; Ebner/Neuhold/Schön 2013, 5; Siemens/Baker 2012, 2). Eine diesbezüglich größtenteils fehlende Unterstützung (vgl. Albó et al. 2019) hält die Hürde einer vollen Potenzialfreisetzung von Learning Analytics nach wie vor aufrecht. Der Ausgangspunkt, um Learning Analytics zuträglich im (wirtschafts-)pädagogischen Kontext einzusetzen, liegt demnach im Vermögen, aus Logfiles einer technologiegestützten Lehr-Lernumgebung Erkenntnis zu ziehen. Die Interpretation dieser Logfiles ist keinesfalls trivialer Natur und bedingt eine Verschränkung technischer, methodischer und pädagogischer Kompetenzen der handelnden Akteure. Vor diesem Hintergrund wird in diesem Beitrag anhand eines praktischen Einsatzes von Learning Analytics in einer Fachdidaktik-Lehrveranstaltung im Masterstudium der Wirtschaftspädagogik folgende Forschungsfrage adressiert: Welchen Limitationen unterliegt eine ausschließliche Logfile-Betrachtung aus Daten digitaler Lehr-Lernsettings beim Versuch, diese in den pädagogisch-didaktischen Kontext zu übersetzen?

Ausgehend von der Erschließung der Limitationen einer reinen Logfile-Betrachtung sollen grundlegende Ansatzpunkte für die Überwindung der Interpretationshürde in den pädagogischen Kontext offengelegt werden. Dazu werden mit einem explorativen Zugang Erkenntnisse aus der Implementierung von Learning Analytics in einer Fachdidaktik-Lehrveranstaltung im Masterstudium Wirtschaftspädagogik an der Universität Graz gezogen. Einer einleitenden Darstellung der Problemlage mit Ableitung der Forschungsfrage (Kapitel 1) folgt im zweiten Kapitel die Skizzierung des Forschungsfeldes mit Begriffsdefinition und Darlegung der Relevanz des gegenständlichen Forschungs­vorhabens. Im dritten Kapitel findet die Darlegung des methodischen Vorgehens statt, einem Mixed-Methods-Ansatzes in sequenziell quantitativ-qualitativ-vertiefendem Design sowie eine Beschreibung des konkreten Anwendungsszenarios von Learning Analytics im Masterstudium Wirtschaftspädagogik. Dies mündet im vierten Kapitel mit Darlegung erster Ergebnisse und schließt mit aufgeworfenen Fragestellungen als Diskussion zur Weiterentwicklung des Forschungsvorhabens.

2 Skizzierung des Forschungsfeldes

Als Initialzündung des interdisziplinären Forschungsfeldes Learning Analytics mit Verbindungen zur Lehr-Lernforschung, (Bildungs-)Informatik und Statistik (vgl. Ifenthaler/Schumacher 2016, 176) gilt die erste internationale Konferenz zu Learning Analytics 2011 (vgl. Ebner/Leitner/Ebner 2020, 256). Eine bis heute vorrangig verwendete Definition bezeichnet Learning Analytics als „the measurement, collection, analysis and reporting of data about learners and their contexts, for purposes of understanding and optimizing learning and the environments in which it occurs“ (Siemens 2013, 1382). Learning Analytics reihen sich unter originären Bildungstechnologien als System zur Analyse von Lehr- und Lernprozessen ein (vgl. Rensing 2020, 590). Dazu werden die in technologiegestützten Lernumgebungen anfallenden und maschinell auswertbaren Nutzungsdaten von Lernenden gesammelt, in Echtzeit analysiert und visualisiert (Ifenthaler/Schumacher 2016, 176f). Die Visualisierung dieser ausgewerteten Lernendendaten erfolgt meist in Form von Dashboards (vgl. Leitner/Ebner 2017; Buckingham Shum/Ferguson 2012, 4), wobei der Akt der Visualisierung noch keine Unterstützung von Lehrenden oder Lernenden darstellt. Erst die Interpretation der dort illustrierten Daten kann die Ableitung didaktischer Implikationen zur Verbesserung von Lehr-Lernprozessen ermöglichen. Dies bedingt wiederum die Expertise von Lehrenden  (vgl. Ebner/Ebner 2018, 5f.; Grandl et al. 2017, 1).

Die Wurzeln von Learning Analytics liegen nicht in der Lehr-Lernforschung, sondern in den technologischen Bestrebungen der Business Intelligence (als ein Entscheidungsunterstützungs­verfahren mittels systematischer Analyse vorhandener Unternehmensdaten (vgl. Papp/Weidinger/Meir-Huber 2019, 233) sowie dem Data Mining (vgl. Buckingham Shum/Ferguson 2012, 3). Aus dem Data Mining, das sich mit der Exploration großer Datenmengen zur Aufdeckung von Mustern oder Trends beschäftigt (vgl. Piatetsky-Shapiro 1995), hat sich die Disziplin des Educational Data Mining (EDM) entwickelt (vgl. Buckingham Shum/Ferguson 2012, 4). Auch EDM hat das Ziel, wie Learning Analytics, Daten des Bildungskontextes zu nutzen, unterscheidet sich jedoch fundamental von Learning Analytics, da eine originäre Ausrichtung auf die Verbesserung von Lehr- und Lernprozessen fehlt. EDM befasst sich mit der Entwicklung sowie Anwendung automatisierter Analysemethoden, wie z. B. Data Mining Techniken, für möglichst große Datenmengen des Bildungsbereiches (vgl. Romero/Ventura 2013, 12). Mit dem Fokus auf die technische Komponente wird versucht einen möglichst hohen Wert aus diesen Bildungsdaten zu ziehen (vgl. U.S. Department of Education, Office of Educational Technology 2014, 8; Siemens/Baker 2012). Menschliches Urteilsvermögen wird gegenüber einer automatisationsgestützten Auswertung als nachrangig betrachtet, bzw. wäre diese angesichts der großen Datenmengen auch nicht manuell möglich. Learning Analytics hingegen fokussieren die konkrete Optimierung von Lehr-Lernprozessen (vgl. Mandausch/Meinhard 2018, 24ff). Die Technologie hat für sich genommen allerdings wenig Wert, sondern entfaltet ihr Potenzial erst durch die Einbindung der Komponente Mensch – beispielsweise Lehrende oder Lernende. Damit dienen Learning Analytics weniger als automatisierte ‚Bildungsdatenverarbeitungsmechanismen‘, sondern als Unterstützungsinstrument für Lehrende und deren pädagogisches Handeln wie auch für Lernende (vgl. Grandl et al. 2017, 1; Siemens/Baker 2012, 2). Im Kontext der Nutzung von Bildungsdaten tritt zudem ein weiteres begrifflich verwandtes Forschungsfeld auf: Academic Analytics. Hierbei geht es nicht mehr um die individuelle Ebene von Lehr-Lernprozessen, sondern um die institutionelle Ebene aus politischer und wirtschaftlicher Perspektive (vgl. Romero/Ventura 2020, 2; Ferguson 2012, 310). Mit Academic Analytics können beispielsweise abbruchgefährdete Studierende identifiziert oder die Performance von Hochschulen auf einer institutionellen Ebene evaluiert werden (vgl. Chatti et al. 2012a, 319; Long/Siemens 2011, 34).

Learning Analytics verstehen sich als Unterstützungsinstrument sowohl für Lehrende als auch für Lernende. Lernende können durch individuelle Lernmaterialien, dem Aufzeigen erfolgreicher Lernpfade oder durch Peer-Vergleiche in ihren Lernprozessen begleitet werden. Learning Analytics können zudem selbstreguliertes Lernen anstoßen (vgl. Lodge et al. 2019, 45f.; Ifenthaler/Schumacher 2016, 177; Chatti et al. 2012b, 22). Lehrende werden durch Learning Analytics befähigt, didaktisch geplante Interventionen tatsächlichen Lern- und Betreuungsaktivitäten gegenüberzustellen und diese infolgedessen dem Lernfortschritt anpassen (vgl. Ifenthaler/Schumacher 2016, 176; Johnson/Adams/Cummins 2012, 26).

Die dieser Zielsetzung vorgelagerte, nicht vollautomatisierte, Analyse und Interpretation nutzergenerierter Daten (vgl. Chatti et al. 2012b, 22), bringt die Herausforderung mit sich, diese Daten überhaupt erst in einen pädagogisch sinnvollen Kontext zu übersetzen (vgl. Lockyer/Heathcote/Dawson 2013, 1455; Ebner/Neuhold/Schön 2013, 5). Die pädagogisch/didaktische Betrachtungsebene findet im – bis dato vorherrschend technisch orientierten – Forschungsfeld von Learning Analytics zwar zunehmend Beachtung (vgl. Ebner et al. 2015, 2; Wise 2014, 209), die darauf vertiefte Konzentration in Forschungsarbeiten kann jedoch als ausbaufähig angesehen werden (vgl. Seufert et al. 2019, 599; Koh/Choi 2016, 10). Diesem Forschungsdesiderat widmet sich der vorliegende Beitrag anhand der Fragestellung, welchen Limitationen eine ausschließliche Logfile-Betrachtung aus Daten digitaler Lehr-Lernsettings beim Versuch diese in den pädagogisch-didaktischen Kontext zu übersetzen unterliegt. Die Zielsetzung von Learning Analytics – das Verbessern von Lehr-Lernprozessen – folgt der Prämisse, dass mit Learning Analytics lernförderliche Interventionen angestoßen werden können. Der Forschungsfokus muss daher auf eine vorgelagerte Betrachtungsebene gelegt werden, einer Erforschung, wie digitalen Datenspuren pädagogischer Wert verliehen werden kann (vgl. Grandl et al. 2017, 1; Siemens/Baker 2012, 2).

3 Forschungsdesign: Fragestellung und Methode

Das konkrete Anwendungsszenario des Einsatzes und der Beforschung von Learning Analytics im Masterstudium Wirtschaftspädagogik an der Universität Graz ist eingebettet in das bis Ende 2022 laufende Forschungsprojekt Learning Analytics – Auswirkungen von Datenanalysen auf den Lernerfolg,[1] und widmet sich der bis dato im deutschsprachigen Raum noch wenig ausgeprägten (vgl. Büching et al. 2019) praktischen Erfahrungen mit Learning Analytics. Als Lehrveranstaltung für die Einbettung von Learning Analytics dient ein Fachdidaktik-Proseminar (PS Unterrichtsplanung und digitale Medien), welches aufgrund der COVID-19-Pandemie im Distance-Learning-Modus durchgeführt wurde (ursprünglich ein Blended-Learning-Szenario). Eine eigens eingerichtete, datenschutzkonforme Instanz des Lernmanagementsystems Moodle bildet den technischen Rahmen für die Implementierung von Learning Analytics. Zusätzlich zu den auf Moodle abgebildeten verpflichtenden Lernanlässen werden freiwillige Lernaktivitäten angeboten, die – im Sinne eines Gamification-Ansatzes – mit aufsteigenden Lernlevels verbunden sind.

3.1 Fragstellung und Aufbau der Studie

Während der Nutzung digitaler Lernaktivitäten fallen zahlreiche Daten an, die in Inhalts- und Metadaten kategorisiert werden können. Während sich Inhaltsdaten auf von Lernenden produzierte oder hochgeladene Elemente beziehen (z. B. Foreneinträge), stellen Metadaten, welche auch die für diesen Beitrag zentralen Logfiles inkludieren (vgl. Trübner/Mühlichen 2019, 144), die beschreibende Komponente dieser digital durchgeführten Aktivitäten dar (vgl. Krause 2020, 69). Logfiles zeichnen dabei automatisiert u. a. Informationen über zugegriffene Lernaktivitäten oder Identifikationsdaten wie User-IDs auf (vgl. Schmitz/Yanenko 2019, 847). Der Fokus liegt im konkreten Forschungsprojekt auf Metadaten, d. h. auf der Analyse und Interpretation von Logfiles aus dem Lernmanagementsystem Moodle (Logfiles richten sich beispielsweise auf die Anzahl der Klicks auf Aktivitäten oder die im Lernmanagementsystem verbrachte Zeit). Um der diesem Beitrag zugrundeliegenden Forschungsfrage, welchen Limitationen eine ausschließliche Logfile-Betrachtung aus Daten digitaler Lehr-Lernsettings beim Versuch diese in den pädagogisch-didaktischen Kontext zu übersetzen unterliegt, nachzugehen, wird auf Daten aus zwei Erhebungsperioden (Begleitforschung von zwei Semestern) zurückgegriffen.

Für das vorliegende Anwendungsszenario bildet die digitale Lernumgebung (z. B. Lernplattform Moodle, Videokonferenzen) den Rahmen des in der Forschungsfrage thematisierten ‚pädagogischen Kontextes‘. Dazu wird vorerst nur eine wesentliche Komponente betrachtet, die eine Verbindung zwischen Logfiles und dem pädagogischen Kontext herstellen könnte: didaktisch geplante und daraufhin via Moodle implementierte Lernanlässe, die dem Lehrveranstaltungsdesign entsprechen. Die Aussagekraft der Logfiles zur Nutzung dieser Lernanlässe soll erforscht werden. Dazu geben die Lehrenden zu Beginn der Lehrveranstaltung eine Einschätzung ab, welche Lernanlässe sie als wesentlich und verständnisrelevant ansehen – mit diesen Lernanlässen sollten sich die Lernenden demzufolge besonders intensiv auseinandersetzen. Die Logfiles des tatsächlichen Nutzungsverhaltens werden folglich dem didaktisch abgestimmten Lernangebot und damit sozusagen dem intendierten Lernverhalten gegenübergestellt.

3.2 Sampling

Der in diesem Beitrag adressierte Erhebungszeitraum inkludiert das Sommersemester 2020 (t1) und das Wintersemester 2020/2021 (t2). Das Sample der am Forschungsvorhaben teilhabenden Personen wird bewusst auf die Kursteilnehmende und die involvierten Lehrenden festgelegt, wobei die Anmeldung zum Proseminar und die (freiwillige) Teilnahme an der Begleitforschung entkoppelt sind. Der Stichprobenumfang beläuft sich zu t1 auf 35 Studierende, zu t2 auf 25 Studierende sowie auf jeweils zwei Lehrende. Die beiden Lehrenden sind gleichsam in das übergeordnete Projekt ‚Learning Analytics‘ involviert, um Rückschlüsse auf einen didaktischen Mehrwert ziehen zu können sowie Voraussetzungen, Grenzen und ein erforderliches Mindestmaß an technischer Versiertheit auszuloten.

3.3 Mixed Methods

Das im Lehrveranstaltungssetting genutzte Lernmanagementsystem sammelt, nach Zustimmung der Teilnehmenden, Nutzungsdaten innerhalb der Lernplattform. Diese Daten sind beispielsweise Log-In-Aufzeichnungen, die Anzahl der Zugriffe auf Lernaktivitäten oder die verbrachte Zeit im Lernmanagementsystem. Dabei handelt es sich um beschreibende Daten, sogenannte Logfiles, die dem Begriff der Metadaten zugerechnet werden (vgl. Krause 2020, 69; Trübner/Mühlichen 2019, 144)[2]. Diese automatisierte Datenerhebung folgt einem quantitativen Forschungsansatz und kann einer automatisch strukturierten Beobachtung zugeordnet werden (vgl. Döring/Bortz 2016b, 342ff.). Da die erhobenen Logfiles quantitative Daten in großen Mengen darstellen (ca. 100.000 Datenzeilen zu t1 und t2), werden diese Daten im ersten Schritt mit quantitativen Methoden ausgewertet. Im gegenständlichen Forschungsvorhaben liegt das Erkenntnisinteresse jedoch nicht nur in statistischen Auswertungen von Logfiles, sondern in der Erschließung deren Interpretationsgehaltes. Zu diesem Zweck erscheint der quantitative Ansatz nicht ausreichend geeignet, um von Logfiles auf einen pädagogisch-didaktischen Kontext respektive auf Lehr-Lernprozesse schließen zu können. Hierzu ist ein offenerer Zugang notwendig, der sich in der qualitativen Forschung finden lässt. Qualitative Forschung vermag demnach die quantitativen Logfile-Daten um die subjektive Sichtweise der ProduzentInnen dieser Logfiles, der Lernenden, ergänzen. Auch dem Einbezug der subjektiven Wahrnehmung der Forschenden wird in der qualitativen Forschung Platz eingeräumt (vgl. Flick/Kardorff/Steinke 2015, 25). Da die quantitativen und qualitativen Forschungsansätze in diesem Forschungsvorhaben nicht isoliert nebeneinander stehen, sondern direkt aufeinander bezogen sind, wird ein Mixed-Methods-Design gewählt. Diese Integration quantitativer und qualitativer Forschungszugänge wird gewählt, da der Interpretationsgehalt ausschließlicher Logfiles als gering anzunehmen ist und aus der Kombination der Erkenntnisgewinn erhöht werden soll.

Das Untersuchungsdesign ist sequenziell ausgerichtet, da es sich bei den generierten Logfiles zum einen um ein Nutzungsverhalten einer digitalen Lernumgebung handelt (z.B. die Anzahl von Zugriffen auf eine Lernaktivität). Zum anderen jedoch bilden diese Logfiles nicht nur Häufigkeiten, sondern auch einen Lernprozess ab. Abbildung 1 veranschaulicht das Forschungsdesign und die Vorgangsweise innerhalb einer Erhebungsperiode.

Abbildung 1: Erhebungsdesign einer Erhebungsperiode (ein Semester)Abbildung 1: Erhebungsdesign einer Erhebungsperiode (ein Semester)

Um dieser Prozessdimension in den Daten gerecht zu werden, bzw. den Prozess des Lernens erklärbar zu machen, werden quantitative und qualitative Forschungsmethoden sequenziell kombiniert. Die Sequenzen und die Kombination der quantitativen und qualitativen Forschungsansätze richten sich dabei an das zugrundeliegende Lehrveranstaltungsdesign. Die Lehrveranstaltung ist in zwei Phasen unterteilt, in eine Instruktionsphase (erste bis sechste Lehrveranstaltungseinheit) und eine Praxisphase (siebte bis elfte Lehrveranstaltungseinheit). In einem ersten Schritt Logfiles werden analysiert und ausgewertet. Um aus diesen Daten einen Interpretationsgehalt zu ziehen, werden anschließend schriftliche Fragebögen mit quantitativen und qualitativen Items im Lernmanagementsystem implementiert. Durch den Einsatz von Gruppeninterviews werden die Ergebnisse der vorherigen Auswertungen hinterfragt und die subjektive Wahrnehmung der Lernenden vertieft. Diese sequenzielle Abfolge bzw. Reihenfolge quantitativer und qualitativer Forschungszugänge wiederholt sich im laufenden Semester und ist eine bewusst gewählte und methodisch zentrale Ausrichtung, um auf die Prozessdimension der Daten einzugehen. Damit soll vor allem Einblick in den Verlauf und die Veränderung der digitalen Lernprozesse gegeben werden, da sich die Intention von Learning Analytics auf die Verbesserung von Lernprozessen in Echtzeit richtet. Folglich müssten sich die Lernprozesse innerhalb der Erhebungsperiode ändern. Einer dahingehenden Erforschung soll das sequenzielle Untersuchungsdesign dienlich sein. Im nachfolgenden werden die einzelnen Schritte der Datenerhebung, Datenanalyse und Datenauswertung skizziert.

3.3.1 Datenerhebung

Die Datenerhebung der Logfiles erfolgt automatisiert (automatisch strukturierte Beobachtung; vgl. Döring/Bortz 2016b, 342ff.) über die gesamte Erhebungsperiode. Ab der dritten Lehrveranstaltungseinheit beginnt die zweite Stufe der vertiefenden Betrachtungen. Schriftliche Befragungen mit quantitativen und qualitativen Items werden durchgeführt. Nach den ersten zwei Fragebogenerhebungen werden die damit erhaltenen Ergebnisse und die Ergebnisse der bisherigen Logfile-Analyse weiteren vertiefenden qualitativen Gruppeninterviews unterzogen (dritte Stufe). Die Gruppeninterviews dienen der nochmaligen Hinterfragung bisheriger Ergebnisse und Divergenzen.

3.3.2 Datenanalyse und Datenauswertung

Sämtlich erhobene Daten werden bereinigt (z. B. um die Datenspuren der Lehrenden) und pseudonymisiert in ein dreistufiges Datenanalyseschema übernommen:

  • Deskriptivstatistische und explorative quantitative Logfile-Betrachtung
  • Kombiniert quantitative und qualitative schriftliche Befragung
  • Qualitative halbstrukturierte Gruppeninterviews

Das Mengengerüst des dreistufigen Erhebungsdesigns stellt sich wie in Tabelle 1 angeführt dar. Im Sommersemester (t1) wurde die Lehrveranstaltung mit 35 Studierenden (aufgeteilt in zwei Gruppen) abgehalten, im folgenden Wintersemester (t2) nahmen 21 Studierende (eine Gruppe) an der Lehrveranstaltung teil.

Tabelle 1:     Mengengerüst der Begleitforschung

 

Sommersemester 2020 (t1)

Wintersemester 2020/21 (t2)

Teilnehmer/innen in der LV

35

21

In das Projekt involvierte Lehrende

2

2

Logfiles (bereinigte Datenzeilen)

55.172

32.747

Schriftliche Befragung

5 Fragebögen (durchschnittlich von 22 Lernenden ausgefüllt, in Summe 112 Fragebögen)

6 Fragebögen (durchschnittlich von 17 Lernenden ausgefüllt, 105 Fragebögen)

Gruppeninterviews

12 Interviews (durchschnittlich 20 Minuten und 3 Studierende)

3 Interviews (durchschnittlich 20 Minuten und 3 Studierende)

Das Lehrveranstaltungsdesign wird kontinuierlich an die aktuellen Erkenntnisse der Begleitforschung angepasst, dem folgt auch die Anpassung des methodischen Vorgehens in Hinblick auf die Anzahl der eingesetzten Erhebungsinstrumente. Das zeigt sich deutlich an deren veränderten Mengengerüsten. Zwar erschwert dies eine Vergleichbarkeit zwischen den Erhebungsperioden (was im Forschungsvorhaben ohnehin nicht intendiert wird), gewährleistet aber für das jeweils aktuelle Semester eine bestmögliche Datengenerierung in den Bereichen (1) Logfiles, (2) schriftliche Befragungen und (3) Gruppeninterviews, um das Interpretationsspektrum von Lernendendaten im gegenständlichen Szenario aufzudecken.

Nachfolgend wird das dreistufe Vorgehen der Datenanalyse und -auswertung kurz skizziert:

  • Deskriptivstatistische und explorative quantitative Logfile-Betrachtung:

Die erhobenen und pseudonymisierten Online-Verhaltensspuren aus Moodle können als Spezialform einer non-reaktiven Datenerhebungsmethode zugeordnet werden. Im Anwendungsszenario erfolgte eine explorative Datenanalyse mit deskriptivstatistischen Methoden, um das Datenmaterial zu strukturieren, zu erkunden und zu beschreiben (vgl. Döring/Bortz 2016a, 621; Döring/Bortz 2016b, 352). Die Auswertung erfolgte manuell mit Unterstützung einer Tabellenkalkulations- und Statistiksoftware. Explorative Fragen, die an das Datenmaterial der Logfiles gerichtet wurden, sind z. B.: Wie verteilen sich die Zugriffe auf verschiedene Lernanlässe? Welche verpflichtenden/freiwilligen Lernanlässe werden häufig/selten genutzt? Die Visualisierungen dieser Lernendendaten erfolgt auf Dashboards, die im Lernmanagementsystem Moodle eingebettet sind und Lehrenden wie auch Lernenden zur Verfügung gestellt werden (Ausführungen zu Learning Analytics Dashboards finden sich beispielsweise bei Sedrakyan et al. 2020; Aljohani et al. 2019; Leitner/Ebner 2017). Es hat sich gezeigt, dass die Ableitung von Implikationen der Lehrenden wie auch der Lernenden zuvor allerdings eine Einführung in die Nutzung eines Dashboards bedingt, welche auch die Interpretation der dort visualisierten Daten beinhaltet. Dies wiederum führt zur notwendigen, vorausgehenden Erforschung der Aussagekraft dieser gesammelten Lernendendaten. Dazu dienen die anschließenden quantitativen und qualitativen Befragungen.

  • Kombiniert quantitative und qualitative schriftliche Befragung:

Via des Moodle-Tools ‚Feedback‘ wurden schriftliche Fragebögen (t1: 5 Fragebögen; t2: 6 Fragebögen) mit offenen sowie geschlossenen Fragen implementiert (30% quantitative, 70% qualitative Fragebogenitems). Diese Befragung zielt darauf ab, die quantitativen Logfile-Daten (das Nutzungsverhalten der Lernenden) mit der bewussten Nutzungswahrnehmung der Lernenden (a) abzugleichen und (b) zu erklären, um daraus Ansatzpunkte einer weiterführenden qualitativen Analyse zu erhalten. Da ein deskriptiver Abgleich quantitativer Daten ausreichend mit weiteren quantitativen Forschungsmethoden erfolgen kann, wird eine quantitative Befragung der Teilnehmenden vorgenommen. Dazu wird die Logfile-Struktur durch die in den Befragungen verwendeten Fragen und Antwortalternativen abgebildet (z. B. in Form der Frage ‚Welche der nachfolgenden Lernanlässe haben Sie häufig genutzt?‘). Als Inhaltsitems dienen daher geschlossene Fragen, welche mit den Merkmalen der gesammelten Logfiles übereinstimmen. Die Antwortvorgaben stellen die Ausprägungen der Logfile-Merkmale dar. Um die subjektive Wahrnehmung der Lernenden zu ihren Lernprozessen zu erfassen, wurden zu den quantitativen Items auch qualitative Items in Form offener Fragen in den Fragebogen implementiert. Das qualitative Vertiefungsdesign richtete sich auf die Erklärung der quantitativen Daten mit beispielsweise den Fragen: Welche Lernanlässe werden als (wenig) lernförderlich wahrgenommen? Mit welcher Begründung werden bestimmte verpflichtende/freiwillige Lernanlässe häufiger/seltener genutzt als andere?

Um die Sichtweisen der Lernenden detailliert erfassen zu können, sind die Ergebnisse der schriftlichen Befragung wiederum in die Gestaltung der Interviewleitleitfaden für die darauffolgenden qualitativ halbstrukturierten Gruppeninterviews (vgl. Döring/Bortz 2016b, 365ff.) eingeflossen.

  • Qualitative halbstrukturierte Gruppeninterviews:

Die Interviewleitfäden zu den ergänzend durchgeführten halbstrukturierten Gruppeninterviews in Kleingruppen mit durchschnittlich drei Befragten pro Gruppe basieren auf den Auswertungen der kombiniert quantitativ-qualitativen Befragung. Interviews, an dieser Stelle des sequenziellen Untersuchungsdesigns, haben den Vorteil, offene oder unklar gebliebene Textstellen aus den schriftlichen Befragungen zugänglich zu machen bzw. die subjektive Wahrnehmung der Lernenden in Bezug auf Learning Analytics auch mit Einbezug des Kontextes zu erfragen.

Zur Datenauswertung wurden Volltranskriptionen der Gruppeninterviews angefertigt und zusammen mit den Fragebögen (Rücklaufquote t1: 64%, t2: 83%) gemäß der strukturierenden qualitativen Inhaltsanalyse ausgewertet (vgl. Mayring/Fenzl 2019; Kuckartz bezeichnet diese als evaluative qualitative Inhaltsanalayse vgl. Kuckartz 2018, 123f.). Dieses Auswertungsverfahren der skalierenden strukturierenden Inhaltsanalyse wurde aufgrund dessen quantitativen Orientierung ausgewählt, um den Text in Zahlen zu transformieren und den Logfiles gegenüberstellen zu können. Das ermöglicht eine integrative Analyse der Ergebnisse des qualitativen und quantitativen Datenmaterials (vgl. Kuckartz 2014, 128). Zur Strukturierung des qualitativen Datenmaterials wurde ein Kategoriensystem (mit u. a. den Kategorien Verständlichkeit, Verständnisförderung, Schwierigkeitsniveau, Anwendungsorientierung, Praxisnähe, Motivationsförderung, Klausurrelevanz) entwickelt mit den ordinalen Ausprägungen: hoch, mittel, niedrig sowie nicht zu klassifizieren. Die vierte Ausprägung dient der Zuordnung nicht eindeutiger Textstellen. Der vorab erstellte Kodierleitfaden wurde am Material modifiziert und enthält für jede Kategorie eine Definition, Ankerbeispiele mit konkreten exemplarischen Textstellen sowie Kodierregeln für eine eindeutige Zuordnung (vgl. Mayring 2016, 118f.). Nach dem Identifizieren, Codieren und Zusammenstellen der Textstellen wurden die Textstellen der jeweiligen Bewertungskategorie eingeschätzt und Ausprägungen zugewiesen. Auf diese Weise wurde das gesamte Material codiert. Darauf aufbauend erfolgten statistische Auswertungen einzelner Kategorien des qualitativen Materials (u. a. Häufigkeitsdarstellungen von Ausprägungen einer Bewertungskategorie) wie auch tabellarische Kontrastierungen mit den Ergebnissen der quantitativen Studie. Auswertungen in Richtung qualitativer und quantitativer bzw. integrativer Zusammenhangsanalysen (vgl. z. B. Kuckartz 2018, 136) wurden bis dato nicht durchgeführt, sind allerdings noch angedacht, um Zusammenhänge zwischen Bewertungskategorien zu untersuchen.

4 Darstellung ausgewählter Ergebnisse

Über die drei Erhebungsschritte (1) Logfiles, (2) schriftliche Befragung und (3) Gruppen­interviews erhöht sich sukzessive der Informationsgehalt des Datenmaterials und es ergibt sich ein immer vollständigeres Bild des digitalen didaktischen Settings. Anhand in jedem Erhebungsschritt neu gewonnener Information und den Erfahrungen der Lehrenden lassen sich die Limitationen einer ausschließlichen Logfile-Betrachtung eruieren.

Bei alleiniger Betrachtung der nutzergenerierten Logfiles aus der Lernplattform kann lediglich das Nutzungsverhalten innerhalb der digitalen Lernumgebung beschrieben werden. Dieses Nutzungsverhalten ist nicht zwangsläufig mit dem Lernverhalten gleichzusetzen. Ungeachtet dessen können bei der logfilefokussierten Datenperspektive allerdings bestimmte Aspekte in den Vordergrund rücken, die ohne eine solche Datenperspektive keine Betrachtung finden würden und daher Ansatzpunkte für didaktische Überlegungen liefern können. Zugriffszahlen und die auf der Lernplattform verbrachte Zeit – ohne Messung einer Qualitätsdimension – sind dennoch nicht mit Lernen gleichzusetzen (vgl. Ifenthaler/Schumacher 2016, 181).

Beim sukzessiven Durchlaufen der drei Erhebungsschritte (Logfiles – schriftliche Befragung – Gruppeninterviews) offenbaren sich im Kontext einer ausschließlichen Logfile-Betrachtung neben den gezielt erforschten Limitationen im Bereich (1) Nutzungsverhalten in Bezug auf digitale Lernanlässe insbesondere die folgenden weiteren Limitationen: (2) Unvollständige Betrachtung des gesamten Lehr-Lernsettings, (3) Relevanz der Daten, sowie (4) Inflexibilität des Lehrveranstaltungssettings durch Abhängigkeit von Software.

(1) Nutzungsverhalten in Bezug auf digitale Lernanlässe:

Im Folgenden werden zwei exemplarische Datenauswertungen beschrieben, um einen Eindruck vom Datengehalt der aggregierten Auswertungen der Logfiles zu vermitteln:

(a) Zugriffshäufigkeiten im Zeitverlauf: Die Analyse der Zugriffshäufigkeiten zeigt die vergleichsweise häufig genutzten Lernanlässe: die Komponente ‚Test‘ (in Moodle implementierte Quizze mit automatisiertem Feedback an die Lernenden) sowie das interaktive ‚Moodle-Buch‘ (u. a. mit Skripten, Videos, Links). In der zweiten Hälfte des Semesters gewinnt hingegen der ‚Studierendenordner‘ zum Austausch von erstellten Materialien an Bedeutung.

(b) Zugriffe auf lernbegleitende Quizze: In der Lehrveranstaltung wurden in Summe sechs Quizzes implementiert. Die Auswertung der Zugriffe zeigt eine starke Nutzung des ersten Quizzes (36 % alle Zugriffe entfallen auf das Quiz zur ersten Lehrveranstaltungseinheit). In der Folge nimmt die Nutzung stark ab.

Die Gegenüberstellung des von den Lehrpersonen als relevant eingeschätzten Lernangebotes mit den tatsächlichen Nutzungszugriffen deckt sich nur teilweise bzw. sind keine Tendenzen zu erkennen, um einem bestimmten Klickverhalten (z. B. hohe Nutzung des ersten Lernquiz) eine bestimmte Interpretation (z. B. niedrige/hohe Verständlichkeit) zuweisen zu können. Als relevant geplant und erachtet seitens der Lehrenden werden die Quizze (gleichmäßig relevant über das Semester eingeschätzt), das Moodle-Buch als das interaktive Lehrveranstaltungsskript sowie das Glossar. Aufgrund der Logfiles rücken nun der (als wenig relevant eingeschätzte und doch häufig genutzte) Studierendenordner und das (als relevant erachtete aber wenig genutzte) Glossar ins Interesse. Die ungleiche Nutzung der Quizze ist darüber hinaus ein Anhaltspunkt didaktisch geplante Interventionen zu hinterfragen. Die qualitative Begleitforschung liefert allerdings nur eingeschränkte Antworten. Beispielsweise wird der häufig genutzte Studierendenordners als bequemes aktives Tauschmedium verwendet (anstatt z. B. des Versands per E-Mail außerhalb der Lernplattform), jedoch nicht als Lernanlass wahrgenommen.

Die Glossare wurden von Lernenden ebenso als nicht wertvoll erachtet, da diese selbst für die Inhaltsproduktion verantwortlich waren und im konkreten Fall wenig Motivation bestand, Inhalte zu generieren, was folglich zu einer geringen Nutzung führte. Die Ausprägungen bei Motivation und Klausurrelevanz zeigen keinen eindeutigen Zusammenhang zur Klickhäufigkeit. Die Variation der Quiznutzung wurde unterschiedlich beschrieben. Hohe Zugriffe eines Quiz ergaben zum Teil, dass es sich um schwierige und/oder wenig verständliche Lernanlässe handelt (es musste öfters zugegriffen werden). Allerdings gab es dazu auch gegenteilige Nennungen. Für einige Lernende war die Verständlichkeit ausreichend und die mehrmalige Quizwiederholung wurde als Lernstrategie genutzt. Ein Zusammenhang zwischen der Häufigkeit von Quiz-Zugriffen und Lernschwierigkeiten kann daher nicht eindeutig gezeigt werden, um der Nutzung hier eine Interpretationsrichtung zuweisen zu können. Als vorwiegende Erklärung einer abnehmenden Nutzung der Lernquizze wurde der steigende Zeitaufwand im Laufe des Semesters genannt (auch in anderen Lehrveranstaltungen). Aus diesem Blickwinkel könnten die hohen Zugriffe auf den ersten Quiz auch darauf hinweisen, dass die Motivation einer mehrfachen Nutzung dem größeren Zeitkontingent zuzuschreiben war.

Im gegenständlichen Anwendungsszenario liefern Logfiles zwar Ansatzpunkte zu didaktischen Überlegungen bzw. zur Hinterfragung des aktuellen Vorgehens, sollten aber dennoch nicht isoliert verwendet werden. Vor allem kann beispielsweise die Anzahl der Zugriffe oder die verbrachte Zeit mit einem Lernanlass nicht mit der Qualität einer Auseinandersetzung mit Lernaktivitäten in Verbindung gebracht werden. Erst in der integrativen bzw. kontrastierenden Betrachtung von Logfiles und qualitativem Datenmaterial offenbaren sich die Limitationen der Logfile-Betrachtung – denn erst im Zuge der qualitativen Datenerhebung gelingt es, die bloßen Zugriffszahlen um eine Retrospektive der Studierenden auf die Qualitätsdimension der Zugriffe zu ergänzen.

Obige exemplarische Betrachtungen unterstreichen den nur sehr eingeschränkt vorhandenen Interpretationswert der Logfiles. In Massenlehrveranstaltung könnten sich allein durch die Quantität von Daten andere Ergebnisse zeigen oder Tendenzen ableiten lassen. Dies bedeutet allerdings nicht, dass sich dahingehend generierte Erkenntnisse automatisch auf dieses oder andere Settings übertragen lassen. Die Erforschung von Kleingruppenlehrveranstaltungen scheint aus diesem Gesichtspunkt unerlässlich, um aus der Heterogenität von Lehrveranstaltungstypen Gemeinsamkeiten herauszuarbeiten (dieser Vergleich wird im Forschungsprojekt Learning Analytics – Auswirkungen von Datenanalysen auf den Lernerfolg, siehe Kapitel 3, angestrebt).

(2) Unvollständige Betrachtung des gesamten Lehr-Lernsettings:

Eine ausschließliche Logfile-Betrachtung generiert Daten aus einem sehr isolierten Bereich des gesamten Lehr-Lernsettings. So findet sich zwar eine Vielzahl an Lernanlässen (Quizze, Lernvideos) unmittelbar in Moodle eingebettet, wesentliche Aspekte des Lehr-Lernsettings finden aber außerhalb der Lernplattform Moodle statt – sei es in der weiter gefassten digitalen Lernumgebung (z. B. in Videokonferenzen) oder noch weiter gefasst außerhalb der digital erfassbaren Sphäre (z. B. Prozess der Unterrichtsplanung und Reflexion). Zwar findet das Lernen – auch bedingt durch das in den vergangenen beiden Semestern vorherrschende Distance Learning – primär gestützt durch eine digitale Lernumgebung statt, diese erstreckt sich jedoch deutlich über die Plattform Moodle hinaus und schließt etwa auch die als interaktive Videokonferenz ausgelegten Lehrveranstaltungseinheiten mit ein. Ebenfalls werden andere in der digitalen Sphäre ablaufenden Aktivitäten der Lernenden nicht in den Moodle-Logfiles erfasst (z. B. Lerngruppen mit StudienkollegInnen außerhalb der LV-Zeiten via Videokonferenz oder Messenger-Tools zu). Auch aus der qualitativen Datenerhebung kann bestätigt werden, dass ein überwiegender Teil des Lernens außerhalb der digitalen Sphäre stattfindet – das trifft etwa auf das Selbststudium ausgedruckter Unterlagen oder auch auf die Unterrichtsplanung und Reflexion zu.

(3) Relevanz der Daten:

Der Fokus der Datengenerierung in diesem Anwendungsfall liegt aktuell auf Logfiles (Metadaten), welche zum Teil in einem Dashboard visualisiert werden (zu Dashboards vgl. Leitner/Ebner 2017; Buckingham Shum/Ferguson 2012, 4). Die Darstellung umfasst somit etwa die Anzahl der Zugriffe auf unterschiedliche Lernaktivitäten oder die für Aktivitäten aufwendeten Zeitspannen.

Fraglich ist hierbei, ob diese Logfiles tatsächlich die ausschlaggebenden Aspekte im Lehr-Lernsetting darstellen und damit relevant zur intendierten Zielerreichung sind. Gleichwohl die Erhöhung des Anteils echter Lernzeit einen bedeutsamen Aspekt gelungenen Unterrichts darstellt (time on task; Hattie 2009), findet ungeachtet dessen die ‚Lernzeit‘ nicht ausschließlich in der digitalen Sphäre statt. Zudem ist die erfasste Zeit in den Logfiles ohne Qualitätsdimension. Zeit und echte Lernzeit sind in diesem Lernsetting daher keinesfalls synonym verwendbar. Neben echter Lernzeit rangiert nach Hattie (2009, 173ff.) auch Feedback mit einer Effektstärke von 0.73 unter den zehn einflussreichsten Dimensionen von Lernerfolg (basierend auf 138 untersuchten Dimensionen). Feedback erfolgt im Anwendungsszenario u. a. in Form eines Dashboards, welches zur Reflexion des eigenen Lernprozesses anregen kann.[3] Potenziell können Studierende via Learning Analytics in Echtzeit in ihrem Lernprozess begleitet werden, etwa durch ein automatisiertes Feedback unmittelbar im Anschluss an Lernanlässe (vgl. Mandausch/Meinhard 2018, 28; Ifenthaler/Schumacher 2016, 177ff.). Trotz allem Potenzial von Learning Analytics zeigt sich im konkreten Anwendungsfall eine wesentliche Problematik: die zuvor unzureichend abgegrenzte Definition des Lernens in digitalen Lernumgebungen bzw. des pädagogischen Kontextes. Damit Logfiles diesen pädagogischen Kontext abbilden können, wäre ein Festlegen wesentlicher evidenzbasierter und lernrelevanter Kriterien sinnvoll. Davon ausgehend kann an technischen Lösungen gearbeitet werden, wie diese Kriterien mit Logfiles abzubilden sind. Derzeit finden sich eher umgekehrte Bemühungen.

Darüber hinaus stellt sich in diesem Kontext die Frage, inwiefern die zugrundeliegenden Logfiles überhaupt das zumindest digitale Lehr-Lernsetting abdecken – das in diesem Beitrag vorgestellte Anwendungsszenario erfasst lediglich Metadaten. Weitere Datenformate, wie beispielsweise Inhaltsdaten, die sich auf produzierte Inhalte beziehen, werden nicht gesammelt und einbezogen (z. B. erfolgt keine Analyse von Foreneinträgen). Dies schränkt den betrachteten digitalen Raum weiter ein.

(4) Inflexibilität von Rahmenparametern durch Softwareabhängigkeit:

In Bezug auf das Lehr-Lernsetting ist die ausschließliche Logfile-Betrachtung im vorgestellten Anwendungsszenario überaus starrer Natur. Learning Analytics bedingt nicht zwangsläufig eine automatisierte Auswertung der Logfiles (vgl. Chatti et al. 2012b, 22). Eine Echtzeitbetrachtung und -verbesserung wird damit nur eingeschränkt möglich. Damit Lehrende durch Rückgriff auf Erkenntnisse der Logfileanalyse ihre Lehre zeitnah adaptieren können bzw. Lernende visualisierte Daten ihres Lernstandes- und Lernfortschrittes nutzen können, erscheint eine Visualisierung z. B. in Form eines Dashboards unumgänglich. Diese Darstellung hat zugleich jedoch den Nachteil, dass Änderungen an Rahmenparametern der Lehrveranstaltung (z. B. Punkteschema, Anzahl der Lehreinheiten) auch Software­anpassungen nach sich ziehen können.

Die Rahmenparameter des Lehr-Lernsettings werden damit als Nebeneffekt eines Einsatzes von Learning Analytics fixiert. Damit kann in diesem Kontext nur eingeschränkt flexibel auf die Bedürfnisse der Lernenden eingegangen werden. Es besteht somit die Gefahr einer Ausrichtung am technisch Möglichen (bzw. Vorhandenen) und nicht am pädagogisch Sinnvollen.

5 Conclusio

Der gegenständliche Beitrag adressiert im Kontext des Forschungsfeldes Learning Analytics die Frage: Welchen Limitationen unterliegt eine ausschließliche Logfile-Betrachtung aus Daten digitaler Lehr-Lernsettings beim Versuch diese in den pädagogisch-didaktischen Kontext zu übersetzen? Die Betrachtung erfolgt ausgehend von einem konkreten Forschungsprojekt zum Einsatz von Learning Analytics in der Hochschullehre. Ein sequenziell quantitativ-qualitativ-vertiefendes Mixed-Methods-Design bzw. die integrative Analyse des quantitativen und qualitativen Datenmaterials ermöglicht eine Annäherung an die leitende Fragestellung. Die Gegenüberstellung didaktisch geplanter Interventionen mit dem tatsächlichen Nutzungsverhalten zeigt nur eine teilweise Überlappung und keine für dieses Anwendungsszenario tendenziell verallgemeinerungsfähigen Interpretationen. Dennoch zeigen sich sehr wohl Ansatzpunkte für eine weitere kritische Diskussionen aus dem Blickwinkel der Didaktik. Ein isoliertes Fokussieren auf Logfiles vermag jedoch keine adäquaten Antworten zu liefern, da Logfiles lediglich das Nutzungsverhalten der Lernenden auf der Lernplattform erfassen. Es kann keine Aussage darüber getroffen werden, inwieweit hinter den einzelnen Klicks tatsächlich Lernen steht – d. h. ob z. B. bei Nutzung von Inhalten ein aktives, auf Verstehen ausgerichtetes Lesen stattfindet oder Lernende sich lediglich einen oberflächlichen Überblick über den Umfang des Lehrstoffes verschaffen.

Darüber hinaus zeigt sich insbesondere, dass eine reine Logfile-Betrachtung auf Metadatenbasis zu einer unvollständigen Bestandsaufnahme des gesamten und auch digitalen Lehr-Lernsettings führt. Ebenfalls kann eine starre, automatisationsgestützte Auswertung von Daten zu einer Inflexibilität des Lehrveranstaltungsdesigns führen – etwa, wenn Softwareanpassungen von Lehrenden als so aufwendig empfunden werden, dass kleine didaktische Interventionen bewusst unterlassen werden.

Die Erfahrungen aus zwei Semestern Learning Analytics im Hochschulkontext legen jedoch nahe, dass insbesondere das qualitative Erhebungsinstrumentarium ein wertvolles Supplement zum Aufdecken ‚blinder Flecken‘ der Logfile-Betrachtung darstellen kann. So lässt sich etwa das (unbewusst) auf der Lernplattform an den Tag gelegte Verhalten mit (bewussten) Antworten zum Lernverhalten in den Fragebögen und Gruppeninterviews kontrastieren. Die Daten in einen pädagogisch sinnvollen Kontext zu bringen, bleibt eine Herausforderung für Lehrende (vgl. Lockyer/Heathcote/Dawson 2013, 1455; Ebner/Neuhold/Schön 2013, 5), aber auch für Lernende. Hier kann eine Umkehrung der Betrachtungsweise einen Ansatzpunkt für weitere Forschungsarbeiten liefern: Indem der pädagogische Kontext einer digitalen Lernumgebung adäquat definiert wird, können technische Lösung zur Realisierung einer entsprechenden Abbildung mit Logfiles entwickelt werden.

Neben dem Forschungsdesiderat, Logfiles in pädagogisch verwertbare Daten zu transformieren, ergeben sich im Kontext des Forschungsfeldes Learning Analytics noch weitere aus dem Blickwinkel der Wirtschaftspädagogik zu adressierende Forschungsdesiderata, beispielsweise in Bezug auf den Beitrag, den Learning Analytics zur Stärkung der Selbstreferenz und Reflexionsfähigkeit von Lernenden liefern kann – und das sich dadurch eröffnende Potenzial in weiterer Folge datengestützt selbstgesteuertes Lernen und letztendlich lebenslanges Lernen fördern zu können. Diese Fragestellungen sind Gegenstand eines derzeit in Entwicklung befindlichen Dissertationsvorhabens (vgl. Lipp 9.10.2020). Eine der vordringlichsten Fragen bei der Implementierung von Learning stellt jedoch die empirische Erforschung von Limitationen dar, um daraus Ansatzpunkte zur Weiterentwicklung des praktischen Einsatzes von Learning Analytics zu generieren.

Literatur

Albó, Laila/Barria-Pineda, Jordan/Brusilovsky, Peter/Hernández-Leo, Davinia (2019): Concept-Level Design Analytics for Blended Courses. Cham. doi: 10.1007/978-3-030-29736-7_40.

Aljohani, N. R./Daud, A./Abbasi, R. A./Alowibdi, J. S./Basheri, M./Aslam, M. A. (2019): An integrated framework for course adapted student learning analytics dashboard. In: Computers in Human Behavior, 92, 679-690. doi: 10.1016/j.chb.2018.03.035.

Bär, Dorothee (2020): Vorwort. In: Fürst, Ronny A. (Hrsg.): Digitale Bildung und Künstliche Intelligenz in Deutschland. Nachhaltige Wettbewerbsfähigkeit und Zukunftsagenda. Wiesbaden, IX-XI.

Büching, Corrine/Mah, Dana-Kristin/Otto, Stephan/Paulicke, Prisca/Hartman, Ernst A. (2019): Learning Analytics an Hochschulen. In: Wittpahl, Volker (Hrsg.): Künstliche Intelligenz. Berlin, 142-160.

Buckingham Shum, Simon/Ferguson, Rebecca (2012): Social learning analytics. In: Educational Technology and Society, 15, H. 3, 3-26.

Chatti, Mohamed Amine/Dyckhoff, Anna Lea/Schroeder, Ulrik/Thüs, Hendrik (2012a): A reference model for learning analytics. In: International Journal of Technology Enhanced Learning, 4, 5–6, 318-331.

Chatti, Mohamed Amine/Dyckhoff, Anna Lea/Schroeder, Ulrik/Thüs, Hendrik (2012b): Forschungsfeld Learning Analytics. Learning Analytics Research Challenges. In: i-com, 11, H. 1, 22-25. doi: 10.1524/icom.2012.0007.

Döring, Nicola/Bortz, Jürgen (2016a): Datenanalyse. In: Döring, Nicola/Bortz, Jürgen (Hrsg.): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Berlin, 597-784.

Döring, Nicola/Bortz, Jürgen (2016b): Datenerhebung. In: Döring, Nicola/Bortz, Jürgen (Hrsg.): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Berlin, 321-577.

Ebner, Markus/Ebner, Martin (2018): Learning Analytics an Schulen – Hintergrund und Beispiele. In: Medienimpulse, 56, H. 1, 1-28. doi: 10.21243/mi-01-18-06.

Ebner, Martin/Leitner, Philipp/Ebner, Markus (2020): Learning Analytics in der Schule - Anforderungen an Lehrerinnen und Lehrer. In: Trueltzsch-Wijnen, Christine/Brandhofer, Gerhard (Hrsg.): Bildung und Digitalisierung. Auf der Suche nach Kompetenzen und Performanzen. Baden-Baden, 255-272.

Ebner, Martin/Neuhold, Benedikt/Schön, Martin (2013): Learning Analytics – wie Datenanalyse helfen kann, das Lernen gezielt zu verbessern. In: Wilbers, Karl/Hohenstein, Andreas (Hrsg.): Handbuch E-Learning-Expertenwissen aus Wissenschaft und Praxis - Strategien, Instrumente, Fallstudien. Köln, 1-20.

Ebner, Martin/Taraghi, Behnam/Saranti, Anna/Schön, Sandra (2015): From the field. Seven features of smart learning analytics – lessons learned from four years of research with learning analytics. In: eLearning Papers, H. 40, 1-5.

Ferguson, Rebecca (2012): Learning Analytics: Drivers, Developments and Challenges. In: International Journal of Technology Enhanced Learning, 4, H. 5/6, 304-317. doi: 10.1504/IJTEL.2012.051816.

Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (2015): Was ist qualitative Forschung? Einleitung und Überblick. In: Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg, 13-29.

Fürst, Ronny A./Grottke, Markus/Sibilio, Alessandro/Steckelberg, Alexander V. (2020): Internationale Standortbestimmung – vom Exportweltmeister zum digitalen Entwicklungsland? In: Fürst, Ronny A. (Hrsg.): Digitale Bildung und Künstliche Intelligenz in Deutschland. Nachhaltige Wettbewerbsfähigkeit und Zukunftsagenda. Wiesbaden, 27-79. doi: 10.1007/978-3-658-30525-3_2.

Gloerfeld, Christina (2020): Auswirkungen von Digitalisierung auf Lehr- und Lernprozesse. Wiesbaden. doi: 10.1007/978-3-658-30476-8.

Grandl, Maria/Taraghi, Behnam/Ebner, Markus/Leitner, Philipp/Ebner, Martin (2017): Learning Analytics. In: Wilbers, Karl/Hohenstein, Andreas (Hrsg.): Handbuch E-Learning. Expertenwissen aus Wissenschaft und Praxis - Strategien, Instrumente, Fallstudien. Köln, 1-16.

Hattie, John A. C. (2009): Visible learning. A synthesis of over 800 meta-analyses relating to achievement. London.

Ifenthaler, Dirk/Schumacher, Clara (2016): Learning Analytics im Hochschulkontext. In: WiSt – Wirtschaftswissenschaftliches Studium, 45, H. 4, 176-181. doi: 10.15358/0340-1650-2016-4-176.

Johnson, Larry/Adams, Samantha/Cummins, Michele (2012): Horizon Report: 2012 Higher Education Edition. Austin.

Koh, Wook/Choi, Jaewon (2016): A pedagogic method helps to create an actionable policy from big data through a PDCA cycle. In: International Journal of Technology, Policy and Management, 16, H. 1, 4-17. doi: 10.1504/IJTPM.2016.075941.

Krause, Michael (2020): Soziale Lernplattformen für Hochschulen. Kooperation, Privatheit und Forschungspotenziale am Beispiel von Campus.UP. In: heiEDUCATION Journal, H. 5, 57-80. doi: 10.17885/HEIUP.HEIED.2020.5.24157.

Kuckartz, Udo (2014): Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden. doi: 10.1007/978-3-531-93267-5.

Kuckartz, Udo (2018): Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Weinheim.

Leitner, Phillip/Ebner, Martin (2017): Development of a dashboard for learning analytics in higher education. In: Zaphiris, Panayiotis/Ioannou, Andri (Hrsg.): Learning and Collaboration Technologies. Technology in Education. Fourth International Conference , LCT. Cham, 293-301. doi: 10.1007/978-3-319-58515-4_23.

Leitner, Phillip/Ebner, Martin/Ammenwerth, Elske/Andergassen, Monika/Csanyi, Gottfried/Gröblinger, Ortrun/Kopp, Michael/Reichl, Franz/Schmid, Markus/Steinbacher, Hans-Peter/Handle-Pfeiffer, Daniel/Zitek, Andreas/Zöserl, Eva/Zwiauer, Charlotte (2019): Learning Analytics: Einsatz an österreichischen Hochschulen. Graz. Online: https://www.fnma.at/content/download/1896/8814 (29.4.2021).

Lipp, Silvia (2020): Didaktisches Potenzial von Learning Analytics – eine erste Analyse. Jahrestagung der Sektion Berufs- und Wirtschaftspädagogik der Deutschen Gesellschaft für Erziehungswissenschaft (DGfE). Digitale Tagung an der Universität Osnabrück.

Lockyer, Lori/Heathcote, Elizabeth/Dawson, Shane (2013): Informing Pedagogical Action. In: American Behavioral Scientist, 57, H. 10, 1439-1459. doi: 10.1177/0002764213479367.

Lodge, Jason M./Panadero, Ernesto/Broadbent, Jaclyn/Barba de, Paula G. (2019): Supporting self-regulated learning with learning anlytics. In: Lodge, Jason M./Horvath, Jared Cooney/Corrin, Linda (Hrsg.): Learning analytics in the classroom. Translating learning analytics research for teachers. New York, 45-55.

Long, Phil/Siemens, George (2011): Penetrating the Fog. Analytics in Learning and Education. In: EDUCAUSE Review, 46, H. 5, 31-40.

Lucht, Martina/Larbi, Monia B./Angerhöfer, Sabine (2020): Lernen für die Arbeitswelt von heute. In: Heisler, Dietmar/Meier, Jörg (Hrsg.): Digitalisierung am Übergang Schule Beruf. Bielefeld, 81-87.

Mandausch, Martin/Meinhard, David B. (2018): Learning Analytics - ein hochschuldidaktischer Diskurs zu Datenanalysen in der Lehre. In: Schmohr, Martina/Müller, Kristina/Philipp, Julia (Hrsg.): Gelingende Lehre: erkennen, entwickeln, etablieren: Beiträge der Jahrestagung der Deutschen Gesellschaft für Hochschuldidaktik (dghd) 2016. Bielefeld, 19-33.

Mayring, Philipp (2016): Einführung in die qualitative Sozialforschung. Eine Anleitung zu qualitativem Denken. Weinheim.

Mayring, Philipp/Fenzl, Thomas (2019): Qualitative Inhaltsanalyse. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, 633-648.

Papp, Stefan/Weidinger, Wolfgang/Meir-Huber, Mario (2019): Handbuch Data Science. Mit Datenanalyse und Machine Learning Wert aus Daten generieren.

Piatetsky-Shapiro, Gregory (1995): Guest editor's introduction: Knowledge discovery in databases—from research to applications. In: Journal of Intelligent Information Systems, 4, H. 1, 5-6.

Rensing, Christoph (2020): Informatik und Bildungstechnologie. In: Niegemann, Helmut M./Weinberger, Armin (Hrsg.): Handbuch Bildungstechnologie. Konzeption und Einsatz digitaler Lernumgebungen. Berlin, München, 585-603. doi: 10.1007/978-3-662-54368-9_49.

Romero, Cristobal/Ventura, Sebastian (2013): Data mining in education. In: Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 3, H. 1, 12-27. doi: 10.1002/widm.1075.

Romero, Cristobal/Ventura, Sebastian (2020): Educational data mining and learning analytics: An updated survey. In: WIREs Data Mining Knowledge Discovery, 10, H. 3, 1-21. doi: 10.1002/widm.1355.

Schmitz, Andreas/Yanenko, Olga (2019): Web Server Logs und Logfiles. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, 847-854. doi: 10.1007/978-3-531-18939-0_65.

Sedrakyan, Gayane/Malmberg, Jonna/Verbert, Katrien/Järvelä, Sanna/Kirschner, Paul A. (2020): Linking learning behavior analytics and learning science concepts: Designing a learning analytics dashboard for feedback to support learning regulation. In: Computers in Human Behavior, 107, 1-15. doi: 10.1016/j.chb.2018.05.004.

Seiler, Luisa/Kuhnel, Matthias/Honal, Andres/Ifenthaler, Dirk (2018): Mobile Learning Analytics: Potenziale für Lernen und Lehren am Beispiel Hochschule. In: Witt de, Claudia/Gloerfeld, Christina (Hrsg.): Handbuch Mobile Learning. Wiesbaden, 585-608.

Seufert, Sabine/Meier, Christoph/Soellner, Matthias/Rietsche, Roman (2019): A Pedagogical Perspective on Big Data and Learning Analytics: A Conceptual Model for Digital Learning Support. In: Technology, Knowledge and Learning, 24, H. 4, 599-619. doi: 10.1007/s10758-019-09399-5.

Siemens, George (2013): Learning Analytics: The Emergence of a Discipline. In: American Behavioral Scientist, 57, H. 10, 1380-1400. doi: 10.1177/0002764213498851.

Siemens, George/Baker, Ryan S. J. d. (2012): Learning analytics and educational data mining. In: LAK'12 (Hrsg.): Proceedings of the Second International Learning Analytics & Knowledge Conference. New York, 252-254. doi: 10.1145/2330601.2330661.

Trübner, Miriam/Mühlichen, Andreas (2019): Big Data. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, 143-158. doi: 10.1007/978-3-658-21308-4_9.

U.S. Department of Education, Office of Educational Technology (2014): Enhancing Teaching and Learning Through Educational Data Mining and Learning Analytics: An Issue Brief. Washington, 1-60.

Winne, Philip H. (2017): Learning Analytics for Self-Regulated Learning. In: Lang, Charles/Siemens, George/Wise, Alyssa/Gasevic, Dragan (Hrsg.): Handbook of Learning Analytics. New York, 241-249.

Wise, Alyssa Friend (2014): Designing Pedagogical Interventions to support Student Use of Learning Analytics. In: Pistilli, Mattew/Willis, James/Koch, Drew/Arnold, Kimberly/Teasley, Stephanie/Pardo, Abelardo (Hrsg.): Proceedings of the 4th International Conference on Learning Analytics And Knowledge, LAK '14. New York, 203-211. doi: 10.1145/2567574.2567588.

 

[1]    Unter Anwendung von Learning Analytics werden zwei heterogene Lehrveranstaltungen über drei Semester begleitet, mit dem Ziel über die Heterogenität Gemeinsamkeiten einer (1) technischen, (2) didaktischen und (3) rechtlich/ethischen Learning-Analytics-Analysedimension ausfindig zu machen. Projektpartner/innen sind die Karl-Franzens-Universität Graz (Institut für Wirtschaftspädagogik und Zentrum für Digitales Lehren und Lernen) sowie die Technische Universität Graz (Abteilung für Lehr- und Lerntechnologien).

[2]     Im Gegensatz zu Metadaten können auch Inhaltsdaten erhoben werden. Inhaltsdaten beziehen sich auf Daten, welche von Lernenden in Lernmanagementsystemen produziert oder hochgeladen werden, beispielsweise Foreneinträge (vgl. Krause 2020, 69). Im gegenständlichen Anwendungsszenario werden aufgrund der technischen Möglichkeiten nur Metadaten erhoben.

[3]    Ab dem gegenwärtigen Semester wird auch mit dem automatischen Versand von E-Mails über die Lernplattform experimentiert. Diese E-Mails werden durch vordefinierte Triggering Events ausgelöst (z. B. das Unterschreiten eines Punktestandes in Relation zu den Mitstudierenden) und umfassen etwa die Aufforderung weitere Lernanlässe zu absolvieren oder Lob für überdurchschnittliche Leistungen.

Zitieren des Beitrags

Lipp, S./Dreisiebner, G. (2021): Learning Analytics – Die Crux der Dateninterpretation. Betrachtung der Grenzen und Chancen einer pädagogisch-didaktischen Verwertbarkeit von Daten digitaler Lernumgebungen anhand eines Anwendungsszenarios im Masterstudium Wirtschaftspädagogik. In: bwp@ Spezial AT-3: Beiträge zum 14. Österreichischen Wirtschaftspädagogik-Kongress, 1-20. Online: https://www.bwpat.de/wipaed-at3/lipp_dreisiebner_wipaed-at_2021.pdf (13.09.2021).