Christian Eibl, Johannes Magenheim,
Sigrid Schubert, Martin Wessner (Hrsg.)
DeLFI 2007
Die 5. e-Learning Fachtagung Informatik
17.-20. September 2007 an der Universität Siegen
Gesellschaft für Informatik e.V. (GI)
Lecture Notes in Informatics (LNI) - Proceedings
Series of the Gesellschaft für Informatik (GI)
Volume P-111
ISBN 978-3-88579-205-5
ISSN 1617-5468
Volume Editors
Dipl.-Inf. Christian Eibl
Universität Siegen, Fachbereich Elektrotechnik und Informatik
Hölderlinstr. 3, 57068 Siegen, Germany
E-Mail: eibl@die.informatik.uni-siegen.de
Prof. Dr. Johannes Magenheim
Universität Paderborn, Didaktik der Informatik
Fürstenallee 11, 33102 Paderborn, Germany
E-Mail: jsm@uni-paderborn.de
Prof. Dr. Sigrid Schubert
Universität Siegen, Fachbereich Elektrotechnik und Informatik
Hölderlinstr. 3, 57068 Siegen, Germany
E-Mail: schubert@die.informatik.uni-siegen.de
Prof. Dr. Martin Wessner
Ludwig-Maximilians-Universität München
Leopoldstr. 13, 80802 München
E-Mail: martin.wessner@psy.lmu.de
Series Editorial Board
Heinrich C. Mayr, Universität Klagenfurt, Austria (Chairman, mayr@ifit.uni-klu.ac.at)
Jörg Becker, Universität Münster, Germany
Ulrich Furbach, Universität Koblenz, Germany
Axel Lehmann, Universität der Bundeswehr München, Germany
Peter Liggesmeyer, Universität Potsdam, Germany
Ernst W. Mayr, Technische Universität München, Germany
Heinrich Müller, Universität Dortmund, Germany
Heinrich Reinermann, Hochschule für Verwaltungswissenschaften Speyer, Germany
Karl-Heinz Rödiger, Universität Bremen, Germany
Sigrid Schubert, Universität Siegen, Germany
Dissertations
Dorothea Wagner, Universität Konstanz, Germany
Seminars
Reinhard Wilhelm, Universität des Saarlandes, Germany
© Gesellschaft für Informatik, Bonn 2007
printed by Köllen Druck+Verlag GmbH, Bonn
Vorwort
„Die 5. e-Learning Fachtagung Informatik DeLFI 2007“ der Gesellschaft für Informatik (GI) wird vom der GI-Fachgruppe E-Learning zusammen mit der Universität Siegen
veranstaltet. Sie präsentiert dem interessierten Fachpublikum die jeweils neuesten informatiknahen Ergebnisse aus Forschung und Praxis zum Thema E-Learning und sichert
den regelmäßigen Austausch zwischen Anwendern und Entwicklern. In den zurückliegenden fünf Jahren förderten die DeLFI-Tagungen in München (2003), Paderborn
(2004), Rostock (2005), Darmstadt (2006) und jetzt Siegen (2007) eine Forschungsgemeinschaft, die langfristig den Beitrag der Informatik zum E-Learning in Deutschland
positiv beeinflusste.
Drei Besonderheiten zeichnen die DeLFI 2007 aus: die Kooperation mit der 12. GIFachtagung „Informatik und Schule – INFOS 2007“ des GI-Fachausschusses Informatische Bildung in Schulen, die Kooperation mit der GI-Fachgruppe Didaktik der Informatik, die ihren 7. Workshop „Didaktik der Informatik aktuelle Forschungsergebnisse“
integrierte, und die Kooperation mit dem „6. Informatiktag Nordrhein-Westfalen“ der
GI-Fachgruppe „Informatische Bildung in Nordrhein-Westfalen“. Den Aktiven in den
drei Fachgruppen und im Fachausschuss danken wir für die ausgezeichnete Zusammenarbeit und Unterstützung.
Dieser Tagungsband enthält einen der zwei eingeladenen Vorträge und 23 Beiträge, die
vom Programmkomitee aus 46 eingereichten Beiträgen nach einem wissenschaftlichen
Begutachtungsprozess ausgewählt wurden. Diese Beiträge beleuchten die folgenden
Schwerpunkte der Tagung aus unterschiedlichen Perspektiven: Didaktik des E-Learning,
Content-Engineering, Fallstudien & Erfahrungsberichte, Infrastrukturen & Mobilität und
Kollaboration. Eine Abrundung erfährt der Tagungsband durch acht zweiseitige Kurzbeiträge, die aktuelle Entwicklungen aufgreifen. Im Rahmen der Konferenz finden drei
Workshops mit eigenen Publikationen statt: Web 2.0 and Social Software in Technology
enhanced Learning, Rechnerunterstütztes Selbststudium in der Informatik, E-Learning
und Literatur.
Die Organisation und Durchführung der gesamten Tagung und die Erstellung dieses
Tagungsbandes waren nur durch das Engagement vieler Personen und Institutionen und
durch die finanzielle Unterstützung der Sponsoren und Aussteller möglich, denen wir
hiermit danken. Insbesondere wird der Sponsor „InterRed GmbH“ genannt. Außerdem
möchten wir allen Autoren für ihre qualitativ hochwertigen Beiträge zu diesem Band und
damit zum Gelingen der Tagung danken. Ein besonderer Dank gebührt den Mitgliedern
des Programmkomitees der DeLFI 2007 für ihre sorgfältige Begutachtung der Beiträge
und für die konstruktive Diskussion bei der Erstellung des Tagungsprogramms, sowie
dem Organisationskomitee unter Leitung von Stefan Freischlad, dem Karin Ofterdinger,
Kirstin Schwidrowski, Gerd Müller und Christian Eibl angehören.
Siegen, im September 2007
Christian Eibl, Johannes Magenheim, Sigrid Schubert, Martin Wessner
Programmkomitee
Sigrid Schubert (Co-Chair, Uni Siegen)
Johannes Magenheim (Co-Chair, Uni Paderborn)
Martin Wessner (Co-Chair, LMU München)
Peter Baumgartner (Uni Krems)
Jörg Desel (KU Eichstätt-Ingolstadt)
Jens Drummer (SMK Dresden)
Wolfgang Effelsberg (Uni Mannheim)
Stefan Freischlad (Uni Siegen)
Jörg Haake (FU Hagen)
Sybille Hambach (FhG IGD Rostock)
Michael Herczeg (Uni Lübeck)
Thomas Herrmann (Uni Bochum)
Paul-Thomas Kandzia (Berufsakademie
Lörrach)
Reinhard Keil (Uni Paderborn)
Andrea Kienle (FhG IPSI Darmstadt)
Torsten Leidig (SAP Research)
Stefanie Lindstaedt (Know-Center Graz)
Ulrike Lucke (Uni Rostock)
Wolfgang Merzenich (Uni Siegen)
Max Mühlhäuser (Uni Darmstadt)
Thomas Ottmann (Uni Freiburg)
Sabine Rathmayer (TU München)
Christoph Rensing (Uni Darmstadt)
Ralf Sagorny (Berufskolleg Werne)
Helmut Schauer (Uni Zürich)
Uli Schell (FH Kaiserslautern)
Ulrik Schroeder (RWTH Aachen)
Gerhard Schwabe (Uni Zürich)
Andreas Schwill (Uni Potsdam)
Silke Seehusen (FH Lübeck)
Ralf Steinmetz (Uni Darmstadt)
Udo Winand (Uni Kassel)
Volker Zimmermann (IMC AG)
Zusätzliche Gutachter
Christian Eibl (Uni Siegen)
Christian Neumair (Gabrieli-Gymnasium Eichstätt)
Kirstin Schwidrowski (Uni Siegen)
Peer Stechert (Uni Siegen)
Organisation
Prof. Dr. Sigrid Schubert
Dipl.-Ing. Stefan Freischlad
Didaktik der Informatik und E-Learning
Universität Siegen
Fachbereich Elektrotechnik und Informatik
Hölderlinstr. 3,
57068 Siegen
http://www.die.informatik.uni-siegen.de
schubert@die.informatik.uni-siegen.de
freischlad@die.informatik.uni-siegen.de
Inhaltsverzeichnis
Eingeladener Vortrag
Computer-Supported Collaborative Scripts: Einsatz computergestützter
Kooperationsskripte in der Fernlehre
Haake J.M.
9
Best Paper Session
E-Learning aus Prozessperspektive
Iske S.
21
EDL-Editor: Eine Anwendung zur automatischen Aufbereitung
von Vorlesungsvideos
Kopf S., Lampi F., King T., Probst M., Effelsberg W.
33
Notetaking in University Courses and its Implications for eLearning Systems
Steimle J., Gurevych I., Mühlhäuser M.
45
Didaktik des E-Learning
Freie Bildungsressourcen im didaktischen Kontext
Baumgartner P., Zauchner S.
57
Organisation tutorieller Betreuung beim E-Learning
Ojstersek N.
67
Ein generisches Konzept zur Realisierung von Self-Assessments zur
Studienwahl und Selbsteinschätzung der Studierfähigkeit
Baker A.A., Tillmann A.
79
Bessere Schulnoten mit MatES, dem e-Bibliothekardienst
für den Mathematikunterricht
Linckels S., Dording C., Meinel C.
91
Content-Engineering
Flexibilisierung der Lehr- und Lernszenerien von Business-Fallstudien
durch CaseML
Reinecke K., Topcuoglu H., Hauske S., Bernstein A.
103
Content-Migration beim Wechsel zwischen verschiedenen
Systemkategorien zur Content-Erstellung und -Pflege
Frankfurth A., Schellhase J.
115
Entwicklung rekonfigurierbarer Lern-Inhalte mit (edu) DocBook
Thomas L.
127
Das Authoring Management System EXPLAIN zur ganzheitlichen
Unterstützung des Erstellungsprozesses von Trainingsmedien und WBTs
Lehmann L., Fredrich H., Rensing C., Zimmermann V., Steinmetz R.
139
Fallstudien & Erfahrungsberichte
Eine logfilebasierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen
Hermann C., Welte M., Latocha J., Wolk C., Huerst W.
151
Anreizsysteme zur Intensivierung von E-Teaching an Hochschulen
Wannemacher K.
161
Fourth Party E-Learning-Provider – Ein Koordinationsansatz zur nachhaltigen
Etablierung von E-Learning an einer Massenuniversität
Kolbe H., Nikolopoulos A.
173
Interoperabilität von elektronischen Tests
Piotrowski M., Fenske W.
185
Infrastrukturen und Mobilität
Aktueller Stand und Perspektiven der eLearning-Infrastruktur
an deutschen Hochschulen
Lucke U., Tavangarian D.
197
...unser Admin installiert da mal was! – Zur Nachhaltigkeit von
E-learning-Infrastrukturen – Eine Taxonomie
Hampel T., Steinbring M.
209
koaLA – Integrierte Lern- und Arbeitswelten für die Universität 2.0
Roth A., Sprotte R., Büse D., Hampel T.
221
Gibt es mobiles Lernen mit Podcasts? –
Wie Vorlesungsaufzeichnungen genutzt werden
Schulze L., Ketterl M., Gruber C., Hamborg K.-C.
233
Kollaboration
Ein Framework für die kooperative Wissensorganisation –
Informelles semantisches Strukturieren und Einsatz in der Praxis
Niehus D., Erren P., Hampel T.
245
Zur Gestaltung der Aushandlungsunterstützung in CSCL-Systemen
Kienle A.
257
Kontextualisierte Kooperationsinitiierung zur Unterstützung
arbeitsplatzorientierten kollaborativen Lernens
Kienle A., Wessner M., Lokaiczyk R., Faatz A., Görtz M.
269
OSOTIS – Kollaborative inhaltsbasierte Video-Suche
Sack H., Waitelonis J.
281
Kurzbeiträge
Ein Werkzeug zur Unterstützung der Anpassung existierender
E-Learning-Materialien
Zimmermann B., Rensing C., Steinmetz R.
293
Werkzeuggestützte Untersuchung der Vorgehensweisen von Lernenden
beim Lösen algorithmischer Probleme
Kiesmüller U., Brinda T.
295
Ein prozessorientiertes und dienstbasiertes Sicherheitsmodell
für elektronische Prüfungen an Hochschulen
Hoffmann A.
297
Zur Unterstützung kontextadaptiven E-Learnings in Echtzeit am Arbeitsplatz
durch maschinelles Lernen auf Sensorendaten des Computerdesktops
Lokaiczyk R., Godehardt E., Görtz M., Faatz A.
299
CLab – Eine web-basierte interaktive Lernplattform für Studierende
der Computerlinguistik
Clematide S., Amsler M., Roth S., Thöny L., Bünzli A.
301
E-Learning als ein Baustein der Hochschul- und Fakultätsentwicklung
der Fachhochschule Kaiserslautern
Grimmig S.
303
E-Learning in der Sekundarstufe II – Evaluation eines Modellversuchs
an sportbetonten Gymnasien
Köhler T., Drummer J., Börner C.
305
E-Learning im Spannungsfeld Schule
Drummer J.
307
Autorenverzeichnis
309
Computer-Supported Collaborative Scripts: Einsatz computergestützter Kooperationsskripte in der Fernlehre1
Jörg M. Haake
Fakultät für Mathematik und Informatik
FernUniversität in Hagen
Universitätsstrasse 1
58084 Hagen
joerg.haake@fernuni-hagen.de
Abstract: Realisierung und Wirkung von CSCL-Skripten in der Fernlehre sind
heute noch weitgehend offene Fragen. Das Konzept der zusammengesetzten
CSCL-Skripte soll Lehrenden die einfachere Spezifikation und Anpassung von
Skripten ermöglichen. Die Implementierung solcher Skripte auf Basis gekoppelter
endlicher Automaten verspricht Flexibilität in der Ausführung und dem Austausch
von Skripten. Eine Feldstudie zeigt, dass CSCL-Skripte praktisch in der Fernlehre
eingesetzt werden können.
1
Einleitung
Im Zeitalter der verteilten Organisationen, in denen viele Teams aus örtlich verteilten
Mitgliedern bestehen, nimmt auch der Bedarf an verteiltem Lernen zu. Ebenso besteht
ein zunehmender Bedarf nach Fernlehre (z.B. berufsbegleitend oder wegen anderer örtlicher und zeitlicher Einschränkungen, die eine Präsenzlehre nicht zulassen). Aufgrund
der örtlichen Verteilung der Lerner lassen sich klassische Lehr-/Lernmethoden, wie sie
in Präsenzlehrsituationen eingesetzt werden, nur begrenzt einsetzen. Stattdessen hat sich
das Internet, neben postalischer Kommunikation, als bevorzugtes Kommunikations- und
Interaktionsmedium durchgesetzt.
Während in Präsenzlernsituationen die Gruppenarbeit ein integraler Bestandteil des
didaktischen Vorgehens ist, steht heutzutage in der Fernlehre oft noch das individuelle
Lernen – oft aus pragmatischen Gründen – im Vordergrund. Dabei zeigen Studien, dass
kooperatives Lernen in bestimmten Situationen durchaus lernförderlich ist; die Kompetenz zur Kooperation über das Internet ist außerdem eine gefragte Fähigkeit auf dem
Arbeitsmarkt. Verteilte kooperative Lernsituationen sind jedoch durch eine Reihe von
Problemen gekennzeichnet: die computervermittelte Kommunikation und Interaktion
erfordert im Vergleich zur Präsenzsituation zusätzlichen Aufwand, die Koordination in
größeren Gruppen wird dadurch erschwert.
1
Diese Arbeit wurde von der DFG im Projekt HA 3130/2-1 im Rahmen des Schwerpunkprogramms „Netzbasierte Wissenskommunikation in Gruppen“ gefördert.
9
Hier setzt nun die Idee des CSCL-Skripts an: ein kooperatives Lernskript definiert den
Prozess des kooperativen Lernens, in dem es die Rollen der beteiligten Akteure und die
möglichen Sequenzen ihrer Aktionen festlegt. Computerunterstützte Kooperationsskripte
(CSCL-Skripte) sind kooperative Lernskripte, die rechnerunterstützt ablaufen. Es handelt
sich damit um verteilte Systeme, die das Verhalten kooperativer Lerner auf möglichst
lernförderliche Abfolgen von Aktivitäten beschränken. Experimentelle Studien haben
gezeigt, dass solche Skripte bei größeren Lerngruppen und für komplexe Aufgaben einen
größeren Lernerfolg bewirken können [Fi07, St06, We05].
Wenn das CSCL-Skript in einer computerunterstützten Lernumgebung ausgeführt werden soll, dann muss das Skript so in der Lernumgebung repräsentiert sein, dass es seine
steuernde bzw. koordinierende Wirkung entfalten kann. Aus der Sicht der Informatik ist
heute noch weitgehend offen, wie CSCL-Skripte in Lernumgebungen repräsentiert werden sollten, wie die Bedienoberfläche der Lernumgebung das Skript reflektieren sollte
(um durch geeignete Affordanzen die Benutzer zu effizienter Nutzung der Lernumgebung zur Ausführung des Lernprozesses anzuregen), und wie diese Interaktion in der
Lernumgebung effizient und flexibel zu implementieren ist. Zwar zeigen experimentelle
Studien die positive Wirkung von speziellen CSCL-Skripten in bestimmten Situationen
[DJ07, JPT03, Pf05], ein Nachweis der Wirkung solcher Skripte in realen Nutzungssituationen steht aber noch weitgehend aus.
In diesem Beitrag wird nach einer kurzen Betrachtung von Skript-Ansätzen zuerst eine
Lösung für die Modellierung und Repräsentation von CSCL-Skripten vorgestellt. Zusammengesetzte CSCL-Skripte können als gekoppelte Endliche Automaten modelliert
werden, die die möglichen Rollen, Aktivitäten und daraus resultierende Rollenwechsel
der Lerner spezifizieren. Diese konzeptuelle Repräsentation erlaubt es den Lehrenden
ihre CSCL-Skripte flexibel an die Bedürfnisse der intendierten Lernsituation anzupassen.
Zudem können auf dieser Basis CSCL-Plattformen implementiert werden, die die automatische Ausführung von Skripten und ihre Nutzung durch andere Lehrende unterstützen. Danach wird eine Feldstudie über den Einsatz eines speziellen CSCL-Skripts in der
Fernlehre vorgestellt.
2
Ansätze für das Scripting von CSCL
Je nach Umsetzung eines CSCL-Skripts kann man informale und formale CSCL-Skripts
unterscheiden. Informale CSCL-Skripte werden oft in Präsenzsituationen eingesetzt und
mithilfe von Instruktionen für die Lerner sowie durch einen Moderator implementiert.
Der Moderator verteilt die Instruktionen und achtet auf ihre Einhaltung. Informale Skripten sind flexibel, da die Lerner und Moderatoren bei Bedarf vom starren Skript abweichen können. Allerdings sind informale Skripte in einer verteilten Situation eher schwierig anzuwenden, da dort im Vergleich zur Präsenzsituation Kommunikation und
Koordination schwieriger sind. Außerdem erschwert die begrenzte Anzahl verfügbarer
Moderatoren die Skalierbarkeit auf eine große Zahl von Lerngruppen. Deswegen wird
manchmal auch auf Moderatoren verzichtet. Dadurch steigt die Skalierbarkeit, allerdings
können Lerner die Instruktionen auch ignorieren.
10
Ein formales CSCL-Skript wird in einer computerunterstützten Lernumgebung durch
Implementieren der durch das Skript festgelegten Sequenzen von Aktivitäten definiert.
Für jede Lerngruppe wird ein eigener Prozess erzeugt. Die Lerner in einer Lerngruppe
können nicht von den erlaubten Abfolgen abweichen. Formale Skripte sollten so definiert sein, dass sie an das verteilte Lernen in der verteilten Lernumgebung angepasst
sind. Da ja keine Moderatoren sondern nur weitere Prozessinstanzen benötigt werden,
sind sie skalierbar. In Experimenten wurde die Lernwirksamkeit formaler CSCL-Skripte
in bestimmten Situationen nachgewiesen [MW05, PM02, PMM03].
Formale Skripte weisen allerdings auch einige Probleme auf: sie sind wegen der in der
CSCL-Umgebung vorgeschriebenen erlaubten Abfolgen rigide bzw. unflexibel. Für
Lehrende sind sie sind schwierig zu definieren und zu implementieren, denn in der Regel
wird die Prozedur in der Lernumgebung programmiert. Außerdem sind sie schwierig von
Lehrenden oder Lernenden an eine konkrete Einsatzsituation anzupassen, denn dazu sind
ggf. Programmänderungen notwendig. Diese Probleme tragen dazu bei, dass formale
Skripte heute noch keine etablierte Technik sind. Um das Sammeln von Erfahrungen
mit formalen Skripten und eine weitere Verbreitung zu ermöglichen, untersuchen wir die
Vereinfachung der Definition und Anpassung von komplexen formalen Skripten durch
einfachere Modellierungssprachen und durch die Wiedernutzung von Skripten. Weiterhin untersuchen wir die Implementierung von Skripten durch Ausführungskomponenten
in der CSCL-Umgebung.
3
Modellierung und Implementierung zusammengesetzter CSCLSkripte
In einer verteilten Situation unterstützt das CSCL-System die ortsübergreifende Interaktion zwischen den verteilten Lernern. Ein CSCL-Skript soll mögliche Interaktionen zwischen Lernern beschränken. Das Skript kontrolliert dazu für die einzelnen Lerner die
Verfügbarkeit von Operationen des CSCL-Systems und den Umfang der Statusanzeige
(Awareness, rollenspezifische Information). Zur Definition von Skripten in einem
CSCL-System werden eine Modellierungssprache und ein Editor benötigt. Zur Ausführung von Skripten benötigt das CSCL-System eine Ausführungskomponente.
Ein CSCL-Skript wird als Sequenz von atomaren und zusammengesetzten Skripten
definiert [HP07]. Ein atomares Skript unterstützt eine einzelne Lernaktivität (z.B. Brainstorming, Verfassen eines kurzen Essays). Ein zusammengesetztes Skript unterstützt
komplexe Lernaufgaben durch eine Sequenz von CSCL-Skripten. Ein CSCL-Skript ist
damit ein zusammengesetztes Skript, das mindestens ein atomares Skript enthält. Atomare Skripte regulieren und unterstützen die Interaktion zwischen Lernern in einer Lernaktivität, während zusammengesetzte Skripten die Abfolge von Lernaktivitäten festlegen
(Kontrollfluss, Datenfluss zwischen atomaren Skripten).
11
3.1
Modellierung und Semantik atomarer Skripte
Atomare Skripte können durch endliche Automaten (FSA, Finite State Automatons)
repräsentiert werden. Bei der Modellierung eines atomaren Skripts müssen die Rollen
der Akteure und die möglichen Sequenzen ihrer Aktionen (d.h. Operationen in der
CSCL-Umgebung) definiert werden. In Abbildung 1 ist beispielhaft die Modellierung
eines Frage-Antwort-Skripts dargestellt. In diesem Skript gibt es zwei Rollen: „Questioner“ und „Responder“. Jede Rolle wird durch einen eigenen FSA beschrieben (in Abbildung 1 in separaten Spalten dargestellt). Ihr Zusammenspiel und damit die Semantik des
Skripts ist durch den gesamten Automat eindeutig definiert: Jeder Benutzer wird einer
bestimmten Rolle und dem zugehörigen Automat zugeordnet. Vom aktuellen Zustand
ausgehende benannte Transitionen definieren die möglichen Aktionen eines Benutzers in
diesem Zustand des Skripts. So kann die Rolle „Questioner“ im Zustand „Initiating
Round“ nur die Aktionen „start“ und „quit“ ausführen. Jede ausgeführte Aktion feuert
die zugehörige (entsprechend benannte) Transition, die daraufhin den neuen aktuellen
Zustand definiert. Der neue aktuelle Zustand definiert wiederum die hier für den Benutzer möglichen Operationen. Die Vernetzung der Automaten definiert nun das kooperative Verhalten der Rollen. Trigger Relationen (Transitionen, die bei ihrem Auslösen eine
weitere Transition in einem anderen FSA auslösen) dienen zur Kopplung von Zustandsübergängen. In Abbildung 1 löst die Aktion „answer“ des Responders sowohl einen
Wechsel des Responders zum Questioner aus als auch über die Trigger Relation einen
Wechsel des Questioners zum Responder. Damit lassen sich also Rollenwechsel realisieren. Das Erreichen eines Endzustands beendet die Ausführung des Skripts. [HP07] enthält eine formale Beschreibung dieser Modellierung.
Abbildung 1: Beispiel für ein atomares Skript
12
3.2
Modellierung und Semantik zusammengesetzter Skripte
Ein zusammengesetztes CSCL-Skript ist als Sequenz von atomaren oder zusammengesetzten CSCL-Skripten definiert. Die Sequenz wird durch Verbinden des Endzustands
des Vorgängerskripts mit dem Startzustand des Nachfolgers gebildet. In Abbildung 2 ist
ein zusammengesetztes Skript zum Thema „Verstehen von Vulkanismus“ dargestellt.
Zuerst beantworten die Lerner, gesteuert durch ein atomares Frage-Antwort-Skript, Fragen zum Thema (um z.B. vorhandenes Wissen zu aktivieren). Danach führen die Lerner
im zweiten Schritt eine Analyse des Konzepts Vulkanismus durch, welche wiederum
durch ein zusammengesetztes Skript aus Brainstorming- und Clustering-Skripten gesteuert wird. Globale Variable (inputDocuments, outputDocuments) dienen zur Weiterleitung von Inhalten, so dass Ergebnisse eines Skripts als Daten in nachfolgenden Skripts
verwendet werden können (z.B. dienen die Ergebnisse des Brainstorming als Input für
das Clustering in Abbildung 2). Zurzeit unterstützen wir als Kontrollstruktur die Sequenz. Es ist eine offene Frage, ob andere Kontrollstrukturen (z.B. Fallunterscheidung,
Schleife) in der Praxis zur Realisierung von CSCL-Skripten benötigt werden.
Abbildung 2: Beispiel für ein zusammengesetztes Skript (ohne Darstellung der Variablen inputDocuments, outputDocuments für die zusammengesetzten Skripten)
Die Semantik des zusammengesetzten Skripts ist durch die Sequenz der verbundenen
Skripte definiert. Das Verhalten eines atomaren Skripts ist durch Automaten definiert.
Das Verhalten eines zusammengesetzten Scripts ist durch Verketten der Semantik seiner
Komponenten definiert. Das Endergebnis ist als Inhalt der Variable outputDocuments
des letzten Scripts definiert. Eine formalere Definition findet sich in [HP07].
13
3.3
Erstellung von CSCL-Skripten
Grundlage der späteren Ausführung von CSCL-Skripten ist die Erstellung einer ausführbaren Beschreibung des zugrunde liegenden Automaten. Atomare Skripte können prinzipiell als ausführbares Programm erstellt werden. Die Ausführungsumgebung im
CSCL-System muss dann in der Lage sein, ein Skript-Programm zu starten, ggf. mit
Input-Daten zu versorgen, am Ende die Beendigung festzustellen und ggf. Output-Daten
zwischen zu speichern. Über eine Registratur können Skript-Programme im CSCLSystem bekannt gemacht und später aufgerufen werden.
Zusammengesetzte Skripte können mit einem Editor in der CSCL-Umgebung selbst
erzeugt bzw. editiert werden. So kann eine Bedienoberfläche für den Aufbau einer Sequenz aus bekannten atomaren Skripten einfach realisiert werden, die jeweils das Anhängen bzw. Einfügen und Entfernen von atomaren und zusammengesetzten Skripten in
einer Sequenz erlauben. Aus dieser Spezifikation kann dann das CSCL-System für eine
Gruppe von Lernern eine Instanz des Skripts generieren. Hierdurch wird ein einfaches
Ändern zusammengesetzter Skripte und das Experimentieren mit Skriptvarianten ermöglicht. Andere Lehrende können auf die registrierten CSCL-Skripte zugreifen und diese in
ihrer Lehre anwenden bzw. anpassen.
3.4
Implementierung von CSCL-Skripten
Die Implementierung zusammengesetzter CSCL-Skripte haben wir in der Web-basierten
CSCL-Plattform CURE [Ha04a, Ha04b, Ha04c] erprobt. CURE (siehe Abbildung 3)
organisiert Gruppenarbeit in Räumen, zu denen Benutzer mit passenden Schlüsseln Zugang und Zugriffsrechte haben. Eine Lernumgebung besteht aus einem Eingangsraum,
von dem aus seine Unterräume erreichbar sind. Jeder Raum enthält außerdem von den
Benutzern editierbare Seiten sowie persistente Kommunikationskanäle (Chat, threaded
Mailbox). CURE verwendet eine Servlet-basierte Architektur.
Abbildung 3: Konzeptuelle Implementierung von formalen Skripten in CURE
Zur Implementierung von zusammengesetzten CSCL-Skripten erweiterten wir CURE
um einen Typ von Seite (Page) für atomare CSCL-Skripte (Atomic CSCL Script Types).
14
Unterklassen enthalten die Repräsentation des jeweiligen geschachtelten Endlichen Automaten. Instanzen einer atomaren Skriptklasse repräsentieren eine konkrete Ausführung
eines Skripts mit gruppenspezifischen Teilnehmern und Inhalten. Zusammengesetzte
Skripte werden in CURE als Seitentyp CSCL Script repräsentiert. Instanzen werden für
eine Gruppe als neue Seite im Gruppenraum erzeugt. Sie enthalten eine Sequenz von
Skriptseiten (Instanzen von Page oder CSCL Script), die die Interaktion der Gruppenteilnehmer steuert.
In CURE wird die Startseite des Skripts mit einer Beschreibung des Skripts und einem
Startknopf angezeigt. Das Drücken des Startknopfes startet die Ausführung des Skripts.
Jetzt weist die Ausführungskomponente jedem Benutzer des Raums eine Rolle, die im
Skript definiert ist, zu (d.h. Benutzer werden mit den entsprechenden Automaten assoziiert). Die Ausführungskomponente initialisiert dann die Automaten und erzeugt die jeweiligen HTML-Seiten für die Bedienoberfläche der jeweiligen Benutzer, in der dann
auch nur die zulässigen Operationen (als Buttons bzw. Links) und die definierten Informationen angezeigt werden. Wenn der Benutzer eine Aktion auslöst wird ein entsprechender Request an das Skript Servlet gesendet. Das Servlet führt die Operation aus und
definiert den neuen Zustand gemäß der Automatendefinition in der CSCL-Skript-Seite
im Raum. Die Bedienoberflächen aller Benutzer des Skripts (d.h. HTML Seiten) werden
gemäß des neuen Zustands mittels Web 2.0 Technologie verändert.
4
Einsatz eines zusammengesetzten CSCL-Skripts in der Fernlehre
Ziel der Feldstudie war es, die Wirksamkeit eines speziellen CSCL-Skripts in einer praktischen Anwendung in der Fernlehre zu untersuchen. Wir nehmen an, dass CSCLSkripte gemeinsames Lernen unterstützen können, insbes. in verteilten Situationen und
bei komplexen, längerfristigen Problemlösungsprozessen. Dabei sollte das Lernen mit
zunehmender Erfahrung besser werden (Lernkurve). Dies kann nur durch eine Langzeitstudie untersucht werden.
In der hier vorgestellten Feldstudie untersuchten wir, ob sich die Wirkung formaler
CSCL-Skripte von denen informaler CSCL-Skripte bei komplexen, längerfristigen Problemlösungsprozessen unterscheidet. Hierbei betrachteten wir die Lösung einer komplexen Querschnittsaufgabe durch einen 3-phasigen Problemlösungsprozess (Brainstorming, Clustering, Essay). Der gesamte Prozess wurde durch ein zusammengesetztes
CSCL-Skript unterstützt, in dem für jede Phase ein eigenes atomares Skript definiert
wurde.
4.1 Hypothesen
In der Feldstudie wurde die Wirksamkeit zweier Realisierungsalternativen eines zusammengesetzten CSCL-Skripts verglichen: einmal als formales CSCL-Skript versus ein
vorgehensmäßig äquivalentes informales CSCL-Skript, welches über Instruktionen realisiert wurde. Mit Hilfe dieser Skriptrealisierungen mussten die verteilten Lerngruppen
identische komplexe Querschnittsaufgaben in einem Zeitraum von jeweils 2 Wochen
15
lösen, die die Betrachtung des Stoffs einer Lerneinheit aus einer neuen bzw. übergreifenden Perspektive erforderten. Das Skript definierte dazu einen 3-phasigen Problemlösungsprozess, der aus den Aktivitäten Brainstorming, Clustering und Essay bestand. Zur
Untersuchung der Lernkurve mussten alle Gruppen über ein Semester fünf solcher Aufgaben bearbeiteten.
Als Qualitätsmaße betrachteten wir die Qualität der Brainstorming-Ergebnisse, die Qualität der Clustering-Ergebnisse, die Korrektheit / Verständlichkeit / Nachvollziehbarkeit
des Essays sowie den Lernerfolg des Individuums und der Gruppe. Unsere Hypothese
war, dass die Gruppen mit dem formalen Skript ab einem Zeitpunkt (in Abhängigkeit
von der Lernkurve) immer besser oder gleich gut abschneiden würden als die Gruppen
mit dem informalen Skript. Wir erwarteten außerdem, dass sich der Vorteil des formalen
Skripts mit der Zeit verstärken würde.
4.2
Methode
Setting: Wir arbeiteten an der FernUniversität Hagen mit verteilten Lerngruppen aus
3 Studierenden. Die Lerngruppen bearbeiteten vorlesungsbegleitende kooperative Übungen zum Kurs Betriebssysteme im Master of Science Informatik. Alle Lerngruppen
nutzen die kooperative Lernplattform CURE über einen Webbrowser auf ihrem Rechner.
Evaluationsinfrastruktur: Wir erweiterten CURE so, dass nach der Abgabe einer
Übung ein Multiple Choice-Post-Wissenstest in CURE durchgeführt werden musste.
Design: Wir verglichen zwei Bedingungen (informal Skript IS, formal Skript FS)
mit je 21 Gruppen je 3 Personen.
Testpersonen: Insgesamt nahmen im Sommersemester 2006 von April bis Juli 126
Fern-Studierende im Hauptstudium des Informatik-Diplom/Master freiwillig an den
kooperativen Übungen teil. Die Gruppenbildung erfolgte durch die Betreuer gemäß der
von den Studierenden angegebenen zeitlichen Verfügbarkeit, so dass auch die Gelegenheit zu synchroner Kooperation bestand.
Prozedur: Zuerst wurden alle Teilnehmer des Kurses per Informationsschreiben und
Newsgroup über die Gelegenheit zur Teilnahme an den kooperativen Gruppenübungen
informiert. Danach fand die Gruppenbildung statt (Anmeldung per Mail, Zuweisung zu
Gruppe/CURE-Raum durch Betreuer). Instruktionen zur Durchführung der Übung gemäß dem Skript befanden sich im CURE-Raum jeder Gruppe (inkl. Manual). Alle 14
Tage wurden die Aufgaben abgeschlossen und die nächste Aufgabe freigeschaltet. Nach
Abgabe der Lösung wurden die Teilnehmer zur Abgabe des Post-Wissenstests aufgefordert. Die Betreuer korrigierten die Lösungen und machten diese den Studierenden in
ihrem CURE-Raum verfügbar. Insgesamt wurden 5 Übungen mit analoger Struktur
durchgeführt. Jede Übung erforderte die Lösung einer komplexen Querschnittsaufgabe
zur aktuellen Kurseinheit und verwendete dasselbe zusammengesetzte Skript (in den
beiden Varianten IS und FS) mit den Aktivitäten Brainstorming, Clustering mit vorgegebenen Clustern und Verfassen eines Essays zur gestellten Frage.
16
Messgrößen: Für jede Gruppe betrachteten wir die Qualität der BrainstormingErgebnisse definiert als Anzahl gefundener sinnvoller Konzepte, die Qualität der Clustering-Ergebnisse definiert als Anzahl sinnvoller Konzepte in richtigen Clustern, die Korrektheit des Essay definiert als Anzahl korrekter Aussagen über Konzepte und deren
Relationen sowie die Verständlichkeit des Essays und die Nachvollziehbarkeit des Essays auf einer Nominalskala von 1..5 (sehr gut bis mangelhaft). Für Individuen betrachteten wir die Anzahl richtiger Aussagen im MC Post-Wissenstest.
Coding: Die Bewertung jeder Übung wurde durch zwei unabhängige wissenschaftliche Betreuer des Kurses (Hochschullehrer, wissenschaftliche Mitarbeiter) durchgeführt. Referenzrahmen für die Bewertung aller Messgrößen außer Verständlichkeit und
Nachvollziehbarkeit war eine Musterlösung. Unterschiede in der Bewertung wurden
diskutiert und eine einheitliche Bewertung herbeigeführt.
4.3
Ergebnisse
Qualität der Brainstorming-Ergebnisse: Die Bedingungen (IS, FS) unterscheiden
sich nicht. Die Gruppen nannten im Mittel 40% der möglichen relevanten Konzepte.
Qualität der Clustering-Ergebnisse: Die Bedingungen (IS, FS) unterscheiden sich
nicht. Die von den Gruppen konstruierten Cluster wiesen im Mittel 32% der möglichen
korrekten Zuordnungen von korrekten Konzepten zu den vorgegebenen Clustertiteln auf.
Allerdings basiert dieses Ergebnis auch auf den unvollständigen Konzeptsammlungen
aus der Brainstormingphase. Die Gruppen mit dem informalen Skript schneiden von der
Richtung her mit M=0.336 eher etwas besser ab als die Gruppen mit formalem Skript
mit M=0.309.
Korrektheit des Essays: Die Bedingungen (IS, FS) unterscheiden sich nicht. Im
Durchschnitt werden ca. 60% der für die Lösung der Querschnittsaufgaben wichtigen
Konzepte und Beziehungen korrekt dargestellt. Auch muss berücksichtigt werden, dass
die Ergebnisse der vorherigen Phasen die Anzahl der von der jeweiligen Gruppe berücksichtigten Konzepte beeinflusst haben kann.
Verständlichkeit des Essays: Die Verständlichkeitswerte müssen mit Vorbehalt
interpretiert werden: Die allermeisten Essays wurden mit „sehr gut“ (61 %) oder mit
„gut“ (24 %) bewertet, d.h. dass es kaum Varianz gibt und natürlich auch keine annähernde Normalverteilung. Die Bedingungen (IS, FS) unterscheiden sich nicht.
Nachvollziehbarkeit des Essays: Die Interpretation ist auch hier nur unter Vorbehalt
möglich, da die meisten Nachvollziehbarkeitsratings bei „gut“ (37%) oder bei „sehr gut“
(42%) liegen. Es zeigt sich, dass hier die Gruppen mit formalem Skript (FS) eine bessere
Bewertung erhalten als die Gruppen mit informalem Skript.
Anzahl richtiger Aussagen im MC-Postwissenstest: Die Bedingungen (IS, FS) unterscheiden sich nicht. Die Teilnehmer erreichen im Durchschnitt etwa 70-75% der möglichen Punkte.
17
4.4
Diskussion der Ergebnisse
Anhand der Ergebnisse konnten die Eingangshypothesen nicht bestätigt werden. Für alle
Messgrößen gilt, dass Gruppen mit informalem Skript genau so gut abschneiden wie
Gruppen mit formalem Skript. Lediglich bei der Nachvollziehbarkeit der Essays scheint
das formale Skript einen Vorteil zu bewirken. Ein Lerneffekt über die Zeit ließ sich nicht
nachweisen. Nach den vorliegenden Daten erscheint daher die Wirkung des informalen
und formalen Skripts in unserer Studie weitgehend äquivalent. Eventuell wurde die positive Wirkung des formalen Skripts (erleichterte Koordination) durch die größere Flexibilität des informalen Skripts (Lerner konnten beliebig von Skript abweichen, das Lernverhalten in den informalen Gruppen konnte ja nicht kontrolliert oder beobachtet
werden) ausgeglichen. In [PMM03] verstärkte sich die Wirkung des formalen Skripts
mit steigender Gruppengröße. Deswegen könnte vermutet werden, dass sich bei steigender Gruppengröße Wirkungsunterschiede zeigen könnten.
Positiv zu vermerken ist das gute Abschneiden beider Bedingungen in den PostWissenstests und bei den Essays. Dies legt nahe, dass die kooperativen Übungen in beiden Bedingungen zum Lernerfolg beitragen. Dies korreliert auch zu den Beobachtungen
des Autors während mündlicher Fachprüfungen. Teilnehmer der kooperativen Übungen
erbringen im Durchschnitt bessere argumentative Leistungen als die Studierenden, die
nicht an den kooperativen Übungen teilnahmen.
5
Zusammenfassung und Diskussion
Der hier vorgestellte Ansatz zur Modellierung zusammengesetzter CSCL-Skripte basiert
auf der Nutzung gekoppelter endlicher Automaten. Bisher wurden CSCL-Skripte oft fest
in experimentellen CSCL-Umgebungen programmiert und waren daher nur aufwändig
änderbar. In unserem Ansatz wird die Skriptrepräsentation zur Laufzeit im CURE Server
ausgewertet und die Bedienoberflächen für die Benutzer ihrer Rolle gemäß dynamisch
erzeugt. Die Benutzer können nur zulässige Aktionen anfordern, die im Server ausgeführt werden und zu einem neuen Zustand des Skriptes führen, was wiederum zur Generierung passender Bedienoberflächen für alle Gruppenmitglieder führt. Die Spezifikation
des CSCL-Skripts kann in diesem Ansatz jederzeit geändert werden – Experimentieren
mit CSCL-Skripten wird so einfacher und billiger. Aus Informatiksicht können auch
andere Formalismen zur Spezifikation eines verteilten Systems eingesetzt werden, z.B.
Petri-Netze, die mittels eines geeigneten Interpreters wie z.B. Trellis ausgeführt werden
können [FS94]. Ebenso käme die direkte Programmierung der Skripte in einer SkriptingSprache in Frage. Beide Formalismen sind nach unserer Erfahrung aber schwieriger
durch Nicht-Informatiker zu benutzen. Daher wären solche Ansätze auf die Informatiklehre beschränkt.
Heutige Standards für Lernumgebungen umfassen auch die Spezifikation von Lehrprozessen, siehe z.B. IMS-LD [IMS03] und die dazugehörige Ausführungskomponente
CopperCore [CC04]. Allerdings erlauben IMS-LD Skripte nur die relativ grobkörnige
Modellierung von asynchronen Prozessen. Für die Beschreibung unterschiedlicher Synchronisationsverhalten und Awarenessanzeige sind zusammengesetzte CSCL-Skripte
18
besser geeignet. Workflowsysteme sind ein anderes Mittel zur Koordination einer Gruppe. Das Flex-eL System [MO00] unterstützt individuelle Lerner bei ihren Lernprozessen
– kooperatives Lernen wird nicht unterstützt.
In der Feldstudie konnte gezeigt werden, dass sich ein zusammengesetztes CSCL-Skript
in der Praxis (vorlesungsbegleitende Übung mit 126 Lernern in 42 Gruppen, 5 Übungen
pro Gruppe, 3 phasiges CSCL-Skript) erfolgreich anwenden lässt. Es zeigt sich aber
auch, dass für einen effizienten Einsatz eine bessere Unterstützung für logistische Abläufe notwendig ist. So wurde vergleichsweise viel Zeit aufgewendet für die Einrichtung
von Gruppenräumen (Erzeugung von Instanzen, Zuweisung von Lernern), Überprüfung
des Gruppen-Status, Erinnerungen, Korrekturmanagement und für das zentrale SupportManagement für das technische System.
Die Motivation der Studierenden zum Mitmachen bei den kooperativen Übungen ist eine
wichtige Voraussetzung für Akzeptanz, die vom Dozenten geleistet werden muss. Positiv wirkten hier der Erwerb von Kooperationskompetenz mit elektronischen Medien und
die Übung des argumentativen Diskurses, wie er auch in mündlichen Prüfungen auftritt.
Die Teilnehmer gaben durchweg positives Feedback zu den kooperativen Übungen!
Weiterführende Arbeiten betreffen die Untersuchung der Wirkung der Bedingungen auf
die Prüfungsnoten, die Untersuchung der Wirksamkeit von Designalternativen für die
Gestaltung der Bedienoberfläche der Skripte, und die Erweiterung des verwendeten
CSCL-Skripts um eine Peer-Review-Phase.
Danksagung
Folgenden Personen sei für ihre Mitarbeit und Unterstützung gedankt: Hans-Rüdiger
Pfister (Design und Auswertung der Studie), Till Schümmer und Sven Laaks (Implementierung und technische Betreuung) sowie Anja Haake und Lihong Ma (Betreuung und
Bewertung der Übungen).
Literaturverzeichnis
[CC04] CopperCore (2004). http://CopperCore.org.
[DJ07] Dillenbourg, P., & Jerman, P. Designing integrative scripts. In F. Fischer, I. Kollar, H.
Mandl & J. M. Haake (Eds.), Scripting computer-supported collaborative learning.
Springer, New York, 2007; S. 275-301.
[Fi07] Fischer, F., Kollar, I., Mandl, H., & Haake, J. M. (Eds.). Scripting computer-supported
collaborative learning. Springer, New York, 2007.
[FS94] Furuta, R., & Stotts, P. D. Interpreted collaboration protocols and their use in groupware
prototyping. In Proc. of the 1994 ACM Conference on Computer Supported Cooperative
Work (CSCW ‘94). ACM Press, New York, 1994; S. 121-131.
[Ha04a] Haake, J. M., Schümmer, T., Haake, A., Bourimi, M., & Landgraf, B. Supporting flexible collaborative distance learning in the CURE platform. In Proc. Hawaii International
Conference on System Sciences, HICSS-37, January 5-8. IEEE Press, 2004.
[Ha04b] Haake, J. M., Haake, A., Schümmer, T., Bourimi, M., & Landgraf, B. End-User Controlled Group Formation and Access Rights Management in a Shared Workspace Sys-
19
tem. In Proc. ACM CSCW’2004, November 6-10, Chicago, USA. ACM Press, New
York, 2004; S. 554-563.
[Ha04c] Haake, J. M., Schümmer, T., Bourimi, M., Landgraf, B., Haake, A. CURE – Eine Umgebung für selbstorganisiertes Gruppenlernen. i-com Zeitschrift für interaktive und
kooperative Medien, 3(2), S. 20-26, 2004.
[HP07] Haake, J. M., & Pfister, H.-R. Flexible scripting in net-based learning groups. In F.
Fischer, I. Kollar, H. Mandl & J. M. Haake (Eds.), Scripting computer-supported collaborative learning. Cognitive, computational and educational perspectives. Springer,
Berlin, 2007; S. 155-175.
[IMS03] IMS Learning Design Information Model. Final Specification, IMS Global Learning
Consortium, http://www.imsproject.org/learningdesign/ldv1p0/imsld/_infov1p0.html.
[JPT03] Jucks, R., Paechter, M., & Tatar, D. G. Learning and collaboration in online discourses.
International Journal of Educational Policy, Research, & Practice, 4, S. 117-146. 2003.
[MO00] Marjanovic, O., & Orlowska, M.E. Making flexible learning more glexible. Proc. of
IEEE International Workshop on Advanced Learning Technologies IWALT’2000. IEEE
Press, 2000.
[MW05] Mühlpfordt, M., & Wessner, M. Explicit referencing in chat supports collaborative learning. In T. Koschmann, D. Suthers & T. W. Chan (Eds.), Proceedings of the CSCL- 2005.
Mahwah, NJ: Lawerence Erlbaum Ass., 2005; (CD-ROM).
[PM02] Pfister, H.-R., & Mühlpfordt, M. Supporting discourse in a synchronous learning environment: The learning protocol approach. In G. Stahl (Ed.), Proceedings of CSCL- 2002.
Erlbaum , Hillsdale, NJ, 2002; S. 581-589.
[PMM03] Pfister, H.-R., Mühlpfordt, M., & Müller, W. Lernprotokollunterstütztes Lernen - ein
Vergleich zwischen unstrukturiertem und systemkontrolliertem diskursivem Lernen im
Netz. Zeitschrift für Psychologie, 211, 98-109. 2003.
[Pf05] Pfister, H.-R. How to support synchronous net-based learning discourses: Principles and
perspectives. In R. Bromme, F. W. Hesse & H. Spada (Eds.), Barriers and biases in
computer-mediated knowledge communication - and how they may be overcome.
Springer, New York, 2005; S. 39-57.
[St06] Stahl, G. Analyzing and designing the group cognition experience. International Journal
of Cooperative Information Systems, 15, 157-178. 2006.
[We05] Weinberger, A., Ertl, B., Fischer, F., & Mandl, H. Epistemic and social scripts in computer-supported collaborative learning. Instructional Science, 33, 1-30. 2005.
20
E-Learning aus Prozessperspektive
Stefan Iske
DFG-Graduiertenkolleg „Qualitätsverbesserung im E-Learning
durch rückgekoppelte Prozesse“
TU-Darmstadt
Alexanderstraße 6
64283 Darmstadt
s.iske@apaed.tu-darmstadt.de
Abstract: In diesem Artikel wird das Verfahren und das Potenzial der Analyse von
E-Learningprozessen mittels explorativ-heuristischer Optimal-Matching Analyse
dargestellt. Ziel ist das Identifizieren von Mustern, Regelmäßigkeiten und Strukturen in Navigationsprozessen. E-Learning als Prozess der Interaktion von Lernern
mit einer Online-Lernumgebung wird so analysierbar. Auf Grundlage der Levenshtein-Distanz des paarweisen Vergleichs aller Navigationsverläufe können in Verbindung mit Verfahren der Clusteranalyse empirische Navigationsverläufe induktiv typologisiert werden. In methodologischer Perspektive wird das vorgeschlagene
Verfahren abgegrenzt von der Analyse aggregierter Logdaten sowie von der auf
Markov-Prozessen beruhenden Ereignisanalyse.
1
Einleitung
Bei offenen Online-Lernumgebungen handelt es sich aus medialer Sicht um Hypertexte,
mit den Hauptkennzeichen der Fragmentierung und der Verknüpfung (vgl. [Ku91]): Ein
Gegenstandsbereich wird in Informationseinheiten gegliedert und durch Links untereinander verbunden. Die so entstehende nicht-lineare Netzstruktur ist das Grundmodell
von Hypertext (vgl. [BC90]).
Der Navigationsprozess als Interaktion eines Nutzers mit einer hypertextuellen OnlineLernumgebung entspricht dem linearen Entfalten eines nicht-linearen Hypertextes. Hypertexte entfalten sich angesichts eines Nutzers nicht von allein, sondern sind auf dessen
Aktivitäten angewiesen, auf das aktive Auswählen von Verknüpfungen. Genau auf dieses Auswählen und Entfalten zielt die Kennzeichnung als Pull-Medium. Durch die Auswahl konkreter Verknüpfungen aus einer Vielzahl möglicher Verknüpfungen entsteht ein
zeitlich-linearer Nutzungspfad. Aus diesem Grund werden Hypertexte auch als multilinear oder multisequenziell bezeichnet (vgl. [La97]).
Beim Lernen in hypertextuellen Lernumgebungen eignen sich Lernende Wissen an,
indem sie ausgehend von ihrem zeitlich-linearen Navigationsprozess ein mentales, nichtlineares Modell des Gegenstandsbereichs entwickeln (vgl. [Me06]). Im Kern handelt es
21
sich bei dieser Autodidaktik um ein Übersetzen von Zeitgestalten in Raumgestalten (vgl.
[Hö27]). Dabei spielen neben der Zeit- und Ortsunabhängigkeit des E-Learning vor
allem Entscheidungen über die Auswahl der Inhalte sowie Entscheidungen über den
Lernweg eine besondere Rolle. Aus didaktischer Perspektive wird durch den multisequenziellen Nutzungspfad autodidaktisches Handeln als Strategien und Metaregeln des
Entfaltens rekonstruierbar. All dies macht deutlich, dass es sich beim Navigieren in
Online-Lernumgebungen um anspruchsvolle und komplexe Tätigkeiten handelt [Is02].
Die Kennzeichnung der Hypertext-Technologie als Pull-Medium mit der Notwendigkeit
des Entfaltens ist auch Ausgangspunkt eines relationalen Qualitätsverständnisses des ELearning (vgl. [Eh02]). Dem Lernenden kommt dabei die Rolle eines Koproduzenten zu:
Die Online-Lernumgebung liefert beispielsweise den Inhalt und Kommunikationswerkzeuge, der Lernende muss jedoch selbst tätig, selbst aktiv werden. So betont auch
Ehlers [Eh02, S. 9] die zentrale Bedeutung der Interaktion für die Konstitution von Qualität: „Qualität entsteht erst dann, wenn der Lernende mit dem Lernarrangement in Interaktion tritt. Erst dann, wenn gelernt wird entsteht auch Lernqualität (Ko-Produktion des
Lernerfolges). Ein E-Learning-Lernarrangement hat keine Lernqualität an sich. Es ist
lediglich der Rahmen (das Arrangement) mit Hilfe dessen sich der Lernprozess vollzieht.“ Dabei unterscheidet Ehlers [Eh02] verschiedene Qualitätsebenen: die Voraussetzungen (‚Inputqualität’), den Lernprozess (‚Prozessqualität’) und das Ergebnis (‚Outcomequalität’). Insbesondere die in diesem Artikel zur Diskussion stehende Analyse von
Navigationsprozessen bezieht sich auf die Relation von Lernendem, Lernumgebung und
Lerninhalt. Eine konsequente Qualitätsforschung des E-Learning unter Berücksichtigung
der Lernerperspektive muss also neben der ‚Inputqualität’ und der ‚Outcomequalität’ vor
allem die beschriebenen Relationen der ‚Prozessqualität' berücksichtigen.
Auf welcher methodologischen Grundlage kann E-Learning aus Prozessperspektive
analysiert werden? Wie kann die Interaktion als das Entfalten einer Online-Lernumgebung Gegenstand der Analyse werden?
2
Analyse aggregierter und sequenzierter Logdaten
In der Regel wird die Interaktion eines Nutzers mit einer Online-Lernumgebung durch
serverseitige Logdaten aufgezeichnet. Die Logdaten stellen eine spezifische Art der
Dokumentation und Transkription des Navigationsprozesses dar. Durch die Logdaten
wird die Abfolge der vom Nutzer aufgerufenen Seiten in eine digitale Textdatei übersetzt, also von im voraus definierten Algorithmen transkribiert (z.B. im ApacheLogfileformat). Es handelt sich dabei um eine formale, automatisierte Protokollierung
der Reaktionen des Webservers, die während des Navigationsprozesses automatisch
generiert und aufgezeichnet werden, um eine Form passiver Protokollierung. Priemer
[Pr04] nennt als Vorteile dieser Protokollierung u.a. die unbemerkte, detailgenaue, objektive und non-reaktive Aufzeichnung der Handlungen des Nutzers in authentischen
Nutzungssituationen. Wie lassen sich diese Logdaten nun auswerten? Grundsätzlich
kann die Analyse aggregierter Logdaten von der Analyse sequenzierter Logdaten unterschieden werden.
22
Die Analyse aggregierter Logdaten stellt das am weitesten verbreitete Verfahren zur
Analyse der Nutzung von Online-Lernumgebungen dar. Viele Internet-Provider stellen
ihren Kunden die Analyse der Logdaten in Form aggregierter Nutzungsdaten zur Verfügung. Aggregiert bedeutet in diesem Zusammenhang, dass die in den Logdaten enthaltenen Informationen zusammengefasst werden und darauf aufbauend durchschnittliche
Kennzahlen berechnet werden (z.B. durchschnittliche Nutzungsdauer, durchschnittliche
Anzahl der besuchten Seiten u.ä.). Im Vordergrund steht dabei die deskriptiv-statistische
Analyse der Logdaten mit der grundlegenden Orientierung am Querschnittsdesign der
Datenerhebung und -analyse.
Die systematische Berücksichtigung sequenzierter Logdaten findet im Bereich des ELearning bisher lediglich in Ansätzen statt. Die grundlegende Analyseeinheit der Sequenzanalyse sind verlaufsbezogene Daten. Diese stellen die Navigationsverläufe von
Nutzern in einer Online-Lernumgebung dar: der Verlauf der besuchten Internetseiten
wird dabei als Sequenz dokumentiert und als Sequenz analysiert. In den sequenzierten
Daten sind also Informationen über den zeitlichen Verlauf enthalten, die bei der Aggregation verloren gehen. Allgemeines Kennzeichen von Verlaufsdaten ist die Orientierung
am Längsschnittdesign der Datenerhebung und -analyse, d.h. die Daten werden wiederholt in definierten zeitlichen Intervallen bei gleichen Individuen erhoben. Während Sequenzdaten Analysen des Verlaufs bzw. der Entwicklung von Navigationsprozessen
ermöglichen, sind diese Analysen auf der Grundlage aggregierter Daten grundsätzlich
nicht möglich (vgl. [IS05]).
Sozialwissenschaftliche Forschungen zur Analyse der Internetnutzung basieren bisher
auf der Analyse aggregierter Logdaten: Bei der Analyse stehen deskriptive und inferenzstatistische Verfahren im Vordergrund. Bei diesem Forschungsdesign sind jedoch die
Prozesse der Nutzung selbst – z.B. der konkret zeitliche Verlauf der Navigation - nicht
Gegenstand der Analyse. Aus erziehungswissenschaftlicher Perspektive ist diese Fokussierung auf aggregierte Daten unbefriedigend, da die Kenntnis von Aneignungsprozessen
Lernender zum einen Aufklärung über pädagogisch-didaktisches Handeln erwarten lässt
und zum anderen die Möglichkeit der empirisch basierten Optimierung der OnlineLernumgebung eröffnet.
Wie kann nun der E-Learningprozess anhand sequenzierter Logdaten analysiert werden?
Zur Beantwortung dieser Frage werden im folgenden Markov-Ketten und das OptimalMatching Verfahren skizziert.
2.1
Analyse von Navigationssequenzen mittels Markov-Ketten
Den zentrale Anwendungsbereich von Markov-Ketten (bzw. -Prozesse) bildet die Analyse der Abfolge von Zuständen durch die Berechnung von Übergangswahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit folgt auf dem Zustand A der Zustand B? Auf
den Zustand B der Zustand C? Grundlegende Elemente von Markov-Ketten sind ein
Zustandsraum (als nichtleere, endliche Menge) und eine stochastische Matrix, die die
Wahrscheinlichkeit enthält, von einem spezifischen Zustand in einem Schritt in einen
Folgezustand überzugehen. Ein frühes Beispiel für die Verwendung von Markov-Ketten
in der Analyse von Lehr-Lernprozessen stellen Flanders Interaktionsanalyse-Kategorien
23
dar (vgl. [Fl70]): An der darauf aufbauenden stochastischen Matrix ist ablesbar, auf
welches Lehrerhandeln mit welcher Wahrscheinlichkeit ein bestimmtes Schülerverhalten
folgt. Gegenstand der Analyse sind also dyadische Beziehungen von Lehrerhandeln und
Schülerreaktion.
Als Markov-Prozesse erster Ordnung werden genau solche Prozesse definiert, bei denen
das Auftreten folgender Zustände lediglich vom momentanen Zustand abhängt und nicht
von vorangehenden Zuständen beeinflusst wird. Analyseeinheit ist der isolierte Übergang von je zwei Zuständen. Damit wird eine „Gedächtnislosigkeit“ des Prozesses postuliert: die Eintrittswahrscheinlichkeit eines Zustandswechsels, d.h. der Übergangswahrscheinlichkeit eines Markov-Prozesses wird nicht von dessen „Vorgeschichte“ beeinflusst und kann demzufolge unabhängig von den vorangehenden Zuständen prognostiziert werden. Mit anderen Worten: zusätzliche Informationen über die
„Vergangenheit“ des Prozesses in Form vorangehender Zustände verbessern nicht die
Prognose der folgenden Zustände.
Diese Markov-Prozesse erster Ordnung werden durch das Konzept von MarkovProzessen zweiter Ordnung erweitert, die auch als Semi-Markov-Ketten bezeichnet
werden: die Erweiterung besteht darin, dass bei Markov-Ketten zweiter Ordnung nicht
ausschließlich der momentane Zustand zur Prognose des folgenden verwendet wird,
sondern eine begrenzte Anzahl vorangehender Zustände. Das Postulat der „Gedächtnislosigkeit“ des Markov-Prozesses wird damit erweitert zur Berücksichtigung von „Vergangenheit“. Mit dieser Erweiterung wird Prozessen Rechnung getragen, die nicht als
„gedächtnislos“ im Hinblick auf den Prozessverlauf oder die Prozesszeit betrachtet werden können. Gemeinsam sind beiden Konzepten jedoch die stochastische Grundlage und
die Analyse isolierter Übergänge, auch wenn diese durch Markov-Ketten zweiter Ordnung um eine begrenzte Anzahl vorangehender Zustände erweitert werden.
Zusammenfassend kann festgestellt werden, dass das Potenzial der Markov-Ketten in der
Analyse von Determinanten von Übergängen sowie in der empirischen Überprüfung
entsprechender Modelle und Hypothese besteht. Markov-Prozesse bilden damit die
Grundlage der Ereignisdatenanalyse („event history analysis“, vgl. [BR02]).
2.2 Analyse von Navigationssequenzen mittels Optimal-Matching
Für explorativ-heuristische Analyse von Prozessen des E-Learning sind Markov-Ketten
von begrenztem Nutzen. Prozesse des E-Learning können gerade nicht als „gedächtnislos“ interpretiert und analysiert werden, sondern sind abhängig von der Verweildauer in
den betreffenden Zuständen sowie von ihrer „Vorgeschichte“. Ein größeres analytisches
Potenzial verspricht daher die Verwendung der Sequenzanalyse mittels OptimalMatching, da diese gerade mit der Analyse vollständiger Sequenzen ein „Prozessgedächtnis“ beinhaltet. Gerade in diesem „Prozessgedächtnis“ zeigen sich ja spezifische
Navigationsstrategien und Metaregeln. Im Gegensatz zu dem hypothesengeleitetkonfirmatorischen Vorgehen der Ereignisdatenanalyse stellt die Sequenzdatenanalyse
mittels Optimal-Matching ein deskriptives, explorativ-heuristisches Vorgehen dar.
24
Allgemein versteht man unter einer „Sequenz“ eine Abfolge oder Reihenfolge von Elementen. Als Prototyp einer Sequenz in den Naturwissenschaften – insbesondere in der
Molekularbiologie – gilt die DNA als Träger des menschlichen Erbgutes. Als Prototyp
einer Sequenz in der Soziologie kann der Lebenslauf bezeichnet werden (vgl. [Er01,
SW01, Wi01]. Den Prototyp einer Sequenz im Kontext von Online-Lernumgebungen
stellt der Prozess der Navigation in einer hypertextuellen Lernumgebung dar. Diese
Navigationssequenz basiert auf der zeitlichen Abfolge besuchter Seiten als Elemente der
Navigationssequenz. Aufbauend auf den Logdaten als „elektronischen Prozessdaten“
(vgl. [BM00]) können die Navigationsprozesse von Nutzern in einer Lernumgebung als
Sequenz rekonstruiert werden. Diese Navigationssequenzen bilden dann den Ausgangspunkt der Sequenzanalyse mittels Optimal-Matching.
Ein spezifischer Algorithmus zur Sequenzanalyse ist das Optimal-Matching Verfahren 1,
dessen Verwendung im Bereich der Sozialwissenschaften ein relativ junges methodisches Vorgehen darstellt. Übergeordnetes Ziel des Optimal-Matching Verfahrens ist die
auf einem Algorithmus beruhenden Analyse einer großen Anzahl komplexer und oftmals
sehr langer Sequenzen mit dem Ziel, Muster, Strukturen und Regelmäßigkeiten zu identifizieren. Das Standard- und Referenzwerk der Sequenzanalyse im naturwissenschaftlichen Bereich ist das von David Sankoff und Joseph Kruskal herausgegebene „Time
Warps, String Edits, and Macromolecules“ [KS99] aus dem Jahr 1983. Als beispielhafte
Anwendungsgebiete der Sequenzanalyse nennen sie u.a. die Analyse der Homologie von
Makromolekülen, die Sprecher- oder auch Spracherkennung und den Bereich der technischen Datenübertragung, aus dem auch die grundlegenden Forschungen von Levenshtein
[Le66] stammen. Der Transfer dieser Methode auf den sozialwissenschaftlichen Bereich
und speziell in den Bereich der Soziologie geht auf Abbott (vgl. [AF86]) zurück.2 In der
pädagogisch-didaktischen Forschung und der Analyse von E-Learningprozessen findet
die Sequenzanalyse mittels Optimal-Matching bislang keine Verwendung.
Den Ausgangspunkt der Sequenzanalyse mittels Optimal-Matching bildet die Frage nach
der Bestimmung der Ähnlichkeit von Sequenzen: Wie kann festgestellt werden, ob und
wie stark sich Sequenzen ähneln? Mit der Hamming- und der Levenshtein-Distanz werden im Folgenden zwei grundlegend unterschiedliche Antworten skizziert.
Das Konzept der Hamming-Distanz [Ha50] stammt aus dem Bereich der elektronischen
Datenübertragung und stellt dort ein Verfahren zur Kontrolle von Übertragungsfehlern
dar. Die gesendete und die empfangene Datensequenz werden Position für Position hinsichtlich identischer Elemente verglichen. Das Ergebnis dieses Vergleichs ist eine Maßzahl, die als Hamming-Distanz bezeichnet wird. Der Grad der Ähnlichkeit zweier Sequenzen steigt mit der Anzahl identischer Elemente in der gleichen Position. Bei einer
maximalen Ähnlichkeit besteht eine Übereinstimmung der Elemente in jeder Position
der zu vergleichenden Sequenzen (d.h. die Sequenzen sind identisch); bei einer maxima1
Der Begriff „Optimal-Matching“ wird als Sammelbegriff für Verfahren verwendet, die auf Grundlage der
Levenshtein-Distanz und der Operationen Austauschen („substitution“), Einfügen („insertion“) sowie Löschen
(„deletion“) unter Verwendung iterativer Prozeduren (Algorithmen) die Distanz von Sequenzen bestimmen.
Der Begriff der „Sequenzanalyse“ wird verwendet für die übergeordnete Methodologie, der Begriff „OptimalMatching“ für einen konkreten Algorithmus zur deren Umsetzung.
2
Eine softwaretechnische Umsetzung findet der OM-Algorithmus in dem Programm „Transition Data
Analysis“ (TDA) von Götz Rohwer und Ulrich Pötter; <http://www.stat.ruhr-uni-bochum.de/tman.html>.
25
len Unähnlichkeit besteht keine Übereinstimmung von Elementen an keiner Position.
Die Bestimmung der Hamming-Distanz stößt jedoch dort an Grenzen, wo sie über die
Kontrolle von Übertragungsfehlern hinaus in Bereichen angewandt wird, in denen nicht
von einer inhärenten Korrespondenz als Entsprechung der Positionen ausgegangen werden kann oder Sequenzen unterschiedlicher Länge miteinander verglichen werden. Für
eine Analyse von Prozessen des E-Learning sind daher differenziertere Verfahren des
Sequenzvergleichs erforderlich.
Den Kern der Optimal-Matching Analyse bildet der paarweise Vergleich aller Sequenzen eines Datensatzes. Die Distanz zweier Sequenzen als Grad der Unähnlichkeit wird
dabei bestimmt in Abhängigkeit der Anzahl der Transformationsschritte3 die erforderlich
sind, um eine Ausgangssequenz in eine Zielsequenz zu überführen und somit eine Übereinstimmung („alignment“4) herzustellen. Je weniger Operationen benötigt werden, um
eine Übereinstimmung herzustellen, umso ähnlicher sind sich die Sequenzen. Die Transformationen beruhen dabei auf den grundlegenden Operationen des Löschens („deletion“), Einfügens („insertion“) und Austauschens („substitution“) von Elementen. Dieses
Verfahren wird als „Optimal-Matching“ bezeichnet und beruht auf zwei Prozessen (vgl.
[KS99]): Auf der Bestimmung aller möglichen Transformationsoperationen, um eine
Quellsequenz in die Zielsequenz zu überführen („alignment analysis“); sowie auf der
Ermittlung der geringsten Anzahl der dazu notwendigen Operationen („optimum analysis“). Die geringste Anzahl der erforderlichen Operationen zur Herstellung des „alignments“ dient dann als Maßzahl für den Grad der Unähnlichkeit zwischen Sequenzen und
wird als Levenshtein-Distanz bezeichnet [Le66].
Im Folgenden wird die Bestimmung der Levenshtein-Distanz beispielhaft am paarweisen
Vergleich dreier Sequenzen verdeutlicht. In Abbildung 1 ist der paarweise Vergleich
einer Sequenz 1 mit einer Sequenz 2 dargestellt: Zunächst wird in der Ausgangssequenz
das erste Element „A“ gelöscht („deletion“). Danach wird ein Element „A“ eingefügt
(„insertion“). Es sind also minimal zwei Operationen notwendig, um eine Übereinstimmung der Ausgangs- mit der Zielsequenz herzustellen. In Abbildung 2 ist der paarweise Vergleich der Sequenz 1 mit einer Sequenz 3 dargestellt: An die erste Position der
Ausgangssequenz wird das Element „G“ eingefügt („insertion“). Damit verschieben sich
alle folgenden Positionen. Es ist also minimal eine Operation notwendig, um eine Übereinstimmung („alignment“) mit der Zielsequenz herzustellen. Im Gegensatz zum Hamming-Algorithmus, der für diesen Fall eine maximale Unähnlichkeit feststellt, ist der
Optimal-Matching Algorithmus aufgrund der grundlegenden Operationen in der Lage,
Regelmäßigkeiten innerhalb der zu vergleichenden Sequenzen zu identifizieren: in diesem Beispiel sind die Ausgangs- und die Zielsequenz gegeneinander verschoben. In
Abbildung 3 ist der paarweise Vergleich der Sequenz 2 mit einer Sequenz 3 dargestellt:
In der Ausgangssequenz wird zunächst ein Element „G“ eingefügt („insertion“). Danach
wird das Element „B“ gelöscht („deletion“) und ein Element „B“ einfügt („insertion“).
3
In diesem Artikel werden die Begriffe „Transformation“ und „Operation“ synonym verwendet. Diese
(Bearbeitungs)Operationen werden auch als „Edit-Operations“ bezeichnet. Die Levenshtein-Distanz wird
daher auch als „Edit-Distance“ bezeichnet.
4
Aus diesem Grund wird die Methode des „Optimal Matching“ auch als „Sequence Aligment Method“
bezeichnet.
26
Es sind also minimal drei Operationen notwendig, um eine Übereinstimmung mit der
Zielsequenz herzustellen.
Das Ergebnis des paarweisen Vergleichs aller Sequenzen des Datensatzes wird in Form
einer Distanz-Matrix dokumentiert, in der die Levenshtein-Distanz für jeden paarweisen
Sequenzvergleich eingetragen wird.5 Die Levenshtein-Distanzmatrix als Ergebnis der
Optimal-Matching Analyse bildet dann den Ausgangspunkt für sowohl explorativheuristische als auch konfirmatorische Forschungsstrategien (vgl. [KS99]).
Die Analyse von E-Learningprozessen mittels Optimal-Matching entspricht einer explorativ-heuristischen Forschungsstrategie. In einem ersten Schritt werden Sequenzen unter
dem Gesichtspunkt der Distanz verglichen, um in einem zweiten Schritt mit Hilfe von
Methoden der Clusteranalyse zu homogenen Gruppen ähnlicher Sequenzen zusammengefasst zu werden. Mit Erzberger [Er01] kann die explorativ-heuristische Sequenzanalyse als fallorientierte Analysestrategie gekennzeichnet werden, bei der Sequenzen als
Gesamtverläufe bzw. Verlaufsgeschichten in ihrer Vielfalt und Komplexität zum Gegenstand der Forschung werden. Die „Zusammenschau aller Verläufe läßt dann Ordnung
entstehen“ [Er01, S. 36], d.h. in der Gesamtschau einer hinreichend großen Anzahl von
Sequenzen werden Muster und Regelmäßigkeiten überhaupt erst erkennbar. Die Optimal-Matching Analyse als explorativ-heuristisches Verfahren ermöglicht es, „typische
Muster, die sich aus der Empirie ergeben, theoretisch aber nicht ,vorgedacht’ wurden“
[Ai00, S. 15] zu identifizieren. Muster in empirischen Sequenzen, die theoretisch nicht
„vorgedacht“ wurden, können durch eine konfirmatorisch-deduktive Analyse nicht identifiziert werden.
In Abbildung 4 wird beispielhaft das Ergebnis der Sequenzanalyse mittels OptimalMatching mit daran anschließender Clusteranalyse dargestellt: die unterschiedlichen
Quadrate stehen für unterschiedliche Informationseinheiten; die Abfolge der Informationseinheiten von links nach rechts stellt die Sequenz der besuchten Informationseinheiten dar (als Beschreibung des Navigationsprozesses). Die horizontalen Linien trennen
dabei einzelne Cluster ähnlicher Sequenzen. Klammer 1 kennzeichnet ein Cluster ähnlicher Navigationssequenzen. Das für dieses Cluster typische Navigationsmuster ist mit
der Ziffer 2 gekennzeichnet. Ziffer 3 markiert eine Sequenz, die sich von dem clustertypischen Navigationsmuster lediglich durch die Informationseinheit an erster Position
unterscheidet. Fügt man vor der ersten Position ein Element ein (weiße Informationseinheit), erhält man als Ergebnis das clustertypische Navigationsmuster. Beide Navigationsmuster sind also auf Grundlage des Optimal-Matching Algorithmus als ähnlich einzustufen, da für eine Übereinstimmung lediglich eine Einfügen-Operation notwendig ist.
Ziffer 4 markiert Navigationsmuster, die sich vom clustertypischen Navigationsmuster
lediglich durch einen Einschub eines Elementes an der zweiten Position der Sequenz
unterscheiden (sowie durch ein zusätzliches Element am Ende der Sequenz). Beide Navigationsmuster sind also auf Grundlage des Optimal-Matching Algorithmus als ähnlich
einzustufen, da für eine Übereinstimmung lediglich zwei Löschen-Operationen notwendig sind. Ziffer 5 markiert ein Navigationsmuster, das sich vom clustertypischen Naviga5
An dieser Stelle zeigt sich die Rechenintensität des Optimal-Matching Verfahrens, besonders bei einer großen
Anzahl sowie langen Sequenzen: Ein Vergleich von 100 Sequenzen beruht auf 4950 paarweisen Sequenzvergleichen (100 * 99 / 2 = 9900 / 2 = 4950), die in die Levenshtein-Distanzmatrix eingetragen werden.
27
tionsmuster lediglich durch ein zusätzliches Element am Ende der Sequenz unterscheidet. Beide Navigationsmuster sind auf Grundlage des Optimal-Matching Algorithmus
als ähnlich einzustufen, da für eine Übereinstimmung dieser Sequenzen lediglich eine
Löschen-Operation notwendig ist.
3
Ergebnisse und Ausblick
Grundlegend ist festzuhalten, dass auf Grundlage des Optimal-Matching Verfahrens eine
große Anzahl komplexer und oftmals sehr langer Navigationssequenzen analysiert werden können. In den Navigationssequenzen enthaltene Muster, Strukturen und Regelmäßigkeiten werden identifizierbar. Damit unterscheidet sich die vorgeschlagene Methodologie grundlegend von der qualitativen Analyse einzelner Navigationssequenzen. Der
Navigationsverlauf als Sequenz wird zum Ausgangspunkt und zur Analyseeinheit: Die
beschriebene Methodologie aus Optimal-Matching Analyse in Kombination mit Verfahren der Clusteranalyse ermöglicht es, Navigationsprozesse in Online-Lernumgebungen
anhand sequenzierter Logdaten zu analysieren. Auf dieser Grundlage können auf induktive Weise ähnliche Navigationsprozesse identifiziert und zu Gruppen zusammengefasst
werden. Damit kann die vorherrschende Dominanz der Analyse der Resultate von ELearningprozessen aufgebrochen werden (vgl. „Outcomequalität“) und gleichzeitig
einem relationalen Qualitätsbegriff sowie dem grundlegenden Charakter eines PullMediums Rechnung getragen werden. Die Berücksichtigung von Prozessen des ELearning ist insbesondere dann notwendig, wenn mit Online-Lernumgebungen die Vermittlung prozeduralen Wissens und tatigkeitsorientierter Kompetenzen angestrebt wird.
Dabei zielt die Analyse von E-Learningprozessen mittels Optimal-Matching auf den
Kern einer Didaktik als Handlungswissenschaft, die die konkret-empirische Abbildung
von Raumgestalten in Zeitgestalten (Didaktik) bzw. die Abbildung von Zeitgestalten in
Raumgestalten (Autodidaktik) analysiert und hinsichtlich Adäquatheit und alternativer
Möglichkeiten reflektiert (vgl. [Me03, Me06]). Gerade Hypertext als grundlegende
Technologie von Online-Lernumgebungen stellt ja einen radikalen medialen Strukturwandel dar, in dem bisherige Prozesse der Abbildung grundlegend zur Disposition stehen.
Detailliert wurde die Methodologie und das Potenzial der Sequenzanalyse mittels Optimal-Matching für die Analyse von E-Learningprozessen an anderer Stelle ausgearbeitet,
am Beispiel der Analyse der Nutzung einer metadatenbasierten, hypertextuellen OnlineLernumgebung (vgl. [Is07]). Analysiert wurden dabei insgesamt ca. 1600 Sequenzen mit
insgesamt ca. 4700 Informationseinheiten. Dabei wurden spezifische Muster, Regelmäßigkeiten und Strukturen in Navigationssequenzen identifiziert, die sowohl in formaler
als auch in inhaltlicher Hinsicht als Navigationsstrategien interpretiert werden konnten:
Z.B. lineare Navigationsmustern der „Erkundung“ und der „Auseinandersetzung“, sowie
nicht-lineare Muster der direkten und gezielte Navigation: Diese können als „erklärungsfokussierte“, „beispielfokussierte“, „aufgabenfokussierte“ und „testfokussierte“ Navigationsstrategien gekennzeichnet werden. Neben linearen und nicht-linearen Navigationsmustern wird auch die Fokussierung des Navigationsprozesses auf spezifische
dominierende Typen von Informationseinheiten erkennbar. Darüber hinaus werden auch
28
Navigationsmuster identifizierbar, in denen spezifische Informationseinheiten gerade
nicht enthalten sind.
Die dargestellte Methodologie der Analyse von E-Learningprozessen leistet einen zentralen Beitrag für die Qualitätsentwicklung von E-Learning unter Prozessperspektive
(„Prozessqualität“), d.h. hinsichtlich der Relation von Lernendem, Lernumgebung, Lerninhalt. Der Lernende und seine Handlungen werden zum zentralen Gegenstand der Analyse. Damit kommen Fragen der Interaktivität in den Fokus und besonders Fragen des
Potenzials von Prozessen der Rückkopplung und des Feedback zur Unterstützung von
Online-Lernprozessen. Die Kenntnis der konkreten Navigationsprozesse ist dabei die
Voraussetzung für differenzierte Rückmeldungen – personal sowie digital – und bildet
die Grundlage für Strategien der Mikro-Adaptation (vgl. [Le92]). Gerade neuere Entwicklungen wie Web 2.0, Social Software und Social Navigation versprechen neuartige
und vielfältige Möglichkeiten der Art, des Umfangs und des Zeitpunktes einer lernförderlichen Rückkopplung.
Bei Social Software und Social Navigation tritt der kooperative Aspekt des E-Learning
in den Vordergrund und geht damit weit über die 1 : 1 Situation eines isolierten Lerners
vor einem Computer hinaus: Lernen wird zunehmend als sozialer Prozess verstanden, als
Lernen in einer Gruppe und Lernen von einer Gruppe. Insbesondere stellt die Kenntnis
konkreter Navigationsprozesse und deren Analyse die Voraussetzung für die Entwicklung differenzierter pädagogisch-didaktischer Empfehlungssysteme als spezifische Form
lernförderlicher Rückkopplung dar. Analog zu amazon.de interpretiert ein Empfehlungssystem die Handlungen des Nutzers und gibt auf Grundlage dieser Interpretation Empfehlungen, die für den Nutzer hilfreich sind, d.h. ihn in seinem E-Learningprozess hilfreich unterstützen. Gegenwärtige Empfehlungssysteme auf der Grundlage von
Assoziationsanalysen sind vor allem aus dem Bereich des E-Commerce bekannt, z.B. als
Warenkorbanalyse . Dabei steht die Analyse von Nutzungsinformationen in Hinblick auf
gemeinsame Interesse der Nutzer im Vordergrund. Auf Grundlage dieser Warenkorbanalyse werden Kaufempfehlungen für Nutzer abgeleitet, wie dies z.B. bei amazon.de
als dynamisches Empfehlungssystem implementiert ist: „Kunden, die diesen Artikel
gekauft haben, kauften auch:“, „Kunden, die diesen Artikel angesehen haben, haben
auch angesehen:“, „Unser Vorschlag: Kaufen Sie jetzt diesen Artikel zusammen mit“.
Allerdings unterscheiden sich die Aktivitäten eines Käufers von denen eines Lernenden,
der Kaufprozess unterscheidet sich vom Lernprozess, das Ergebnis eines Lernprozesses
unterscheidet sich vom Ergebnis eines Kaufprozesses. Darüber hinaus bleibt z.B. die
Frage offen, ob ein pädagogisch-didaktisches Empfehlungssystem ähnliche Informationen vorschlägt – wie dies z.B. bei amazon.de der Fall ist – oder aber im Sinne einer
absichtsvollen Irritation abweichende bzw. konträre Informationen. Grundlage eines
solchen pädagogischen Empfehlungssystems ist jedoch in jedem Fall die Analyse und
Interpretation der Handlungen des Nutzers, des E-Learningprozesses.
Literaturverzeichnis
[AF86] Abbott, Andrew; Forrest, John: Optimal Matching Methods for Historical Sequences.
Journal of Interdisciplinary History, 1986, 16, 3; S. 471-494.
29
[Ai00]
Aisenbrey, Silke: Optimal Matching Analyse: Anwendungen in den Sozialwissenschaften. Leske und Budrich: Opladen, 2000.
[BM00] Bergmann, Jörg; Meier, Christoph: Elektronische Prozessdaten und ihre Analyse. In:
Flick, U.; Kardorff, E. von; Steinke, I. (Hrsg.): Qualitative Forschung: Ein Handbuch.
Reinbek: Rowohlt, 2000; S. 429-437.
[BC90] Berners-Lee, Tim; Cailliau, Robert: WorldWideWeb: Proposal for a HyperText Project.
<http://www.w3.org/Proposal.html>, 1990. [25.02.2007]
[BR02] Blossfeld, Hans-Peter; Rohwer, Götz: Techniques of event history modeling – new
approaches to causal analysis. Erlbaum: Mahwah, NJ., 2002, 2. edition.
[Eh02] Ehlers, Ulf-Daniel: Qualität beim eLearning. Der Lernende als Grundkategorie der Qualitätssicherung. In (Deutsche Gesellschaft für Erziehungswissenschaft, Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis der Medienbildung. Ausgabe
01/2002. <http://www.medienpaed.com/02-1/ehlers1.pdf>. [25.02.2007]
[Er01] Erzberger, Christian: Sequenzmusteranalyse als fallorientierte Analysestrategie. In
(Sackmann, R.; Wingens, M., Hrsg.): Strukturen des Lebenslaufs: Übergang – Sequenz –
Verlauf. Weinheim: Juventa, 2001; S. 135-162.
[Fl70] Flanders, Ned A.: Analyzing teaching behaviour. Addison-Wesley Publishing:. Reading,
Mass., 1970.
[Ha50] Hamming, R. W.: Error-Detecting and Error-Correcting. Bell System Technical Journal,
1950, 2; S. 147-160.
[Hö27] Hönigswald, Richard: Über die Grundlagen der Pädagogik: ein Beitrag zur Frage des
pädagogischen Universitäts-Unterrichts. Reinhardt: München, 1927; 2., überarbeitete
Auflage.
[HBM03]Höök, Kristina; Benyon, David; Munro, Alan J.: Designing Information Spaces: The
Social Navigation Approach. Springer: London, 2003.
[Is02]
Iske, Stefan: Vernetztes Wissen: Hypertext-Strategien im Internet. Bertelsmann: Bielefeld, 2002.
[Is07]
Iske, Stefan: Navigationsanalyse. Methodologie der Analyse von Prozessen der OnlineNavigation mittels Optimal-Matching. Dissertation, Universität Duisburg-Essen, 2007,
in Druck.
[IS05] Iske, Stefan; Swertz, Christian: Methodologische Fragen der Verwendung von Bild-,
Ton- und Textdaten zur Navigationsanalyse. In: Deutsche Gesellschaft für Erziehungswissenschaft (Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis der
Medienbildung. Ausgabe 01/2005. <www.medienpaed.com/04-1/iske_swertz04-1.pdf>.
[25.02.2007]
[KS99] Sankoff, D.; Kruskal, J. (Hrsg.): Time warps, string edits, and macromolecules: the
theory and practice of sequence comparison. Stanford: CSLI., 2. edition.
[Ku91] Kuhlen, Rainer: Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank.
Springer: Berlin, 1991.
[La97] Landow, George P.: Hypertext 2.0: Hypertext - the convergence of contemporary critical
theory and technology. Johns Hopkins Univ. Press: Baltimore, 1997.
[Le92] Leutner, Detlev: Adaptive Lehrsysteme - instruktionspsychologische Grundlagen und
experimentelle Analysen. Weinheim: Psychologie-Verlags-Union, 1992.
[Le66] Levenshtein, Vladimir. I.: Binary codes capable of correcting deletions, insertions, and
reversals. Cybernetics and Control Theory, 1966, 10, 8; S. 707-710.
[Me03] Meder, Norbert Grundlagen zu einer Theorie der Didaktik. In (Schlüter, Anne, Hrsg.):
Aktuelles und Querliegendes zur Didaktik und Curriculumentwicklung. Bielefeld: Janus
Presse, 2003; S. 34-47.
[Me06] Meder, Norbert: Web-Didaktik: eine neue Didaktik webbasierten vernetzten Lernens.
Bertelsmann: Bielefeld, 2006.
30
[Pr04]
Priemer, Burkhard: Logfile-Analysen: Möglichkeiten und Grenzen ihrer Nutzung bei
Untersuchungen zur Mensch-Maschine-Interaktion. In (Deutsche Gesellschaft für Erziehungswissenschaft, Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis
der Medienbildung, 2004.
<http://www.medienpaed.com/04-1/priemer1.pdf>.
[25.02.2007]
[SWH01] Sackmann, Reinhold; Wingens, Matthias; Heinz, Walter R. (Hrsg.): Strukturen des
Lebenslaufs: Übergang - Sequenz - Verlauf. Weinheim: Juventa-Verlag, 2001.
[Wi01] Windzio, Michael: Übergänge und Sequenzen. Der Einfluss von Arbeitslosigkeit auf den
weiteren Erwerbsverlauf. In (Sackmann, R.; Wingens, M., Hrsg.): Strukturen des Lebenslaufs: Übergang - Sequenz - Verlauf. Weinheim: Juventa, 2001; S. 163-198.
Abbildungen
Abbildung 1: Vergleich Sequenz 1 und 2
Abbildung 2: Vergleich Sequenz 1 und 3
Abbildung 3: Vergleich Sequenz 2 und 3
Abbildung 3: Vergleich Sequenz 2 und 3
31
Abbildung 4: Gruppierung ähnlicher Navigationsverläufe mittels Optimal-Matching
32
EDL-Editor: Eine Anwendung zur automatischen
Aufbereitung von Vorlesungsvideos
Stephan Kopf, Fleming Lampi, Thomas King, Malte Probst, Wolfgang Effelsberg
Lehrstuhl für Praktische Informatik IV
Universität Mannheim
68159 Mannheim
{kopf, lampi, king, effelsberg}@informatik.uni-mannheim.de
malte.probst@googlemail.com
Abstract: In immer mehr Lehrveranstaltungen werden Vorlesungsmitschnitte den
Studierenden als ergänzendes Lehrmaterial zur Verfügung gestellt. Ein wesentlicher Nachteil bei der Erzeugung von Vorlesungsvideos ist der hohe personelle
Aufwand, den das Überarbeiten und Schneiden des Rohmaterials verursacht. Dabei
sollte das Schneiden der Videos vorlesungsübergreifend erfolgen, da ein Kapitel
häufig am folgenden Vorlesungstermin wieder aufgegriffen wird. In diesem Artikel wird die neue Anwendung EDL-Editor (Edit Decision List) vorgestellt, die es
ermöglicht, den manuellen Aufwand bei der Erstellung von Vorlesungsvideos zu
minimieren. Im Regelfall beschränkt sich die Tätigkeit eines Benutzers auf die
Kontrolle der automatisch ermittelten Schnittpositionen in den Videos. Falls der
Algorithmus Schnitte an ungeeigneten Stellen vorschlägt und Korrekturbedarf besteht, wird durch die Anwendung gleichzeitig ein effizientes Editieren der Schnittlisten ermöglicht.
1
Einleitung
In immer mehr Lehrveranstaltungen an Universitäten werden nicht nur Vorlesungsfolien
und Übungsmaterialien den Studierenden zur Verfügung gestellt, sondern auch die Möglichkeit geboten, auf Vorlesungsvideos zuzugreifen. Studierende nutzen zunehmend die
digitalen Aufzeichnungen, um sich Inhalte auch außerhalb der Vorlesungszeiten anzueignen. Zusätzlich begrüßen viele Studierende die Möglichkeit, speziell zur Vorbereitung auf Klausuren, einzelne Themen nochmals intensiv mit Hilfe von Vorlesungsmitschnitten verinnerlichen zu können.
Das regelmäßige Aufzeichnen von Vorlesungen führt während eines Semesters jedoch
zu einem erheblichen personellen Aufwand. Sofern die Vorlesungsfolien als Bildinhalte
verwendet werden, welche mit dem Ton des Dozenten unterlegt sind, erfolgt die Digitalisierung – abgesehen vom Start und Stopp der Aufzeichnung – automatisch.
Um sowohl thematisch abgeschlossene als auch kurze Lerneinheiten zu erhalten, sollte
das Rohmaterial des aufgezeichneten Videos nicht ohne ein Editieren veröffentlicht
33
werden. Daher wird die Vorlesung in einem zweiten Schritt aufbereitet und geschnitten.
Bei der Aufbereitung ist insbesondere eine Einteilung in Kapitel erforderlich, damit die
Studierenden schneller auf gewünschte Vorlesungen zugreifen können. Da eine Vorlesung im Allgemeinen nicht eine einzelne thematische Einheit behandelt, muss das Rohmaterial korrekt geschnitten und anschließend passend – d. h. ggf. vorlesungsübergreifend – zusammengefügt werden, so dass der Vorlesungsstoff innerhalb eines
aufbereiteten Videos eine semantisch zusammenhängende Einheit bildet. Langfristig
betrachtet erzeugt dieser Arbeitsschnitt bisher einen hohen personellen Aufwand. Die
weiteren Schritte, wie beispielsweise die Kodierung in unterschiedliche Videoformate
oder die Veröffentlichung der Vorlesungsvideos im Web lassen sich vollständig automatisiert realisieren [LKE06].
In diesem Artikel stellen wir ein neu entwickeltes Verfahren zum automatischen Schneiden von Vorlesungsvideos vor. Obwohl bestehende Systeme einzelne Schritte bei der
Veröffentlichung von Vorlesungsvideos automatisieren [Ha05], existiert kein System,
das für unsere Zwecke ohne größere Anpassungen geeignet ist und insbesondere das
automatische Erstellen von Schnittlisten und das Schneiden der Vorlesungsvideos übernimmt. Das Authoring-on-the-Fly-System (AOF) ist ein komplexes System zur Aufzeichnung und Übertragung von Lehrveranstaltungen sowie zur Erzeugung multimedialer Lerneinheiten [OL02]. Um eine Synchronisation der multimedialen Dokumente zu
erreichen, wurde ein eigenes Format zur Speicherung entwickelt. Ein ähnlicher Ansatz
wurde für das Lecturnity-System gewählt [Lec07], welches die Erzeugung von multimedialen Lernanwendungen anhand von PowerPoint-Präsentationen ermöglicht, wobei
Animationen oder eingeblendete Videos nicht unterstützt werden.
Bei der von uns entwickelten Anwendung soll die Aufzeichnung auf Notebooks mit
beliebiger Präsentationssoftware wie beispielsweise PowerPoint, Acrobat Reader oder
Open Office Impress möglich sein. Auf dem Präsentationsrechner ist lediglich eine Capture-Anwendung zur Erzeugung eines Videos aus der Audiospur und dem Bildschirminhalt erforderlich. Animationen, Folienübergänge, Videoeinblendungen und Anmerkungen des Dozenten auf den Folien werden erfasst, wobei auch andere Anwendungen wie
beispielsweise JAVA-Applets während einer Vorlesung gestartet werden können.
Da insbesondere bei gering strukturierten Vorlesungen einzelne Fehler bei der Erkennung von Schnittpositionen nicht ausgeschlossen werden können, wird im Folgenden die
von uns entwickelte und intuitiv zu bedienende Benutzeroberfläche des Programms
EDL-Editor (Edit Decision List) vorgestellt, die ein manuelles Bearbeiten und Korrigieren der automatisch identifizierten Schnittpositionen effizient ermöglicht. Schnittpositionen im Rohmaterial können einfach verschoben, gelöscht oder hinzugefügt werden.
Im nächsten Abschnitt werden zunächst Anforderungen an ein Programm zum automatischen Schneiden von Vorlesungsvideos vorgestellt und die Struktur der entwickelten
Anwendung erläutert. Abschnitt 3 geht auf die Funktionalitäten und neuen Algorithmen
zur Ermittlung von semantischen Inhalten in Videos ein. Die Anwendung EDL-Editor
wird in Abschnitt 4 vorgestellt. Auf Erfahrungen, die wir beim automatischen Schneiden
von Vorlesungsvideos gewonnen haben, gehen wir in Abschnitt 5 ein. Abschließend
werden die gewonnenen Ergebnisse zusammengefasst und ein Ausblick gegeben.
34
2
Aufbau des Systems EDL-Editor
Schon seit mehreren Jahren werden Vorlesungen des Hauptstudiums an unserem Lehrstuhl aufgezeichnet und den Studierenden als Video zur Verfügung gestellt. Obwohl der
Ressourcenbedarf recht hoch ist, bieten Videos deutliche Vorteile gegenüber einer Speicherung der Vorlesung in Form von Einzelbildern. Einerseits werden schriftliche Anmerkungen des Dozenten / der Dozentin auf den Folien im Zeitablauf erfasst, andererseits sind Sprache und Vorlesungsfolien synchron. Ein weiterer ganz wesentlicher
Vorteil besteht darin, dass keine spezielle Anwendung zur Wiedergabe der Vorlesungen
erforderlich ist, da jeder PC und die meisten mobilen Geräte die Wiedergabe von Videos
unterstützen. Da innerhalb der Universität und auch bei vielen Studierenden zu Hause
breitbandige Internetverbindungen zur Verfügung stehen, führt der erhöhte Speicherbedarf zu keiner wesentlichen Einschränkung bei der Nutzung der Vorlesungsvideos. Zudem stehen zusätzlich Vorlesungsvideos für eine sehr geringe Bandbreite zur Verfügung,
für die nur ISDN-Verbindungen erforderlich sind.
Um eine Vorlesung aufzuzeichnen, muss der Dozent zu Beginn die Aufzeichnung starten
und diese am Ende stoppen. Ab dem Startzeitpunkt werden der Bildschirm des Dozenten
und der Ton, der über die Lautsprecher der Vorlesungssaals übertragen wird, als Video
komprimiert und gespeichert. In früheren Vorlesungen wurde das Video anschließend
manuell geschnitten, um beispielsweise den Vor- oder Nachlauf, der keine Vorlesungsinhalte enthält, zu entfernen. Zudem sollen die Videos kapitelweise im Web veröffentlicht werden, so dass beim Start eines neuen Kapitels innerhalb einer Vorlesung ein
Schneiden des Rohmaterials sowie ein Zusammenfügen zweier aufeinander folgender
Vorlesungen erforderlich sein kann. Im letzten Schritt, der ebenfalls vollständig automatisch abläuft [LKE06], werden die geschnittenen Videos mit unterschiedlichen Profilen
kodiert und im Web den Studierenden zugänglich gemacht. Die Profile unterscheiden
sich im Wesentlichen in ihren Bitraten, den Bildauflösungen und den verwendeten Videocodecs, um die Anforderungen unterschiedlicher Endgeräte zu erfüllen.
Das manuelle Editieren der aufgezeichneten Videos ist mit einem hohen Zeitaufwand
verbunden. Im Folgenden wird unser neues System vorgestellt, das alle Bearbeitungsschritte, die für eine Veröffentlichung von Videos erforderlich sind, automatisch und
ohne Benutzerinteraktion durchführen kann. Da Fehler bei der rechnergestützten Aufbereitung von Vorlesungsvideos nie vollständig ausgeschlossen werden können, wird zusätzlich über eine intuitiv zu bedienende Benutzeroberfläche die Möglichkeit gegeben,
Korrekturen an den festgelegten Schnittpositionen vorzunehmen.
Die Anwendung EDL-Editor stellt zwei grundlegende Funktionalitäten zur Verfügung.
Um geeignete Schnittpositionen automatisch in einem Video zu identifizieren, erfolgt in
einem ersten Schritt die Analyse des Rohmaterials. Weiterhin wird die Arbeit eines Anwenders durch eine grafische Benutzeroberfläche unterstützt, welche die bereitgestellten
Funktionen optisch ansprechend dargestellt und eine schnelle Interaktion ermöglicht.
Mehrere zentrale Arbeitsschritte sind bei der automatischen Analyse von Vorlesungsvideos erforderlich. Diese bauen aufeinander auf und können nur in der angegebenen Reihenfolge durchgeführt werden:
35
Eine Erkennung von Folienübergängen wird durch die Suche von harten Schnitten
in den Vorlesungsvideos realisiert.
Die Erkennung eines neuen Kapitels erfolgt durch Analyse der Kapitelnummerierung mittels Texterkennung in den Videos.
Unterbrechungen der regulären Vorlesung wie beispielsweise eine Fragerunde oder das Abspielen externer Dokumente (Audio, Video, Animationen) werden
durch eine Änderung des Layouts identifiziert.
Anhand der Folienänderungen, Kapitelübergängen und der Zuordnung von Unterbrechungen werden Schnittpositionen in den Rohvideos festgelegt. Dabei müssen
auch Vorlesungen an aufeinander folgenden Vorlesungsterminen kombiniert werden, sofern diese dasselbe Thema behandeln.
Der letzte Schritt bei der automatischen Aufbereitung von Vorlesungsvideos umfasst das Schneiden, Zusammenfügen und Exportieren der Videos in vordefinierte
Formate. Nach dem Upload der aufbereiteten Videos stehen diese den Studierenden im Web zur Verfügung.
3
Ermittlung semantischer Inhalte in Vorlesungsvideos
Damit ein automatischer Schnitt von Vorlesungsvideos möglich ist, müssen wichtige
semantische Informationen innerhalb von Vorlesungsvideos automatisch, d. h. ohne
Benutzerinteraktionen, identifiziert werden können. Im Folgenden wird auf die vier
zentralen Schritte, die beim automatischen Schneiden von Vorlesungsvideos erforderlich
sind, näher eingegangen.
3.1
Erkennung von Schnitten in Vorlesungsvideos
Ein Vorlesungsvideo wird vom Rechner als ein sequentielles, unstrukturiertes Medium
interpretiert. Um weitere Analyseschritte innerhalb eines Videos zu ermöglichen, ist
zunächst eine Segmentierung des Mediums erforderlich. Bei einer Kameraeinstellung
handelt es sich um eine kontinuierliche Aufnahme; die direkten Übergänge zwischen
Kameraeinstellungen werden als harte Schnitte bezeichnet. Bei Vorlesungsvideos, in
denen die präsentierten Folien mit der Audiospur des Dozenten unterlegt sind, wird eine
Kameraeinstellung durch die Dauer der Einblendung einer Folie charakterisiert.
Das menschliche Gehirn kann Übergänge zwischen Kameraeinstellungen ohne große
Mühe direkt erkennen. Eine manuelle Segmentierung von Videos ist jedoch mit einem
hohen zeitlichen Aufwand verbunden und für ein effizientes Aufbereiten von Vorlesungsvideos ungeeignet.
Eine Vielzahl von Algorithmen zur automatischen Erkennung von Schnitten wurden die
letzten Jahre entwickelt [KC00, Ne05]. Die zentrale Idee der automatischen Schnitterkennungsverfahren besteht darin, Unterschiede zwischen aufeinander folgenden Bildern
36
eines Videos zu bewerten. Dabei liegt die zentrale Annahme zugrunde, dass Unterschiede innerhalb einer Kameraeinstellung relativ gering sind und ein Schnitt zu einer starken
Bildänderung führt.
Bildänderungen innerhalb eines Vorlesungsvideos sind auf Folienübergänge, auf eine
Unterbrechung der Präsentation oder auf schriftliche Anmerkungen des Dozenten auf
den Folien zurückzuführen. Ziel der Schnitterkennung soll es im Folgenden sein, einen
Wechsel zu einer anderen Folie oder eine Unterbrechung der Präsentation zu identifizieren. Schriftliche Anmerkungen des Dozenten auf den Folien sollen jedoch nicht als
Schnitt identifiziert werden. Um eine mögliche Schnittposition zu erkennen, werden
jeweils zwei aufeinander folgende Einzelbilder im Video miteinander verglichen. Übersteigt der Unterschied einen vordefinierten Schwellwert, so wird ein Schnitt zwischen
den beiden Bildern angenommen.
Bei der Analyse von Vorlesungsvideos kombinieren wir zwei Verfahren, um die Zuverlässigkeit der Schnitterkennung zu erhöhen. Die Summe der absoluten Differenzen der
Pixel zweier Bilder liefert zunächst Kandidaten für mögliche Schnitte. In einem zweiten
Schritt werden jeweils zwei Bilder in gleichgroße Regionen unterteilt und Histogrammdifferenzen für die entsprechenden Regionen berechnet. Die Region mit der größten
Histogrammdifferenz bleibt dabei unberücksichtigt, da angenommen wird, dass schriftliche Anmerkungen des Dozenten in dieser Bildregion durchgeführt wurden. Durch einen
Vergleich der übrigen Histogrammdifferenzen mit einem Schwellwert können die korrekten Schnittpositionen in Vorlesungsvideos äußerst zuverlässig identifiziert werden.
Die erkannten Schnitte werden für jedes analysierte Vorlesungsvideo als Metadaten
gespeichert. Folgende Analyseschritte können so effizient auf die Ergebnisse der Schnitterkennung zurückgreifen, so dass auch bei einer Anpassung von Parametern eine erneute Analyse der Schnitte nicht mehr erforderlich ist.
3.2
Einsatz der Texterkennung zur Identifikation von Kapitelübergängen
Nach der Erkennung von Folienübergängen werden in einem zweiten Schritt Textinformationen analysiert und ausgewertet. Dabei wird die Annahme getroffen, dass Kapitelnummern und Foliennummern an fest definierten Bildpositionen innerhalb der Vorlesungsfolien sichtbar sind. Bei den analysierten Vorlesungsvideos sind insbesondere zwei
Bildregionen relevant. Die Titelzeile im oberen Bereich des Bildes enthält häufig Kapitelnummern. Weiterhin liefert die Foliennummer, die häufig im unteren Bildbereich
eingeblendet ist, die Information, ob ein Folienwechsel in Vorwärtsrichtung oder ob ein
Rücksprung auf die vorherige Folie durchgeführt wurde. Die Bildpositionen der Titelzeile und der Foliennummer sind innerhalb der Anwendung frei konfigurierbar und müssen
einmalig pro Semester für jede Vorlesung festgelegt werden.
Falls keine Textinformationen in den spezifizierten Bildbereichen erkannt werden, so
deutet dies auf den Vor- oder Nachlauf des Rohvideos bzw. auf eine Unterbrechung der
Präsentation hin. Speziell in Vorlesungsvideos bleiben Texte über einen längeren Zeitraum sichtbar, so dass es ausreicht, Texterkennungsalgorithmen auf nur einem Bild einer
Kameraeinstellung anzuwenden.
37
Abbildung 1: Beispiel für vier Kameraeinstellungen innerhalb eines Vorlesungsvideos.
Die analysierten Textregionen werden rechts dargestellt.
Abbildung 1 zeigt beispielhaft vier Bilder unterschiedlicher Kameraeinstellungen. Die
erste Kameraeinstellung wurde vor Beginn der eigentlichen Vorlesung aufgezeichnet
und soll nicht Bestandteil des aufbereiteten Videos sein. In den anderen Bildern werden
sowohl Kapitelüberschriften als auch Foliennummerierungen erkannt. Beispielhaft werden im rechten Bereich die Bildregionen, die bei der Texterkennung analysiert werden,
verdeutlicht.
Vor der eigentlichen Texterkennung ist eine Segmentierung der einzelnen Buchstaben
erforderlich. Speziell bei Vorlesungsvideos liefert die Segmentierung recht zuverlässige
Ergebnisse, da ein hoher Kontrast zwischen den Buchstaben und dem Hintergrund besteht. Um einzelne Segmentierungsfehler zu vermeiden, besteht innerhalb der Anwendung die Möglichkeit, die Text- und Hintergrundfarbe manuell zu spezifizieren. Die
Festlegung der Farben ist für jede Vorlesungsreihe nur einmal erforderlich.
Wir haben ein neues Segmentierungsverfahren entwickelt, das insbesondere bei geringen
Abständen zwischen einzelnen Buchstaben zu sehr zuverlässigen Ergebnissen führt
[KHE05]. Dabei werden vor der eigentlichen Segmentierung Trenner zwischen den
einzelnen Buchstaben identifiziert, um zu vermeiden, dass zwei Buchstaben kombiniert
werden bzw. dass ein Buchstabe unterteilt wird. Zur Bestimmung der Trenner wird innerhalb der Textzeile ein abwärts gerichteter Pfad zwischen zwei Buchstaben gesucht.
Von jedem Pixel in der obersten Pixelzeile wird ein Pfad zur untersten Pixelzeile mit den
jeweils geringsten Kosten berechnet. Die Kosten des Pfades sind definiert als summierte
Pixeldifferenzen zwischen benachbarten Pfadpixeln. Der Pfad mit den geringsten Kosten
schneidet nur selten Buchstabenpixel und eignet sich somit gut als Trenner von Buchstaben. Dabei wird der Kürzeste-Pfade-Algorithmus für Graphen von Dijkstra verwendet,
um die Trenner zu bestimmen. Jedes Pixel entspricht einem Knoten, der mit drei Nachbarpixeln (links-unten, rechts-unten und unten) verbunden ist. Die Kosten, um von ei-
38
nem Knoten zum nächsten zu gelangen, sind definiert als absolute Helligkeitsdifferenz
dieser beiden Pixel.
Die eigentliche Texterkennung erfolgt durch ein Pattern-Matching-Verfahren [GS90,
TJT96]. Dazu werden die einzelnen segmentierten Buchstaben mit bekannten Buchstaben verglichen und das Zeichen mit der größten Übereinstimmung identifiziert. Als
Ergebnis der Texterkennung werden ASCII-Zeichen als Metadaten gespeichert und
stehen für die weiteren Analyseschritten zur Verfügung.
3.3
Erkennung von Sequenzen
Zur Erkennung von Sequenzen werden redundante Informationen aus den Metadaten
entfernt. So ist es beispielsweise für die weitere Bearbeitung eines Vorlesungsvideos
nicht erforderlich zu wissen, wie viele Inhaltsfolien auf einen Kapitelanfang folgen.
Obwohl die Informationen über Folienanfänge zum Schneiden des Videos nicht benötigt
werden, sind sie jedoch für eine schnelle Navigation innerhalb des Videos erforderlich.
Zunächst werden iterativ aus der Liste mit allen Kameraeinstellungen gleichartige Einträge entfernt. Innerhalb der analysierten Videos wurden drei Arten von Einträgen definiert: der Anfang eines Kapitels, eine Inhaltsfolie, die jedoch kein neues Kapitel einleitet, sowie unbekannter Inhalt. Unbekannte Vorlesungsinhalte sind beispielsweise
eingeblendete Filme oder Animationen. Weiterhin werden regelmäßig interaktive Dienste zur Steigerung der Kommunikation mit den Studierenden während den Vorlesungen
eingesetzt [Ko05].
Das Entfernen der doppelten Einträge liefert eine Sequenzliste, anhand derer die endgültigen Schnittpositionen festgelegt werden. Jeder Eintrag wird anhand seiner Vorgängers
und Nachfolgers entweder als neues Teilstück identifiziert oder an das vorangegangene
Teilstück angehängt. Die Entscheidung erfolgt durch den folgenden regelbasierten Ansatz:
Falls ein neues Kapitel anhand einer höheren Kapitelnummer im Folientitel gefunden wird, so wird ein neuer Abschnitt festgelegt.
Unbekannte Inhalte innerhalb des Vorlesungsvideos werden dem davor liegenden
Abschnitt zugeordnet.
Unbekannte Inhalte am Anfang oder Ende eines Videos werden verworfen.
Da eine Vorlesung nicht immer einem starren Schema folgt, war es notwendig eine
Mehrzahl an Sonderfällen zu berücksichtigen:
In der Praxis tritt es wiederholt auf, dass der Dozent / die Dozentin am Ende eines
Kapitels auf die nächste Folie wechselt, obwohl das Thema noch nicht vollständig
abgeschlossen ist. Häufig erfolgt dann ein Rücksprung auf das vorherige Themengebiet innerhalb weniger Sekunden. Ein kurzes Verweilen auf einer neuen Folie
wird nicht als Kapitelanfang erfasst.
39
Vor dem eigentlichen Beginn einer Vorlesung wurde wiederholt beobachtet, dass
der Dozent / die Dozentin den Foliensatz öffnet und im Schnelldurchlauf bis zur
eigentlichen Startfolie wechselt. Falls sehr schnelle Folienwechsel zu Beginn einer
Vorlesungsaufzeichnung identifiziert werden, so werden diese entfernt.
3.4
Schneiden der Videos
Der automatische Schnitt der Vorlesungsvideos erfolgt mit Hilfe des FreewareProgramms VirtualDub [Le05], das ein Unterteilen und Zusammenfügen von Videos
ohne erneute Kodierung und dem damit verbundenen Qualitätsverlust ermöglicht. Zunächst werden die ursprünglichen Videos an den identifizierten Schnittpositionen in
Videosegmente unterteilt. Falls Kapitelinhalte vorlesungsübergreifend behandelt werden,
ist ein Zusammenfügen von einzelnen Videosegmenten erforderlich. Dazu werden alle
Videosegmente in lexikographischer Reihenfolge bearbeitet und später aufgezeichnete
Dateien, die dasselbe oder ein niedrigeres Kapitel im Vergleich zum aktuellen Videosegment besitzen, werden an die aktuelle Datei angehängt.
4
Ablauf der automatischen Bearbeitung von Vorlesungsvideos
Neben den Funktionen zur Analyse von Vorlesungsvideos wurde eine grafische Benutzeroberfläche entwickelt, um die automatisch berechneten Daten effizient verändern zu
können. Dies ist erforderlich, da die Analysealgorithmen vereinzelt Schnittpositionen
falsch festlegen, die Texterkennung vereinzelt Buchstaben falsch erkennt oder spezielle
Abläufe in Vorlesungen auftreten können, die bisher nicht berücksichtigt wurden und
manuell korrigiert werden sollten. Weiterhin erleichtert die Benutzeroberfläche die Konfiguration der Anwendung, wie beispielsweise die Definition der Schrift- und Hintergrundfarben, der Position der Textregionen, die Quell- und Zielverzeichnisse, die Parameter für die Schnitterkennungsalgorithmen sowie die Pfade für die externen
Hilfsprogramme.
Abbildung 2 verdeutlicht den Aufbau der Anwendung. Es können drei Ansichten – Input, Output und Schnittkontrolle –gewählt werden. Unter Input wird der Fortschritt der
einzelnen Analyseschritte verdeutlicht, bei denen eine Liste von Quellvideos in geschnittene Teilvideos überführt wird. Mehrere Rohvideos können gleichzeitig ausgewählt
werden und der Fortschritt der einzelnen Algorithmen wird für jede Datei angezeigt (vgl.
Abbildung 3, unten). Zusätzlich ist es möglich einzelne, alle oder die noch erforderlichen
Analyseschritte manuell zu starten. Falls ein Benutzer einen Analyseschritt direkt startet,
kann er zusätzlich festlegen, ob vorherige Schritte erneut berechnet werden sollen. Der
aktuelle Fortschritt bei der Analyse der aktuellen Datei und der Fortschritt aller ausgewählter Dateien wird zusätzlich angezeigt.
Unter der Ansicht Output sind die Funktionalitäten zum Zusammenfügen von Videosegmenten und der Speicherung der überarbeiteten Videos im Zielverzeichnis zusammengefasst. Weiterhin besteht die Möglichkeit, die geschnittenen Videosegmente mit
Hilfe eines eingebetteten Windows Media Players zu betrachten.
40
Abbildung 2: Einsatz des EDL-Editors beim automatischen Schneiden von Videos
Eine dritte Ansicht ermöglicht ein nachträgliches Korrigieren der automatisch ermittelten Sequenzlisten. Da nicht sichergestellt werden kann, dass Fehlinterpretationen in
einzelnen Videosegmenten auftreten, wurde die Möglichkeit der manuellen Korrektur
eingefügt. Jede Schnittinformation wird dabei innerhalb einer Textzeile beschrieben und
kann editiert werden. Zudem wurde der Windows Media Player erweitert, so dass eine
auf Einzelbildern basierte Navigation im Video möglich ist.
5
Erfahrungen bei der automatischen Aufbereitung von Vorlesungsvideos
Die Anwendung EDL-Editor wurde mit Hilfe eines Trainingsdatensatzes von sechs
aufeinander folgenden Vorlesungen im Fach Computer Networks entwickelt. Die Rohvideos wurden zunächst manuell analysiert und die sinnvollen Schnittpositionen per
Hand ermittelt. Anschließend wurde die Programmlogik zur automatischen Festlegung
der Sequenzliste spezifiziert. In mehreren Iterationen wurden anschließend die Sonderfälle analysiert und die neuen Verfahren zur automatischen Bestimmung korrekter
Schnittpositionen festgelegt.
41
Nach der Fertigstellung der Anwendung erfolgte ein ausführlicher Test der Funktionalität mit einer unbekannten Folge von Vorlesungsvideos aus dem Wintersemester 2006.
Im Vergleich zu den Trainingsdaten wurden Vorlesungen des gleichen Dozenten in
einem anderen Studienfach (Multimedia Technology) aufbereitet. Die automatische
Analyse einer Stunde Vorlesungsvideos benötigt ungefähr 10 Minuten Rechenzeit auf
einem aktuellen PC. Besonders erfolgreich ist zu bewerten, dass nur sehr selten ein manueller Eingriff erforderlich war. Auch beim Zusammensetzen der Teilstücke wurden
nur selten Fehler beobachtet.
Bei den Analysealgorithmen liegt der Anteil der korrekt erkannten Kameraeinstellungen
bei nahezu 100 Prozent. Da die Bildqualität und Bildauflösung bei Vorlesungsvideos
deutlich unter der Qualität von eingescannten Textdokumenten liegt, treten bei der Texterkennung wesentlich höhere Fehlerraten auf. Dennoch ist die korrekte Zuordnung von
Kapitelanfängen in den meisten Fällen möglich.
Im Folgenden werden noch einzelne Beobachtungen erläutert und Ursachen für mögliche Fehler vorgestellt, die beim Testen der Anwendung beobachtet wurden. Da EDLEditor eine Korrektur der automatisch ermittelten semantischen Informationen effizient
unterstützt, sind die einzelnen Beobachtungen kein echtes Hindernis für den Einsatz von
EDL-Editor.
Bei einer Änderung der Bildauflösung des Rohvideos sollten die Programmparameter wie beispielsweise die Positionen der Textregionen umgehend angepasst
werden, da sonst der Einsatz von EDL-Editor zu ungewünschten Ergebnissen
führt.
Innerhalb des EDL-Editors werden Vorlesungsfolien mit ein- oder zweistufiger
Nummerierungsstufe unterstützt. Es wurde bewusst darauf verzichtet, Unterkapitel
mit mehr als zwei Nummerierungsstufen zu erkennen, da bei drei Nummerierungsstufen zum Teil sehr kurze geschnittene Ergebnisvideos mit einer Länge von nur
wenigen Minuten entstehen.
Bisher wurde die Auswertung der Vorlesungsaufzeichnungen auf die Videospur
beschränkt, da sie in fast immer ausreichend genaue Informationen zum Schnitt
der Videos liefert. Eine Analyse der Audiospur erfolgt im bisherigen System noch
nicht. Speziell am Anfang oder Ende einer Vorlesung könnte die Audiospur wichtige Hinweise zur Schnittposition liefern, indem beispielsweise die Stimme des
Dozenten identifiziert wird.
Auch bei einem Vorwärts- und Rückwärtssprung zwischen zwei Kapiteln lässt
sich anhand der Bildinhalte nicht sicher ableiten, ob der Dozent gerade das vergangene Kapitel wiederholt oder schon auf das nächste Kapitel eingeht. Fehler
können jedoch durch die manuelle Schnittkontrolle ohne großen Aufwand korrigiert werden.
Weiterhin wurde die Annahme getroffen, dass Kapitel mit höheren Nummern nach
niedrigeren behandelt werden. Falls der Dozent in der Vorlesung eine andere Reihenfolge wählt, würde das Video fehlerhaft geschnitten und kombiniert.
42
Unbekannte Inhalte einer Vorlesung wie z. B. Videoeinblendungen, Animationen
oder interaktive Dienste werden nicht immer zuverlässig dem korrekten Videosegment zugeordnet. Falls beispielsweise ein Video ein neues Kapitel einführt,
würde das Videosegment fälschlicherweise dem vorherigen Segment zugeordnet.
Auch im Vor- oder Nachlauf einer Videoaufzeichnung werden unbekannte Inhalte
nicht korrekt zugeordnet. In diesen Fällen ist jedoch durch die manuelle Änderung
eine schnelle Korrektur möglich.
Um eine Verschlechterung der Qualität eines Videos durch erneute Kodierung zu
vermeiden, ist ein Schnitt eines Videos nur zu Beginn einer Group of Pictures
(GOP) innerhalb des Videostroms zulässig. Abhängig von dem verwendeten Video-Codec ist dadurch eine Verschiebung der korrekten Schnittposition um mehrere Einzelbilder bis zu wenigen Sekunden möglich. Diese Fehler werden beim Betrachten jedoch nicht als störend empfunden.
6
Fazit und Ausblick
Obwohl es sich beim Schneiden von Vorlesungsvideos um einen komplexen mehrstufigen Prozess handelt, wird das zentrale Ziel, den manuellen Aufwand zur Aufbereitung
und Veröffentlichung von Vorlesungsvideos signifikant zu reduzieren, mit Hilfe des
vorgestellten Systems EDL-Editor erreicht. Die von uns entwickelte Anwendung extrahiert in mehreren Schritten Informationen aus den Vorlesungsvideos. Nach der Erkennung von Kameraeinstellungen werden Kapitelgrenzen mit Hilfe von Texterkennungsalgorithmen identifiziert und Regeln abgeleitet, um geeignete Schnittpositionen zu
spezifizieren. Falls Fehler bei der automatischen Berechnung auftreten, stellt die Benutzeroberfläche Möglichkeiten zu einer einfachen Korrektur und Anpassung der Schnittpositionen zur Verfügung.
Der manuelle Aufwand bei der Erstellung von Vorlesungsvideos lässt sich durch das
vorgestellte System erheblich reduzieren. In den meisten Fällen ist lediglich eine kurze
Überprüfung der automatisch geschnittenen Vorlesungen erforderlich. Nur in Ausnahmefällen ist eine manuelle Korrektur erforderlich, die mit Hilfe des Benutzerinterface
sehr effizient durchgeführt werden kann. Um eine genauere Klassifikation der Vor- und
Nachlaufs der Vorlesung zu ermöglichen, ist eine Weiterentwicklung von EDL-Editor
geplant, die eine Auswertung charakteristischer Merkmale der Audiospur ermöglicht.
Mit den heute existierenden Verfahren zur Analyse von Videos ist ein vollständiges
Verständnis eines Vorlesungsvideos nicht möglich. Auch für einen Menschen existieren
häufig mehrere vergleichbare Möglichkeiten zum Schneiden von Vorlesungsvideos, so
dass es die „perfekte“ Lösung nicht gibt. Wenn ein Benutzer Änderungswünsche an der
automatisch getroffenen Auswahl an Schnittpositionen wünscht, kann er diese komfortabel und effizient durchführen.
43
Literaturverzeichnis
[GS90] Govindan, V. K. und A. P. Shivaprasad: Character recognition - a review. In: Pattern
Recognition, Bd. 23 (7), S. 671–683, July 1990.
[Ha05] Hartle, M., H. Bär, Ch. Trompler und R. Rößling: Perspectives for Lecture Videos. 11th
International Euro-Par Conference, 901-908, Lisbon, Portugal, 2005.
[KC00] Koprinska, I. und S. Carrato: Temporal video segmentation: A survey, Signal Processing: Image Communication, Vol. 16, Issue 5, Pages 477-500, January 2001.
[KHE05] Kopf, S., T. Haenselmann und W. Effelsberg: Enhancing Curvature Scale Space Features
for Robust Shape Classification, Proc. of IEEE International Conference on Multimedia
and Expo (ICME), Amsterdam, The Netherlands, July 2005.
[Ko05] Kopf, S., N. Scheele, L. Winschel und W. Effelsberg: Improving Activity and Motivation of Students with Innovative Teaching and Learning Technologies, Methods and
Technologies for Learning, Palermo, Italy, April 2005.
[LKE06] Lampi, F., S. Kopf und W. Effelsberg: Mediale Aufbereitung von Lehrveranstaltungen
und ihre automatische Veröffentlichung - Ein Erfahrungsbericht, Proc. of DeLFI 2006 –
Die 4. e-Learning Fachtagung Informatik der Gesellschaft für Informatik, 11-14, Darmstadt, Germany, September 2006.
[Lec07] LECTURNITY – das führende Rapid Authoring Tool, http://www.im-c.de/Produkte/
Rapid-Authoring-Tool/, last checked: 06/2007.
[Le05] Lee, A.: VirtualDub scripting language reference, v0.7, http://www.virtualdub.org/
docs/vdscript.txt, 2005, last checked: 03/2007.
[Ne05] Nesvadba, J. F. Ernst, J. Perhavc, J. Benois-Pineau und L. Primaux: Comparison of shot
boundary detectors, IEEE International Conference on Multimedia and Expo (ICME),
July 2005.
[OL02] Ottmann, T. und T. Lauer: Means and Methods in Automatic Courseware Production:
Experience and Technical Challenges. In Proceedings of World Conference on ELearning in Corporate, Government, Healthcare, and Higher Education, 553-560, Chesapeake, VA, 2002.
[TJT96] Trier, Ø., A. Jain und T. Taxt: Feature extraction methods for character recognition – a
survey. In: Pattern Recognition, Bd. 29 (4), S. 641–662, 1996.
44
Notetaking in University Courses and its Implications for
eLearning Systems
Jürgen Steimle, Iryna Gurevych, Max Mühlhäuser
Telecooperation Group, Department of Computer Science
Darmstadt University of Technology
{steimle, gurevych, max}@tk.informatik.tu-darmstadt.de
Abstract: This paper presents the results of a study on notetaking in university courses
and derives implications for the design of electronic notetaking and annotation systems in eLearning. The study focuses on differences between notetaking with a pen
and paper or with a laptop and identifies the reasons for preferring the one or the other.
Our findings show that notetaking systems should allow handwritten input, as notes
on paper are preferred by the majority of students, mainly because they allow unconstrained free-form handwriting and sketches. Moreover, this paper examines context
factors which influence notetaking. For this purpose, a context model for notetaking
is presented, which distinguishes the four context types of learner, instructor, content
and setting. We identified a significant influence of several specific context aspects
and therefore conclude that notetaking systems must be adaptable in order to support
notetaking in different contexts effectively.
1 Introduction
Notetaking plays an important role in learning processes and has been proven to be a factor
positively related to students’ academic achievement [POK05]. This supportive effect
encompasses both the processes of recording notes (encoding function) and reviewing
notes (storage function) [Ki89].
In eLearning, a growing number of tools have been developed which aim to support student notetaking and annotation. Examples of such systems consist of Livenotes [Ka05],
DyKnow [Be06], eMargo [Ge05], AOF [LTZ05] and u-Annotate [Ch06]. While some of
these systems focus on notetaking during the course itself [Ka05, Be06], other systems
aim at notetaking and review after class [Ge05, LTZ05, Ch06]. Most of them include a
collaborative functionality and numerous systems allow pen-based input on a Tablet PC in
order to simulate the experience of traditional notetaking on paper.
Our current project aims to develop a system for collaborative notetaking, which allows
students to annotate the course material with several input modalities. The system will
allow both typed input on computer keyboards and handwritten input with electronic pens
on digital paper, that consists of ordinary paper sheets, on which a specific pattern is
printed. This enables electronic pens to identify their position on the paper sheets, to
45
capture the user’s strokes and to transfer them to a computer. Our goal is thus to close the
gap between paper, which still plays a central role in learning, and computers, which are of
increasing importance and offer unique benefits not provided by pure paper environments.
The main contribution of this paper is the presentation of a study on student notetaking
in university courses. Notetaking in general and more particularly the use of notetaking
and annotation software in learning are not well studied [BP05, BK06]. Therefore, we
conducted a quantitative study in order to derive implications for the design of notetaking
systems in eLearning. These implications provide a basis for the design of a notetaking
system in our ongoing work.
Our research was guided by the following main aspects: 1) We evaluated the reasons for
the choice of taking notes with a pen and paper or with a laptop. We then assessed the
effects of this choice on the notes being taken and on further review and completion activities. 2) Our hypothesis was that notetaking heavily depends on multiple context types.
Therefore, we developed a context model for notetaking in university lectures (see below)
and evaluated the influence of several specific context aspects. 3) Finally, we assessed
note-based collaborative activities.
The context model for notetaking in university lectures is presented in Figure 1. It focuses on the communicative situation in which notetaking in lectures takes place. Following Bühler’s organon model of communication [Bü78], we distinguish three central
context types (learner - instructor - content) and add the supplemental dimension of the
setting surrounding the communicative situation. We then evaluated the influence of several specific aspects of the context types. The learner context type includes preferences
and habits, which are personal (and hence on an individual level) or relate to the membership in a social group like gender (supra-individual level). In addition, the influence of
two motivational and cognitive factors was assessed, namely the interest in the content and
the average grades obtained during previous studies. Moreover, the potential relationship
between the ownership of a laptop and the preference for electronic notes was evaluated.
In the content type, we analyzed the influence of the course language. The aspect of the
instructor’s teaching style was not empirically assessed; however, we found a qualitative
indice of an influence. Finally, in the setting context type, the study assessed disciplinespecific aspects as well as differences between the temporal phases of course review and
exam preparation. We did not include a context aspect of tools used for notetaking (i.e.
pen, keyboard etc.), since these are not part of the context but of the notetaking process
itself. Furthermore, the types and aspects presented herein are not exhaustive. In further
work, this framework can be extended for additional types and aspects of context.
The study on notetaking was based on a questionnaire and was conducted in five university
lectures which contained several eLearning elements, such as electronic course material,
web discussion forums and lecture recordings. In order to investigate discipline-specific
differences, we questioned students from computer science and pedagogy. Overall, 408
respondents participated to the study.
The following section will present our method. Section 3 will then detail the results of
the study. Finally, Section 4 is dedicated to discussing implications for the design of
notetaking systems in eLearning.
46
Learner
- Preferences and habits
(individual and
supra-individual level)
- Motivational factors
- Cognitive factors
- Hardware equipment
Setting
- Discipline-specific
context
- Temporal context
Instructor
(-Teaching style)
Content
- Language
Figure 1: Context types in notetaking and specific aspects assessed in this study.
2 Method
The questionnaire contained 22 closed and open questions related to four topics: 1) notetaking behavior: media used for notetaking, (dis)advantages of those media, types of the
notes and the language they are written in; 2) collaboration and team work; 3) courserelated information such as the amount of time invested for the course, the personal interest in the topics and the perceived degree of difficulty; 4) personal information about the
respondent like sex, field of study, semester and hardware equipment.
The questionnaire was handed out at the end of a university semester in five courses. The
participation was voluntary and no compensation was given. We chose four computer science courses, which covered several domains and in which students of different years of
studies were enrolled. These courses consist of a first-year introductory course to computer science, a second-year algorithm theory course and two different network courses,
which are typically attended in the third or fourth year of studies. In order to allow an
interdisciplinary comparison, one course in pedagogy was chosen, in which students of
different semesters were enrolled (in average, they were in their forth semester with a
standard deviation of 2.8 semesters).
All courses contained eLearning elements. The computer science courses offered a webbased forum for discussions among the students. Two of these courses were recorded and
a video including the slides was offered for download after each class. In all evaluated
courses, the instructors used PowerPoint slides, which were made available as downloads
before the courses. In the pedagogical course, the instructor additionally provided a pure
textual script covering more detailed contents as the slides.
Table 1 depicts the number of respondents questioned as well as their gender.
In the statistical analysis, we investigated correlations between items which were fivepoint scaled and performed χ2 -tests and t-tests to identify significant group differences.
All these tests were based on a level of significance of 95 %.
47
Discipline
Computer Science
Pedagogy
Overall
Respondents
316
92
408
Female
13.8 %
78.4 %
28.8 %
Male
86.2 %
24.6 %
71.2 %
Table 1: Participants of the study.
3 Data Analysis
In this section, the results of the study will be presented along different categories. We
will first describe the groups of respondents taking notes. Next, we will detail the media
used for notetaking and the reasons of this choice, particularly with regard to the difference between notes on paper or on a laptop. We will then turn our attention to the notes
themselves and discuss the languages they are written in. Finally, follow-up activities of
notetaking and collaborative aspects will be analyzed.
3.1
Respondents Taking Notes
The proportion of students taking notes during the course considerably varied between
the disciplines. While 93.3 % of the pedagogy students took notes, only 62.3 % of the
computer science students did. When asked for the reasons for not taking notes through an
open question, the largest group of answers to an open question considers the course slides
offered by the instructor to contain sufficient information (N = 16). Eight respondents
indicated that taking notes distracted them from listening.
A significant difference related to the gender of the respondents was revealed in computer
science, but not in pedagogy. While 30.0 % (N = 12) of the female respondents in the
computer science courses did not take notes, a significantly larger proportion of 48.4 %
(N = 121) of male students did not take notes [χ2 (1, N = 290) = 4.702, p = .04].
When relating these results to the context model, we notice that the decision of taking notes
or not seems to depend on the setting and learner contexts, namely on the discipline and
on the gender of the respondents. The percentage of students who took notes maximally
varied from more than 90 % in the pedagogy course to less than 50 % of male students in
computer science.
3.2
Media Used for Notetaking
We further asked the students on which media they take their notes (on empty sheets of
paper, on printed versions of the course slides, on printed versions of the course scripts, on
laptops and/or other media; multiple responses were possible). Moreover, we examined
the use of the course material (i.e. PowerPoint slides, handouts etc.) and searched for
differences which relate to the use of a pen and paper or a laptop. This aspect is of central
48
importance for the design of eLearning notetaking systems, as an electronic system should
be able to support the most frequently used media.
Figure 2 below shows the percentage of notetakers on single media or on combinations
of several media. Both in computer science and pedagogy, traditional notetaking with a
pen and paper clearly outperforms notes on a laptop. In the computer science courses, 77
% of the respondents took their notes exclusively on paper. This group consists of three
subgroups of roughly equal percentages which took notes either on empty sheets of paper,
on printed course slides or on both of them. 8 % made an exclusive use of a laptop, while
15 % indicated to prefer cross-media notetaking, which combines notes on a laptop with
notes on empty sheets of paper or on printed course slides.
The context factor of the discipline proved to be an influential factor of the context model,
since laptop use differed largely between the disciplines. In the pedagogy course, laptop
use was almost not existent. 98 % took their notes exclusively on paper. The two largest
groups (about 45 % each) took notes either only on empty sheets of paper or combined
them with printed slides or the printed course script. These findings confirm results of
other studies on the choice between paper and laptops [OS97, Ob03], which, however, did
not assess notetaking during courses but during overall reading processes and moreover
constrained the participants to use a specific software for notetaking.
Pedagogy
Computer Science
Laptop + printed slides
7%
Laptop + empty sheets
of paper
8%
Laptop
1%
Empty sheets of paper
28%
Laptop + empty sheets
of paper
1%
Printed slides/script
6%
Laptop
8%
Empty sheets of paper
+ printed slides/script
45%
Printed slides
27%
Empty sheets
of paper
47%
Empty sheets of paper
+ printed slides
22%
Figure 2: Combinations of media used to take notes on.
It is worth noting that the percentage of students taking notes on a laptop was small even
though 78.6 % (N = 180) of the notetakers possess a laptop. Only 19.6% (N = 35) of
the students owning a laptop took notes on this device. The hardware equipment, one of
our context factors, does therefore not seem to be relevant.
A gender-specific difference was found in the computer science courses, but not in pedagogy. While 77.8 % (N = 42) of female respondents took notes on printed lecture slides,
only 56.1 % (N = 69) of male respondents did so [χ2 (1, N = 150) = 4.336, p = .05].
However, we found no significant gender-specific difference in the use of laptops.
Comparing different computer science courses, we found that in one course (algorithm
theory), the respondents made a significantly higher use of empty sheets of paper (76.4 %,
N = 42) than the remaining respondents (52.3 %, N = 58) [χ2 (1, N = 166) = 8.927,
49
p = .004]. In this course, the instructor frequently drew sketches and diagrams on the
blackboard which were not contained in the slides. We assume that this specific teaching
style combined with little free space on the slides led to the heavy use of paper sheets.
Taking a closer look on laptop users, we asked them about the software they took their
notes with. Responses fell under two categories of almost equal frequency: Software that
allows to annotate the electronic course slides (e.g. Adobe Acrobat) (N = 16) or word
processors and text editors (N = 17). Four students indicated to use both annotation and
a word processor, three students annotated on a tablet PC and two students employed a
specific software for creating mindmaps. These data show that the repartition between
annotating printouts and taking notes on blank sheets which we identified for paper notetakers is approximately reflected by notetaking on laptops. The main device for the input
of electronic notes is the keyboard, since only few students own a Tablet PC (1.2 %).
The prominent position which course material provided by the instructor holds in student
notetaking is reflected in the general use of course material as well. Figure 3 depicts the
mean frequency of course material use indepentently of notetaking. This chart indicates
that the most frequently used media are course slides and the textual script.
Mean Frequency
5
very
frequently
4
3
4.4
2
3.0
3.3
3.8
3.4
3.0
2.1
never
3.2
3.0
2.3
1
Lecture slides
(electronic
version)
Lecture slides
(printed)
Textual script
Computer Science
Textbook
Internet
Lecture
recordings
Pedagogy
Figure 3: Use of course material (independently of notetaking). Standard deviations
are indicated by the error lines.
3.3
Advantages of Different Media
Besides assessing the distribution among different notetaking media, we aimed to gain
information about the reasons for choosing those media as well as the advantages respondents associated with paper or electronic notes on a laptop. This aspect is of general
importance for eLearning systems which aim to transfer activities traditionally relying on
paper to a computer. Therefore, students were requested to judge the importance of several
advantages of paper and electronic notes on a five-grade scale. In addition, we posed an
open question, in which we asked the students to explain why they preferred the specific
media they took notes on.
50
The results of the quantitative question are depicted in Figure 4. They show that the freeform flexibility was regarded as the most important advantage of notes on paper. This is
followed by the fact that paper can be easily transported. As far as electronic notes are concerned, all proposed advantages were rated almost equally. When investigating differences
between the advantages of paper and laptops, we found that long-term archivability was
rated significantly more important for laptop than for paper notes [T = −5.935, df = 234,
p = .000]. Similarly, good readability of typescript is rated significantly more important
than good readability on paper [T = −5.907, df = 230, p = .000].
5
Mean Importance
very
important
4
3
4.3
4.0
3.5
2
very
unimportant
3.5
3.9
3.9
3.8
3.8
3.3
Paper
Laptop
1
Flexibility
(e.g.
sketches,
formulas)
Ease of
transport
Good
Long-term
Different
archivability colors and readability in
pens (e.g. comparison
textmarker) to a display
Electronic
Long-term
Easy
search
archivability sharing (e.g.
by e-mail)
Good
readability
of typescript
Figure 4: Advantages of paper and electronic notes.
Students taking notes on paper regarded most advantages of paper as significantly more
important than students taking notes on a laptop and vice versa. However, both groups
highly rated the flexibility of free-form notes on paper, which thus seems to be of great
importance even for laptop notetakers.
The responses to the open question indicate some additional important factors. Students
taking notes on a laptop valued that notes can be more easily modified (N = 4) and offer
a cleaner appearance (N = 2). Two respondents stated to prefer electronic notes because
this way, they do not have to print the slides. Two further students noted that a laptop
allows them to keep the information in one place. On the other hand, 20 respondents
stated that notetaking on paper is easier and faster than notetaking on a laptop.
The responses also indicated reasons for preferring annotations on course material or notes
on blank sheets of paper. Annotations on printed course slides are regarded as advantageous, since these allow to establish a direct reference to the context by taking the notes
on the place they refer to (N = 27). 24 respondents particularly valued that they do not
need to write everything down on the slide, but only add additional information of importance. On the contrary, blank sheets of paper are favored because they allow to create an
own structure and to note own ideas more individually (N = 12). Moreover, in contrast
to course slides, they provide sufficient free space (N = 5). Three students indicated to
combine notes on paper and on printed course slides in order to separate their own ideas
from additional information given by the instructor.
51
3.4
Language of the Notes
A further aspect of our context model is the language in which the notes are taken. This
aspect must be considered if an eLearning system includes further analysis of textual notes
like handwriting recognition or summarization and recommendation of relevant notes.
Even though German stays the most used language, the language in which the course is
held largely influences the languages of the notes. The percentage of respondents who
indicated to often or very often use the German language varied from 36.7 % (N = 14) in
courses held in English to 95.0 % (N = 207) in courses held in German.
An important finding was that a significant proportion of students combined notes in two or
more languages. This percentage corresponded to 60.2 % of the respondents in computer
science and to 26.8 % in pedagogy.
3.5
Review and Completion of Notes
Respondents who took notes were asked how frequently they review and complete their
notes after class and when preparing the exam. These results allow to estimate in which
phases an electronic notetaking system would be used. Mean values are depicted in Figure
5. (Results for exam preparation relate only to the computer science courses, since in
the pedagogy course, no final exam took place.) The results show that, in contrast to the
wrap-up phase after class, where scores are rather low, students become more active when
preparing the exam. The context factor of time thus seems to influence notetaking.
Mean Frequency
5
very
frequently
4
3
4.2
2
3.4
3.1
2.3
never
After Class
Exam Preparation
1
Review
Completion
Review *
Completion *
(* Computer Science only)
Figure 5: Frequencies of follow-up activities for notetaking.
No significant differences were found between laptop and paper notetakers. However, taking a closer look on the group which took notes on paper, our data indicate that annotations
relate to more frequent follow-up activities than notes on empty sheets of paper: In review
after class as well as in review and completion before the final exam, mean frequencies of
respondents annotating printed course slides or the course script were .4 to .6 points higher
(p < .006) than of students taking notes on blank sheets.
52
3.6
Note-based Collaboration
Collaborative notetaking is supported by most eLearning systems for notetaking. They
allow either to collaborate by synchronously taking notes on a shared set of documents
(e.g. [Ka05, Be06]) or by asynchronously sharing notes in threaded forum-like discussions
(e.g. [Ge05, LTZ05]). In order to additionally assess collaborative behavior in university
courses, we asked the respondents to indicate their collaborative activities which make use
of their notes.
54.4 % (N = 135) of the respondents who took notes during class indicated to use them
for collaborative work. The most important point (71.1 % of this group) consisted of using
the notes as a basis for group work and discussion with other students. 51.1 % compared
their notes for completion with those of others. 45.9 % gave their notes to other students
or used those of others, e.g. in case of illness. Collaborative use of notes does not seem to
relate to a specific medium on which respondents took their notes.
We found a relationship between collaboration and the frequency of note review and completion. Respondents using their notes collaboratively review them more frequently after class (M1 = 3.3 [SD = 1.0, N = 134] vs. M2 = 2.7 [SD = 1.1, N = 92])
[T = −4.142, df = 224, p = .000]. Alike, this group completes them more frequently
after class than non-collaborative notetakers (M1 = 2.4 [SD = 1.0, N = 129]; M2 = 1.9
[SD = 1.0, N = 91]) [T = −3.671, df = 218, p = .000].
4 Implications for Notetaking Systems in eLearning
The goal of this study was to derive implications for eLearning and the design of notetaking systems which support students in university courses. These implications will be
discussed in this section.
Support of handwritten input
Our study shows that in university courses, taking notes with a pen and paper is considered
to be easier and faster and therefore preferred to a laptop by the vast majority of students.
Important factors for the choice of paper consist of the flexibility of free-form notes and
the easy transport. For the majority of the respondents, these advantages are not outrivaled
by those of electronic notes on a laptop which mainly consist of electronic search, longterm archivability and editing functions. According to the results of this survey, this also
seems to apply to computer science students, who are generally more familiar with new
technologies.
Therefore, our findings indicate that a laptop is not the most adequate device for taking
notes in courses. Instead, handwritten input should be supported by an eLearning system.
However, no recommendations for the choice between traditional paper and Tablet PCs,
which allow handwritten input, can be given, since only 1.2 % of the respondents possess
a Tablet PC.
53
Support of both annotations and notes on blank pages
This study indicates that a system for notetaking should allow both to annotate course
material provided by the instructor and to take unstructured notes in a blank region. Annotations in textual handouts or presentation slides allow a close association with the course
by directly referring to the adequate position within the material. Furthermore, students
can concentrate on noting important points, since not everything must be noted. On the
contrary, unstructured notes in a blank region of the screen or on blank sheets of paper
offer the benefit of not constraining students to closely follow the structure provided by
the lecturer. Instead, a restructuring can be made and a personal view on the relations
between pieces of information can be expressed. These transformation operations have
proven to increase the effectiveness of learning processes in other findings [BP05]. In this
respect, DyKnow [Be06] offers an appropriate support as students can both annotate the
slides provided by the instructor and take unstructured notes in a separate blank frame.
Windows Journal supports both modes as well. However, most other current eLearning
notetaking systems only support annotations.
Provide enough free space for annotations
With regard to annotations, several respondents stated that the free space available on the
slides for annotations was too small. Instructors should thus provide enough room on
paper handouts for annotations. In this respect, electronic systems have the potential to
clearly outperform paper-based annotation since they can dynamically adapt free space
for annotations on the screen, hide and filter annotations on demand or display them in a
separate frame (e.g. [LTZ05]).
Support of several languages
Furthermore, our results indicate that students tend to combine several languages when
taking notes, especially if the course is held in a language other than their native one.
Hence, systems for handwritten input which use handwriting recognition techniques must
correspond to this more complex situation and offer support for several languages at the
same time. A system in which the user must choose one single language to be recognized
(e.g. Windows Journal) does not seem appropriate.
Support of collaboration
According to the results of this survey, a significant proportion of respondents use their
notes for collaboration. Hence, collaborative functionality should be included in eLearning
systems. This can be especially beneficial in distance learning settings, where a personal
exchange of the notes is not possible or more difficult to realize.
Adaptability to the specific context
Our findings indicate that notetaking in university courses should be studied along several
context types (see Figure 1). We showed that in the learner type, both individual preferences and supra-individual factors have a significant effect on notetaking. In addition,
54
influences of the setting, such as discipline-specific and temporal factors, were revealed.
However, personal interest in the content and average previous grades of the respondents
do not seem to influence the choice of a notetaking medium and the frequency of followup activities or collaboration. In the two remaining context types which concern instructor
and content, only a small contribution could be made since both the teaching style and
the content of the course are difficult to assess in a questionnaire. Nevertheless, context
influence of the language and of the teaching style was revealed as well.
In summary, our study showed that notetaking behavior largely depends on a complex multitude of context aspects. Notetaking systems must account for this dependency. Therefore, they must be adaptable in their central functionality (like support for annotations vs.
notes on blank pages, input modality, types of the notes and collaborative features) to fit
the different user needs and teaching styles in specific context situations.
5 Conclusion
The study presented in this paper examined both the differences of paper and electronic
notes and the influence of several contextual factors in notetaking. Based on these findings,
implications for the design of eLearning notetaking systems were derived.
We showed that numerous key characteristics of traditional notetaking with a pen and
paper are comparable with those of electronic notes on a laptop. No differences between
the two groups were found in the types of notes taken, in the frequency of later review and
completion as well as in collaborative activities.
Nevertheless, in university courses, most students prefer notetaking on traditional paper to
electronic notes on a laptop. This also applies to computer science students. Main reasons
for this choice are the easy transport as well as the advantage of easily taking free-form
notes on paper. About two thirds of the students who took notes on a laptop simultaneously
took notes on paper. This seems to indicate that the support of handwritten free-form notes
is a key aspect for a successful introduction of electronic notetaking systems in university
courses.
Furthermore, a model of context types which influence notetaking was presented and the
influence of specific context aspects was proven. Amongst others, the study identified an
influence of personal habits, of the discipline in which the students are enrolled and of their
gender. An eLearning system for notetaking must comply with this complex multitude of
context dependencies. Therefore, it seems indispensable that such systems are highly
adaptable to fit diverse user needs and teaching styles in specific context situations. This
is even more important as the literature shows that small changes in the system design can
have large effects on notetaking processes [BK06].
Future work could make a contribution to refining the context model. A question of great
interest consists of evaluating the influence which specific media types (such as text, pictures, diagrams, tables, videos) used in the courses have on notetaking and more specifically on annotations. Furthermore, the dynamics of collaborative notetaking could be
taken into account by introducing a fifth context type, the interaction history. Once note-
55
taking systems allow a tightly integrated support of both paper-based and electronic input,
future work should also evaluate this combined use. This would lead us a further step
forward in understanding how traditional tools can be effectively integrated into electronic
systems.
Acknowledgments
This work was supported by the German Research Foundation as part of the Research
Training Group “Feedback-Based Quality Management in eLearning” (DFG-GK-1223).
We are grateful to Michael Deneke and Oliver Glindemann for their advice and support.
Literaturverzeichnis
[Be06]
Dave Berque. An evaluation of a broad deployment of DyKnow software to support note
taking and interaction using pen-based computers. Journal of Computing Sciences in
Colleges, 21:204–216, 2006.
[BK06] Aaron Bauer and Kenneth Koedinger. Pasting and Encoding: Note-Taking in Online
Courses. In Proc. 6th Int. Conf. on Advanced Learning Technologies (ICALT’06), 2006.
[BP05] Francoise Boch and Annie Piolat. Note Taking and Learning: A Summary of Research.
The WAC Journal, 16:101–113, September 2005.
[Bü78] Karl Bühler. Die Darstellungsfunktion der Sprache. Ullstein, Frankfurt, 1978.
[Ch06] M.A. Chatti, T. Sodhi, M. Specht, R. Klamma, and R. Klemke. u-Annotate: An Application for User-Driven Freeform Digital Ink Annotation of E-Learning Content. In Proc. of
the 6th Int. Conf. on Advanced Learning Technologies (ICALT’06), 2006.
[Ge05] Daniel Geraskov, Sven Göller, Wilfried Rüsse, Werner Sesink, and Thomas Trebing.
Transformation einer Vorlesung durch E-Learning-Elemente. Medien-Pädagogik, 02,
2005.
[Ki89] Kenneth A. Kiewra. A review of note-taking: The encoding-storage paradigm and beyond.
Educational Psychology Review, 1(2):147–172, 1989.
[Ka05] Matthew Kam, Jingtao Wang, Alastair Iles, Eric Tse, Jane Chiu, Daniel Glaser, Orna
Tarshish, and John Canny. Livenotes: a system for cooperative and augmented notetaking in lectures. In CHI ’05: Proceedings of the SIGCHI conference on Human factors
in computing systems, pages 531–540, 2005.
[LTZ05] Tobias Lauer, Stephan Trahasch, and Bernd Zupancic. Anchored Discussions of Multimedia Lecture Recordings. In Proceedings of the Frontiers in Education Conference (FIE
2005), 2005.
[Ob03] Hartmut Obendorf. Simplifying annotation support for real-world-settings: a comparative study of active reading. In HYPERTEXT ’03: Proceedings of the fourteenth ACM
conference on Hypertext and hypermedia, pages 120–121, 2003.
[OS97] Kenton O’Hara and Abigail Sellen. A comparison of reading paper and on-line documents.
In CHI ’97: Proceedings of the SIGCHI conference on Human factors in computing systems, pages 335–342, 1997.
[POK05] Annie Piolat, Thierry Olive, and Ronald T. Kellogg. Cognitive Effort during Note Taking.
Applied Cognitive Psychology, 19:291–312, 2005.
56
Freie Bildungsressourcen im didaktischen Kontext
Peter Baumgartner, Sabine Zauchner
Department für Interaktive Medien und Bildungstechnologien
Donau-Universität Krems
Dr.-Karl-Dorrek-Straße 30
3500 Krems
peter.baumgarter@donau-uni.ac.at
sabine.zauchner@donau-uni.ac.at
Abstract: Im Beitrag werden einige Gründe für Initiativen zu „Open Educational
Resources“ (OER) für den Hochschulsektor zusammengestellt und kritisch beleuchtet. Daran anschließend werden mögliche didaktische Konsequenzen im Zusammenhang mit dieser Bewegung diskutiert. Im dritten Teil des Beitrages werden didaktische Aspekte von Anforderungen an OER Initiativen diskutiert.
1
Aspekte der OpenCourseWare (OCW) Initiative
Als das Massachusetts Institute of Technology (MIT) im April 2001 seine OpenCourseWare Initiative [W01] öffentlich bekannt machte, reichten die Reaktionen von Überraschung bis zu Verwirrung: Warum sollte eine solch prestigeträchtige Institution ihre
Kursinhalte frei zur Verfügung stellen? Gibt sie damit nicht ihr wesentliches Kapital der
Konkurrenz preis? Kritiker/innen wurden nicht müde, die schlechte Umsetzung (tatsächlich bestehen viele Inhalte – vorerst? – bloß aus einem Syllabus, d.h. aus einer Zusammenstellung von Überschriften zu den Kursinhalten) sowie mögliche (kultur-)
imperialistische Hintergedanken (die ganze Welt soll mit MIT-Inhalten „sozialisiert“
werden) zu beanstanden.
In der Zwischenzeit hat sich die Situation jedoch soweit entwickelt, dass wohl der folgende Spruch zutrifft: „Die Hunde bellen, doch die Karawane zieht weiter“: Schätzungen zufolge, standen mit Herbst 2006 am Hochschulsektor mehr als 2500 Lehrgänge von
über 200 Universitäten und Hochschulen alleine aus den USA, China, Japan und Frankreich zur Verfügung [Wi06]. Davon stellte das MIT damals noch den überwiegenden
Teil von 1.550 Kursen. In der Zwischenzeit beteiligen sich am 2005 gegründeten OpenCourseWare Consortium [W02] bereits mehr als 120 Universitäten [W03].
In einem Referat auf der Konferenz "Open Educational Resources - Institutional Challenges", an der Universitat Obertate de Catalunya (UOC, Barcelona 22.-24. November
2006), zählte Shigeru Miyagawa, Professor für Linguistik am MIT, 7 Vorteile der OCWInitiative für das MIT auf [W04]:
57
1. Es wird damit weltweit das Image des MIT verbessert. Diese Initiative brachte
(und bringt immer noch) dem MIT enormes Echo in der Presse [W05].
2. Es wird ein gewisser Stolz innerhalb der MIT-Community erzeugt, der insbesondere in der Bindung der Absolventen/innen (Alumni) an das MIT sichtbar wird.
3. Es wird die Kooperation innerhalb der Hochschullehrenden unterstützt, weil Erfahrungen mit diesen Ressourcen innerhalb der Lehre ausgetauscht werden.
4. Es wird die Bildungsmission, der das MIT verpflichtet ist, mit dieser Initiative unterstützt.
5. Die Materialien fungieren als Anschauungsmaterial für die Institute und deren
Curricula (Showcase).
6. Die öffentlich zugänglichen Materialien erleichtern das Werben um neue Studierende (Akquise).
7. Die Beteiligung an der Initiative erfordert neue Kompetenzen in der MIT-Faculty
und fördert damit Prozesse der Personalentwicklung.
Entscheidend für die Einschätzung der OpenCourseWare Initiative für die einzelnen
Institutionen aber sind zwei wesentliche Einschränkungen: Obwohl das Material frei
zugänglich ist, kann daraus weder eine Beratungsleistung noch eine (Kosten-)Ersparnis
oder gar das Recht einer Zertifizierung in Anspruch genommen bzw. abgeleitet werden.
Aus unserer Sicht ergeben sich daraus folgende drei weit reichende Konsequenzen:
Individuell Lernende können zwar das Material für selbst gesteuerte Lernvorgänge
verwenden, daraus ergibt sich jedoch nicht automatisch ein formal anerkannter
ausbildungs- oder karriererelevanter Vorteil. Selbst wenn sie sich in Studiengänge
des MIT einschreiben, sind keine reduzierten Gebühren vorgesehen. Das überrascht auch deshalb, weil Ansätze des kompetenzbasierten Lernens – und damit
auch die Anerkennung früher erworbener Qualifikationen (Acknowledgement of
Prior Learning = APL oder auch Recognition of Prior Learning = RPL) zunehmend an Verbreitung gewinnen.
Lehrende hingegen könnten das frei zugängliche Material – wenn sie es für ihre
eigene Zwecke aufbereiten und adaptieren – nutzbringend für eigene Bildungsveranstaltungen verwenden. Leider wird jedoch das angebotene Material für eine solche Wiederverwendung gerade nicht besonders vorbereitet und ist deshalb häufig
– vor allem wegen der immanenten Kursstruktur der Materialien – wenig für eine
solche Wiederverwendung geeignet.
Eine dritte – unserer Meinung nach bisher viel zu wenig beachtete – Wirkung von
OpenCourseWare besteht darin, dass der Bildungsprozess implizit aufgewertet
wird. Wenn erst einmal die Inhalte frei zur Verfügung stehen, kann sich die Aufmerksamkeit und damit die Konkurrenz der Bildungsinstitutionen auf die Effizienz
des didaktischen Arrangements richten. „Content“ wird dann richtigerweise nur
mehr als ein Teil einer umfassenden und ganzheitlich zu betrachtenden Lernumgebung gesehen.
58
Zusammenfassend also zeigt sich, dass die MIT OpenCourseWare Initiative durchaus
nicht nur eine „Mogelpackung“ darstellt, sondern für die jeweilige (anbietende) Einrichtung institutionelle Vorteile mit sich bringt. Andererseits wird das Potential dieser globalen Initiative jedoch durch ein Fehlen von Überlegungen zum kompetenzbasierten Lernen, der möglichst hohen Wiederverwendbarkeit von Materialien und einer expliziten
Diskussion didaktischer Adaptionen und Implementierungen eingeschränkt.
2
Aspekte von Open Educational Resources (OER)
Seit der OCW-Initiative des MIT sind weltweit eine Reihe anderer Initiativen wie Open
Access (= freier Zugang zu wissenschaftlichen Zeitschriftenartikeln) und Open Content
bzw. Open Educational Resources-Initiativen (OER, dt. „freie Bildungsressourcen“) zu
beobachten. OER setzt sich zum Ziel, den Einsatz und die Wiederverwendung von freien
Bildungsressourcen weltweit zu fördern und die Nachhaltigkeit dieser Projekte sicherzustellen [z.B. ABH07]. Diese Entwicklungen beziehen sich aber nicht nur auf Hochschulen, denn auch die Anzahl freier Bildungsressourcen, die nicht in Form von universitären
Lehrgängen angeboten werden, nimmt kontinuierlich zu [Wi06].
Die Vielzahl unterschiedlicher Initiativen sowie die Diskussion zur begrifflichen Abgrenzung und Schärfung der dabei verwendeten Begriffe zeigt, dass ein allgemeiner
Konsens über deren Gehalt und Verwendung, v.a. auch unter Miteinbeziehung einer
eigenständigen Europäischen Perspektive, noch aussteht. Besondere Verdienste kommen
in diesem Zusammenhang der UNESCO zu, die eine erste Definition vorlegte [Un02],
sowie den Bestrebungen des CERI (Centre for Educational Research and Innovation) der
OECD [z.B. Hy06]. Es herrscht heute aber weitgehend Einigkeit, dass „freien Bildungsressourcen“ (OER) ein umfassendes Anliegen ist, das sowohl
Lerninhalte,
Software-Werkzeuge, die den Lernprozess unterstützen,
Repositorien von Lernobjekten (Learning Object Repositories, LOR),
als auch Kurse und andere inhaltliche Materialien
einschließt. Unterschiedliche Bedeutungen werden auch unter dem Begriff „open“ bzw.
„frei“ zusammengefasst. So wird je nach Quelle davon gesprochen, dass für die Nutzer/innen möglichst keine
technischen (z.B. Quellcode, Editoren, APIs),
kostenmäßigen (z.B. Subskriptionsgebühren, Pay-Per-View Gebühren)
oder rechtlichen (z.B. Copyright oder Lizenzeinschränkungen)
Einschränkungen gegeben sein sollten [vgl. z.B. Do06, Ba07, Ol07].
59
Zu Beginn der internationalen Bestrebungen nach freien Bildungsressourcen stand vor
allem das humanistisch Ideal der „Bildung für alle“ im Vordergrund (freier Zugang auch
für benachteiligte Bevölkerungsschichten, Entwicklungsländer etc.). Aus unserer Sichtweise gilt es jedoch zu betonen, dass nicht nur politische oder philanthropische Aspekte
für freie Bildungsressourcen sprechen, sondern auch die Innovationskraft und didaktische Qualität von Bildungsprozessen positiv beeinflusst werden können. Die innovative
Entwicklung und Anwendung didaktischer Modelle wird in den Vordergrund gestellt,
wenn Inhalte erst frei zur Verfügung gestellt werden und sich der Blickwinkel der Aufmerksamkeit auf die Qualität des Lehrens und Lernens richten kann. Damit wird nämlich
die Konkurrenz um die „besseren“ Inhalte auf eine Konkurrenz um innovativere didaktische Formen transformiert. Die Inhalte sind frei verfügbar und damit sozusagen gegeben; es geht nun in der Folge in erster Linie darum wie sie angewendet werden, d.h. in
Lehr-/Lernarrangements verwendet bzw. eingebunden werden [Ba07]. Häufig entstanden innovative didaktische Modelle bei der Entwicklung neuer Inhalte – sozusagen als
notwendige Komponente einer ganzheitlichen Problemlösung mit sowohl inhaltlichen
als auch didaktischen Aspekten. Dadurch wurden aber Inhalte und Didaktik zu stark in
der spezifischen Rolle ihrer gegenseitigen Bezugnahme gesehen und quasi mental fest
„verdrahtet“. Eine mögliche Wiederverwendbarkeit sowohl der Inhalte als auch des
didaktischen Modells wird daher oft nicht sofort gesehen weil sie eine zusätzliche kognitive Operation (Blick mit einem höheren Abstraktionsgrad) erfordert. Das ZurVerfügung-Stellen von Materialien – wie es zum Teil noch bei der OpenCourseWare
Initiative der Fall ist – fungiert unter diesen Gesichtspunkt nicht mehr bloß isoliert (humanistisch, philantropisch etc.), sondern wirkt als Katalysator für didaktische Innovationskraft bei der kollaborativen Entwicklung und Nutzung der frei, verfügbaren Ressourcen. Als besonders zentraler Aspekt steht damit die Möglichkeit, Bildungsressourcen für
eigene Lehr- und Lernzwecke zu adaptieren, weiter zu entwickeln, wieder zur Verfügung zu stellen und unter den Gesichtspunkten kompetenzbasierter Ausbildung auch als
Grundlage für die Zertifizierung der eigenen Bildungsinstitution zu verwenden, im Vordergrund.
3
Herausforderungen für OER Konzepte und Projekte
Eine Vielzahl an Publikationen beschäftigt sich derzeit mit der Thematik einer nachhaltigen Verankerung von OER Initiativen mit dem Ziel, Empfehlungen für Entscheidungsträger/innen, Fördergeber/innen, Bildungspolitiker/innen, Projektverantwortliche, Studierende oder Lehrende ableiten, z.B. [Ol07, Do07, ABH07, Al05, Mm07, Hy06].
Inhaltlich werden hier unterschiedliche Finanzierungsmodelle ebenso thematisiert wie
Copyrightfragen, technische Voraussetzungen, Produktions- und Contentmodelle oder
personelle Ressourcen und Communitybuilding, kaum jedoch stehen didaktische Überlegungen im Zentrum der Diskussion.
Aus unserer Sichtweise lassen sich insgesamt sechs Gruppen von Herausforderungen für
OER-Initiativen unterscheiden: (1) Zieldefinition, (2) Geschäftsmodell, (3) didaktische
Integration, (4) technische Voraussetzungen, (5) Nutzungsrechte und (6) Qualitätssicherung. Wir haben diese sechs Herausforderungen bereits dargestellt [ZB07] wollen wir
auf die didaktischen Implikationen all dieser Kriterien – und nicht nur der dritten (didak-
60
tischen) Gruppe – näher eingehen und zeigen, dass diese Herausforderungen für freie
Bildungsressourcen in jedem der einzelnen Aspekte implizit auch eine eigenständige
didaktische Komponente haben.
3.1
Didaktische Zieldefinition
Obwohl für OER Initiativen eine ganze Reihe von unterschiedlichen Zielen genannt
werden, die von moralisch-ethischer Verpflichtung des Teilens von Bildungsressourcen
über wirtschaftlichen Überlegungen bis hin zur Verbesserung interner Kompetenzen und
der Qualität der angebotenen Ressourcen reichen (vgl. z.B. [Hy06, Mm07], wird didaktische Variabilität und didaktische Innovation als explizites Ziel nur selten angeführt.
Wären mit den freien Bildungsressourcen didaktische Absichten explizit gekoppelt, dann
müsste sich dies in der Gestaltung sowohl der angebotenen Ressourcen als auch im Design der Umgebung, in der sie angeboten werden, niederschlagen. Zwei prinzipielle
Zugänge, die sozusagen zwei Pole einer didaktischen Zielstellung darstellen, wären
denkbar:
Der Inhalt wird bereits mit einem innovativen didaktischen Setting verknüpft angeboten. Das eigentlich interessante Angebot (die Bildungsressource) ist das didaktische Arrangement, das dementsprechend auch detailliert beschrieben und erläutert gehört.
Obwohl der Inhalt relativ didaktisch neutral angeboten wird, geht es vor allem um
den Erfahrungsaustausch in der didaktischen Nutzung: Unter welchen Voraussetzungen, mit welcher Zielgruppe, in welchen räumlichen, zeitlichen und personellen Rahmenbedingungen wurden welche Erfahrungen damit gemacht? Statt einer
Feedbackschleife zur Verbesserung des Inhalts (indem z.B. korrigierte, adaptierte,
verbesserte etc. Inhalte wieder zur Verfügung gestellt werden) bedarf es systematisch gesammelter Rückmeldungen zum didaktischen Arrangement (inklusive
Werkzeuge, die bei der Erstellungen und Auswertung dieser Erfahrungen helfen).
3.2
Didaktisch motiviertes Geschäftsmodell
Finanzierungsmodelle, finanzielle Nachhaltigkeit und Anreizsysteme können auch für
eine didaktisch motivierte Ökologie von freien Bildungsressourcen entwickelt werden.
Wie können die frei zur Verfügung gestellten Ressourcen die didaktische Variabilität
erhöhen, die didaktische Qualität verbessern und/oder didaktische Innovationen fördern?
Die bisherigen Überlegungen zum Austausch bzw. Wiederverwendung von Inhalten
ließe sich recht einfach auf didaktische Modelle umlegen. „Didactic sharing“ klingt
vielleicht sprachlich nicht so flott wie „Content sharing“ wäre aber mindestens ebenso
wichtig. Ganz abgesehen davon, dass wir Werkzeuge zur Beschreibung, Entwicklung
und Implementierung didaktischer Settings brauchen. Werkzeuge, die – anders als bei-
61
spielsweise die Editoren für IMS Learning Design – intuitiv und ohne detaillierte Kenntnisse der darunter liegenden technischen Konzeptionen benutzt werden können.
3.3
Didaktische Integration
Die Innovationskraft einer OER Initiative ist in weiten Bereichen davon bestimmt, inwieweit es gelingen kann, OER für variable Anforderungen didaktischer Nutzungskontexte verfügbar zu machen. Es kommt also dem Bereich der Adaptierbarkeit und der
Wiederverwendbarkeit von OER auf einer kontextuellen Ebene besondere Bedeutsamkeit zu.
Damit steht hier Fragen im Zentrum der Überlegungen, die sich auf die Adaptierbarkeit
der Bildungsressourcen für unterschiedliche didaktische Modelle (Ist es möglich OER
für unterschiedliche didaktische Modelle nutzbar zu machen? Sind die Ressourcen in
didaktischer Hinsicht adaptierbar und wieder verwertbar? Haben Lehrende die Möglichkeit, die Ressourcen an ihre Lehrmethode anzupassen? Haben Lernende die Möglichkeit,
die Ressourcen an ihre Bedürfnisse anzupassen? ) und auf eine kooperative Weiterentwicklung der Ressourcen (Sind in Erweiterung eines „Use-Only“-Konzepts kooperative
Weiterentwicklungen der Ressourcen möglich? Wie gestaltet sich der Umgang mir adaptierten Inhalten? Wie werden die Ressourcen aktuell gehalten?) beziehen.
Aber auch die didaktische Qualität der angebotenen Ressourcen (Sind Lehrziele transparent gemacht? Sind Lernwirksamkeitskontrollen vorgesehen? Werden die eingesetzten
Lehrmethoden auf die Lernziele abgestimmt? Werden Einstiegsvoraussetzungen genannt? Wird angegeben, welche Vorkenntnisse vorausgesetzt werden? Wird das Erreichen unterschiedlicher Lehrzielebenen gefördert?) das Angebot von Support- oder Tutoringmodellen und eine curriculare Einbindung der Angebote (Sind Möglichkeiten einer
curricularen Einbindung gegeben bzw. geplant? Welcher Bezug besteht zu Prüfungselementen? Sind Anrechnungsmöglichkeiten für formale Qualifikationen gegeben) sind
Überlegungen, die im Sinne einer didaktischen Integration angestellt werden müssen.
3.4
Technische Voraussetzungen für didaktische Adaptionen
Technische Voraussetzungen für Adaption und Wiederverwendung stellen eine wesentliche weitere Anforderung für OER Projekte dar. Diese Voraussetzungen beziehen sich
aber nicht nur – wie dies traditionellerweise gesehen wird – auf Fragen der Interoperabilität und technischen Adaptierbarkeit, Auffindbarkeit und einfachen Nutzung der Ressourcen sondern auch auf die Möglichkeit der didaktischen Adaption der Ressourcen:
Fragen, die sich unter diesem Aspekt stellen und durch technische Vorkehrungen gelöst
werden müssten, wären beispielsweise:
Was müsste wie und mit welchen Werkzeugen geändert werden, damit die Ressource für eine andere Ziel- oder Altersgruppe einsetzbar wird?
62
Welche Änderungen sind wie und mit welchen Werkzeugen vorzunehmen, damit
die Ressource für eine andere Gruppengröße verwendet werden kann?
Welche Änderungen sind wie und mit welchen Werkzeugen vorzunehmen, damit
die Ressource auch für andere physikalisch-technische (z.B. räumliche) Ausstattungen verwendet werden kann?
Diesen Beispielen für Fragestellungen haftet eine gewisse Künstlichkeit an. Dies hängt
aber unserer Meinung nach vor allem damit zusammen, dass wir (fatalerweise) noch
gewohnt sind, vor allem in darbietenden bzw. darstellenden Lehrformen zu denken und
uns daher die Präsentation von Inhalten bei der Wiederverwendung und Adaption vorstellen. Erarbeitende, problemorientierte, explorative und konstruktive Lehrformen werden leider noch viel zu wenig beachtet.
Wenn wir uns beispielsweise ein didaktisches Arrangement vorstellen, das einen spielerischen Zugang zu einer Problematik mittels eines Balls vorsieht, wird deutlich, wie die
obigen Anforderungen steigen: Sowohl das Material des zu verwendenden Balls, seine
Größe als auch die Raumstruktur bekommen eine enorme Bedeutung. Das gilt nicht nur
in der realen (Präsenz-)Situation sondern auch im E-Learning: In diesem Fall wäre beispielsweise die Wahl der Farbe und Größe des Balls, die Art und Schnelligkeit seiner
Steuerung, die Komplexität des simulierten Raumes usw. im Zusammenspiel mit der
angepeilten Zielgruppe oder der Anzahl der Spieler/innen bei der Entwicklung (bzw.
Adaption der Software) von Belang.
3.5
Kommunikation der Intellectual Property Rights (IPR)
Es gibt mittlerweile bereits eine Reihe von Lizenzen, die nicht mehr bloß „All Rights
Reserved“ (traditionelles Copyright) vorsehen, sondern entweder überhaupt keine Einschränkungen (Public Domain, „No Rights Reserved“) oder aber eine Abstufung spezifischer Rechte beinhalten, sodass sie die Möglichkeiten und Bedingungen der Nutzung
eindeutig beschreiben werden. Erst damit ist ein effektiver, leicht nachvollziehbarer,
transparenter kontrollierter Austausch von Ressourcen möglich. Besonderes Interesse
kommt hier sicherlich der Creative Commons Lizenz zu [W06], die 11 unterschiedliche
Variationen vorsieht.
Aus unserer Sicht kommt dabei sowohl der Kommunikation und der benutzer/innenfreundliche Umgang mit der verwendeten Lizenzstrategie als auch deren transparente Implementierung große Bedeutung zu. So unterliegt beispielsweise ein Kurs, der
aus unterschiedlich lizenzierten Materialien zusammengestellt worden ist, der dabei
verwendeten eingeschränktesten Lizenz. Wie kann diese mit einer ungünstigen Lizenz
versehende Ressource im Kurs gefunden werden (damit es beispielsweise mit einem
Objekt einer freieren Lizenz ausgetauscht werden kann)? Lassen sich die Ressourcen
unter bestimmten Nutzungsbedingungen zusammenstellen? Ähnlich wie es unter Creative Commons bereits eine Remix-Lizenz für Audioressourcen gibt, bräuchten wir auch
eine Remix-Lizenz für Bildungsressourcen bzw. Lernobjekte.
63
3.6
Qualitätssicherung und Didaktik
Die Qualität der im Rahmen einer OER Initiative bzw. eines Projekts angebotenen Bildungsressourcen stellt eine weitere der zentralen Herausforderungen der OER Bewegung
dar. Dabei geht es aber nicht nur um Qualitätssicherungsprozesse von inhaltlichen Kriterien wie Korrektheit, Genauigkeit, Vollständigkeit und Aktualität der Inhalte, sondern
auch um die Beurteilung der Relevanz der angebotenen Inhalte für einen bestimmten
Kontext, d.h. um eine Bewertung der didaktischen Qualität eines Angebotes.
Wird die didaktische Güte eines Angebotes aber ebenfalls in die Prozesse der Qualitätssicherung einbezogen, dann ist es mit einer simplen Begutachtung der Inhalte durch
Fachexperten/innen nicht getan. Es müssen vielmehr Modelle und Evaluierungsformen
entwickelt werden, die ein – auch didaktische Gesichtspunkte berücksichtigendes –
Qualitätsmanagement-System favorisieren, das wiederum als Projektsteuerungsinstrument wahrgenommen, kontinuierlich überprüft und adaptiert wird.
4
Zusammenfassung
Aus unserer Sicht sind Initiativen für freie Bildungsressourcen Katalysatoren für didaktische Innovation. OER Aktivitäten erfordern nämlich entweder a priori Überlegungen zu
einer möglichst kontextfreien Entwicklung von Ressourcen oder aber a posteriori Konzepte, Hinweise und Ideen wie die unter einem spezifischen Gesichtspunkt zusammengestellten Ressourcen auch unter anderen Kontexten von anderen NutzerInnen Verwendung finden können.
Damit OER Projekte erfolgreich sind, müssen sie einer Reihe von Anforderungen genügen. Das sind: (1) Eine klare didaktische Zieldefinition, (2) ein überzeugendes auf WinWin-Situationen aufgebautes didaktisch motiviertes Geschäftsmodell, (3) vielfältige
Möglichkeiten unterschiedlicher didaktischer Integrationen, (4) technische Möglichkeiten und Hilfestellungen für didaktische Adaptionen, (5) eine verständliche und übersichtliche Kommunikation der Lizenzbedingungen möglichst mit Hinweisen auf alternative
Möglichkeiten und (6) den Aufbau eines intrinsisch motivierten Qualitätssicherungsprozesses.
Literaturverzeichnis
[Al06]
Albright, P. (2006). Internet Discussion Forum Open Educational Resources: Open
Content for Higher Education: Final Forum Report [online]. http://www.unesco.org/
iiep/eng/focus/opensrc/PDF/OERForumFinalReport.pdf, [30.06.2007].
[ABH07] Atkins, D.E., Brown, J.S., & Hammond, A.L. (2007). A Review of Open Educational
Resources (OER) Movement : Achievements, Challenges, and New Opportunities [online].
http://www.oerderves.org/wp-content/uploads/A%20Review%20of%20the%20
Open%20Educational%20Resources%20(OER)%20Movement%20Final.doc,
[30.06.2007].
64
[Ba07]
Baumgartner, P. (2007). Medida-Prix – Quo vadis ? Gedanken zur zukünftigen Ausrichtung des mediendidaktischen Hochschulpreises. In Forum Neue Medien (Hrsg.), ELearning. Strategische Implementierungen und Studieneingang (S. 68-81). Graz : Verlag
Forum Neue Medien.
[Dh06] Dholakia, U.M., (2006). What Makes an Open Education Program Sustainable? The
Case of Connexions [online]. http://oer.wsis-edu.org/MALMOE/malmoe-Dholakia.pdf,
[30.06.2007]
[Do07] Downes, S. (2007). Models for Sustainable Open Educational Resources. Interdisciplinary Journal of Knowledge and Learning Objects, (3). http://scholar.google.com/
scholar?hl=de&lr=&q=cache:LY7BwSPrzpcJ:www.ijklo.org/Volume3/IJKLOv3p029044Downes.pdf+UNESCO+definition+OER, [30.06.2007].
[Hy06] Hylen, J. (2006). Open Educational Resources: Opportunities and Challenges [online].
http://www.oecd.org/document/10/0,2340,en_2649_33723_37351178_1_1_1_1,00.html,
[30.06.2007].
[Mm07] MMB Institut für Medien und Kompetenzforschung (2007). Open Educational Resources an internationalen Hochschulen – eine Bestandsaufnahme [online]. www.campusinnovation.de/files/MMB_OpenEdRes_Feb2007.pdf, [30.06.2007].
[Ol07] OLCOS, G. (2007). Open Educational Practices and Resources : OLCOS Roadmap 2012
[online]. http://www.olcos.org/english/roadmap/download/, [30.06.2007].
[Un02] UNESCO (2002). Forum on the Impact of Open Courseware for Higher Education in
Developing Countries. Final Report [online]. http://unesdoc.unesco.org/images/0012/
001285/128515e.pdf , [30.06.2007].
[Wi06] Wiley, D. (2006). On the Sustainability of Open Educational Resource Initiatives in
Higher Education [online]. http://opencontent.org/docs/oecd-report-wiley-fall-2006.pdf,
[16.06.2007].
[ZB07] Zauchner, S., & Baumgartner, P. (in Druck). Herausforderung OER – Open Educational
Resources. In Tagungsband der GMW Tagung 2007 in Hamburg. Münster: Waxmann.
Internetadressen
[W01]
[W02]
[W03]
[W04]
[W05]
[W06]
http://ocw.mit.edu/OcwWeb/index.htm [30.06.07]
http://www.ocwconsortium.org/ [30.06.07]
http://www.ocwconsortium.org/about/members.shtml [30.06.07]
http://www.peter.baumgartner.name/goodies/aspekte-freier-bildungsressourcen/shigerumiyagawa [30.06.07]
http://ocw.mit.edu/OcwWeb/Global/AboutOCW/medicoverage.htm [30.06.07]
http://creativecommons.org/ [30.06.07]
65
66
Organisation tutorieller Betreuung beim E-Learning
Nadine Ojstersek
Lehrstuhl für Mediendidaktik und Wissensmanagement
Universität Duisburg-Essen
Forsthausweg 2
47057 Duisburg
nadine.ojstersek@uni-due.de
Abstract: Die Organisation und Gestaltung der Betreuungskomponente ist ein wesentlicher Erfolgsfaktor für das E-Learning. Jedoch wird häufig der hohe Zeit- und
Kostenaufwand für die Betreuung und die Bedeutung eines leistungsfähigen Planungs- und Zeitmanagements unterschätzt. Durch das Level Support-Konzept
können Lernende optimal unterstützt werden und zugleich wird ein angemessener
Arbeitsaufwand für Betreuende gewährleistet. Insbesondere bei stark arbeitsteiligen Betreuungskonzepten ist die Klärung und Transparenz von Abläufen, Zuständigkeiten und Entscheidungskompetenzen erforderlich. Der kombinierte Einsatz einer Lernplattform und eines Content Management Systems kann sowohl die
Entwicklung aktiver Learning Communities unterstützen als auch den Austausch
und die Zusammenarbeit im Betreuungsteam fördern.
1
Einleitung
In Diskussionen über die technischen Möglichkeiten des E-Learning fließen zunehmend
pädagogische bzw. fachinhaltliche und -didaktische Aspekte ein. Es wurde erkannt, dass
Medien zwar eine unterstützende Funktion beim Lernen übernehmen, jedoch didaktisch
aufbereitetes und in technischen Medien zur Verfügung gestelltes Wissen allein keine
Garantie für den Erfolg eines Lernangebotes bietet [Sc04]. Insbesondere die personelle
Betreuung spielt eine wichtige Rolle für erfolgreiches E-Learning [HB02a]. Darüber
hinaus ist die Frage der Effizienz und Effektivität mediengestützten Lernens für alle
Entscheidungsträger und solche, die sich mit der Überlegung tragen, neue Medien in
Bildungseinrichtungen einzusetzen, von zentraler Bedeutung [Ke01]. Um die Lernenden
optimal zu unterstützen und zugleich einen angemessenen Betreuungsaufwand gewährleisten zu können, ist eine sorgfältige Konzeption langfristig tragfähiger Betreuungskonzepte erforderlich. Anhand des weiterbildenden Online-Studienprogrammes Educational Media1 wird das Level Support-Konzept als eine Möglichkeit der effizienten und
effektiven Organisation und Gestaltung tutorieller Betreuung veranschaulicht. Darüber
hinaus wird die Verknüpfung softwareunterstützter Betreuung mit personeller Unterstützung aufgezeigt.
1
http://online-campus.net (Stand: 30.06.2007)
67
2
Konzept des Level Supports
Im Gegensatz zu Präsenzlernangeboten wächst beim E-Learning der Betreuungsaufwand
mit steigender Teilnehmerzahl wesentlich steiler an [GSW03]. Insbesondere, wenn die
optimale Betreuungsrelation von maximal 1:12 bis 1:15 [Mü01] überschritten wird. Um
die Qualität der Betreuung beim E-Learning, auch unter Berücksichtigung eines angemessenen Betreuungsaufwandes, realisieren zu können, bietet das Konzept des Level
Supports Anhaltspunkte für die Organisation tutorieller Betreuung. Im Bereich des ITService Managements wird die Implementierung eines Level Supports bereits als eine
notwendige Voraussetzung für die zielgerichtete Bearbeitung von Kundenanfragen betrachtet, um qualitativ hochwertige Dienstleistung zu konkurrenzfähigen Preisen anbieten zu können [EK04]. Die Einbeziehung möglichst vielfältiger Kommunikations-wege
soll eine schnelle und kompetente Beantwortung von Anfragen, z.B. durch den Einsatz
eines Call Center, bieten [BF99]. Dieses Konzept wird zunehmend auch von Bildungsorganisationen übernommen. Als erste und zentrale Anlaufstelle für Lernende [EHF98]
[Wo04] stellt es den zentralen Kontaktpunkt zwischen Lernenden (Kunden) und Betreuenden (Kunden-Service) dar.
Durch eine zentrale Anlaufstelle kann verhindert werden, dass die Lernenden versuchen,
kompetente Betreuungspersonen direkt zu erreichen, da dies bei Erfolglosigkeit unnötige
zeitliche Ressourcen strapaziert und dies zu Frustrationen bei den Lernenden und
Betreuenden führen kann. Darüber hinaus wird eine kompetente und schnelle Beratung
ermöglicht sowie die Notwendigkeit der Weiterleitung an andere Ansprechpersonen
reduziert [Wo04]. Aus diesem Grund sollten auch kleine Bildungsanbieter – mit einer
geringen Anzahl von Lernenden und geringen finanziellen Mitteln – eine solche zentrale
Anlaufstelle anbieten (z.B. Sekretariat) (vgl. Abb. 1).
CALL
CENTER
BETREUENDE
LERNENDE
LERNENDE
LERNENDE
Abbildung 1: Kontaktpunkt Call Center
Das Hauptziel besteht daher darin, eine schnelle Hilfe für aktuell auftretende Probleme
zu bieten, d.h. möglichst viele Fragen bereits bei der ersten Kontaktaufnahme zu beantworten, um auf diese Weise eine geringe Weitergabe von Fragen und Problemmeldungen an nachfolgende Spezialistenteams zu vermeiden [RM98].
68
Um die auf diese Weise gewonnenen, vielfältigen Informationen über die Lernenden zu
dokumentieren, ist eine geeignete Software erforderlich. Nur durch die technischen
Möglichkeiten der Informationssammlung und des -austausches kann eine optimale
Betreuung gewährleistet werden. Beispielsweise können Gesprächsverläufe dokumentiert und bei erneuten Anfragen des Lernenden bei der Beratung – auch durch andere
Betreuende – eingesehen und berücksichtigt werden. Durch die Dokumentation und
Analyse von Informationen über die Lernenden wird auf diese Weise eine kompetente
und schnelle Beratung ermöglicht, die zu einer hohen Zufriedenheit und Teilnehmerbindung führen kann [Wo04].
Die Organisation der Betreuung kann über ein (One Level-Support) oder mehrere Level
(Multiple Level-Support) erfolgen.
2.1
One Level-Support
Erfolgt die Organisation der Betreuung als One Level-Support, stellen die Lernenden
ihre Anfragen direkt an die, für diese Fragestellung kompetente/n Ansprechpartner/in
und erhalten von dieser Person eine Rückmeldung. Zusätzlich zu den Lehrenden werden
durch den Einsatz neuer Medien auch im Rahmen traditioneller Lernangebote weitere
Personen in das Betreuungsteam integriert, die im Rahmen eines „One Level-Supports“
bei Bedarf von den Lernenden direkt kontaktiert werden (vgl. Abb. 2).
Kursbetreuer/in
LERNENDE
Techniker
Sekretariat
Abbildung 2: One Level-Support
Ob die Betreuung im Rahmen eines One Level-Support oder – wie im nächsten Kapitel
beschieben – über mehrere Level erfolgen sollte, ist abhängig von der Betreuungsrelation, den finanziellen und personellen Ressourcen der Bildungsorganisation und der
Anzahl der Lernenden. Können kleine Betreuungsorganisationen mit einer geringen
Anzahl von Lernenden keine zentrale Anlaufstelle anbieten, müssen bei einem solchen
One Level-Konzept alle Beteiligten umfassend informiert sein (z.B. unterstützt durch
eine technische Informationsbasis), um möglichst viele Fragen aus unterschiedlichen
Bereichen beantworten und somit die Notwendigkeit einer Weiterleitung verhindern zu
können. Darüber hinaus wird das Verantwortlichkeitsgeflecht insbesondere bei einer
differenzierten Arbeitsteilung leicht unübersichtlich, so dass die Lernenden bei der Suche nach einer kompetenten Ansprechperson unterstützt werden sollten. Die Kentucky
Virtual University2 bietet den Lernenden beispielsweise die Möglichkeit, ihr Problem in
ein Hilfeformular einzugeben. Die Lernenden erhalten daraufhin eine Telefonnummer
2
Kentucky Virtual University: http://www.kyvu.org (Stand 26.03.2007)
69
der entsprechenden Ansprechperson [HM03]. Weitere Unterstützungsmöglichkeiten
werden in Kapitel 2.4 und Kapitel 3.2 erläutert.
2.2
Multiple Level-Support
Das Konzept des Two Level-Supports [AKT02] und Three Level-Supports [Wi01] wird
zunehmend auf den Bereich E-Learning übertragen. Eine Betreuung über mehrere Level
hinweg ist insbesondere geeignet, um eine große Anzahl von Lernenden effektiv und
effizient zu betreuen. In Anlehnung an ein Call Center erfolgt eine Bearbeitung von
Anfragen seitens der Lernenden über mehrere Level hinweg (vgl. Abb. 3).
FRONT OFFICE
LERNENDE
BACK OFFICE
Experte/Expertin A
Call Center
Experte/Expertin B
Experte/Expertin C
Abbildung 3: Front Office- und Back Office-Bereiche [Oj07]
Als „Front Office“ wird der Bereich bezeichnet, der als erste zentrale Anlaufstelle von
eingehenden Anfragen erreicht wird. Hier stehen Ansprechpartner/innen zur Verfügung,
die über die erforderlichen Kenntnisse verfügen, um eine möglichst große Anzahl von
eingehenden Anfragen bereits hier abschließend zu bearbeiten oder diese ggf. gezielt
weiterzuleiten [BF99]. Da die Lernenden beim E-Learning gerade zu Beginn des Lernangebotes viele Anfragen stellen, können die Betreuenden zumindest in dieser Kernphasen durch beispielsweise fortgeschrittene Studierende von der Beantwortung einfacher
technischer und organisatorischer Anfragen entlastet werden. In den „Back OfficeBereich“ werden die Anfragen an Expert/inn/en weitergeleitet, für die im Front Office
kein ausreichender Service gewährleistet werden konnte.
Der Vorteil für die Lernenden bei einem Multiple Level-Konzept besteht darin, dass
‚Universalansprechpersonen‘ im First Level-Support für alle Fragen zeitnah zur Verfügung stehen. Darüber hinaus wird den Lernenden abgenommen, die kompetente Ansprechperson für ihr Anliegen selber herauszufinden. Sollte der First Level-Support den
Lernenden nicht weiterhelfen können, wird die Anfrage an eine kompetente Ansprechperson im Second Level-Support weitergeleitet. Für die Betreuenden besteht der Vorteil
dieses Konzeptes darin, dass sie durch das Filtern von einfachen organisatorischen oder
technischen Anfragen deutlich entlastet werden [AKT02].
Bei einem Three Level-Support wird das „First Level“ (Front Office) und das „Second
Level“ (Back Office-Bereich) durch das „Third Level“ ergänzt. Dieser dritte Bereich
um-fasst beispielsweise die Dienstleistung des Herstellers oder externe Spezialist/inn/en.
Wilbers [Wi01] veranschaulicht einen möglichen Three Level-Ablauf der Betreuung
beim E-Learning im universitären Bereich. Im Level 1 erfolgt die sofortige Bearbeitung
einfacher Anfragen durch beispielsweise eine/n Mitlerner/in oder studentische/n Tu-
70
tor/in. Komplexere Anfragen werden an höher qualifizierte Mitarbeiter/innen (z.B. wissenschaftliche Mitarbeiter/innen) im Level 2 weitergeleitet. An das Level 3 erfolgt eine
Weiterleitung von Anfragen an die Entwicklungsabteilung, Professor/inn/en, (externe)
Expert/inn/en oder Techniker/innen.
Die Voraussetzung für eine optimale Zusammenarbeit zwischen den verschiedenen Level besteht in klaren Strukturen hinsichtlich der Aufgaben und Verantwortlichkeiten
eines jeden Teammitgliedes, um die Weiterleitung der Anfragen aus dem Front Office an
die korrekte, zuständige Person im Back Office zu gewährleisten. Für den Three LevelAblauf der tutoriellen Betreuung besteht bei Einsatz weniger qualifizierter
Ansprechpartner/innen im ersten Level vor allem die Gefahr, dass Fragen nicht
kompetent beantwortet werden [BF99]. Lösungsmöglichkeiten werden in Kapitel 2.4
und Kapitel 3.2 erläutert.
2.3
Lerngruppen- und Fachtutor/inn/en
Wird in einem Betreuungskonzept die Trennung zwischen Lerngruppentutor/inn/en und
Fachtutor/inn/en umgesetzt, fungieren die Lerngruppentutor/inn/en als First LevelSupport und die Fachtutor/inn/en als Second Level-Support (vgl. Abb. 4).
FIRST LEVEL-SUPPORT
SECOND LEVELSUPPORT
Lerngruppentutor/in
LERNENDE
Fachtutor/in
Sekretariat/Verwaltung
Technischer Support
Abbildung 4: Two Level-Support [Oj07]
Nach Sautner und Sautner [SS04] hat sich insbesondere bei zeitlich umfangreichen Bildungsangeboten und bei Lernangeboten mit konstanten Lerngruppen bewährt, die Bereiche der fachlichen Unterstützung und der Lerngruppenbetreuung voneinander zu trennen
(vgl. Abb. 5). Im Folgenden wird anhand des Studienprogrammes Educational Media
veranschaulicht, wie durch eine Trennung der Aufgabenbereiche die personellen Ressourcen im Betreuungsteam optimal genutzt werden können.
LERNGRUPPENTUTOR/IN
FACHTUTOR/IN
Moderation von Lerngruppentreffen
Klärung organisatorischer Fragen
Motivation
„Organisatorische/r Vermittler/in“
Produktion von Lernmaterial
Fragenbeantwortung/Feedbacks
Vorträge/Workshops
Prüfungen/Leistungsbeurteilung
Abbildung 5: Trennung Lerngruppentutor/in und Fachtutor/in [Oj07]
71
Ein/e Lerngruppentutor/in begleitet ihre bzw. seine Lerngruppe über den gesamten Verlauf des Lernangebotes und je nach aktuellem Themengebiet bzw. Modul, stoßen die
entsprechenden Fachtutor/inn/en als Ansprechpartner/innen hinzu. Die Begleitung durch
Fachtutor/inn/en erfolgt im Rahmen dieses Betreuungskonzeptes durch die Aufbereitung
und inhaltliche Betreuung der Kurse bzw. Lernmaterialien. Lerngruppentutor/inn/en
stehen jedoch im direkten Diskurs mit den Lernenden und benötigen daher auch ein
gewisses Fachwissen [Ar04]. Nach Sautner und Sautner [SS04] vereint sich idealerweise
die Rolle von Lerngruppentutor/inn/en und die Rolle von inhaltlichen Expert/inn/en in
einer Person. Ein solches Betreuungskonzept eignet sich insbesondere, wenn Lernende
in temporären Lerngruppen ein Lernangebot durchlaufen und sich themen- bzw. modulabhängig im Verlauf des Lernangebotes mehrfach neu zusammensetzen und dementsprechend eine temporäre Lerngruppenbetreuung ausreicht.
Die Arbeitsteilung in einem Betreuungsteam macht ein gut organisiertes Personaleinsatzmanagement erforderlich [EHF98]. Im folgenden Kapitel wird die zentrale
Schnittstellenfunktion beschrieben, die von Online-Tutor/inn/en eingenommen wird und
dargestellt, wie diese durch den Aufbau eines effektiven Informationsmanagements
unterstützt werden kann.
2.4
Technologische Unterstützung und Klärung der Verantwortlichkeiten
Für ein erfolgreiches Betreuungskonzept ist ebenso wie bei einer Call CenterImplementierung die Entwicklung wirkungsvoller Prozesse und Verfahren, die Nutzung
geeigneter Technologien sowie die Koordination und Zusammenführung der unterschiedlichen Aufgaben erforderlich [EHF98].
Lerngruppentutor/inn/en nehmen im Rahmen eines solchen Betreuungsteams eine zentrale Schnittstellenfunktionen ein [AKT02]. Als unmittelbare Ansprechpartner/innen für
die Lernenden fungieren sie als ‚Brücke‘ bzw. ‚organisatorische Vermittler‘ zwischen
den Lernenden, den Autor/inn/en, technischen Expert/inn/en und dem Bildungsträger.
LERNGRUPPENTUTOR/IN
LERNENDE
Abbildung 6: Lerngruppentutor/in als Brücke
72
EXPERT/INN/EN,
AUTOR/INN/EN ETC.
LERNENDE
LERNENDE
Arnold et al. [Ar04] weisen darauf hin, dass die Betreuenden klare Vorstellungen über
ihre Rollen, Funktionen und Aufgaben sowie eine klare Verortung innerhalb des Verantwortungsgeflechtes benötigen. Durch klare Strukturen und die Klärung von Zuständigkeiten und Entscheidungskompetenzen können die personellen Ressourcen effizient
genutzt werden. Die Zuständigkeitsbereiche sind sowohl gegenüber den Lernenden, als
auch innerhalb des Betreuungsteams transparent zu machen. Die Transparenz der Zuständigkeitsbereiche und die erforderliche enge Abstimmung im Betreuungsteam
[HB02b] erfordert eine ausreichende Versorgung mit relevanten Informationen (z.B.
über die Struktur der Organisation und des Bildungsangebotes, Verantwortungsbereiche
aller Mitarbeiter/innen, Ansprechpartner/innen für Online-Tutor/inn/en und Lernende
sowie über Kurse, Module und Gestaltungsspielräume) [Ar04]. Zur Qualitätssicherung
des Lernangebotes – insbesondere wenn die Mitglieder eines Betreuungsteams nicht an
einem Ort tätig sind – ist ein transparenter Informations-fluss zu gewährleisten, um einen
gemeinsamen Austausch über Ideen zur Modul-verbesserung und die Klärung allgemeiner Fragen zu ermöglichen [Ar04]. Dies kann durch den Aufbau eines effektiven
Informations- bzw. Wissensmanagements ermöglicht werden, beispielsweise durch die
Nutzung einer speziellen Software, die den Aufbau von Wissensdatenbanken unterstützt.
In einem Datenpool werden u.a. technische Problemlösungen gesammelt, auf die bei
Bedarf direkt zugegriffen werden kann. Obwohl der Aufbau einer solchen
Wissensdatenbank und eines effektiven Informations-managements mit einem
erheblichen Aufwand verbunden ist, bietet die konsequente Umsetzung eine Reihe von
Vorteilen für die Organisation (z.B. eine steigende Sofort-lösungsquote, geringere
Einarbeitungs- und Schulungszeiten der Mitarbeiter/innen, eine sichere Archivierung
von Informationen, eine höhere Effizienz beim Informations-austausch und eine höhere
Flexibilität sowie letztendlich auf diese Weise Kosten-einsparungen) (vgl. Kapitel 2.4
und Kapitel 3.2).
3
Studienprogramm Educational Media
Im Folgenden wird das Konzept des Level Supports anhand des viersemestrigen, berufsbegleitenden Online-Weiterbildungsstudiums Educational Media3 der Universität Duisburg-Essen veranschaulicht.
3.1
Betreuungskonzept
Das Studium startet mit einer Präsenzveranstaltung, um den Lernenden insbesondere
eine technische Einführung zu geben und um die Lerngruppenbildung zu unterstützen.
Die Lerngruppen bestehen aus ca. sechs Personen und werden das gesamte Studium über
von einem bzw. einer Lerngruppentutor/in begleitet. Nach der Präsenzveranstaltung folgt
die erste Onlinephase, in der den Studierenden in einem dreiwöchigen Rhythmus Studienmaterialien (Studienbriefe, Einzel- und Gruppenaufgaben etc.) auf einer Lernplattform zur Verfügung gestellt werden. Jedes Semester schließt mit einer Präsenzveranstaltung ab, um Prüfungen abzulegen, Projekte zu präsentieren und um den Aus3
http://www.online-campus.net (Stand 24.03.2007)
73
tausch in den Lerngruppen zu fördern. Um die persönliche Beziehung zwischen den
Online-Tutor/inn/en und den Lernenden sowie zwischen den Lernenden zu vertiefen,
finden darüber hinaus gemeinsame Abendessen und Exkursionen statt. Zum Studienabschluss erfolgt im Rahmen einer Abschlussveranstaltung die Verleihung der MasterUrkunden. Anschließend werden die Absolvent/inn/en in ein Alumni-Netzwerk aufgenommen. Um das Gruppengefühl zu stärken und personale Präsenz herzustellen, ist die
Kommunikation zwischen Online-Tutor/inn/en und Lernenden von besonderer Bedeutung [NNK04]. Es finden daher alle drei Wochen virtuelle, synchrone Lerngruppentreffen statt, bei denen auch der/die Lerngruppentutor/in anwesend ist. Im Vordergrund steht
hierbei nicht nur der fachliche Austausch, sondern auch die Koordination der Gruppenaufgabenbearbeitung, die Klärung organisatorischer Fragen und informelle Gespräche.
Da die virtuellen Lerngruppentreffen überwiegend in den Abendstunden und die Präsenzveranstaltungen am Wochenende stattfinden, kann ein/e Lerngruppen-Tutor/in aus
terminlichen Koordinationsgründen nur die Betreuung einer begrenzten Anzahl von
Lerngruppen übernehmen. Daher bietet es sich an, durch die fachliche Betreuung eines
Themengebietes das Aufgabenspektrum eines Lerngruppen-tutors bzw. einer Lerngruppentutorin zu ergänzen. Im Rahmen des Studienprogramms wird das „split role model“
[KNG04] umgesetzt, d.h. es erfolgt eine Trennung zwischen Lerngruppen- und
Fachtutor/inn/en (vgl. Kapitel 2.3). Jedes Modul wird von Fachtutor/inn/en und die
Lerngruppen von Lerngruppentutor/inn/en betreut. Die fachbezogene Betreuung unterstützt insbesondere die Auseinandersetzung der Lernenden mit den Lernmaterialien und
die person- bzw. gruppenbezogene Betreuung schafft u.a. eine lernförderliche Atmosphäre in den Lerngruppen [NNK04]. Abbildung 7 veranschaulicht die arbeitsteilige
Organisation und das Beziehungsgeflecht zweier Online-Tutor/inn/en. Zwischen allen
Beteiligten findet ein intensiver kommunikativer Austausch statt.
Fachtutor/in
Kurs A
Fachtutor/in
Kurs B
OnlineTutor/in
A
Lerngruppe A
Lerngruppe B
OnlineTutor/in
B
Lerngruppentutor/in A
Abbildung 7: Kommunikationsprozesse zwischen Studierenden und Tutor/inn/en [Oj07]
Bei diesem Betreuungskonzept wird ein Two Level-Support umgesetzt, bei dem sowohl
die Lerngruppentutor/inn/en, Fachtutor/inn/en als auch das Sekretariat den First LevelSupport übernehmen. Die Fachtutor/inn/en stehen für inhaltliche Anfragen zur Verfügung und leiten u.U. Anregungen und Kritik an die Autor/inn/en der Studien-materialien
weiter. Organisatorische Anfragen werden an die Lerngruppentutor/inn/en oder an das
Sekretariat gestellt. Einige Anfragen erfordern darüber hinaus eine Rücksprache mit der
Studienprogrammleitung. Die Beantwortung technischer Anfragen übernehmen die
74
Lerngruppentutor/inn/en. Diese werden nur dann an den technischen Support übermittelt, falls eine abschließende Beantwortung nicht möglich war.
Die Betreuung durch die Online-Tutor/inn/en erfolgt im Rahmen der üblichen Bürozeiten und zusätzlich am Abend (z.B. virtuelle Treffen) oder an Wochenenden (Präsenzveranstaltungen). Ermöglicht wird diese umfangreiche Betreuung durch eine arbeitsteilige
Organisation, einen flexiblen Arbeitszeitrahmen sowie durch einen transparenten Informationsfluss. Die Mehrheit der Studierenden des Online-Studienprogramms empfinden
laut einer Studierendenbefragung [Oj07] die Betreuung als sehr wichtig4, die Rollenaufteilung beim diesem Studienprogramm als gut nachvollziehbar5 und sind mit der Betreuung zufrieden 6. Die Frage, ob sich die Lernenden im Laufe des Lernangebotes einen
Wechsel des bzw. der Lerngruppen-tutors/in gewünscht haben, wird von allen Befragten
verneint. Die Gegenfrage, ob die Lernenden lieber eine/n Online-Tutor/in hätten, der/die
sowohl für die fachliche Betreuung sowie auch für die Betreuung der Lerngruppe verantwortlich ist zeigt, dass dies überwiegend nicht der Fall ist7. Die Ergebnisse weisen
darauf hin, dass das Betreuungskonzept im Rahmen eines Two Level-Supports bei diesem Online-Studien-programm erfolgreich umgesetzt wird. Durch den Two LevelSupport kann das häufig unterschätzte Betreuungsproblem gelöst werden, dass Anfragen
von Lernenden und Studieninteressierten nicht ausreichend schnell und kompetent
beantwortet werden. Das Multiple Level-Konzept hat den Vorteil, dass die Lerngruppentutor/inn/en über ein großes Überblickswissen verfügen und den Lernenden als erste
Ansprechpartner/innen zur Verfügung stehen sowie die meisten Anfragen umgehend
beantwortet können oder die Lernenden an eine kompetente Ansprechperson weiterleiten. Darüber hinaus werden die Fachtutor/inn/en von der Beantwortung einfacher technischer und organisatorischer Anfragen entlastet.
LERNENDE
FIRST LEVEL-SUPPORT
Lerngruppentutor/in
Sekretariat/Verwaltung
Fachtutor/in
SECOND LEVEL-SUPPORT
Autor/inn/en
Technischer Support
Studienprogrammleitung
Abbildung 8: Two Level-Support im Studienprogramm Educational Media
3.2
Lernumgebung
Im Rahmen des Online-Studienprogramms Educational Media ermöglicht die Kombination einer Lernplattform und eines Content Management Systems einen transparenten
Informationsfluss unter den Lernenden, Betreuenden sowie auch zwischen den Lernen4
sehr wichtig (61,5%) bzw. überwiegend wichtig (38,5%)
vollkommen (38,5%), überwiegend (23,1%), etwas (23,1%) bzw. kaum (15,4%) nachvollziehbar (n=13)
6
sehr zufrieden (76,9%) bzw. zufrieden (23,1%) mit der Betreuung durch die Lerngruppentutor/inn/en. Mit der
Betreuung durch die Fachtutor/inn/en sind 69,2% der Befragten sehr zufrieden und 30,8% zufrieden (n=13)
7
61,5% der Befragten überhaupt nicht, kaum (7,7%) bzw. nur etwas (15,4%) zutrifft. Nur für einen Befragten
(7,7%) trifft dies überwiegend und für einen Befragten (7,7%) vollkommen zu. (n=13)
5
75
den und Betreuenden (vgl. Kapitel 2.4). Auf diese Weise wird der Lernprozess der Studierenden gefördert und die Online-Tutor/inn/en bei der Organisation der Betreuung
unterstützt. Die Lernplattform Online-Campus8 bietet den Studierenden eine personalisierbare Umgebung. Neben Lernmaterialen, dem aktuellen Lernstand sowie vielfältigen
Kommunikations- und Kooperationswerkzeugen (z.B. Forum, Chat) lassen sich darüber
hinaus externe Werkzeuge und Informationsquellen (z.B. Blogs, Wikis, Newsfeeds,
Podcasts) integrieren. Diese können auf einer individuell konfigurierbaren Startseite
ausgewählt und eingestellt werden. Auf diese Weise wird ein intensiver Austausch, sowohl zwischen den Lernenden als auch mit den Betreuenden, unterstützt. Im Rahmen
von Einzel- und Gruppenaufgaben arbeiten die Lernenden beispielsweise alleine oder
gemeinsam in Lerngruppen an Materialien und produzieren Inhalte. Die Wahl eines
Werkzeugs zu Lösung der Aufgaben steht den Studierenden in der Regel frei. Die Lernenden werden jedoch dabei unterstützt, verschiedene Bearbeitungsmöglichkeiten einer
Lernaufgabe und Tools sowie ihre Möglichkeiten und Grenzen kennen zu lernen und zu
reflektieren. Die Entscheidung, welches Tool sie letztendlich nutzen möchten und welche Vorgehensweise bei der Aufgabenlösung sie wählen, obliegt letztendlich den Lernenden. Dies kann für ein- und dieselbe Aufgabe von einer Lerngruppe ein Blogeintrag
und von einer anderen Lerngruppe ein Wikibeitrag sein.
Darüber hinaus bietet das persönliche Profil im Online-Campus den Lernenden umfangreiche Möglichkeiten, die Eindrucksbildung zu unterstützen. Die Lernenden und OnlineTutor/inn/en stellen sich hier mit ihrem Foto sowie mit ihren beruflichen und persönlichen Angaben vor. Zusätzlich können vielfältige Kontaktinformationen eingebunden
werden (z.B. ICQ-Nummer, Skype-Name, eigene Homepage). Zur weiteren Unterstützung der Studierenden und als zentrales Werkzeug im Rahmen des Betreuungsteams
wird darüber hinaus ein Content Management System (CMS) (Drupal) eingesetzt. Durch
ein differenziertes Rollen- und Rechtesystem wird die Grundidee, dass sich alle Nutzer/innen mit eigenen Beiträgen, Kommentaren oder Blogeinträgen etc. aktiv an einer
Website beteiligen können, umgesetzt. Statt lediglich Kommunikations-möglichkeiten
und Content für Lernende bereit zu stellen wird von einem didaktischen Ansatz ausgegangen, der individuelle und soziale Lernaktivitäten fokussiert.9
Neben der Bereitstellung eines umfangreichen Informationspaketes (z.B. Übersicht der
Studieninhalte und Ansprechpartner) bietet ein CMS u.a. die Möglichkeit für die Organisation von Terminen, Bildern und Anmeldungen 10. So werden beispielsweise nach jeder
Präsenzveranstaltung von den Online-Tutor/inn/en und Studierenden Bilder eingestellt
und ausgetauscht. Darüber hinaus dient das CMS als Evaluationstool und zur Teilnehmerverwaltung. Neben regelmäßig durchgeführten Befragungen werden hier alle Studierendeninformationen dokumentiert (vgl. Kapitel 2.4). Ebenso wie die Lernenden können
auch die Online-Tutor/inn/en gemeinsam Inhalte erstellen und editieren. Diese Möglichkeit wird im Rahmen des Betreuungsteams häufig genutzt, um auch virtuell gemeinsam
Ideen und Materialien zu entwickeln. Die Inhalte werden als RSS-Feed exportiert bzw.
importiert sowie Nachrichten aus externen Blogs und Links auf persönliche (externe)
Internet-Tools (z.B. die persönliche Website, Flickr, Furl) eingebunden. Darüber hinaus
werden Neuigkeiten zum Thema E-Learning von externen Sites integriert und gesam8
9
http://online-campus.net (Stand 24.03.2007)
http://mediendidaktik.uni-duisburg-essen.de/drupalms (Stand 24.03.2007)
http://mediendidaktik.uni-duisburg-essen.de/node/3566 (Stand 24.03.2007)
10
76
melt.11 Auf diese Weise unterstützt ein Content Management System einerseits die Entwicklung aktiver Learning Communities, andererseits wird der Austausch und die Zusammenarbeit im Betreuungsteam durch die Möglichkeit u.a. der gemeinsamen Erstellung von Leitfäden für (externe/neue) Online-Tutor/inn/en, des Austauschs von
Bookmark-Liste, Terminen und Bildern gefördert. Die Webseite wird zunehmend zu
einem Ort des sozialen Austausches, zwingt jedoch die Lernenden und Betreuenden
nicht, diesen Ort als Zentralstelle für alle ihre Informationen anzuerkennen. Stattdessen
holt sich das System die Informationen von verschiedenen Orten und führt sie an einem
zentralen Ort zusammen [Ke06].
4
Fazit
Im Rahmen eines Betreuungskonzeptes sollten vielfältige Möglichkeiten für eine indirekte Betreuung (z.B. Informationsangebote und Selbsteinschätzungstests, technische
Hotline) als auch für eine direkte, persönliche Betreuung durch die aktive Kontaktaufnahme und Interaktion mit den Lernenden mittels einer großen Bandbreite an Kommunikationsmöglichkeiten (Foren, Instant-Massaging etc.) berücksichtigt werden. Die Angemessenheit einer direkten oder indirekten Betreuung ist einerseits abhängig vom
Lernszenario und andererseits von den Bedürfnissen der Lernenden. Bei anspruchsvollen, komplexen und zeitlich lang angelegten Lernangeboten ist eine aktive und direkte
Unterstützung der Lernenden von großer Bedeutung [Ar04]. Lernende wünschen sich
eine zentrale Anlaufstelle und eine schnelle Beantwortung ihrer Anfragen. Das Konzept
des Level Support bietet eine Möglichkeit der effizienten und effektiven Organisation
und Gestaltung tutorieller Betreuung. Insbesondere bei stark arbeitsteiligen Betreuungskonzepten, bei denen die Betreuung über verschiedene Level erfolgt, können die personellen Ressourcen durch klare Strukturen und die Klärung und Transparenz von Zuständigkeiten und Entscheidungskompetenzen effizient genutzt werden. Sowohl für die
Versorgung mit relevanten Informationen innerhalb des Betreuungsteam als auch für die
Gestaltung einer bedarfsgerechten Betreuung der Lernenden bietet die Kombination
einer Lernplattform mit einem Content Management System vielfältige Möglichkeiten.
Literaturverzeichnis
[AKT02] Arnold, P.; Kilian, L. & Thillosen, A.: So lonely!?! – Online-Betreuung als kritische
Erfolgsbedingung beim telematischen Studieren. Ergebnisse einer Befragung von Studierenden und Mentoren in der Virtuellen Fachhochschule für Technik, Informatik und
Wirtschaft (VFH). In G. Bachmann; O. Haefeli & M. Kindt (Hrsg.), Campus 2002: Die
Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band
18, S. 334–344). Waxmann, Münster, 2002.
[Ar04] Arnold, P.; Kilian, L.; Thillosen, A. & Zimmer, G.: E-Learning. Handbuch für Hochschulen und Bildungszentren. Didaktik, Organisation, Qualität. BW Bildung und Wissen,
Nürnberg, 2004.
[BF99] Böse, B. & Flieger, E.: Call Center. Mittelpunkt der Kundenkommunikation. Vieweg &
Sohn, Braunschweig, Wiesbaden, 1999.
11
www.medida.info (Stand 24.03.2007)
77
[EHF98] Evanson, A.; Harker, P. T. & Frei, F. X.: Effective call center management: Evidence
from financial services. 1998. Verfügbar unter: http://www.hbs.edu/research/facpubs/wo
rkingpapers/papers2/9899/99-110.pdf [02.02.2006]
[EK04] Ellis, A. & Kauferstein, M.: Dienstleistungsmanagement. Erfolgreicher Einsatz von
prozessorientiertem Service Level Management. Springer, Berlin, Heidelberg, New York, 2004.
[GSW03]Gierke, C.; Schlieszeit, J. & Windschiegl, H.: Vom Trainer zum E-Trainer. Neue Chancen für den Trainer von morgen. Offenbach: Gabai, 2003.
[HB02a] Herrmann, M. & Barz, H.: Online-Lehrbuch Jugendforschung. In G. Bachmann; O.
Haefeli & M. Kindt (Hrsg.), Campus 2002. Die Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band 18, S. 402–407). Waxmann, Münster,
2002.
[HB02b] Hinze, U. & Blakowski, G.: Anforderungen an die Betreuung im Online Lernen: Ergebnisse einer qualitativen Inhaltsanalyse im Rahmen der VFH. In G. Bachmann; O. Haefeli
& M. Kindt (Hrsg.), Campus 2002. Die Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band 18, S. 323–333). Waxmann, Münster, 2002.
[HM03] Hitch, L. P. & MacBrayne, P.: A Model for Effectively Supporting e-Learning. The
Technology Source. Archives at the University of North Carolina, 2003.Verfügbar unter:
http://technologysource.org/article/model_for_effectively_supporting_elearning
[02.02.2006]
[Ke01] Kerres, M.: Multimediale und telemediale Lernumgebungen. Konzeption und Entwicklung. München: Oldenbourg, 2001.
[Ke06] Kerres, M.: Web 2.0 und seine Implikationen für E-Learning, deutsche Fassung von:
Web 2.0 and its implications to E-Learning, presented at Microlearning Conference,
Innsbruck, 9 June 2006, retrieved from http://mediendidaktik.de
[KNG04]Kerres, M.; Nübel, I. & Grabe, W.: Gestaltung der Online-Betreuung für E-Learning. In
D. Euler & S. Seufert (Hrsg.), E-Learning in Hochschulen und Bildungszentren (S. 335–
349). München: Oldenbourg, 2004.
[Mü01] Müskens, I.: Selbstverständnis, Aufgaben und Funktionen von Tutoren in OnlineLernumgebungen. In Arbeitskreis Universitäre Erwachsenenbildung (Hrsg.), Hochschule
und Weiterbildung (S. 29-34). Hamburg: AUE Informationsdienst, 2001.
[NNK04]Nübel, I.; Nattland, A. & Kerres, M.: Das Studienprogramm Educational Media: Qualifizierung für E-Learning-Experten an Hochschulen. In C. Bremer & K. E. Kohl (Hrsg.), ELearning-Strategien und E-Learning-Kompetenzen an Hochschulen („Blickpunkt Hochschuldidaktik“, S. 411–21). Bertelsmann, Bielefeld, 2004.
[Oj07] Ojstersek, N.: Betreuungskonzepte beim Blended Learning. Gestaltung und Organisation
tutorieller Betreuung. Waxmann, Münster, 2007.
[RM98] Reinmann-Rothmeier, G. & Mandl, H.: Wissensvermittlung. Ansätze zur Förderung des
Wissenserwerbs. In F. Klix & H. Spada (Hrsg.), Enzyklopädie der Psychologie, Wissenspsychologie, Band 6 (S. 457–500). Hogrefe, Göttingen, 1998.
[Sc04] Schlottau, W.: Fragen der Didaktik virtueller Lernprozesse. In K. Hensge & P. Ulmer
(Hrsg.), Kommunizieren und Lernen in virtuellen Gemeinschaften. Neue Wege der
Qualifizierung des Bildungspersonals (S. 92–117). Bertelsmann, Bielefeld, 2004.
[SS04] Sautner, A.M. & Sautner, W.: Blended Learning: Effiziente Integration von E-Learning
und Präsenztraining. Leuchterhand, München, 2004.
[Wi01] Wilbers, K.: E-Learning didaktisch gestalten. In A. Hohenstein & K. Wilbers (Hrsg.),
Handbuch E-Learning. Fachverlag Deutscher Wirtschaftsdienst, Köln, 2001.
[Wo04] Woudstra, A.; Huber, C. & Michalczuk, K.: Call Centers in Distance Education (Chapter
12). Theory and Practice of Online Learning. Althabasca University, 2004. Verfügbar
unter: http://cde.athabascau.ca/onlinebook/ch12.html [18.03.2006]
78
Ein generisches Konzept zur Realisierung von
Self-Assessments zur Studienwahl und Selbsteinschätzung
der Studierfähigkeit
Ashraf Abu Baker1, Alexander Tillmann2
1
2
Institut für Graphische Datenverarbeitung,
Kompetenzzentrum für Neue Medien in der Lehre
Johann Wolfgang Goethe-Universität Frankfurt
Robert-Mayer-Str. 10
60325 Frankfurt am Main
1
baker@gdv.cs.uni-frankfurt.de
2
a.tillmann@em.uni-frankfurt.de
Abstract: Für eine geeignete Studienwahl ist eine gute Passung zwischen den Studieninteressen und der Studierfähigkeit von angehenden Studierenden auf der einen Seite und den Anforderungen der Studiengänge auf der anderen Seite von besonderer Bedeutung. Sie kann dazu beitragen, Studienabbruchquoten zu senken
und die Studienzufriedenheit zu heben. An der Johann Wolfgang GoetheUniversität wurde im Rahmen des Projektes „megadigitale“ ein Self-AssessmentInstrumentarium entwickelt und in die Studienberatung der Studiengänge Informatik und Psychologie integriert. Es wird das neuartige, flexible und erweiterbare
Konzept zum Aufbau und Ablauf eines Self-Assessments beschrieben und seine
Umsetzung in der Informatik vorgestellt.
1
Einleitung
Die Wahl des Studienfaches wird bei vielen Studierenden neben inhaltlich-fachlichen
Entscheidungskriterien von zahlreichen anderen Faktoren beeinflusst, wie z.B. den angenommenen Berufchancen, dem Ruf bzw. Ansehen einer Fachdisziplin oder dem Studienort. Neigungen und Fähigkeiten der Studierenden treten bei der Wahl eines Studienganges nicht selten in den Hintergrund. Aufgrund fehlender Kenntnisse und Fehleinschätzungen liegen die Erwartungen der Studierenden häufig mit den tatsächlichen Studieninhalten und Anforderungen weit auseinander. Die von den Hochschulen kurz vor
Semesterbeginn angebotenen Orientierungsveranstaltungen richten sich im Wesentlichen
an Studierende, die sich bereits für ein bestimmtes Studium entschieden haben. Mangelnde Kenntnis der persönlichen Stärken, unrealistische Einschätzungen bezüglich der
eigenen Leistungsfähigkeit und Kompetenzen und falsche Vorstellungen von den Studieninhalten sind in vielen Fällen die Ursachen für Fehlentscheidungen bei der Wahl
eines Studiengangs.
79
Self-Assessments (Selbsteinschätzungstests) zur Studienwahl sind darauf ausgerichtet,
eine bessere Passung zwischen den Studieninteressen und der Studierfähigkeit von angehenden Studierenden und den Anforderungen eines Studienganges zu erzielen. Dabei
werden unterschiedliche Personenmerkmale nach eignungsdiagnostischen Kriterien im
Hinblick auf die gegebenen Anforderungen überprüft. Anschließend wird die Qualität
des Bearbeitungsergebnisses dem jeweiligen Kandidaten rückgemeldet. Die SelfAssessment-Tests werden eigenständig durchgeführt und die Ergebnisse sollten ausschließlich den Teilnehmern selbst zugänglich sein. Sie dienen der persönlichen Weiterentwicklung der Studienkandidaten und stellen damit einen Baustein zur Unterstützung
einer willentlichen Entscheidung für oder gegen ein Studienfach dar. Ein derartiges
Studienberatungsangebot zur Erkundung der eigenen Stärken und Schwächen hinsichtlich der Anforderungen des Studienfachs lässt in der Folge einen höheren Anteil an geeigneten Bewerbern für einen bestimmten Studienplatz und eine Steigerung der Studienzufriedenheit erwarten, so dass letztlich auch eine Senkung der Studienabbruchquoten,
die vor allem bei naturwissenschaftlichen Studiengängen und der Informatik besonders
hoch liegen, erhofft werden kann.
Mit Hilfe eines Self-Assessments können Studieninteressierte ihre Erwartungen mit den
Inhalten der jeweiligen Studiengänge vergleichen und Hinweise auf die von Seiten der
Universität erwartete Leistungsbereitschaft und geforderte kognitive Fähigkeiten bekommen. Eine durchdachte und wohl begründete Wahl der potentiellen Studienplatzbewerber, welche sich neben der erhofften Reduzierung an Studienabbrüchen auch in einer
kürzeren Studiendauer niederschlagen sollte, nutzt somit ökonomisch sowohl der Universität als auch dem Bewerber. Anhand der Rückmeldung des Self-Assessments werden
Wissenslücken aufgedeckt, so dass eine gezielte Vorbereitung auf das Studium möglich
wird. Auf diese Weise kann es zu einem homogeneren Kenntnisstand bei den Studierenden im ersten Semester kommen und einem „Erstsemesterschock“ entgegengewirkt
werden. So kann es durch das Beratungsangebot zu einer direkten Verbesserung der
Lehrsituation kommen. Im Folgenden wird ein generisches Konzept zur Erstellung eines
Self-Assessments vorgestellt und beispielhaft dessen Umsetzung und Implementierung
für den Studiengang Informatik an der Johann Wolfgang Goethe-Universität aufgezeigt.
Ein vergleichbares Instrumentarium wird für Studieninteressierte bundesweit bisher erst
an sehr wenigen Universitäten angeboten.
2
Das Konzept
Im Rahmen des E-Learning Projektes „megadigitale“ (www.megadigitale.de) wurde an
der J.W. Goethe-Universität im Fachbereich Informatik und Mathematik in Zusammenarbeit mit dem Fachbereich Psychologie ein generisches Konzept zur Realisierung von
fachunabhängigen Selbsteinschätzungstests entwickelt, die als Studienberatungsangebot
über das Internet zugänglich gemacht werden können. Generisch bedeutet in diesem
Zusammenhang, dass das Konzept so allgemeingültig ist, dass es unterschiedlichen Anforderungen genügt und sich damit an jedem Fachbereich und jeder Hochschule in beliebiger Sprache umsetzen lässt. Der allgemeingültige Anspruch bringt einige Anforderungen an das Konzept mit sich. Entsprechend der fachübergreifenden Einsetzbarkeit
soll das Konzept die Verwendung beliebiger Aufgabentypen wie z.B. Multiple-/Single-
80
Choice, Short-Answer-Aufgaben („Lückentext“), Ja-Nein-Fragen, figurale Matrizenaufgaben, Hot-Spots, usw. ermöglichen und sich nicht auf bestimmte Aufgabentypen beschränken, um unterschiedliche fachspezifische Aufgabenformen realisieren zu können.
Dabei soll das Konzept derart flexibel sein, dass einerseits eine Erweiterung und Umgestaltung von einzelnen Aufgaben und andererseits das Einfügen, Entfernen und Modifizieren von ganzen Testeinheiten mit minimalem Änderungsaufwand möglich ist.
Die erfassten Daten und Testergebnisse sollen unmittelbar im Anschluss an die Bearbeitung eine aussagekräftige Beurteilung der Studierfähigkeit der Benutzer sowie die
Abbildung und den Vergleich der Ergebnisse anhand einer Profilbildung zulassen. Die
Auswertung der Tests muss daher automatisiert ausgeführt werden. Um die Durchschnittswerte nicht zu verfälschen, sollten nicht ernsthaft durchgeführte Tests abgefangen werden.
Das Self-Assessment soll darüber hinaus die Anonymität der Nutzer wahren, um eine
unbefangene, „angstfreie“ Selbsteinschätzung zu gewährleisten. Teilnehmende sind
daher für das System anonyme Benutzer, die nur als solche identifiziert werden können.
In der anonymisierten Form liegen die Ergebnisse den Entwicklern zur Studienangebotsplanung und zum Zwecke der Evaluation vor. Die Daten bieten sowohl wichtige Hinweise über Vorkenntnisse und Leistungsniveau der Studienanfänger als auch – nach
Vergleich der Daten der Selbsteinschätzungstests mit Studienerfolgsdaten (Klausur- und
Prüfungsergebnisse) – über die Eignung des Self-Assessments zur Studienberatung
selbst [MJF06].
2.1
Aufbau
Konzeptgemäß besteht ein Self-Assessment aus einem organisatorischen Teil, einem
inhaltlichen Teil und einem Auswertungsteil. Der organisatorische Teil umfasst die
Start-, Beschreibungs-, Registrierungs- und Zugangsseiten sowie das Passwortmanagement. Die einzelnen Bearbeitungsbereiche werden im organisatorischen Teil vorgestellt
und ihre Bedeutung im Studiengang ersichtlich gemacht.
Der Aufbau des inhaltlichen Teils folgt einem bottom-up-Ansatz (siehe Abb. 1). Mehrere logisch zusammenhängende Aufgaben werden dabei zu einer Testeinheit, einem so
genannten Block, zusammengefasst. Mehrere Blöcke bilden gemeinsam ein Test-Modul.
Ein Assessment kann dabei aus beliebig vielen Modulen bestehen, die Fragen zu unterschiedlichen Themenbereichen umfassen. Die Aufgaben können nach kognitiven und
nicht kognitiven Aufgaben unterschieden werden [MK07]. Der kognitive Teil umfasst
z.B. Aufgaben zur Logik, zur Mathematik, zum algorithmischen Denken oder zum Textverständnis. Zu den nicht kognitiven Aufgabenbereichen „Studienverhalten und –motivation“ gehören unter anderem die Dimensionen Entscheidungsfähigkeit, Erfolgsorientierung, Zielgerichtetheit, Leistungsdenken, Anspruchsniveau, Lernbereitschaft, Arbeitshaltung und Lerntechniken.
Während die fachbereichsspezifischen Fragestellungen mit den kognitiven Aufgaben
von den jeweiligen Fachvertretern entwickelt werden müssen, können die von den Psy-
81
Abbildung 1: Bottom-up Ansatz des flexiblen und erweiterbaren Self-Assessment-Konzeptes
chologen entwickelten nicht-kognitiven Aufgaben zu den Bereichen „Studienverhalten
und Studienmotivation“ fachbereichsübergreifend übernommen werden.
Der Auswertungsteil fasst die Ergebnisse für unterschiedliche Aufgabendimensionen in
einem individuellen Profil zusammen, welches mit Durchschnittswerten und Expertenwerten verglichen werden kann. Dazu werden drei Profile erstellt und graphisch in Profillinien nebeneinander dargestellt.
2.2
Ablauf des Self-Assessments
Zur Durchführung des Self-Assessments ist eine anonyme Registrierung erforderlich.
Studierende erstellen dazu ein Pseudonym. Nach der Registrierung wird ein Aktivierungslink an die vom Teilnehmer eingetragene E-Mail-Adresse gesendet. Mit Hilfe
des Links wird der persönliche Self-Assessment-Zugang aktiviert. Die Bearbeitung der
Module kann sowohl im online- als auch im offline-Betrieb durchgeführt werden. Zur
Bearbeitung des Self-Assessments im offline-Modus können die Aufgaben vom WebServer heruntergeladen und anschließend zur Auswertung zurück zum Server übertragen
werden. Erst wenn alle Module vollständig bearbeitet wurden, wird eine individuelle
Auswertung erstellt und die Durchschnittsstatistik aller Ergebnisse aktualisiert. Nicht
ernsthaft durchgeführte Tests werden durch automatisierte Auswertungen der aufgezeichneten Nutzerdaten abgefangen und fließen nicht in die Gesamtwertung ein.
Die Navigation innerhalb der Inhaltsmodule ist besonders übersichtlich gestaltet, um
eine bestmögliche Orientierung zu gewährleisten (Abb. 2) und die Assessment-Teilnehmer möglichst wenig von den Aufgaben abzulenken.
Abbildung 2: Navigationsleiste mit Kennzeichnung der aktuellen Position
Die Reihenfolge, in der die Module bearbeitet werden sollen, kann von den Autoren
festgelegt werden. Bauen Aufgaben verschiedener Module aufeinander auf, stellt diese
82
Option eine wichtige Funktion zur Testkonstruktion dar. Ist es vorgesehen eine beliebige
Bearbeitungsreihenfolge zuzulassen, so ist dies ebenfalls möglich.
Timer erlauben eine maximale Bearbeitungszeit für die einzelnen Aufgaben vorzugeben
und zeitbeschränkte Pausen einzuplanen. Die Timer laufen unabhängig davon, ob die
Bearbeitung im Online- bzw. Offline-Betrieb erfolgt. Die Anzeige des Bearbeitungsstandes gibt einen Überblick über den Bearbeitungsfortschritt und ermöglicht eine zeitliche Orientierung innerhalb eines Moduls (Abb. 3).
Abbildung 3: Beispiel des Timers zur Anzeige der verbleibenden Bearbeitungszeit der aktuellen
Aufgabe oder der zeitbeschränkten Pausen. Rechts daneben wird zur Gesamtübersicht der Bearbeitungsstand innerhalb des aktuellen Moduls angezeigt.
Module, die während der Bearbeitung abgebrochen wurden, können fortgesetzt werden.
Beim erneuten Aufruf des Moduls wird der Benutzer genau an die Stelle des SelfAssessments zurückversetzt, an der er die Bearbeitung unterbrochen hat. Dies gewährleistet, dass eine Aufgabe innerhalb eines Moduls nur einmal bearbeitet wird, was für die
Evaluation des Self-Assessment-Instrumentariums selbst und die Einschätzung der Vorkenntnisse von Studienanfängern von großer Bedeutung ist. Die Nutzer werden nach
einem Abbruch durch eine im System integrierte tutorielle Unterstützung angeleitet
(Abb. 4).
Eine erneute Bearbeitung eines Moduls ist nach dem Abschluss des ersten Durchgangs
möglich, wird aber als solche in der Datenbank gekennzeichnet und nicht ausgewertet.
Das Konzept erlaubt des Weiteren die Bearbeitung eines Moduls pro Benutzer auf eine
bestimmte Anzahl zu beschränken oder beliebig viele Wiederholungen zuzulassen.
2.3
Technische Umsetzung
Das neuartige, flexible und erweiterbare Konzept, auf dem die Realisierung des SelfAssessments beruht, erfolgte aus technischer Sicht unter Einsatz moderner plattformunabhängiger Web-Technologien auf der Basis einer modernen Client-Server-Architektur und bietet den Interessenten zahlreiche Möglichkeiten, den Test von jedem
Rechner und zu jedem Zeitpunkt auf benutzerfreundliche Art und Weise durchzuführen.
Der Zugriff ist mit herkömmlichen Browsern über das Internet möglich, wobei die Anonymität der Benutzer gewahrt wird und keinerlei Rückschlüsse auf die Identität der Person möglich sind. Alle zwischen dem Client und Server ausgetauschten Daten werden
verschlüsselt übertragen. Sensible Daten wie zum Beispiel Passwörter werden im HashFormat gespeichert.
83
Abbildung 4: Hinweis der integrierten tutoriellen Unterstützung bei Wiederaufnahme
eines abgebrochenen Moduls
Die Entwicklung der graphischen Benutzeroberfläche wurde von Designern unter dem
Einsatz von Abobe-Flash und diversen Web-Tools vorgenommen. Auf der Serverseite
und zur Kommunikation zwischen Client und Server wurden Web-Technologien wie
JavaScript, ActionScript, PHP und MySQL eingesetzt. Ein Modul ist als ein AdobeFlash-Film (swf Datei) realisiert und kommuniziert mit der MySQL-Datenbank über
eine PHP-Schnittstelle. Die Registrierung zum Self-Assessment erfolgt über PHPSkripte. Die Plattformunabhängigkeit gewährleistet die Portierbarkeit des Self-Assessments und seinen Einsatz auf verschiedenen Betriebssystemen. Während der Entwicklung wurde die Anforderung nach Übertragbarkeit des Self-Assessments auf die verschiedenen Fachbereiche immer im Auge behalten. So wurden für die einzelnen Module
Templates entwickelt, die die Erstellung neuer Module mit minimalem technischem
Aufwand ermöglichen.
Außer einem gängigen Webbrowser, für den der kostenlose Adobe-Flashplayer als Plugin installiert ist, benötigt der Anwender keine weitere Software zur Durchführung des
Self-Assessments.
Zur Auswertung der aufgenommenen Nutzerdaten wurde ein Verfahren implementiert,
welches anhand der Gesamtbearbeitungszeit eines Moduls und den erzielten Ergebnissen
der einzelnen Testblöcke die Erkennung von Probeläufen und nicht ernsthaft durchgeführten Tests ermöglicht. Die Ergebnisse solcher Bearbeitungen werden verworfen. Dies
unterstützt die Erstellung unverfälschter Statistiken und Auswertungen zur Evaluation
und Qualitätssicherung der Testeinheiten.
84
3
Beispielhafte Erstellung eines Online-Self-Assessments für den
Studiengang Informatik
Statistiken der Prüfungsämter zeigen, dass im Bundesdurchschnitt lediglich 35 % der
Anfänger des Studiums Informatik erfolgreich abschließen. Neben den Studienabbrechern kristallisiert sich an der Universität in Frankfurt im Studiengang Informatik
eine Gruppe von Langzeitstudierenden heraus. Regelmäßig durchgeführte Lehrveranstaltungsevaluationen zeigen, dass diese Studierenden häufig erst nach einigen Semestern feststellen, dass sie sich für einen falschen Studiengang entschlossen haben und
das gewählte Studienfach ihren Neigungen oder Fähigkeiten weniger entspricht als zuvor
vermutet [Hu07]. Einige versuchen das Studium dann dennoch - häufig mit viel Mühe abzuschließen und erzielen nach etlichen Studiensemestern überwiegend schwache Leistungen.
Die hohen Abbruchquoten und zum Teil sehr langen Studienzeiten im Informatikstudium erfordern vor dem Hintergrund beschränkter Ressourcen dringend geeignete Maßnahmen zur Verbesserung der Situation. Wenn man von einer in der Regel allgemein
gehaltenen Studienberatung absieht, stehen im Studiengang Informatik der J.W. GoetheUniversität bisher kaum Instrumente zur Verfügung, die den/die Studienplatzbewerber/in
bereits vor einer Zulassung mit den tatsächlichen Inhalten und Anforderungen des Studienganges vor Ort konfrontieren. Mit der Platzierung des Online-Self-AssessmentInstrumentariums auf der Internetpräsenz des Studienganges verbindet sich die Hoffnung, dass es in einer ersten Stufe in dem Auswahlprozess von Studiengang und Studienort zu einer Selbstselektion der potentiellen Studienplatzbewerber kommt. Bei denjenigen, die das Studium vor Ort dann tatsächlich aufnehmen, sollte man in der Regel
von einer besseren Passung ausgehen, was sich wiederum in einer geringeren Studienabbruchquote und kürzeren Studiendauer niederschlagen dürfte. Die daraus frei werdenden
Ressourcen sollten sich unmittelbar in einer Qualitätsverbesserung des Studiums niederschlagen und Freiräume für innovative Unterrichtskonzepte schaffen.
3.1
Zielgruppe
Als Zielgruppe des Self-Assessments gelten zunächst sämtliche Studieninteressierte am
Studiengang Informatik an der J.W. Goethe-Universität. Es bewerben sich jedes Semester ca. 400 Studieninteressierte, von denen dann ca. 150 als Studierende im Studiengang Informatik aufgenommen werden. Das generische Konzept beschränkt sich jedoch
nicht auf einen bestimmten Fachbereich, sondern kann in allen Fachbereichen der Universität oder vergleichbaren Institutionen in das Studienberatungsangebot integriert
werden. So wird das für die Bedürfnisse der Psychologie entwickelte Self-Assessment
im kooperierenden Fachbereich Psychologie und Sportwissenschaften ebenfalls seit dem
Wintersemester 2006/07 erfolgreich eingesetzt.
85
3.2
Inhalte der Aufgabenmodule
Auf Grundlage von Anforderungsanalysen wurden solche Fähigkeiten und Fertigkeiten
in das Instrumentarium aufgenommen, die sich in verschiedenen Untersuchungen [Hu07,
JMM06] als studienrelevant erwiesen. Für das Studienfach Informatik handelt es sich
dabei um die Studienmotivation, das Interesse an Inhalten des Informatikstudiums, das
deutsche und englische Textverständnis, mathematische Kompetenzen, das algorithmische, abstrakte, analytische und logische Denken. Die Anforderungen an InformatikStudierende an Universitäten sind durch die Empfehlungen des Fakultätentages Informatik im Übrigen an jeder Universität nahezu gleich. Dem Studieninteressenten wird
durch die Bearbeitung von Aufgaben und die Exploration eigener Motive vor Augen
geführt, welche Anforderungen während des Studiums an ihn gestellt werden. Gleichzeitig kann er sich anhand des grafisch zurückgemeldeten individuellen Profils mit den
„typischen“ Studierenden, aber auch ausgewiesenen Experten vor Ort vergleichen, d. h.
seine Schwächen, aber auch seine Stärken einschätzen.
Die einzelnen Aufgabenmodule setzen sich aus den folgenden thematischen Blöcken zusammen.
Modul 1: Aufgaben zur Logik und Mathematik sowie Motivationsaufgaben
(ca. 90 min Bearbeitungszeit)
Modul 2: Aufgaben zum algorithmischen Denken sowie Textverständnis
(ca. 60 min Bearbeitungszeit)
Modul 3: Figurale Matrizenaufgaben und Interessensfragen (ca. 60 min Bearbeitungszeit)
Im Folgenden werden einzelne Testblöcke vorgestellt. Anhand von Beispielen wird
dabei die Umsetzung verschiedener Aufgaben unterschiedlicher Themenbereiche aufgezeigt.
Aufgaben zur Logik prüfen elementares logisches Denken [Xi98] und damit eine der
Grundvoraussetzungen des Informatikstudiums (Abb. 5).
Die Aufgaben in dem Abschnitt Mathematik prüfen grundlegende mathematische
Kenntnisse [GKP94], wie sie laut Lehrplan in Hessen in der Mittelstufe in den Gymnasien vermittelt werden.
Eines der wichtigsten Konzepte der Informatik ist der Algorithmus als eine schematische
Handlungsvorschrift [Co01]. In dem Testblock zu diesem Thema wird das so genannte
algorithmische Denken geprüft, wobei die Studierenden sowohl Sequenzen als auch
Wiederholungen von Handlungen als logisches Ausdrucksmittel benutzen sollen
(Abb. 6).
Die Fähigkeit wissenschaftliche Texte in deutscher und englischer Sprache zu erschließen, ist eine der wichtigsten Studienvoraussetzungen. In den Testblöcken werden sprach-
86
Abbildung 5: Beispiel einer Aufgabe zum logischen Denken
Abbildung 6: Beispielaufgabe zum algorithmischen Denken
liche Kompetenzen geprüft, indem kurze Abschnitte wissenschaftlicher Texte vorgegeben und dazugehörende Verständnisfragen gestellt werden.
Matrizenaufgaben zählen zu den etablierten Verfahren zur Erfassung des schlussfolgernden Denkens. Die Fähigkeit zum logischen Schlussfolgern wird dabei auf einem sprachfreien Weg untersucht, unabhängig von der Vorbildung und dem kulturellen Hintergrund
(Abb. 7). Das schlussfolgernde Denken umfasst Phänomene des induktiven und dedukti-
87
ven Denkens – beides Eigenschaften, die Grundvoraussetzungen für jedes Studium darstellen. Personen mit hohen Punktwerten in diesem Testabschnitt fällt es leicht, logische
Zusammenhänge zu erkennen und Regeln aus den Beobachtungen abzuleiten. Dies ermöglicht eine gute Strukturierung und eine leichtere Bewältigung des zu lernenden Stoffes sowie das Lösen von neuartigen Problemen. Personen mit niedrigen Punktwerten
haben größere Mühe, Gemeinsamkeiten und Unterschieden in dem zu erlernenden Stoff
zu identifizieren und optimale Problemlösungen zu finden. Um ein Studium erfolgreich
zu bewältigen, müssen sie unter Umständen viel mehr Zeit und Energie als andere in den
zu erlernenden Stoff investieren [JMM06].
Abbildung 7: Beispiel einer figuralen Matrizenaufgabe
In den Self-Assessment Abschnitten zur Studienmotivation, zum Studierverhalten und
Studieninteresse bewerten die Benutzer verschiedene Aussagen, mit denen sie sich selbst
charakterisieren (z.B. „Wenn ich etwas plane, dann hängt es nur von mir ab, ob der Plan
auch Wirklichkeit wird.“ oder „Ich suche mir lieber erreichbare Ziele, bevor ich befürchten muss, zu versagen.“). In welchem Ausmaß die Aussagen nach Selbsteinschätzung zutreffen, kann auf einer Likert-Skala von 0 („trifft überhaupt nicht zu“) bis 5
(„trifft vollkommen zu“) angegeben werden.
3.3
Auswertung
Nach vollständiger Bearbeitung des Self-Assessments erhalten die Teilnehmer eine
Rückmeldung über die in den einzelnen Arbeitsbereichen erzielten Werte sowie – zum
normativen Vergleich - ein an Studierenden des Studienganges erhobenes mittleres Profil, bzw. ein an ‚Experten’ erhobenes Profil, welches die Testergebnisse von Professoren
und wissenschaftlichen Mitarbeitern des Fachbereiches visualisiert (Abb. 8).
Abbildung 8: Beispiel einer Auswertung
88
Die einzelnen Bearbeitungsbereiche werden inhaltlich vorgestellt und ihre Bedeutung im
Studiengang ersichtlich gemacht. Anhand der erzielten Ergebnisse können Studierende
eigene Schwächen identifizieren und sich gegebenenfalls gezielt auf das Studium vorbereiten (z.B. im Bereich Mathematik). Mögliche Konsequenzen bei hohen bzw. niedrigen
Punktwerten werden aufgezeigt, so dass die Erläuterungen zur Einschätzung der eigenen
Leistungsfähigkeit und Leistungsbereitschaft dienen und das Self-Assessment somit eine
wichtige Ergänzung zur herkömmlichen Studienberatung darstellt. Eine abschließende
Beurteilung der Studierfähigkeit liefert das Self-Assessment bewusst nicht, macht jedoch
auf potentielle Problembereiche aufmerksam. Die Entscheidung ein Informatikstudium
aufzunehmen liegt nach wie vor bei den Studieninteressierten selbst.
4
Ausblick
Zurzeit sind über 150 Studieninteressierte (mit knapp 30.000 Datensätzen) in der Datenbank des Self-Assessments der Informatik registriert. Es ist geplant, das „typische
Studierendenprofil“, welches zur Referenz aus den Mittelwerten der einzelnen Testblöcke zusammengestellt wird, regelmäßig zu evaluieren. Mit Hilfe eines von den Studierenden bei der Registrierung selbst erstellten Pseudonyms werden die Daten des SelfAssessments mit den Prüfungsdaten, für die bei Klausuren und Abschlussprüfungen
ebenfalls das Pseudonym abgefragt wird, abgeglichen. Die Auswertung dieser für mehrere Jahrgänge geplanten Studie ist im Semesterturnus vorgesehen, so dass eine nachhaltige und dynamische Anpassung des Instrumentariums gewährleistet ist.
Das Self-Assessment kann unter der folgenden Web-Adresse aufgerufen und bearbeitet
werden: https://www.gdv.informatik.uni-frankfurt.de/self-assessment/Informatik/
Ein direkter Zugang zu einer Beispielauswertung ist mit Hilfe des Benutzernamens „demo“ und des Passwortes „auswertung“ möglich.
Literaturverzeichnis
[Co01]
Cormen, T., Leiserson, C., Rivest, R., Stein, C.: Introduction to Algorithms, New York,
2001.
[GKP94] Graham, R. L., Knuth, D. E., Patashnik, O.: Concrete mathematics, 1994.
[Hu07] Humoud, S.: Verbesserung der Studienbedingungen durch eLearning in der Informatik.
2007. (unveröffentlichte Diplomarbeit).
[JMM06] Jonkisz, E., Moosbrugger, H. & Mildner, D.: Die "Frankfurt Study" zur Vorhersage des
Studienerfolges. In (Gula, B., Alexandrowicz, R., Strauß, S., Brunner, E., JenullSchiefer, B., Vitouch, O. Hrsg.): Perspektiven Psychologischer Forschung in Österreich.
Wien, PABST, 2006.
[MJF06] Moosbrugger, H., Jonkisz, E. & Fucks, S.: Studierendenauswahl durch die Hochschulen
- Ansätze zur Prognostizierbarkeit des Studienerfolgs am Beispiel des Studiengangs Psychologie. Report Psychologie, 3, 2006; S 114-123.
[MK07] Moosbrugger, H. & Kelava, A. (Hrsg.): Testtheorie und Fragebogenkonstruktion. Berlin,
Heidelberg: Springer. Manuskript in Vorbereitung. 2007.
[Xi98] Xilinx: The Programmable Logic Data Book, 1998.
89
90
Bessere Schulnoten mit MatES, dem e-Bibliothekardienst
für den Mathematikunterricht
Serge Linckels, Carole Dording, Christoph Meinel
Hasso-Plattner-Institut (HPI) für Softwaresystemtechnik GmbH
Postfach 900460, D-14440 Potsdam
{linckels,dording,meinel}@hpi.uni-potsdam.de
Abstract: In diesem Papier stellen wir die Ergebnisse eines Experiments mit unserem e-Bibliothekarsystem „MatES“ vor, einem e-Learning Werkzeug zum Erlernen des Bruchrechnens in der Mathematik. MatES ermöglicht den Schülern, durch
das Eingeben vollständiger Fragesätze semantisch korrekte und relevante multimediale Antworten zu bekommen.
Eine Schulklasse von 22 Schülern nahm an diesem fünf Wochen dauernden Experiment teil. Die Schüler arbeiteten autonom, stellten Fragen an MatES und lernten
durch praktische Übungen. Die Multimedia-Erklärungen, die MatES lieferte, ermöglichten es den Schülern ihr Wissen zu erweitern und ihre Übungen zu lösen.
Die Schüler erlebten MatES als hilfreiches, unterstützendes Werkzeug beim Mathematiklernen. Während sie MatES benutzten, konnten wir relevante Verbesserungen ihrer schulischen Leistungen messen, indem wir die Resultate mit ihren
früheren Ergebnissen verglichen. Eine der Hauptursachen dieser hervorragenden
Resultate ist möglicherweise die höhere Motivation der Schüler, da sie sich beim
Lernen mehr Mühe gaben, um sich neues Wissen anzueignen. Die Schüler haben
auch festgestellt, dass MatES besser erklärt und dass sie die Inhalte viel leichter
verstehen.
1
Das e-Learning Tool MatES
Es ist allgemein bekannt, dass Schüler besser in der Lage sind, sich neues Wissen anzueignen, zu beherrschen, zu behalten und zu verallgemeinern, wenn sie aktiv am Lernprozess beteiligt sind [Yo98]. Lehrer, die e-Learning Werkzeuge in ihrer Klasse eingesetzt
haben, berichten, dass sie ihren Unterrichtsstil geändert haben, um den Schülern eine
größere Autonomie beim Lernen zu ermöglichen [Ow97]. Sie wechselten ihren Unterrichtsstil von einem didaktischen Frage-Antwort-Unterricht hin zu einem stärker selbstgesteuerten Lernen.
Ein Computer-Tool kann nicht besser erklären als ein Lehrer, aber es kann die Information anders darstellen, vielleicht anschaulicher und konkreter als ein Lehrer. Im Vergleich zu früheren Generationen brauchen die Schüler heutzutage eher einen Anschauungsunterricht, weil unsere Welt reich an visuellen Stimuli ist [Ow97].
91
Wir arbeiten an einem e-Bibliothekardienst, der den Schülern beim Finden von pertinenten Lerninhalten helfen soll, so wie es ein richtiger Bibliothekar tun würde. Dies soll auf
eine sehr einfache Art und Weise möglich sein, nämlich durch das Stellen von Fragen in
natürlicher Sprache. Der e-Bibliothekar antwortet nicht unbedingt auf die Frage, aber er
kann das am besten passende Dokument zur gestellten Frage finden und aus seiner multimedialen Wissensdatenbank auswählen. Der Schüler kann die gesuchte Antwort in
diesem Dokument ohne Schwierigkeiten entdecken.
MatES (Mathematics Expert System) [LM07] ist eine prototypische Implementierung
unseres e-Bibliothekarservices zum Thema Bruchrechnen in der Mathematik. Es besteht
aus einem grafischen Benutzerinterface, einer semantischen Suchmaschine und einer
multimedialen Wissensdatenbank. Die Wissensdatenbank besteht zurzeit aus 115 Clips,
die das Thema Bruchrechnen ausreichend abdecken, d.h. alle Lerninhalte, die in der
Sekundarstufe unterrichtet werden, sind enthalten. Die Clips wurden hauptsächlich mit
Schülern aufgenommen. Wir benutzten tele-TASK (http://www.tele-task.de), um die
Clips zu erstellen.
Die Effizienz dieses Werkzeugs wurde durch Benchmarktests überprüft. Die Testmenge
bestand aus 229 verschiedenen Fragen. In 97% der Fälle gab MatES die richtige Antwort
auf die gestellte Frage. In 50% der Fälle lieferte MatES sogar nur eine einzige Antwort,
welche genau die Richtige war.
2
2.1
Beschreibung des Experiments
Allgemeines
Unser Ziel war es, die Vorteile unseres e-Bibliothekardienstes in einer normalen Unterrichtsumgebung zu erproben und festzustellen, inwiefern dieses Werkzeug eine Auswirkung auf die schulischen Leistungen der Schüler hatte.
An dem Experiment nahmen 22 Schüler zwischen 12 und 14 Jahren (siebte Klasse), aus
dem Lycée Technique EschAlzette (LTE), einem technischen Gymnasium in Luxemburg, teil. Dieses Experiment dauerte 5 Wochen (vom 13. Februar bis zum 16. März
2006). Dies ist die normale Zeitspanne, die dem Mathematiklehrer einer siebten Klasse
laut Lehrplan für die Behandlung des Bruchrechnens zur Verfügung steht. Jede Unterrichtsstunde fand in einem Computersaal statt.
2.2
Aufteilung der Schüler in drei Gruppen
Im ersten Trimester des Schuljahrs (vom 18. September 2005 bis zum 12. Februar 2006),
stand Geometrie auf dem Programm (Volumenrechnen, Flächenrechnen usw.). Jeder
Schüler besaß schon einige Grundkenntnisse im Bruchrechnen, da dieses Thema bereits
kurz in den drei letzten Schuljahren behandelt wurde. Vor Beginn des Experiments führten wir einen unangekündigten Vortest durch, um die aktuellen Kenntnisse der Schüler
über das Bruchrechnen zu messen.
92
Die Schüler wurden gemäß ihrer Ergebnisse im Vortest und ihren Resultaten in der Geometrieprüfung (erstes Trimester) in drei Gruppen aufgeteilt: schwache (8 Schüler),
mittelmäßige (6 Schüler) und starke (8 Schüler). Diese Einteilung half uns bei der Auswertung unseres Experiments auf drei verschiedenen Kompetenz-Ebenen. Wir nahmen
an, dass normalerweise schwache Schüler auch Schwierigkeiten im Bruchrechnen haben
und gute Schüler auch gut im Bruchrechnen sind. Wir untersuchten, inwiefern das Benutzen von MatES die Zusammensetzung dieser drei Gruppen verändern würde.
Es konnte festgestellt werden, dass es keine Verbindung zwischen dem Vortest und den
Resultaten der Geometrieprüfungen gibt. Einige gute Schüler schnitten auch gut im
Vortest ab, andere schlecht. Ähnliches war bei den schlechten Schülern zu beobachten.
Dies zeigt uns, dass die Grundkenntnisse der Schüler im Bruchrechnen heterogen waren.
2.3
Der Ablauf der Unterrichtsstunden
In unserem Experiment ließen wir die Schüler in die Rolle eines Entdeckers schlüpfen,
der neues Wissen auf eine autonome Art und Weise entdecken und sich aneignen soll,
indem er MatES als eine Art virtuellen Privatlehrer benutzt.
In der ersten Stunde lernten die Schüler, wie man MatES richtig einsetzt. In praktischen
Übungen benutzten die Schüler MatES, um sich ein Grundvokabular über das Bruchrechnen anzueignen. Die Lehrerin gab den Schülern einen Satz mit Lückentext vor. Zum
Beispiel: „Wir müssen das Bruchrechnen lernen, weil Brüche stellen … dar.“ Die Schüler mussten dann eine Frage bilden und den Satz ergänzen, indem sie sich den passenden
Clip anschauten. Zum Beispiel: „Warum müssen wir das Bruchrechnen lernen?“ oder
„Was stellt ein Bruch dar?“.
Während des Experiments war der Verlauf der Unterrichtsstunden stets der gleiche. Am
Anfang jeder Stunde bekamen die Schüler ein Übungsblatt. Als Erstes mussten sie herausfinden, auf welches Wissen sie aufbauen konnten und welches sie sich noch aneignen mussten, um diese Übungen zu lösen. Danach mussten sie Fragen an MatES stellen
und sich die passenden Clips anschauen, um ihr Wissen zu vervollständigen. Die Lehrerin war immer anwesend und half den Schülern, welche eine Erklärung nicht verstanden.
Auch Schüler, die noch Schwierigkeiten hatten eine Übung zu lösen, erhielten von der
Lehrerin Unterstützung. Verschiedene Übungen wurden kurz in der gesamten Klasse
besprochen, um potenzielle allgemeine Fehler oder Missverständnisse zu vermeiden.
2.4
Die Prüfungsstunde
Über das Bruchrechnen wurden zwei Klassenarbeiten geschrieben. Jede Prüfung dauerte
zwei Stunden und bestand aus zwei Teilen. Der erste Teil (eine Stunde) war eine klassische Prüfung (für 30 Punkte) und der zweite Teil war eher eine praktische Prüfung (die
auch mit 30 Punkten bewertet wurde). Während der erste Teil in einem normalen Klassenzimmer unter klassischen Bedingungen stattfand (ohne Bücher, ohne Notizen, ohne
Taschenrechner usw.) wechselten die Schüler für den zweiten Teil in den Computerraum. Die Übungen für den ersten Prüfungsteil beruhten auf dem Wissen, das sich die
93
Schüler auf eine autonome Art und Weise während der letzten Stunden angeeignet hatten.
Nach einer Stunde erfolgte der Wechsel der Schüler für den zweiten Teil der Klassenarbeit in den Computerraum. Jeder Schüler arbeitete einzeln an einem Rechner mit MatES.
Im Gegensatz zum ersten Teil der Prüfung beruhten diese Übungen auf einem unbekannten Stoff im Bereich des Bruchrechnens (zum Beispiel „Was ist ein echter Bruch?“).
Hier durften die Schüler MatES einsetzen.
3
3.1
Die allgemeinen Ergebnisse
Die Ergebnisse der Schüler
Es gab einige interessante Unterschiede zwischen den zwei Teilen der Prüfung – dem
theoretischen und dem praktischen Teil. Diese Unterschiede waren in der ersten Prüfung
weniger relevant als in der zweiten Prüfung. Die Ergebnisse des praktischen Teils waren
im Allgemeinen besser als die des theoretischen. Eine mögliche Erklärung ist, dass im
ersten Teil das theoretische Wissen über das Bruchrechnen geprüft wurde und die Schüler unterschiedlich gut auf diese Prüfung vorbereitet waren. Da der zweite Teil aus unbekanntem Stoff bestand, konnten auch die Schüler, die nicht so gut auf die Klassenarbeit
vorbereitet waren, trotzdem eine gute Note erzielen, weil sie die Möglichkeit hatten,
Fragen an MatES zu stellen.
Relevanter ist der Vergleich zwischen den Resultaten in Geometrie und denen im Bruchrechnen (Bild 1). Erstens waren die allgemeinen Resultate im Bruchrechnen besser
(Durchschnittsnote der Klasse 32/60) als in der Geometrie (Durchschnittsnote der Klasse
29/60), was einer durchschnittlichen Verbesserung von 5% entspricht. Diese Zahl wurde
mit einem T-Test für Mittelwerte (2 unabhängige Stichproben) bestätigt. 11 Schüler
hatten bessere Resultate im Bruchrechnen als in der Geometrie (sie befinden sich auf der
Grafik oberhalb der Identitätsfunktion). 9 von ihnen machten sehr große Fortschritte
(wenigstens 6 Punkte bei einem Maximum von 60 Punkten in einer Klassenarbeit). Ein
Schüler verbesserte sich sogar um 21 Punkte. 8 Schüler verschlechterten sich, bei 3
Schülern gingen die Resultate sogar um mehr als 6 Punkte zurück. 3 Schüler blieben
konstant.
Zweitens änderte sich die Zusammensetzung der Gruppen (Tabelle 1). 7 Schüler verbesserten sich in eine höhere Gruppe, ein Schüler verbesserte sich sogar um 2 Gruppen (von
Gruppe „Schwache“ in Gruppe „Starke“). 3 Schüler bewegten sich in eine niedrigere
Gruppe, davon einer aus der Gruppe „Starke“ in die Gruppe „Mittelmäßige“ und ein
Schüler aus der Gruppe „Starke“ in die Gruppe „Schwache“. 12 Schüler blieben in der
gleichen Gruppe: 5 in der Gruppe „Schwache“, 2 in der Gruppe „Mittelmäßige“ und 5 in
der Gruppe „Starke“.
94
50
Simon
Nancy
Schulresultat über Bruchrechnen
45
Mandy D.
Mandy R.
40
Glenn
India
Max
Cynthia
David
Eric
Vicky
35
Sandrine
Tiziana
Nuno
30
Claudio
Christophe
Simao
25
Stéphanie
Gwenda
Kevin
20
Priscilla
15
Cyril
10
5
0
0
5
10
15
20
25
30
35
40
45
50
Schulresultate über Geometrie
Abbildung 1: Durchschnitt der Prüfungen über Geometrie (x-Achse) und
über Bruchrechnen (y-Achse).
Gruppe
Schwache
Mittelmäßige
Starke
Vor dem Experiment
8 Schüler (36,4%)
6 Schüler (27,3%)
8 Schüler (36,4%)
Nach dem Experiment
6 Schüler [+3 / -1] (27,3%)
6 Schüler (27,3%)
10 Schüler (45,5%)
Tabelle 1: Zusammensetzung der Gruppen vor und nach dem Experiment
Drittens stellten wir fest, dass vor dem Experiment das Wissen der Klasse im Allgemeinen sehr heterogen war. Nach dem Experiment mit MatES wurden ihre Kenntnisse homogener. Der Unterschied zwischen den leistungsstärkeren und den schwächeren Schülern war weniger bedeutsam.
3.2
Eindrücke der Schüler
Diese Auswertung basiert auf einer schriftlichen Umfrage (am Ende der ersten Woche
des Experiments), auf wöchentlichen Gesprächen mit den Schülern und vor allem auf
einem individuellen Interview mit jedem Schüler (am Ende der fünften Woche).
3.2.1 Kommentare zu dieser Art des Lernens
Die große Mehrheit der Schüler (18 von 22) glaubte, dass ihre Schulresultate mit MatES
besser werden könnten.
Wir fragten die Schüler, ob sie MatES auch zu Hause benutzen würden, falls sie einen
eigenen Computer hätten. Hier antworteten 11 Schüler (50%) „sicher“, die anderen 11
95
Schüler antworteten „ziemlich sicher“. Es antwortete aber niemand „nein“ oder „eher
nein“.
Es konnte keine Abhängigkeit in den Antworten auf die Frage „ob sie sich vorstellen
könnten, ohne einen Lehrer zu lernen“ gefunden werden. 4 Schüler (18,1%) sind überzeugt, dass sie dies könnten, 10 Schüler (45,5%) sagten, dass sie irgendwie einen Lehrer
brauchen und 8 Schüler (36,4%) antworteten, dass sie immer einen Lehrer brauchen.
Zum Schluss wurden sie gefragt, ob es ihnen Spaß gemacht habe mit MatES zu arbeiten.
Hier sagten 11 Schüler (50%) „ja“, 9 Schüler (40,9%) antworteten „ja, sehr gerne“ und 2
Schüler (9,1%) sagten „irgendwie ja“. Kein Schüler arbeitete nicht gern mit MatES.
3.2.2 Kommentare bezüglich MatES
Im Allgemeinen gab MatES nur sehr wenige Antworten auf eine eingegebene Frage,
normalerweise nur eine, selten mehr als 3. Wir fragten die Meinung der Schüler zur
Anzahl der Antworten. Kein Schüler fand, dass MatES zu wenige Antworten gab, 1
Schüler fand, dass MatES zu viele Antworten gab und 21 (von 22 Schülern) sagten, dass
die Anzahl der Antworten angemessen war.
Wir fragten die Schüler, ob sie die Erklärungen auf ihre Frage in den Antworten von
MatES gefunden haben. Keiner sagte „nie“ oder „selten“, ein Schüler (4,6%) sagte „in
der Hälfte der Fälle“, 16 Schüler (72,7%) sagten „fast immer“ und 5 Schüler (22,7%)
antworteten „immer“.
Eine wichtige Frage betraf die Pflicht, ganze Fragen eingeben zu müssen. Kein Schüler
äußerte, dass dies schwierig war, 7 Schüler (31,8%) antworteten, dass sie einverstanden
waren ganze Fragen einzugeben, aber dass sie es nicht gerne machten, und 15 Schüler
(68,2%) antworteten, dass es kein Problem für sie war.
3.3
Analyse der Logdateien
Die Logdateien zeigten, dass so gut wie alle Fragen korrekt formuliert wurden. Nur sehr
wenige „unangemessene“ Fragen, die neben dem Thema lagen, wurden absichtlich eingeben. Im Durchschnitt stellte jeder Schüler 8,5 Fragen pro Unterrichtseinheit (50 Minuten). In Unterrichtseinheiten mit geringen Fragen wurden im Durchschnitt 4 Fragen
eingeben; 17 Fragen wurden in Unterrichtseinheiten mit einer hohen Anzahl an Fragen
eingegeben. Es gab keinen Unterschied bezüglich der Anzahl der Fragen zwischen normalen Unterrichtseinheiten und einer Prüfungsstunde. Es gab auch keinen Schüler, der
außergewöhnlich viele oder außergewöhnlich wenige Fragen eingab. Schwache und
starke Schüler gaben in etwa gleich viele Fragen ein, unabhängig davon, ob es sich um
eine normale Unterrichtseinheit oder eine Prüfungsstunde handelte.
96
3.4
Allgemeine Beobachtungen
Die Tatsache, dass sie dabei ganze Fragen eingeben sollten, war am Anfang ein Problem.
Zuerst schien das Eintippen von so vielen Wörtern eine Plage für die meisten Schüler zu
sein, da die meisten Schüler gewohnt sind, nur Stichwörter in Suchmaschinen einzugeben (z.B. bei Google). Außerdem hatten sie in ihrer Ausbildung bis jetzt noch nicht
gelernt, wie man Fragen richtig formuliert. Nach der zweiten Woche hatten sich jedoch
alle Schüler an diese Art der Formulierung der Fragen gewöhnt. Auch das Eingeben von
ganzen Fragen wurde allgemein akzeptiert. Wir bemerkten, dass die meisten Schüler
sehr schnell beim Eintippen ihrer Fragen waren. Es schien, dass sie bereits Erfahrung mit
der Texteingabe am Computer hatten (möglicherweise durch das Chatten im Internet).
Im weiteren Verlauf des Experiments steigerte sich die Begeisterung der Schüler, Mathematik auf diese Weise zu lernen. Wir bemerkten, dass Schüler sich verschiedene
Eigenschaften der Clips einprägten, z.B. ein Vortragender, der ein bestimmtes Wort
schlecht ausspricht, eine schöne Illustration innerhalb eines Clips oder ein Sprecher, der
etwas sehr gut erklärt. Es war interessant festzustellen, dass solche Eigenschaften sehr
hilfreich für die Schüler waren.
Wir waren von der sehr positiven Atmosphäre im Klassenzimmer beeindruckt. Jeder
Schüler war mit seiner eigenen Übung beschäftigt und konnte in seinem eigenen Rhythmus arbeiten. Einige waren sehr schnell, andere langsamer. Alle Schüler benutzten
Kopfhörer. Es war angenehm ruhig im Raum. Es war den Schülern erlaubt, untereinander zu kommunizieren (die beiden Prüfungsstunden ausgeschlossen). Die meisten Gespräche glichen diesen Äußerungen: „Welchen Clip hast du für diese Übung gefunden?“,
„Hast du eine Antwort für diese Frage gefunden?“, „Bist du bereits mit der Übung fertig?“ usw.
Am Ende der fünften Woche waren die Schüler traurig, dass das Experiment vorbei war
und dass sie zu einer „klassischen“ Art des Lernens zurückkehren mussten. Einige Schüler baten um eine Kopie von MatES, um das Werkzeug auch zu Hause benutzen zu können.
4
Diskussion
In diesem Abschnitt analysieren wir die Daten aus dem Experiment (Abschnitt 3) und
versuchen festzustellen, ob die besseren Schulresultate auf das Benutzen von MatES
zurückzuführen sind oder ob es andere Gründe gibt.
4.1
Andere Gründe als MatES
War der Unterrichtsstoff „Bruchrechnen“ für Schüler leichter als „Geometrie“? Verschiedene Lehrer bestätigten uns, dass beide Unterrichtsthemen, so wie sie unterrichtet
werden, einen ähnlichen Schwierigkeitsgrad aufweisen.
97
Hatten die Schüler bereits Vorwissen über Bruchrechnen? Alle Schüler hatten bereits ein
Grundwissen über Bruchrechnen, jedoch auch über Geometrie. Beide Themen wurden
bereits – sehr oberflächlich – in vergangenen Schuljahren behandelt.
Waren die Klassenarbeiten über Bruchrechnen einfacher als die über Geometrie? Die
Prüfungen über Bruchrechnen waren ähnlich schwierig, ja sogar den Schwierigkeitsgrad
betreffend identisch mit denen anderer Klassen oder mit denen aus vergangenen Jahren.
Weiterhin wurden alle Klassenarbeiten (über Geometrie und Bruchrechnen) von zwei
Lehrern korrigiert.
4.2
Besseres Verstehen
Haben die Erklärungen von MatES den Schülern geholfen, den Unterrichtsstoff besser
zu verstehen, als die Erklärungen aus klassischen Quellen (z.B. aus Büchern, durch Informationen an der Tafel, oder durch mündliche Erklärungen vom Lehrer)? Neun Schüler waren der Meinung, dass die Erklärungen von MatES sehr gut wären und drei Schüler meinten, dass MatES sehr viel Wissen hätte. Fast alle Schüler (21 aus 22) waren der
Meinung, dass sie die richtigen Informationen von MatES erhielten und 18 sagten, dass
sie in der Tat mit MatES besser lernten. Hier sind einige Erklärungen:
Die semantische Suchmaschine ermöglichte es den Schülern schnell, gute Antworten zu finden. In anderen Worten, sie mussten nicht warten bis der Lehrer ihnen
zur Verfügung stand, um ihre Fragen zu stellen.
Die Antworten von MatES sind sehr präzise und kurz, im Gegensatz zu Büchern
oder langen Antworten des Lehrers.
Die Erklärungen sind einfach und klar.
Der Schüler kann durch den Clip navigieren und zu jedem beliebigen Augenblick
anhalten oder sich den Clip mehrere Male ansehen.
Die Information wird in einer attraktiveren Form angezeigt als die in einem Buch
oder an der Tafel. Zum Beispiel konnten sich Schüler an eine bestimmte Information erinnern, weil sie sich an eine bestimmte Eigenschaft im Clip erinnerten.
Der multimediale Aspekt aktiviert mehr Sinne. Die Schüler hören, lesen und sehen
die gleiche Information.
Illustrationen und Animationen werden benutzt, um ein bestimmtes Thema zu erklären. Dies ist aussagekräftiger als reine verbale Kommunikation [MG90].
Die Videosequenzen zeigen den Vortragenden an der Tafel. Dies ist die klassische
Sicht eines Schülers im Klassenzimmer und soll eine Art virtuelle KlassenzimmerAtmosphäre erzeugen. Es soll dem Schüler ständig vor Augen gehalten werden,
dass MatES kein Spiel ist, sondern ernste Arbeit.
Die Bewegungen am Bildschirm sollen den Schüler dazu veranlassen, sich auf das
zu konzentrieren, was er selbst tut und was der Präsentator erklärt.
98
Die Vortragenden sind Schüler. Manche Schüler nehmen eher Erklärungen von ihresgleichen an als von Erwachsenen.
Die Schüler eigneten sich schnell ein spezifisches Fachvokabular über Bruchrechnen an. Wenn ein unbekannter Ausdruck verwendet wurde, dann konnten sie MatES bitten, diesen zu erklären.
4.3
Höhere Motivation
Jeder Lehrer weiß, wie angenehm es ist, in einer Klasse mit motivierten Schülern zu
unterrichten. Fleißige Schüler haben gewöhnlich gute Noten, weil sie gewillt sind, mehr
Zeit und Energie in das Lernen zu investieren. Jedoch sind nicht alle Schüler von Natur
aus zum Lernen motiviert. Daher ist es auch die Pflicht eines Lehrers, die Schüler von
der Wichtigkeit seines Unterrichtsstoffs zu überzeugen und sie zu motivieren.
Generell kann die höhere Motivation der Schüler auf den Einsatz von MatES zurückgeführt werden, da weder Geometrie noch Bruchrechnen de facto motivierend für Schüler
sind. Möglicherweise haben Schüler eine kleine Vorliebe für Geometrie, weil sie hier
z.B. Hilfsmittel (Zirkel, Lineal usw.) benutzen können und Zeichnungen erstellen können. Das Bruchrechnen beschränkt sich aber rein auf Berechnungen. Trotzdem haben 20
Schüler (90,9%) ausgesagt, dass das Arbeiten mit MatES ihnen Spaß gemacht hat. Wir
hörten sogar Aussagen wie: „Damit [mit MatES] macht sogar Mathematik Spaß“. Hier
sind einige Gründe, warum MatES die Motivation der Schüler erhöht:
Der Gebrauch von neuen Technologien ist allgemein motivierend für Schüler.
Alles, was sich vom normalen Unterricht unterscheidet, ist, zumindest am Anfang,
motivierend. So haben zum Beispiel alle Unterrichtseinheiten in einem Computerraum stattgefunden und es wurde ein Computerprogramm im Mathematikunterricht eingesetzt, was alles ziemlich ungewöhnlich aus der Sicht des Schülers ist.
Die Erklärungen sind als multimediale Clips in einer attraktiveren Form dargestellt
(siehe Abschnitt 4.2).
Der Schüler hat das Gefühl, dass er den Unterrichtsablauf selbst steuert. Es gibt
keinen Lehrer, der ihm vorschreibt, was er als Nächstes tun soll.
Der Schüler ist ständig aktiv in seinem Lernprozess. Er kann ständig etwas tun und
sich selbst, gezielt neues Wissen aneignen.
Im traditionellen Unterricht sind schwächere Schüler oft frustriert, weil sie sowieso nicht an die Leistungen der besseren Schüler herankommen. Das Arbeiten mit
MatES erlaubt es aber jedem Schüler, in seinem eigenen Rhythmus und mit seinen
Möglichkeiten zu arbeiten, ohne jemals verspottet zu werden.
Der Schüler kann diese Art von Unterricht als eine Art Abenteuer ansehen, in dem
er die Rolle des Entdeckers spielt und neues Wissen erkundet.
99
Der Schüler versteht den Lernstoff besser (Abschnitt 4.2) und hat keinen Grund zu
verzagen oder sogar aufzugeben. Im Gegenteil, er merkt, dass Mathematik eigentlich nicht so kompliziert ist und dass auch er das Ziel erreichen kann.
4.4
Mehr Engagement
In unserem Experiment mussten die Schüler wesentlich mehr arbeiten. Dieser größere
Einsatz könnte die besseren Resultate erklären. Zuerst verbrachte jeder Schüler viel mehr
Zeit mit Übungen, da es ja keine „theoretischen“ Unterrichtseinheiten gab. Somit hatte
jeder mehr Zeit seine Schwächen herauszufinden, sein Wissen zu erweitern und es durch
Übungen zu testen. Zweitens war es jedem klar, dass man ein gewisses theoretisches
Grundwissen haben muss, um die Übungen zu lösen. Daher war im Interesse eines jeden,
sich diese Theorie so schnell wie möglich anzueignen, um die Übungen zu lösen. Drittens wussten die Schüler, dass alle Übungen zu Hause fertig zu machen waren. Es war
somit ein Vorteil für jeden, so viel wie möglich in der Schule zu erledigen, um weniger
Hausaufgaben zu haben. Viertens hatten schwächere Schüler mehr Hausaufgaben, da sie
in der Schule langsamer beim Lösen ihrer Übungen waren. Diese zusätzlichen Hausaufgaben und das somit notwenige Engagement könnten ihnen geholfen haben, sich zu
verbessern.
4.5
Eine andere Pädagogik
Im klassischen Mathematikunterricht erhält der Schüler Informationen vom Lehrer, die
er verstehen und behalten muss. Das Volumen an Informationen sowie die Geschwindigkeit mit welcher sie beim Schüler ankommen, könnte schwache Schüler überfordern
[Wi01]. Des Weiteren ist die Unterrichtseinheit wenig effektiv, wenn Schüler nicht von
der Wichtigkeit der Informationen und der Übung überzeugt sind.
In unserem Experiment benutzen wir eine vollständig andere pädagogische Vorgehensweise, welche autonomes und exploratives Lernen fördert. Der Schüler ist aktiv in seinen
Lernprozess eingebunden und kann diesen selbst steuern. Mit MatES erhält der Schüler
nur dann Informationen, wenn er sich selbst darum bemüht. Somit steuert der Schüler
seinen Lernprozess und entscheidet selbst, was er sich ansehen möchte, in welchem
Rhythmus er arbeiten will, wie oft er sich die gleiche Information ansehen will usw. Der
Schüler ist nicht vom Lehrer oder von anderen Mitschülern abhängig. Somit kann ein
schwacher Schüler in seinem eigenen, für ihn angemessenen Rhythmus arbeiten. Jeder
Schüler kann sich die gleichen Konzepte wie der Rest der Klasse aneignen. Stärkere
Schüler können schneller vorankommen und anspruchsvollere Übungen machen. Sie
brauchen nicht ruhig und inaktiv zu verweilen, während der Lehrer schwächeren Schülern etwas erklärt.
Wir möchten aber auch anmerken, dass MatES das Auswendiglernen nicht fördert. Wir
beobachteten, dass einige schwächere Schüler akzeptable Resultate in den vorherigen
Schuljahren hatten, weil sie auswendig lernen konnten. Solche Schüler hatten schlechtere Resultate mit MatES. Auswendiglernen ist eine Strategie, die verschiedene Schüler
anwenden, die jedoch im Vergleich zum „intelligenten Lernen“ nicht sehr effektiv ist.
100
4.6
Schulresultate
Die Daten aus unserem Experiment belegen, dass die Schüler, als sie MatES benutzten,
bessere Schulresultate erzielten. Es kann jedoch nicht bewiesen werden, dass der Einsatz
von MatES diese Leistungssteigerung als direkte Konsequenz nach sich zöge. Tatsache
ist, dass das Arbeiten mit MatES für die Schüler wesentlich motivierender war als der
Frontalunterricht, was wiederum eine positive Auswirkung auf das Lernen und das Verstehen hatte. Daher trägt MatES indirekt zur Steigerung der schulischen Leistung der
Schüler bei.
Eine offene Frage bleibt, wie lange der Einsatz von MatES die Schüler motivieren kann.
Heutzutage verlieren Schüler schnell das Interesse, an dem was sie tun und an Dingen,
die sie noch vor kurzem interessant fanden. Wenn auch die Schüler in unserem Experiment während 5 Wochen von MatES begeistert waren, so kann dieses Werkzeug nach
weiteren 5 Wochen vielleicht genau so langweilig werden wie ein normales Schulbuch.
Wir lernten, dass Schüler ein Computerprogramm nur dann richtig und erfolgreich einsetzen, wenn sie von dessen Vorteilen überzeugt sind und wenn sie es richtig bedienen
können.
Der Erfolg unseres Experiments ist auch teilweise auf die Tatsache zurückzuführen, dass
die Schüler während des ganzen Ablaufs ständig betreut wurden, was eine Bedingung
für den erfolgreichen Einsatz von Computerprogrammen im Unterricht ist [Ma03, Fi99,
NSR99]. Somit reduzierte MatES keinesfalls das Arbeitsvolumen für den Lehrer. Es ist
klar, dass Schüler mehr Betreuung beanspruchen und mehr Fragen stellen, wenn sie im
Lernprozess aktiv werden. Weiterhin sind Lehrer im klassischen Unterricht in erster
Linie verantwortlich für die Organisation und die Übermittlung von Lerninhalten. Ihre
Pflicht verändert und erweitert sich jedoch schnell, wenn e-Learning Technologien eingesetzt werden. Lehrer erhalten dann zusätzliche Aufgaben wie z.B. die eines ITExperten oder eines System-Administrators.
Die Qualität der semantischen Suchmaschine ist ein wesentlicher Faktor für den Erfolg
von MatES. Wir wissen, dass Schüler es generell verabscheuen, auf eine Anfrage viele
Resultate zu bekommen, denn sie möchten normalerweise eine verständliche, eindeutige
Antwort haben. Sie werden sich die Suchresultate nicht einmal alle ansehen [Fi99].
Schüler haben klare Vorstellungen über das erwartete Suchresultat.
5
Schlussfolgerung
In dieser Arbeit zeigten wir, dass e-Learning die schulischen Leistungen verbessern
kann. Mit unserem e-Bibliothekardienst MatES ist der Schüler aktiv in seinem Lernprozess und spielt die Rolle eines Entdeckers. Durch höhere Motivation ist der Schüler
gewillt, mehr Zeit und Aufwand in das Lernen zu investieren. Weiterhin helfen die einfachen multimedialen Antworten von MatES, dem Schüler ein bestimmtes Thema besser
zu verstehen, ohne Hilfe des Lehrers. Dies ist besonders hilfreich für schüchterne und
schwache Schüler sowie für fremdsprachige Schüler, die sich nur schlecht ausdrücken
101
können. Außerdem kann Grundwissen aus vergangenen Schuljahren mittels eines solchen Werkzeugs autonom wieder aufgefrischt werden.
Unser e-Bibliothekarsystem kann in verschiedenen Situationen eingesetzt werden. In
unserem Experiment benutzten wir MatES, um ein neues Thema auf eine autonome und
explorative Weise einzuführen. Aber es kann auch in einem Blended Learning Aspekt
eingesetzt werden, wo der Lehrer entscheidet, in welcher Unterrichtseinheit es am besten
geeignet ist. Es kann auch beim Distance Learning verwendet werden, wo der Schüler
(oder eine berufstätige Person) von zu Hause aus lernen kann. Ein weiterer interessanter
Aspekt betrifft das kollaborative Lernen. Schüler können in Gruppen arbeiten, Informationen sammeln und diese später diskutieren.
Literaturverzeichnis
[Fi99]
[LM07]
[Ma03]
[MG90]
[NSR99]
[Ow97]
[Wi01]
[Yo98]
102
R. Fidel, R. et al. A visit to the information mall: Web searching behavior of high school
students. Journal of the American Society for Information Science, 50(1):24-37, 1999.
S. Linckels and C. Meinel. Resolving Ambiguities in the Semantic Interpretation of
Natural Language Questions, In Intelligent Data Engineering and Automated Learning
(IDEAL), LNCS 4224, 612-19, 2006.
P. Martin. Web Intelligence, chapter Knowledge Representation, Sharing and Retrieval
on the Web, pages 263{297. Springer-Verlag, Jan 2003.
R. E. Mayer and J. K. Gallini. When is an illustration worth ten thousand words? Journal
of Educational Psychology, 82(4):715-726, Dec 1990.
R. Navarro-Prieto, M. Scaife, and Y. Rogers. Cognitive strategies in web searching. In 5.
Conference on Human Factors & the Web, http://zing.ncsl.nist.gov/hfweb, 1999.
R. D. Owston. The world wide web: A technology to enhance teaching and learning?
Educational Researcher, 26(2):27-33, march 1997.
W. M. Williams, F. Markle, R. J. Sternberg, and M. Brigockas. Educational Psychology.
Allyn & Bacon, 2001.
C. Youngblut. Educational uses of virtual reality technology. Technical Report IDA
Document
D-2128,
Defense
Advanced
Research
Projects
Agency,
http://www.hitl.washington.edu/scivw/youngblut-edvr/D2128.pdf, Jan 1998.
Flexibilisierung der Lehr- und Lernszenarien von
Business-Fallstudien durch CaseML
Katharina Reinecke, Hülya Topcuoglu, Stefanie Hauske und Abraham Bernstein
Institut für Informatik, Universität Zürich,
Binzmühlestr. 14, CH-8050 Zürich, Schweiz
{reinecke, topcu, hauske, bernstein}@ifi.uzh.ch
Abstract: In diesem Paper wird eine Auszeichnungssprache für multimediale und
modularisierte Fallstudien, die in der Wirtschaftsinformatik-Lehre eingesetzt werden,
vorgestellt. Während die meisten Fallstudien für eine spezifische Lehr-Lernsituation
geschrieben sind, sollen die Fallstudien, wie sie hier beschrieben werden, flexibel und
modular für verschiedene Aufgabenstellungen und in unterschiedlichen Lehr-LernSzenarien einsetzbar sein. Hierfür ist eine flexible Darstellung der Fallstudien notwendig; sie kann durch die von uns entwickelte Auszeichnungssprache CaseML sichergestellt werden.
1 Einleitung
Lehren und Lernen mit Fallstudien ist eine effiziente Methode, um höhere Lernziele, wie
effiziente Problemlösung und Entscheidungsfindung, zu erreichen. Werden Fallstudien
multimedial und modular strukturiert in einer E-Learning-Umgebung angeboten, erhalten Lernende darüber hinaus auch eine wirklichkeitsgetreuere Darstellung des Wirtschaftsumfelds, etwa durch Videoeinspielungen oder Simulationen. Zudem kann die Anzahl von
Lehr- und Lernszenarien durch die multiple und flexible Verwendung des Fallstudienmaterials gesteigert werden.
Im Rahmen des CasIS-Projekts1 sind in Zusammenarbeit mit verschiedenen Unternehmen
vier reale Fallstudien nach der Harvard-Business-School-Methode [Ro01] entstanden. Im
Vorfeld der Fallstudienerstellung wurden Anforderungen an die Fallstudien zusammengestellt, die sich einerseits aus den Projektzielen (s.u.) ergaben und die andererseits der
Forderung aller Projektpartner nach einer möglichst flexiblen und modularisierten Verwendung der Fallstudien Rechnung tragen sollten. Insgesamt wurden folgende sechs Anforderungen an die Fallstudien formuliert:
• Unterschiedliche Sichten auf die Fallstudie für Lehrende und Lernende
• Flexible Verwendung der Fallstudien in zahlreichen Lehr- und Lernszenarien
1
”Cases in Information Systems”, ein Projekt des Swiss Virtual Campus
103
• Unterstützung unterschiedlicher Aufgabenstellungen
• Wirklichkeitsgetreue Fallstudien durch die Verwendung von Multimedia
• Unterschiedliche Ausgabeformate
• Plattformunabhängigkeit
Die Umsetzung dieser Anforderungen erfolgte mit Hilfe einer Auszeichnungssprache. CaseML ist der erste Versuch, eine Fallstudie strukturiert zu beschreiben und deren Inhalt
zugleich zu modularisieren. Fallstudieninhalte können so für verschiedene Aufgabenstellungen adaptiert oder in unterschiedlichen Lehr- und Lernszenarien eingesetzt werden. Die
Auszeichnungssprache CaseML erlaubt dadurch einen vielfältigen Einsatz von Fallstudien
und ist gleichzeitig offen für die Erweiterung durch weitere Anforderungen, wie etwa dem
Hinzufügen von Adaptivität.
Das Paper ist folgendermassen aufgebaut: Nach einem kurzen Überblick über das Projekt
CasIS beschreiben wir die grundlegenden Anforderungen, die oben bereits kurz aufgelistet
sind, im Detail. Danach untersuchen wir bestehende Auszeichnungssprachen hinsichtlich
ihrer Relevanz für unser Projekt. Die Auszeichnungssprache CaseML wird im Hauptteil
des Papers vorgestellt. Hier konzentrieren wir uns darauf, zu beschreiben, wie in CaseML
die Projektanforderungen berücksichtigt und umgesetzt worden sind. Der Hauptteil endet
mit der Diskussion der Vorteile von CaseML. Das Paper schliesst mit einer Zusammenfassung und einem Ausblick auf zukünftige Arbeitsschritte.
2 Projektübersicht und -anforderungen
Unser E-Learning-Projekt CasIS ist ein Verbundprojekt von vier Schweizer Hochschulen
und wird im Rahmen des Virtuellen Campus Schweiz von Januar 2006 bis Dezember 2007
gefördert. Während der zweijährigen Projektlaufzeit werden in unserem Projekt E-Learning-Module speziell für den Fallstudienunterricht entwickelt, die anschliessend von allen
Projektpartnern in ihren Lehrveranstaltungen zur Wirtschaftsinformatik auf Bachelor- und
Masterstufe langfristig eingesetzt werden.
Die Adressierung einer sehr heterogenen Zielgruppe, wie sie Studierende in Rasterprogrammen im Allgemeinen darstellen, und die Erreichung höherer Lehr- und Lernziele bilden dabei die übergeordneten Projektziele.
Die Heterogenität der Zielgruppe wird durch die vorhergehende akademische Ausbildung
und die Berufserfahrung bestimmt, welche in ein breit variierendes Vorwissen und ein
weites Spektrum unterschiedlicher Kompetenzen münden.
In Lehrveranstaltungen der Wirtschaftsinformatik auf Masterebene sollen im Regelfall
höhere Lehr- und Lernziele wie etwa die Anwendung von Wissen oder die Analyse und
Bewertung von Daten und Informationen erreicht werden. Fallstudien (Case Studies) sind
hier eine sehr geeignete Methode, mit deren Hilfe in erster Linie das Lösen von Problemen und das Fällen von Entscheidungen eingeübt werden. Bei Fallstudien, die sich auf
104
wirkliche Ereignisse in Unternehmen beziehen – so genannte real case studies“ – werden
”
Lernende in die Position eines Problemlösers oder Entscheiders versetzt und können so
den Umgang mit komplexen Problemen und das Treffen wohlfundierter Entscheidungen
besonders wirklichkeitsnah trainieren.
Die im Rahmen des Projekts entstehenden Produkte werden multimedial, insbesondere mit
Videos und Simulationen, aufbereitet und online präsentiert. So sind sie wirklichkeitsnäher
und somit für den Lernenden attraktiver und motivierender.
Insgesamt umfasst das Projekt folgende vier E-Learning-Komponenten, die insbesondere
den heterogenen Wissensstand der Zielgruppe berücksichtigen:
• Online-Einstiegstest: Mit Hilfe eines online verfügbaren Einstiegstest können Lernende einschätzen, ob ihr Wissen über grundlegende Fakten, Methoden und Modelle
(deklaratives Wissen) ausreicht, um die Fallstudien erfolgreich zu bearbeiten oder
ob Wissenslücken bestehen. Darüber hinaus erhalten die Lernenden Hinweise auf
verfügbare und relevante Lernmaterialien.
• Online-Vorbereitungsmodule: Lernende können fehlendes deklaratives Wissen durch
die Bearbeitung der Online-Vorbereitungsmodule erwerben. Diese Module sind als
multimediale Selbstlernmodule verfügbar und decken ein breites Spektrum an wirtschaftsinformatikrelevanten Themen ab.
• Toolbox: Die Toolbox umfasst eine Sammlung relevanter Methoden und Werkzeuge
zu Themen wie Analyse und Problemlösung, welche Lernende für die Bearbeitung
einer Fallstudie benötigen.
• Reale Fallstudien: Die notwendigen Daten und Informationen eines spezifischen
Falls werden dem Lernenden in Form einer multimedialen Online-Fallstudie präsentiert. Vier Fallstudien sind in Zusammenarbeit mit Unternehmen zu aktuellen Themen der Wirtschaftsinformatik entstanden.
Basierend auf den Ergebnissen des Online-Einstiegstest, erhält der Lernende einen Vorschlag, wie er seinen Lernpfad durch die Online-Vorbereitungsmodule gestalten kann. Die
Bearbeitung der Online-Vorbereitungsmodule soll sicherstellen, dass der Lernende über
das notwendige Wissen verfügt und dass alle Lernenden über einen ähnlichen Wissensstand verfügen. Die eigentliche Fallstudienarbeit basiert auf den realen Fallstudienmodulen und wird durch die Toolbox ergänzt.
2.1
Anforderungen an den Einsatz von Fallstudien
Im Nachfolgenden werden die Anforderungen an den Einsatz von Fallstudien beschrieben, die sich aus den Zielen des E-Learning-Projekts ableiten lassen. Wie bereits zuvor
beschrieben, geht es hierbei vor allem darum, höhere Lernziele zu erreichen und Fallstudien flexibel und modularisiert einsetzen zu können.
Harvard-Business-Fallstudien: Eine Harvard-Business-Fallstudie ist die Veranschaulichung einer realen Wirtschaftssituation. Der Fall beschreibt eine Person in einer Orga-
105
nisation, die in eine Entscheidung, ein Problem oder eine Aufgabe involviert ist. Durch
den Einsatz von Fallstudien in der Lehre sollen Lernende die Rolle des Entscheidungsträgers einnehmen und ihr Wissen anwenden sowie Daten und Informationen analysieren oder evaluieren. Diese Ziele führten zu der Entscheidung für die Entwicklung von
fachgebundenen und entscheidungsorientierten Fallstudien nach dem Harvard-BusinessFallstudienstandard.
Verschiedene Sichten für Lehrende und Lernende: In herkömmlichen Lernumgebungen haben Lehrende meist Zugriff auf zusätzliche Materialien, die ihnen als Lehrhilfen
dienen. Analog hierzu erfordert die webbasierte Arbeit mit Fallstudien zwei getrennte
Sichten für den Bereich des Lernenden auf der einen Seite, und für ergänzende Informationen und Lehrnotizen für den Lehrenden auf der anderen. Eine wichtige Anforderung
an die Abbildung von Fallstudien ist daher, dass den Lehrenden der frei wählbare Zugriff
auf alle Materialien gewährt wird. Gleichzeitig muss sichergestellt werden, dass Lernende
auf diese Lehrnotizen und -materialien nicht zugreifen können.
Unterstützung verschiedener Aufgabenstellungen: Eine einzige Fallstudie soll verschiedene Aufgabenstellungen umfassen, welche in den meisten Fällen nur bestimmte
Teile der Fallstudie für eine erfolgreiche Bearbeitung voraussetzen. Einige Textteile oder
Multimedia-Elemente können dagegen für die jeweilige Aufgabe nicht relevant und folglich überflüssig sein. Sollen für eine Fallstudie verschiedene Aufgaben zur Verfügung
stehen, müssen daher der jeweiligen Aufgabe die relevanten Teile zugewiesen werden
können. Nach Auswahl einer bestimmten Aufgabe muss zudem sichergestellt sein, dass
lediglich die dazugehörigen Teile der Fallstudie für den Lernenden sichtbar sind.
Flexible Lehr- und Lernszenarien: Fallstudien sollen in verschiedenster Weise eingesetzt werden, wie zum Beispiel in einer 90-minütigen Vorlesung oder über einen Zeitraum
von vier Wochen. Die Abbildung der Fallstudie muss daher eine hohe Anpassungsfähigkeit
aufweisen und den Vorlieben des Lehrenden gerecht werden.
Steigerung der Realität: Fallstudien leben von einer möglichst realen Beschreibung
eines Falls. Deshalb ist eines unserer Projektziele die Entwicklung von webbasierten multimedialen Fallstudien, in denen zum Beispiel ein Video den Manager einer Organisation
bei der Erklärung des Wirtschaftsproblems präsentiert oder ein Diagramm Datensätze visualisiert.
Verschiedene Ausgabeformate: Das Ziel des Projektes ist die Darstellung der Fallstudien in einer webbasierten Lernumgebung, welche eine einfache Verknüpfung sämtlicher
im Projekt entwickelter Produkte, neben den Fallstudien also Eingangstest, Vorbereitungsmodule und Toolbox, in einfacher Weise erlaubt. In vorherigen E-Learning-Projekten wurde jedoch die Erfahrung gemacht, dass Lernende die Möglichkeit einer Druckversion sehr
schätzen. Neben der webbasierten Lernumgebung soll daher auch eine textbasierte OfflineVersion zur Verfügung gestellt werden.
Plattformunabhängigkeit: Im Rahmen des Projekts werden von den Projektpartnern
verschiedene Learning-Management-Systeme (LMS) eingesetzt, wie zum Beispiel OLAT,
WebCT Vista oder Moodle. Daher müssen alle Fallstudien unabhängig von einer speziellen
E-Learning-Plattform erstellt werden, so dass ihre Wiederverwendbarkeit gesichert ist.
106
3 Relevante Forschungsergebnisse
Da die Realisierungsmöglichkeiten durch die Komplexität und Vielfalt der Anforderungen
stark eingeschränkt wurde, ist die Evaluation relevanter Forschung auf existierende Auszeichnungssprachen beschränkt worden. Eine Auszeichnungssprache kann entweder sehr
allgemein sein und damit domänenspezifisches Wissen zu Gunsten eines grösseren Anwendungsbereiches auslassen oder sie kann sehr spezifisch und nur in einem begrenzten
Bereich einsetzbar sein.
Die hier dargestellte Arbeit greift zum Teil auf XML-Entwicklungen im E-Learning-Bereich zurück. Hierbei ist vor allem zu erwähnen, dass CaseML auf der Auszeichnungssprache eLML (eLesson Markup Language) für deklaratives Wissen basiert. Die Abbildung von Fallstudien in eLML ist allerdings durch die streng vorbestimmte Struktur von
eLML sehr begrenzt [HNH05]. Weitere Einschränkungen, wie die nicht realisierbare Inhaltsmodularisierung oder das Fehlen von Domänenwissen, führten zu der Entscheidung,
dass eLML den Anforderungen für den Einsatz von Fallstudien nicht gerecht werden kann.
Eine weitere mögliche Auszeichnungssprache ist die von Stübing [St03] für die Abbildung
von IT-Fallstudien, die es erlaubt, vorhandene Lernressourcen zu referenzieren und damit
in den Lernprozess einzubinden. Die vorgeschriebene hierarchische Strukturierung des
Inhalts erlaubt jedoch keine flexible und modular aufgebaute Abbildung von Fallstudien.
Neben Anregungen zur Umsetzung von beiden Ansätzen, haben wir speziell den strukturellen Aufbau der Präsentationselemente, wie zum Beispiel Tabellen und Listen, von
eLML übernehmen können.
4 CaseML
Der Entwicklungsprozess der Auszeichnungssprache CaseML umfasste nicht nur eine erste Analyse der Anforderungen und die Überprüfung der Eignung bestehender Auszeichnungssprachen, sondern auch eine sorgfältige Prüfung der Implementationsmöglichkeiten.
Im Folgenden wird daher auf die Umsetzung der Anforderungen in CaseML eingegangen.
Anschliessend wird der Prozess der Fallstudiengenerierung von der Erstellung bis hin zur
Transformation beschrieben, bevor die Vorteile von CaseML zusammengefasst werden.
4.1
Anforderungen und ihre Umsetzung in CaseML
Nachfolgend wird die von den generellen Anforderungen an Fallstudien abgeleitete Umsetzung in CaseML beschrieben.
Harvard-Business-Fallstudien: Für die Entwicklung unserer Fallstudien haben wir die
Vorgehensweise von Leenders et al. [ELM01] gewählt. Sie schlagen vor, den Fallstudientext wie einen auf der Spitze stehenden Kegel zu strukturieren, was einem Fokussierungsprozess entspricht. Gemäß diesem Framework sollte eine Fallstudie immer mit der Einleitung beginnen, gefolgt vom Firmenhintergrund, dem Wirkungsbereich, der Problem-
107
stellung oder Entscheidung, sowie den Alternativen und sollte mit einer Zusammenfassung enden. Die Fallstudie wird durch Anhänge und Appendizes, die weitere Materialien,
die die Lernenden für die Bearbeitung der Fallstudie benötigen, und einem Glossar vervollständigt.
CaseML ist, wie in Abbildung 1 dargestellt, gemäss diesem Framework strukturiert. Vom
Wurzelelement caseStudy“ wird das Schema in die Elemente case“, welches den Text
”
”
der Fallstudie repräsentiert und das Framework realisiert, teachingNotes“, welches dem
”
Dozenten Informationen zur Vorbereitung seines Unterrichts bereitstellt, und task“, das
”
verschiedene Aufgaben für die Lernenden enthält, unterteilt.
Das Element case“ besteht aus einer Abfolge der Elemente introduction“, mainPart“,
”
”
”
conclusion“, exhibits“, appendixes“, glossary“, endnotes“ und metadata“.
”
”
”
”
”
”
Abbildung 1: Ausschnitt aus der graphischen Darstellung des XML-Schemas, das die oberen
Ebenen von CaseML zeigt
Das Element introduction“ präsentiert eine Zusammenfassung des Sachverhalts, identi”
fiziert Namen und Ort der Organisation und bietet zum Beispiel Informationen über den
Entscheidungsträger, das Problem oder den Zeitrahmen. Um all diese Informationen erfassen zu können, bietet CaseML optionale Elemente, welche dem Fallstudienautor dabei
helfen, diese Informationen zu berücksichtigen. Das Beispiel 2 zeigt, wie eine Einleitung
in CaseML geschrieben werden kann.
Der Hauptteil der Fallstudie wird durch das Element mainPart“ abgebildet, welches un”
ter anderem die Elemente companyBackground“, specificArea“, specificProblem“ und
”
”
”
alternatives“ enthält, um die Informationen über den Organisationshintergrund und des”
sen Industrie, den Bereich, in dem der Entscheidungsträger arbeitet, das zu behandelnde
108
Problem oder die Entscheidung und ihre mögliche Alternativen, abzubilden. Zusätzlich
stellt das Schema weitere semantische Elemente, wie zum Beispiel organizationHistory“,
”
industry“, majorProduct“, staffing“ oder requirement“, bereit.
”
”
”
”
Das Element conclusion“ bringt den Leser wieder zurück zur Einleitung und greift die
”
Fristen auf, die durch den Fall vorgegeben sind. Deshalb können innerhalb dieses Elements
andere Elemente, wie zum Beispiel deadline“, nextMeeting“ oder customerExpectati”
”
”
ons“, benutzt werden.
Abbildung 2: Ausschnitt eines CaseML-Dokuments
Verschiedene Sichten für Lehrende und Lernende: Die zwei verschiedenen Sichten
für Lehrende und Lernende sind in der obersten Ebene der CaseML-Hierarchie verankert.
Wie in Abbildung 1 zu sehen ist, wurde das Wurzelelement caseStudy“ in drei zusätzliche
”
Elemente case“, teachingNotes“ und tasks“ unterteilt. Dementsprechend präsentiert die
”
”
”
erste Ebene sowohl die Perspektive der Lehrenden als auch die der Lernenden: Der Inhalt
des Elements case“ ist für beide sichtbar, während das optionale Element teachingNotes“
”
”
nur Informationen für Lehrende enthält.
Unterstützung verschiedener Aufgabenstellungen: Eine weitere Anforderung an die
Auszeichnungssprache ist die passende Inhaltsdarstellung für verschiedene Aufgaben. Diesbezüglich konnte nur die Modularisierung des Inhalts in Betracht gezogen werden, um
Raum für inhaltliche Anpassungen zu schaffen. Wie zuvor beschrieben, wurde jedem
Modul ein Element task“ und ein Element content“ zugewiesen. Das Aufgabenelement
”
”
task“ ist dabei vom Typ Integer und kann beliebig oft eingesetzt werden. Eine Restrikti”
on wird lediglich dadurch vorgegeben, dass jedem Modul mindestens eine Aufgabe, also
ein task“-Element, zugewiesen werden muss. Ein Beispielmodul der XML-Datei würde
”
demnach zusammengesetzt sein, wie in Abbildung 2 zu sehen ist.
Nach diesem Ausschnitt gehört der Modulinhalt sowie alle untergeordneten Elemente,
wie zum Beispiel paragraph“, zu Aufgabe 1 und Aufgabe 2. Die Verbindung zu der zu”
gehörigen Aufgabe, die in dem Element task“ definiert wurde, konnte durch eine Attri”
109
butsdefinition hergestellt werden. Entsprechend enthält tasks“ die Attribute title“ und
”
”
taskID“.
”
Flexible Lehr- und Lernszenarien: Durch die Modularisierung ist eine Anpassung der
Fallstudie an eine beliebige Zeitspanne innerhalb verschiedener Lehr- und Lernszenarien
möglich. Hierfür dient das Element module“, welches die Angabe zugehöriger Aufga”
ben und den entsprechenden Inhalt des Moduls bedingt. Der Inhalt kann aus Textparagraphen oder Multimedia-Elementen zusammengesetzt sein, die zudem von Listen, Tabellen oder anderen Darstellungsumgebungen umfasst werden können. Der Umfang der
Fallstudie kann durch den Lehrenden beeinflusst werden, indem dieser eine bestimmte
Aufgabe auswählt, die die Darstellung der zugehörigen Module auslöst. Weiterhin bietet
CaseML die Option, semantische Elemente innerhalb des Elements teachingNotes“ zu
”
spezifizieren. So können beispielsweise mit Hilfe des semantischen Elements timePlan“
”
Vorschläge zum Einsatz der Fallstudie hinsichtlich verschiedener Lehr- und Lernszenarien
gemacht werden. Dadurch werden sowohl dem Autor, der die Informationen innerhalb des
Elements teachingNotes“ definiert, als auch dem Lehrenden vielfältige Möglichkeiten
”
gegeben, den Umfang der Fallstudie festzulegen.
Steigerung der Realität: Eines der Hauptziele dieses Projekts ist die Entwicklung
von webbasierten Fallstudien, die mit multimedialen Materialien angereichert sind. Mit
dem Element multimedia“ stellt CaseML eine einfache Integrationsmöglichkeit für Vi”
deoclips, Flash-Animationen, Java Applets und Bilder bereit. Weiterhin ist es möglich,
XML-Standards, wie zum Beispiel mathML, SVG oder x3d, mit Hilfe dieses Elements
einzubinden.
Verschiedene Ausgabeformate: Jede Fallstudie wird in einem einzelnen XML-Dokument gespeichert und kann in verschiedene Ausgabeformate umgewandelt werden. Hierfür
wurden die Stylesheets zur Transformation der Fallstudien in HTML für die Online-Version
und in LaTeX für die Druckversion implementiert. Die Umwandlung in das jeweilige Ausgabeformat erfolgt folgendermassen:
• Online-Version: Das Stylesheet für die Online-Transformation erzeugt XHTMLCode. Dem Prinzip der Trennung von Inhalt und Darstellung folgend, werden alle Layout- und Style-Definitionen in einer separaten CSS (Cascading Style Sheet)Datei definiert. Daher kann das Aussehen der generierten HTML-Seiten sehr einfach
durch die Anpassung der entsprechenden Definitionen in der CSS-Datei geändert
werden. Der Screenshot in Abbildung 3 zeigt das Resultat der Online-Transformation einer Fallstudie.
• Druckversion: Das Stylesheet für die Druckversion erzeugt LaTeX-Code, welcher
mit Hilfe der LaTeX-Distribution in ein PDF-Dokument umgewandelt werden kann.
Eine andere Möglichkeit, ein PDF zu erzeugen, wäre der Einsatz von XSL-FO
(XSL-Formatting Objects) gewesen. Da sich nicht alle Projektpartner mit XML und
dessen Transformationstechniken auskennen, wurde die Entscheidung für LaTeX
getroffen. Man kann jedoch mit Hilfe der generierte LaTeX-Datei relativ einfach individuelle Änderungen an der Fallstudie vor der Umwandlung in PDF vornehmen,
wie zum Beispiel die Angabe des entsprechenden Kurses und des Dozenten auf der
Titelseite.
110
Abbildung 3: Eine Fallstudie in der Online-Version
Plattformunabhängigkeit: Die Bedeutung der Plattformunabhängigkeit wurde bereits
in den Anforderungen hervorgehoben, um den Einsatz der Fallstudien in verschiedenen
Lernplattformen zu gewährleisten. Heutzutage unterstützen die meisten Lernplattformen
Standards wie IMS Content Packaging [IMS04] und Sharable Content Object Reference
Model [SCO04] zum Import von Online-Materalien in die Lernplattform. Aus diesem
Grund wurden Verpackungsskripte implementiert, die CaseML-Fallstudien in die OnlineVersion für beide Standards transformieren.
4.2
CaseML im praktischen Einsatz
Die im vorherigen Abschnitt vorgestellte Umsetzung der Anforderungen in CaseML ermöglicht eine nahtlose Generierung der Fallstudien von der schriftlichen Version bis hin
zum Online-Einsatz. Getestet wurde dies bereits an vier verschiedenen Fallstudien, die
im Projekt geschrieben wurden. Besonders deutlich wurde hierbei, dass sich die verschiedenen Autoren zwar an der Struktur einer Harvard-Business-Fallstudie orientierten, diese
aber an das von ihnen gewünschte Lehr- und Lernszenario anpassten. Dadurch entstanden
deutlich abweichende Strukturen: Die Fallstudie über die Einführung eines Intranets bei
den Leipziger Verkehrsbetrieben führt den Lerner beispielsweise von dem Problem über
verschiedene Lösungsideen bis hin zur Umsetzung einer gewählten Strategie. Im Schlusskapitel bekommt der Lernende zusätzlich einen Überblick über Benutzererfahrungen nach
der Einführung. In einer weiteren Fallstudie über die Umstellung des Wertschriftenabwicklungssystems bei der Zürcher Kantonalbank werden dem Lernenden dagegen lediglich das Problem, die Strategiekriterien und verschiedene Offerten genannt; die Lösung
des Problems durch Auswahl einer geeigneten Offerte anhand der Strategiekriterien wird
111
bewusst offen gelassen und bietet Raum für zahlreiche Aufgabenstellungen. Beide Fallstudien gleichen sich also insofern, dass sie Firmenhintergrund, Probleme und Strategien
aufführen, wie es die Struktur von Harvard-Business-Fallstudien vorsieht. Das Ende der
Fallstudien unterscheidet sich jedoch gravierend, ebenso wie die Lehr- und Lernstrategien,
die damit verfolgt werden.
Unsere Erfahrungen bei der Umsetzung der Fallstudien in CaseML hat gezeigt, dass die
Auszeichnungssprache diese Unterschiede problemlos abbilden kann. Alle vier Fallstudien werden in sehr unterschiedlichen Lehr- und Lernszenarien eingesetzt, wobei sogar
eine einzelne Fallstudie mit Hilfe der Modularisierungsmöglichkeit in CaseML über einen
kürzeren oder längeren Zeitraum angewendet werden kann. Hierfür musste für jedes Modul in der XML-Datei eine Aufgabenzugehörigkeit angegeben werden. Die flexible Struktur von CaseML erlaubte dabei eine einfache und schnelle Umsetzung in die verschiedenen
tags“. Textteile und Multimedia wurden mit semantischer Information annotiert, um ein
”
späteres Suchen nach bestimmten Kriterien zu ermöglichen. Zwei verschiedene Stylesheets erlaubten anschliessend eine automatische, den Aufgaben angepasste Transformation in das LaTeX-Format zur weiteren Umwandlung in eine PDF-Datei und in HTMLSeiten, die später automatisch in Content Packages verpackt wurden. Diese ermöglichten
anschliessend eine Online-Version der Fallstudie: Für jede in der XML-Datei definierten Aufgabe wurde automatisch jeweils eine Version für den Lehrenden und eine für
den Studierenden generiert. Die verschiedenen Content Packages wurden anschliessend
manuell ausgewählt und in der Lernplattform OLAT2 eingesetzt. Zusätzlich wird gerade an einem in verschiedene Lernplattformen integrierbaren Fallstudien-Portal gearbeitet,
dass durch Auswahl der gewünschten Aufgabe automatisch eine Lehrenden- oder eine
Studierenden-Version, je nach Identifikation durch die jeweilige Lernplattform, lädt. Hier
wird schliesslich der Projekt-Prozess im vollen Umfang abgebildet werden können: Das
Portal ermöglicht die Verbindung von Eingangstest, Vorbereitungsmodulen, Fallstudien
und der Toolbox und bietet eine Führungshilfe für die Bearbeitung von Fallstudien.
4.3
Die Vorteile von CaseML im Überblick
Wie unser Einsatz von CaseML gezeigt hat, unterscheidet sich die Auszeichnungssprache
besonders durch die Möglichkeit der flexiblen Inhaltsmodularisierung von bereits implementierten Auszeichnungssprachen. Die Fallstudie kann durch das Zuweisen verschiedener Module zu den dazugehörigen Aufgaben (siehe Anforderung 4) individuell angepasst
werden, so dass dem Lernenden nur relevante Teile präsentiert werden. Durch diese Anpassungen kann daher der Umfang einer Fallstudie erheblich reduziert werden. Es kann
von verschiedensten Lehrszenarien Gebrauch gemacht und der Schwierigkeitsgrad an die
Lernenden angepasst werden, indem nur relevante Informationen angezeigt werden oder
aber dem Lernenden die Auswahl der Relevanz selbst überlassen wird. Dies bedeutet auch,
dass ein und dieselbe Fallstudie sowohl in einer einzigen Lehrstunde als auch über einen
Zeitraum von vier Wochen eingesetzt werden kann. Vorschläge und Anregungen für verschiedene Formen des Einsatzes findet der Lehrende in den Teaching Notes, die eine mit
dem Inhalt der Fallstudie verbundene Einheit bilden.
2
http://www.olat.unizh.ch
112
Ein hilfreicher Vorteil von CaseML ist weiterhin das Domänenwissen, das eine Erweiterung der Funktionalität erlaubt. So ist es zum Beispiel möglich, semantische Informationen auszulesen und das Vorkommen eines bestimmten Details in der gesamten Fallstudie aufzulisten. Zusätzlich geben die fakultativ einsetzbaren semantischen Informationen
Aufschluss über den Inhalt einer Fallstudie. Dem Autor bieten sich also flexible Anpassungsmöglichkeiten des Fallstudieninhalts für verschiedene Anforderungen und Szenarien; trotzdem gewährleistet CaseML eine Art Gliederungsanleitung, die sich an der Struktur
einer Harvard-Business-Fallstudie orientiert.
Aus technischer Sicht betrachtet bietet CaseML durch die Transformationsmöglichkeit in
verschiedene Ausgabeformate, wie zum Beispiel HTML, Latex und PDF, einen weiteren
Vorteil für den modifizierbaren Einsatz von Fallstudien. Zusätzlich wird der Export in
jedes LMS-unterstütztendes Content Package gewährleistet, was der Sprache das Potenzial
gibt, an zahlreichen Schulen und Universitäten in der jeweils gewohnten Lernumgebung
eingesetzt zu werden.
5 Zusammenfassung und Ausblick
Nach einer kurzen Einführung in unser E-Learning-Projekt, wurde in diesem Paper speziell auf die Projektanforderungen an den Einsatz von webbasierten Fallstudien eingegangen. Durch die besondere Eignung von XML für die Erfüllung dieser Anforderungen,
wurden anschliessend verschiedene XML-Entwicklungen im Bereich des E-Learning mit
ihren Vor- und Nachteilen vorgestellt. Deren Nachteile, wie die streng vorgegebene Struktur und eine nur geringe Anpassungsfähigkeit an verschiedene Lehr- und Lernszenarien für
bestimmte Anwendungsgebiete, führten zu der Entwicklung der Auszeichnungssprache
CaseML, die daraufhin vorgestellt wurde. Die hochflexible Sprache wurde speziell nach
den aufgeführten Anforderungen entwickelt und bietet unter anderem die Möglichkeit der
Inhaltsmodularisierung zur Unterstützung verschiedener Aufgabenstellungen einer Fallstudie, sowie das Potenzial, semantische Elemente mit Domänenwissen zu annotieren.
Weiterhin können mit CaseML beschriebene Fallstudien in verschiedene Ausgabeformate
transformiert werden, um den Einsatz in verschiedensten Lernplattformen zu ermöglichen.
Der Vorteil des Domänenwissens ist gleichzeitig eine unvermeidbare Einschränkung von
CaseML, da sich die semantischen Tags insbesondere auf Business-Fallstudien beziehen.
Soll eine Fallstudie ausserhalb dieses Bereichs geschrieben werden, können die optionalen
Elemente jedoch weggelassen oder nur eine passende Teilmenge eingesetzt werden.
Im Rahmen der Entwicklung eines webbasierten Fallstudienportals, welches sowohl in
verschiedene Lernumgebungen integriert, als auch als externe Applikation einsetzbar sein
wird, arbeiten wir im Moment auch an der Implementierung der Auslesefunktionalitäten
für die semantischen Informationen. Ein mögliches Szenario ist hierbei, dass Lernende
nach allen Vorkommnissen eines bestimmten Details suchen können, zum Beispiel um Informationen über Geschäftseinheiten oder über die strategische Zielsetzung der beschriebenen Firma zu bekommen. Eine nächste Erweiterung von CaseML wird ausserdem die
Beschreibung von Methoden und Werkzeugen für die Toolbox sein. Die mit Hilfe von
113
CaseML generierten Fallstudien werden erstmals im Sommersemester 2007 von Projektteilnehmern in verschiedenen Lernplattformen eingesetzt.
Literaturverzeichnis
[IMS04] IMS. Content Packaging Specification, 2004. http://www.imsglobal.org/content/packaging
[HNH05] B. Hebel, M. Niederhuber, H. Heinimann. e-Learning basierte Fallstudien zur akademischen Ausbildung in der Geoinformatik: Methodisches Konzept, Umsetzung und Erfahrungen. In Proceedings of DeLFI 2005: 3. Deutsche e-Learning Fachtagung Informatik,
Rostock, 2005.
[ELM01] J. A. Erskine, M. R. Leenders, L. A. Mauffette-Leenders. Writing Cases. Western Ontario,
Ivey, 2001.
[Ro01] M. J. Roberts. Developing a Teaching Case (Abridged), 2001. Harvard Business School
Case No. 9-901-055.
[SCO04] SCORM.
Sharable
Content
Object
Reference
Model,
2004.
http://www.adlnet.gov/scorm/index.cfm.
[St03]
M. Stuebing. Metadaten-gestuetzte Integration von Fallstudien in IT-gestuetzte Lehre,
2003. Diplomarbeit, Technische Universität Berlin.
114
Content-Migration beim Wechsel zwischen verschiedenen
Systemkategorien zur Content-Erstellung und -Pflege
Angela Frankfurth, Jörg Schellhase
Fachgebiet Wirtschaftsinformatik
Universität Kassel
Nora-Platiel-Straße 4
34127 Kassel
frankfurth@wirtschaft.uni-kassel.de
schellhase@wirtschaft.uni-kassel.de
Abstract: Es existieren unterschiedliche Systemkategorien zur Erstellung und
Pflege von Content, die jeweils unterschiedliche Vor- und Nachteile aufweisen.
Bei der Entscheidung für ein System begibt sich der Content-Entwickler (und
-Nutzer) in mehr oder weniger große Abhängigkeiten, die für ihn nachteilig sein
können. Insbesondere erscheinen zwei Probleme als besonders schwerwiegend: die
grundsätzliche technische Nachhaltigkeit und die Migration. Der Beitrag stellt diese Probleme für verschiedene Systemkategorien dar.
1
Einleitung
Die Content-Erstellung ist komplex sowie intellektuell, personell und damit finanziell
aufwändig. Dennoch sind Content-Anpassungen von Zeit zu Zeit aufgrund veränderter
sachlicher Inhalte (inhaltliche Wartung) sowie aufgrund der Technologiedynamik1
(technische Wartung) erforderlich. Größere Herausforderungen sind mit ContentMigrationen verbunden, die bei Systemwechseln notwendig werden. Die ContentMigration ist keine spezifische eLearning-Fragestellung, dennoch hat sie für das eLearning an Hochschulen eine große Bedeutung. Dies gilt besonders vor dem Hintergrund
der technologischen Entwicklungen sowie der sich derzeit entwickelnden eLearningStrategien, die u.a. auch die Vermarktung von Content zur Refinanzierung zum Ziel
haben. Hochschulen sind auf dem kommerziellen Content-Markt potentielle ContentProduzenten und -Anbieter, die jedoch über eine sehr heterogene Infrastruktur (auch bei
der Content-Produktion) sowie nur über geringe finanzielle Mittel verfügen. Vor diesem
Hintergrund betrachtet der Beitrag verschiedene Systemkategorien und die Besonderheiten der Migration zwischen den einzelnen Kategorien.
1
Zu nennen sind hier beispielsweise sich ändernde (Web-)Datenformate, die Weiterentwicklung von Browsern, die Entwicklung und Verwendung von Standards sowie die Verteilung von Informationen über unterschiedliche Kanäle wie Printversionen oder mobile Endgeräte [Br01].
115
2
Systemkategorien zur Erstellung und Pflege von eLearningContent
Im Fokus stehen Erstellung und Pflege von Inhalten zwecks Web-basierter Präsentation.
Die meisten Learning Management Systeme (LMS) stellen lediglich einen Rahmen für
die Verwaltung Web-basierter Kurse bereit. Die Methoden zur Aufbereitung von Inhalten für die Web-basierte Präsentation werden den jeweiligen Kursanbietern überlassen.
Es gibt führende Anbieter für Software zur Produktion multimedialer Elemente (Animationen, Videos, Ton), auf deren Produkte für die Erstellung multimedialer Einheiten
zurückgegriffen werden kann. Anders sieht dies in Bezug auf die Web-basierte Inhaltsaufbereitung aus. Zum einen kann eine Vielzahl von Systemkategorien (z.B. CMS,
LCMS, WYSIWYG-HTML-Editoren, eLearning-spezifische Autorensysteme, WikiSysteme, Live-Recording-Systeme) zum Einsatz kommen; zum anderen haben sich in
Bezug auf die Aufbereitung von eLearning-Inhalten, mit Ausnahme der Kategorie LiveRecording-Systeme, aus vielfältigen Gründen keine bestimmten Systeme nennenswert
durchsetzen können. Es gibt viele Möglichkeiten der Web-basierten Aufbereitung von
eLearning-Inhalten, die zudem als ein wesentliches Differenzierungsmerkmal genutzt
werden. Auch HTML-Editoren können für die Content-Erstellung eingesetzt werden.
Diese erlauben jedoch i. d. R. nur die Erstellung von statischem Content [DV05] und
erfordern HTML-Kenntnisse. Im Folgenden werden verschiedene Systemkategorien, die
zur Erstellung und Pflege von e-Learning-Content eingesetzt werden, kurz erläutert.
2.1
Content Management Systeme
Content Management Systeme (CMS) sollen die einfache und effiziente Erstellung,
Aktualisierung und Verwaltung von (eLearning-)Content ermöglichen und beinhalten zu
diesem Zweck i.d.R. einfach zu bedienende Autorenumgebungen [DV05; BHM04, 4;
Br04]. Reine CMS sind sehr stark prozess- und produktionsorientiert [Ba05, 127], was
sich besonders in den Rollenkonzepten zeigt. Funktionalitäten Web-basierter CMS sind
„die Beschaffung und Erstellung, das Management, die Präsentation und Publikation von
Inhalten sowie das workflowbasierte Verarbeiten, Verteilen und Wiederverwenden von
Inhalten“ [BHM04, 4]. Weiterhin sollen sie den einfachen Import externer Materialien
ermöglichen [DV05]. Durch den Einsatz von CMS kann zu jeder Zeit ein konsistenter
Zustand einer Web-Seite erreicht werden. Weiterhin kann eine gewisse Flexibilität erreicht werden, die jedoch mit einem erheblichen Aufwand für notwendige Anpassungen
verbunden sein kann. Die Implementierung eines CMS ist jedoch zeitaufwendig und
erfordert erhebliches technisches Know-how. [Br04]
Obwohl XML bereits in vielen CMS implementiert wurde, existiert kein abgestimmtes
Vokabular (Schema) zwischen den Anbietern. Dies führt zur proprietären Speicherung
von Content und begrenzt so den Wert, den XML für das Erreichen von Interoperabilität
haben kann. [Ro05, 2] Es existiert eine Anzahl sehr spezifischer Interoperabilitätsstandards. Keiner der derzeit implementierten Standards deckt jedoch alle Möglichkeiten
eines CMS ab. Die Folge ist, dass CMS-Produkte oft proprietäre Technologien nutzen,
um Content zu strukturieren und zu speichern. Selbst wenn XML eingesetzt wird, be-
116
wirkt das Fehlen eines gemeinsamen Vokabulars zwischen den Produkten, dass die
Kommunikation zwischen ihnen sowie die Migration von einem System zu einem anderen System sehr schwierig sind. Der sich schnell entwickelnde Markt hemmt zudem die
Kooperation zwischen Herstellern. [Ro05, 4] CMS werden bereits vielfach an Hochschulen eingesetzt (z.B. Typo3, Plone), jedoch überwiegend im Bereich der Erstellung von
Webseiten, selten auch für die Erstellung und Pflege von eLearning-Content.
2.2
Learning Content Management Systeme
Learning Content Management Systeme (LCMS) kombinieren Autorentools mit Tools
für die Speicherung und das Wiederauffinden von Lernobjekten. Sie treten in unterschiedlichen Formen auf und beinhalten eine sehr große Breite von Funktionalitäten.
LCMS verwalten alle Daten und Informationen in Bezug auf eLearning-Content [HK03,
12], sie sind somit auf eLearning-Content spezialisierte CMS, die der Erstellung und
Speicherung modularer Lernobjekte, der gezielten Suche nach existierenden Lernobjekten sowie ihrer Zusammenstellung zu Kursen dienen [Sc04, 504]. LCMS können Lernobjekte in unterschiedlichen Kursen und Formaten zusammenstellen [HK03, 12]. Der
Content wird i.d.R. mit Autorentools erstellt, [HK03, 12] diese müssen jedoch nicht in
das LCMS integriert sein. Weiterhin ermöglichen LCMS das Content-Tracking, d.h. das
Nachverfolgen der Interaktionen zwischen Lerner und Content [HK03, 12]. Der Begriff
LCMS wird für Systeme verwendet, die über einen größeren Umfang an Funktionalitäten verfügen als Learning Object Repositories. Im Allgemeinen wird der Begriff auf
Systeme angewandt, die Komponenten für die Autorenunterstützung beinhalten, über ein
Learning Object Repository verfügen, die Bereitstellung von Lernobjekten für Lernende
ermöglichen und darüber hinaus die Administration unterstützen. [CN06, 29f] Die Funktionalitäten, die ein LCMS bereitstellt, können daher sehr stark differieren, nämlich vom
einfachen Management von mit externen Autorentools erstellten Inhalten, über die Unterstützung der Erstellung und Verwaltung von Content bis hin zur Übernahme von
LMS-Funktionalitäten 2. In diesem Beitrag werden LCMS als Lernplattformen betrachtet,
die Funktionen von eLearning-spezifischen Content Management Systemen beinhalten.
2.3
WYSIWYG-HTML-Editor
WYSIWYG 3-HTML-Editoren sind Werkzeuge zur einfachen Erstellung und Pflege von
Web-Seiten.4 Traditionelle WYSIWYG-HTML-Editoren unterstützten jedoch keine
eLearning-Standards [Bu06, 47]. Mit der zunehmenden Verbreitung des eLearning wurden allerdings spezialisierte WYSIWYG-HTML-Editoren entwickelt, die eLearningspezifische Unterstützungsmerkmale aufweisen und Content-Standards wie SCORM
oder AICC-Standards implementiert haben [Bö04, 42].
2
Eine Beschreibung der Funktionen von LMS findet sich beispielsweise in [HSS01].
WYSIWYG: What You See Is What You Get.
4
Beispiele für WYSIWYG-HTML-Editoren sind u.a. Macromedia Dreamweaver, Microsoft Frontpage, Adobe
GoLive sowie NetObjects Fusion [Bu06, 47; Bö04, 42].
3
117
2.4
Wiki-Systeme
Die Erstellung von Inhalten im Web gestaltet sich meist schwieriger als der reine Abruf.
Aus diesem Grund wurden Tools entwickelt, die das Lesen und Erstellen von Inhalten
gleichermaßen einfach ermöglichen, so dass beides mit den gleichen Kenntnissen durchführbar ist. Die Kooperation bei der Inhaltserstellung ist somit nicht auf Personen beschränkt, die über gleiche Kenntnisse und dieselben Tools verfügen. [DV05] Ein weit
verbreitetes Tool für die kooperative Erstellung Web-basierter Inhalte sind Wikis. Sie
stehen der zentralen Funktionalität von CMS, dem stark ausdifferenzierten Rollensystem, gegenüber. [Ba05, 128] Seit Mitte der 1990er Jahre ist das Wiki-Konzept vielfach
weiterentwickelt worden. Es wurden vielfältige Wiki-Engines in verschiedenen Skriptund Programmiersprachen entwickelt.5 Die Kernfunktionalitäten eines Wiki sind einfache Editiermöglichkeiten, einfache Auszeichnungen sowie automatisches Verlinken von
Seiten. Mit der Verbreitung von Wikis nahmen jedoch die Ansprüche der Nutzer zu, so
dass weitere Funktionalitäten hinzukamen, wie der Versionsvergleich sowie die Übersicht über Änderungen an Seiten. Weitere Funktionalitäten von Wikis sind u.a.: Erstellen
neuer Seiten, Erstellen externer Links, Sandbox für neue Nutzer,6 Page History sowie
Suchfunktionalitäten. [CL04] Viele Online-Kurse verlinken auf Inhalte von Wikis
[Sm05, 218]. Wikis setzen sich zunehmend für die kollaborative Erstellung von Inhalten
durch. Unterschiedliche Wikis werden derzeit auch für die eLearning-Content-Erstellung
an Hochschulen im In- und Ausland eingesetzt.
2.5
eLearning-spezifische Autorensysteme
Die Kategorie eLearning-spezifische Autorensysteme umfasst in diesem Beitrag alle
speziell auf eLearning ausgerichteten Systeme zur Erstellung und Pflege von eLearningContent, die nicht den Kategorien LCMS oder klassische Autorensysteme (z.B. Macromedia Director) angehören. Beispiele sind spezielle, auf eLearning ausgerichtete Generierungswerkzeuge bzw. so genannte Content-Converter. Diese dienen dazu, Dokumente, die mittels einer Textverarbeitungssoftware erstellt wurden, in HTML-Dateien umzuwandeln. Hierfür ist es jedoch erforderlich, dass die Struktur im Textdokument, insbesondere die Überschriftenformate zur Erstellung der Navigation, exakt definiert wurden.
[Bö04, 43] In [Sc01] wird die Individualentwicklung Virtual Learning Environment
Generator (VLEG) beschrieben, die auf der Basis von mittels WYSIWYG-HTMLEditoren gepflegten Manuskrip-ten semantisch angereicherte, hochgradig verlinkte und
mit zahlreichen Funktionalitäten aus-gestattete WBTs generiert. Vorstellbar sind aber
auch eLearning-spezifische CMS, die im Gegensatz zu Content-Convertern zusätzlich
eLearning-spezifische Rollenkonzepte und Workflow-Unterstützungen anbieten.
5
Eine Übersicht verfügbarer Wiki-Engines findet sich unter: http://www.c2.com/cgi/wiki?WikiEngines.
Hierbei handelt es sich um spezielle Wiki-Seiten, die in Wiki-Systemen neuen Nutzern zur Verfügung gestellt
werden, damit diese sich „mit der Bearbeitung und Erstellung von Seiten im Wiki vertraut“ machen können. In
den deutschsprachigen Versionen werden diese Seiten auch „Spielwiesen“ genannt.
http://de.wikipedia.org/wiki/Sandbox, Abruf am 2006-07-23.
6
118
3
Content-Migrationen zwischen verschiedenen Systemkategorien
Unter Web-basiertem eLearning-Content werden im Folgenden einzelne Lernobjekte
verstanden, die mittels spezieller Systeme erstellt, gepflegt und verwaltet werden. Im
Extremfall kann es sich hierbei auch um die vollständige inhaltliche Aufbereitung einer
Vorlesung handeln.
An Hochschulen wurden in den letzten Jahren erhebliche Ressourcen für die Entwicklung von Web-basiertem eLearning-Content verwendet. Die Technologien und Sprachen
(HTML, JavaScript, CSS, XML, XSL, RDF), mit denen Web-basierter Content erstellt
wird, haben sich stetig weiterentwickelt. Aufgrund dieser dynamischen technologischen
Entwicklungen entstehen immer wieder Situationen, in denen Web-basierter Content an
neue Technologien angepasst werden muss. Der damit verbundene Aufwand hängt stark
davon ab, mit welcher Systemkategorie Web-basierte Inhalte gepflegt werden. Im Idealfall reicht ein Softwareupdate des Systems aus, das zur Erstellung und Pflege der Webbasierten Inhalte verwendet wird. Bei Ansätzen, bei denen zu festen Zeitpunkten Webbasierte eLearning-Produkte generiert werden (z.B. bei Content Convertern), wird es
komplizierter, da in diesem Fall der komplette Web-basierte eLearning-Content erneut
generiert werden muss. Bei der Pflege von Web-basiertem Content mittels HTMLEditoren kann es sogar passieren, dass eine Vielzahl von einzelnen Dateien manuell
überarbeitet werden muss.
Je nach der verfolgten eLearning-Strategie einer Hochschule werden eine Vielzahl unterschiedlicher oder im Extremfall lediglich ein bestimmtes System zur Erstellung und
Pflege von Web-basiertem eLearning-Content eingesetzt. Eine Vielzahl von Gründen
kann dazu führen, dass von den aktuell eingesetzten Systemen zu anderen Systemen
migriert werden muss. Im Rahmen solcher Migrationen muss u.a. der eLearning-Content
migriert werden. Der damit verbundene Aufwand hängt sowohl vom Quell- als auch
vom Zielsystem ab. Ist der notwendige Aufwand für eine Content-Migration zu hoch, so
kann dies zu einer Gefährdung von zuvor durchgeführten Investitionen in die Entwicklung von eLearning-Content führen.
Dömer unterscheidet in Bezug auf allgemeine Anwendungssysteme zwischen internen
oder externen Migrationsanlässen sowie zwischen funktionalen oder technologischen
Faktoren. Interne funktionale Ursachen werden durch neue Anforderungen der Organisation ausgelöst, die mit dem bisherigen System nicht erfüllbar sind. [Dö98, 57] Beispielsweise kann es sein, dass eine Hochschule das Angebot an eLearningLehrveranstaltungen erhöhen möchte und hierzu effiziente Organisationsstrukturen für
die Erstellung und Pflege von Web-basiertem e-Learning-Content benötigt. Hierzu könnte es notwendig sein, dass das für die Erstellung und Pflege eingesetzte System die Definition komplexer Rollenkonzepte sowie komplexer Workflows unterstützen muss. Sofern diese Anforderungen durch das vorhandene System nicht erfüllbar sind, kann somit
eine Migrationsnotwendigkeit entstehen. Interne technologische Ursachen sind häufig
mit einer schlechten Wartungsqualität von Systemen verbunden, die dazu führt, dass zu
viele (Mitarbeiter-)Ressourcen durch diese Systeme gebunden werden [Dö98, 57]. Bei
Systemen zur Erstellung und Pflege von Web-basiertem eLearning-Content sollten neben dem Aufwand der Systemwartung, vor allem auch der durch das System verursachte
119
administrative Aufwand sowie die Erstellungs- und Pflegeproduktivität in Bezug auf den
eLearning-Content betrachtet werden. Sofern es Systeme mit einem deutlich geringeren
Administrationsaufwand sowie einer erheblich höheren Erstellungs- und Pflegeproduktivität gibt, kann sich der mit einer Migration verbundene Aufwand lohnen. Externe funktionale Ursachen werden durch den Wettbewerb ausgelöst. So kann der Wettbewerb das
Angebot neuer Dienstleistungen erzwingen, die ohne Migration vorhandener Systeme
nicht erbracht werden können [Dö98, 57]. Bietet eine Hochschule bspw. einen virtuellen
Studiengang an, so stellt die Qualität der angebotenen eLearning-Produkte i.d.R. ein
Differenzierungsmerkmal dar. Zur Steigerung der Qualität (z.B. Erweiterung der Funktionalitäten) kann ein Wechsel auf ein anderes eLearning-System erforderlich sein. Externe technologische Ursachen liegen z.B. dann vor, wenn Systeme bzw. Systemkomponenten von einem Hersteller nicht mehr unterstützt werden oder neue Technologien
erhebliche Nutzengewinne ermöglichen [Dö98, 57].
Aufgrund der Vielzahl von Anbietern von Systemen zur Erstellung und Pflege von Webbasiertem eLearning-Content ist davon auszugehen, dass eine Vielzahl von Systemen in
den nächsten Jahren am Markt nicht überleben wird, so dass ein Migrationszwang entstehen kann. Zudem sind zahlreiche weitere Migrationsanlässe denkbar, z.B. kann eine
ungünstige Kostenstruktur (hohe Lizenzkosten) Anlass für Migrationsüberlegungen
geben. Genauso gut kann auch die Migrationsfähigkeit eines Systems und des mit dem
System verwalteten eLearning-Content ein wichtiger Migrationsanlass sein. Stellt eine
Hochschule fest, dass der mit ihrem System erstellte eLearning-Content nur mit sehr
hohem Aufwand migrierbar wäre, kann es sinnvoll sein, rechtzeitig auf ein anderes System zu wechseln, bei dem eine deutlich höhere Migrationsfähigkeit gegeben ist.
Abbildung 1 veranschaulicht die Vielfalt möglicher Migrationen zwischen verschiedenen Systemkategorien (WYSIWYG-HTML-Editoren, LCMS, eLearning-spezifische
Autorensysteme, Wiki-Systeme, CMS), die für die Erstellung und Verwaltung von Webbasiertem e-Learning-Content eingesetzt werden können. Zu allen aufgeführten Systemkategorien gibt es eine Vielzahl von kommerziellen Systemen, Open-Source-Systemen
sowie Individualentwicklungen. Eine Systemkonsolidierung, in dem Sinne, dass sich
bestimmte Standardsysteme am Markt etabliert haben, hat in allen hier aufgeführten
Systemkategorien noch nicht stattgefunden.7 Die Mehrzahl der an Hochschulen eingesetzten Web-basierten e-Learning-Inhalte wurde mit eLearning-spezifischen Autorensystemen und WYSIWYG-HTML-Editoren erstellt. An dritter Stelle dürften mittlerweile
LCMS stehen. Seltener werden hingegen allgemeine CMS sowie Wiki-Systeme zur
Erstellung und Pflege Web-basierter eLearning-Inhalte verwendet.
In Abbildung 1 werden für jede Systemkategorie drei Unterkategorien unterschieden, so
dass ein Pfeil stellvertretend für jeweils neun unterschiedliche Migrationskategorien
steht und insgesamt 225 verschiedene Migrationskategorien unterschieden werden. Die
folgenden Betrachtungen zu den einzelnen Migrationskategorien beziehen sich lediglich
auf die Systemoberkategorien und verzichten auf eine Differenzierung zwischen kommerziellen Systemen, Open-Source-Systemen sowie Individualentwicklungen.
7
Auf der Web-Site von Contentmanager (http://www.contentmanager.de) sind derzeit bspw. über 1000 Content-Management-Systeme verzeichnet.
120
1
WYSIWYG-HTML-Editoren
2
6
8
5
4
3
LCMS
11
12
10
16
eLearning-spezifische
Autorensysteme
18
17
20
14
Legende
Kommerzielle Systeme
15
7
19
Wiki-Systeme
13
23
22
24
9
21
CMS
25
Individualentwicklungen
Open-Source-Systeme
Evtl. problematische
Migration, da nur teilweise
automatisierbar.
Abbildung 1: Potenzielle Migrationspfade zwischen verschiedenen Systemklassen
Bei den folgenden Migrationsbetrachtungen geht es nicht um die Entwicklung eines
neuen Systems auf der Basis eines alten Systems, sondern primär um die Migration von
Elementen, die unmittelbar oder mittelbar mit eLearning-Content zusammenhängen. Die
Nutzung von eLearning-Content über unterschiedlichste Systeme (z.B. unterschiedliche
Lernplattformen) stellt meist kein allzu großes Problem dar, auch wenn der Austausch
von Content nicht immer reibungslos funktioniert und gelegentlich sogar problematisch
sein kann [Sm05, 218]. Die Migration von eLearning-Content zwecks Wechsel des Systems, das zur Erstellung, Pflege und Verwaltung von eLearning-Content eingesetzt wird,
ist hingegen nicht trivial. Von einer Migration sind je nach Systemkategorie u.a. Metadaten zum eLearning-Content, Templates, spezialisierte Skripte sowie der eigentliche Content betroffen. Der Systemwechsel kann sowohl innerhalb einer Systemkategorie (z.B.
von LCMS zu LCMS) als auch zwischen zwei Systemkategorien erfolgen. Migrationen
innerhalb von Systemkategorien haben meistens einen Vorteil, denn i.d.R. versuchen
Systemanbieter Kunden, die bereits ein System einer bestimmten Kategorie nutzen, dazu
zu bewegen zu ihrem System zu wechseln. Daher sollten sich insbesondere kommerzielle Anbieter mit adäquaten Migrationsstrategien auseinandersetzen und zumindest für
bestimmte Systeme Migrationswerkzeuge bereitstellen. Zudem gibt es bestimmte Systemkategorieübergänge für die besonders häufig Migrationsansätze entwickelt wurden
und entsprechend viele Migrationserfahrungen existieren. Dies ist bspw. für Migrationen
des Typs 9 (Migration von WYSIWYG-HTML-Editor zu CMS) der Fall. Je nachdem,
von welcher Systemkategorie zu welcher anderen Systemkategorie eLearning-Content
migriert wird, kann es zum einen zu einem semantischen Informationsverlust in Bezug
auf mit dem eLearning-Content verbundene semantische Metadaten kommen. Zum anderen können wesentliche Eigenschaften des auf der Grundlage des eLearning-Content
bereitgestellten eLearning-Produktes vom Zielsystem bestimmt werden, so dass nach der
Migrationsdurchführung i.d.R. sich das eLearning-Produkt funktional und optisch vom
Ursprungsprodukt unterscheidet. Im Folgenden wird die Problematik der ContentMigration an ausgewählten Migrationskategorien verdeutlicht.
121
Migration von CMS zu CMS (25): Die Migration von einem CMS zu einem anderen
CMS ist ein komplexes Migrationsvorhaben bei dem eine Vielzahl von Elementen von
der Migration betroffen ist. Folgende Abbildung zeigt CM-Komponenten und ContentElemente, die beim Übergang von einem CMS zu einem anderen CMS bei der Migrationsdurchführung berücksichtigt werden müssen.
Quelle
CMKomponenten
Ziel
Templa Rollen- Work
tes
konzepte -flows
Replikation
Content
-
-
Templates
Workflows
Replikation
-
CMKomponenten
Rollenkonzepte -
Text
Text
Bild
Bild
-
-
-
-
Content
Abbildung 2: Migration von einem CMS zu einem anderen CMS [BHF03, 5]
Zur Durchführung einer Migration von einem CMS zu einem anderen CMS ist Expertenwissen über beide Systeme notwendig [BHF03, 5]. Vor einer Migrationsdurchführung ist zu prüfen, inwieweit eine Migration zwischen den beiden Systemen überhaupt
ökonomisch vertretbar durchgeführt werden kann. Es ist durchaus möglich, dass zwischen bestimmten Systemen eine Migration zu hohe Aufwendungen verursachen würde.
Insbesondere bezogen auf die verschiedenen CM-Komponenten ist zu prüfen, inwieweit
eine Migration oder aber eine Neuentwicklung vorteilhaft ist. Für die Migration von
CM-Komponenten können teilweise am Markt verfügbare Konvertierungsprogramme
sowie spezielle Migrationstools genutzt werden. Teilweise müssen spezifische Konvertierungsroutinen programmiert werden. Die Migration des Content ist i.d.R. einfacher,
als die Migration der CM-Komponenten, erfordert jedoch meistens die Programmierung
individueller Konvertierungsprogramme [BHF03, 6], da zumindest Teile des Content
systemspezifisch strukturiert und abgespeichert sind. Jeder strukturierten Ablage des
vom CMS verwalteten Content liegt ein CMS-spezifisches Content-Modell zugrunde, da
für CMS kein standardisiertes Austauschformat für Metadaten, Content sowie Layout
existiert [BHF03, 6]. Normalerweise sind mit den durch ein CMS verwalteten ContentEinheiten spezielle rollen-, gruppen- sowie benutzerbezogene Rechte (Leserechte, Editierrechte) verbunden. Inwieweit diese Rechte komplett und automatisiert migriert werden können, hängt sehr stark vom jeweiligen Quell- und Zielsystem ab.
Migration von CMS zu anderen Systemen: Mittels individuell programmierter Skripte
kann Content aus CMS in mittels WYSIWYG-HTML-Editoren (Typ 8) und WikiSystemen (Typ 24) pflegbare Dateien migriert werden. Bei WYSIWYG-HTMLEditoren und Wiki-Systemen fehlt jedoch, sofern es sich nicht um semantische Wiki-
122
Systeme handelt, die Möglichkeit der semantischen Auszeichnung der zu pflegenden
Inhalte. Zudem stehen eine Reihe von Unterstützungsmöglichkeiten bei der Verwaltung
und der Pflege des Content damit nicht mehr zur Verfügung. Bei der Migration zu eLearning-spezifischen Autorensystemen (Typ 20) sowie zu einem LCMS (Typ 14) ergibt
sich je nach der Leistungsfähigkeit des Autorensystems eine vergleichbare Situation wie
bei einer Migration zu einem anderen CMS.
Migration von LCMS zu LCMS (10): Im Rahmen der Migration von einem LCMS zu
einem anderen LCMS ist eine Vielzahl von Elementen zu migrieren. Insbesondere die
Migration stark verknüpfter und möglicherweise sehr LCMS-spezifischer Metadatenstrukturen (z.B. für zu verwaltende Kurse) kann selbst im Falle guter Export-/ Importfunktionen sehr komplex sein. Hier geht es jedoch primär um die Content-Migration.
Der Aufwand für die Content-Migration von einem LCMS zu einem anderen LCMS
hängt letztlich sehr stark von der Leistungsfähigkeit der jeweiligen Import-/ Exportfunktionalitäten8 der LCMS ab. Für den Import und Export bieten sich XML-Dateien an. Die
Migration von Content-bezogenen Metadaten sollte sich im Falle der Verwendung von
eLearning-Standards, wie bspw. SCORM9 und der Spezifikation des IMS 10 Content
Packaging,11 erheblich leichter gestalten als die Migration des eigentlichen eLearningContent, der je nach LCMS sehr unterschiedlich strukturiert und mit LCMS-spezifischen
XML-Tags ausgezeichnet sein kann. Selbst eLearning-Content, der nach den Kriterien
des IMS- oder SCORM-Standard erstellt wurde, kann i.d.R. nicht ohne zusätzlichen
Anpassungs- und Programmieraufwand von einem System zu einem anderen System
migriert werden [Ka04, 74]. Vor einem Import von zuvor exportiertem eLearningContent müssen daher i.d.R. spezifische Konvertierungsprogramme entwickelt werden.
Problematisch ist, dass vielfach LCMS-Anbieter kein allzu großes Interesse an leistungsfähigen Content-Exportfunktionen haben, denn damit würden sie die Barriere für einen
Anbieterwechsel zu ihrem eigenen Nachteil herabsetzen. Bei der Auswahl eines LCMS
ist dieser Punkt jedoch sehr wesentlich, denn je leistungsfähiger die ContentExportfunktion des LCMS ist, desto geringer ist die Abhängigkeit vom LCMS-Anbieter
und desto niedriger sind zukünftige Kosten bei einem notwendigen Systemwechsel.
Migration von LCMS zu anderen Systemen: Im Wesentlichen gelten die Ausführungen
zur Migration von LCMS zu LCMS. Sofern eLearning-Content in Form von XMLDateien aus einem LCMS exportiert werden kann, lässt sich dieser mittels individuell
programmierter Skripte in mittels WYSIWYG-HTML-Editoren (Typ 2) und WikiSystemen (Typ 15) pflegbare Dateien migrieren. Je nach funktioneller Leistungsfähigkeit des LCMS in Bezug auf die vom LCMS angebotenen eLearning-Produkte, ist dabei
jedoch teilweise ein deutlicher semantischer und funktioneller Verlust verbunden. Bei
WYSIWYG-HTML-Editoren und Wiki-Systemen fehlt die Möglichkeit der semantischen Auszeichnung der zu pflegenden Inhalte. Bei der Migration zu eLearning8
Ein Beispiel für eine hohe Leistungsfähigkeit in Bezug auf Import- und Exportfunktionalitäten ist das Literaturverwaltungsprogramm Endnote. Dieses Programm bietet eine Vielzahl von Filtern zu unterschiedlichsten
Systemen und zudem flexible Möglichkeiten eigene Filter, beispielsweise auf XML-Basis, für den Import- und
Export von Daten zu definieren.
9
Sharable Content Object Reference Model, http://www.adlnet.gov.
10
IMS Global Learning Consortium, Instructional Management Systems, (IMS) http://www.imsproject.org.
11
Die aktuelle Spezifikation des IMS Content Packaging Information Model liegt in der Version 1.1.4 vor.
Siehe [IMS04].
123
spezifischen Autorensystemen (Typ 11) ergibt sich je nach der Leistungsfähigkeit des
Autorensystems eine vergleichbare Situation wie bei einer Migration zu einem anderen
LCMS. Die Migration zu einem CMS (Typ 13) gestaltet sich hingegen erheblich aufwendiger, denn in diesem Fall muss eine Vielzahl von CM-Komponenten (z.B. Templates, Layout, Metadatenstrukturen) neu entwickelt werden.
Migration von WYSIWYG-HTML-Editoren zu WYSIWYG-HTML-Editoren (1): Prinzipiell kann zwar relativ einfach zwischen verschiedenen WYSIWYG-HTML-Editoren
gewechselt werden. Allerdings hat jeder WYSIWYG-HTML-Editor gewisse Besonderheiten. Jeder WYSIWYG-HTML-Editor erzeugt beispielsweise einen für den Editor
charakteristischen HTML-Quellcode. Wechsel zwischen verschiedenen WYSIWYGHTML-Editoren können daher dazu führen, dass der Quellcode „verunreinigt“ wird.
Eventuell sollten daher bei einer Migration spezielle Quellcodeoptimierungswerkzeuge
eingesetzt werden.
Migration von WYSIWYG-HTML-Editoren zu anderen Systemen: Bei der Migration zu
einem LCMS (Typ 3), einem CMS (Typ 9) oder einem eLearning-spezifischen Autorensystem (Typ 4) muss eine semantische Anreicherung des Content erfolgen. Zudem ist
die Trennung von Struktur, Layout und Inhalt notwendig. Hierzu bietet sich die Überführung von HTML-Dateien zu XML-Dateien an. Probleme, die bei derartigen Migrationen
zu lösen sind, werden in [Ga03] und [SC04] beschrieben. Die durchzuführende Migration dürfte sich daher nur sehr schwer vollständig automatisiert durchführen lassen, so
dass der Migrationsaufwand i.d.R. sehr hoch sein wird. Die Migration zu einem WikiSystem sollte sich hingegen verhältnismäßig gut automatisieren lassen, auch wenn sich
dabei die Eigenschaften des resultierenden Lernproduktes deutlich verändern können.
Migration von eLearning-spezifischem System zu eLearning-spezifischem System (17):
Der Migrationsaufwand zwischen eLearning-spezifischen Systemen dürfte zum einen
sehr stark von den Möglichkeiten des Content-Import und -Export der beteiligten Systeme bzw. dem Speicherformat des verwalteten Content abhängen. Zum anderen kommt
es sehr stark darauf an, welchem primären Paradigma (z.B. Generierungswerkzeuge
bzw. Content-Converter) die jeweiligen Systeme folgen und über welche spezifischen
Eigenschaften die jeweiligen Systeme verfügen.
Migration von eLearning-spezifischem System zu anderen Systemen: Die Situation ist
hier vergleichbar mit der Migration von LCMS- oder CMS-Systemen zu anderen Systemen. Allerdings kann hier, je nachdem welche Eigenschaften das eLearning-spezifische
System besitzt, der Migrationsaufwand unterschiedlich stark ausfallen. Eventuell sind
zusätzliche Entwicklungsaufwendungen im Anschluss an die Migrationsdurchführung
notwendig.
Migration von Wiki-System zu Wiki-System (22): Wiki-Systeme verwenden zum Editieren von Web-Seiten verhältnismäßig wenige und einfache Konventionen. Zwar gibt es
je nach Wiki-System unterschiedliche Editierkonventionen, diese folgen jedoch einer
sehr ähnlichen Philosophie. Daher sollten sich Konvertierungsprogramme sehr schnell
entwickeln lassen, so dass die Migration von Wiki-Content für den Übergang von einem
Wiki-System zu einem anderen i.d.R. keinen großen Aufwand darstellen sollte.
124
Migration von einem Wiki-System zu anderen Systemen: Für die Migration von WikiContent zwecks zukünftiger Bearbeitung mit einem WYSIWYG-HTML-Editor (Typ 6)
werden ebenfalls lediglich einfache Konvertierungsprogramme benötigt. Für die Migration von Wiki-Content zu LCMS, CMS sowie eLearning-spezifischen Systemen gelten
im Wesentlichen die Ausführungen zur Migration von WYSIWYG-HTML-Editoren zu
anderen Systemen. Allerdings dürfte die Migration von Wiki-Content deutlich einfacher
zu realisieren sein, als die Migration von mit WYSIWYG-HTML-Editoren gestalteten
Web-Seiten, da diese durchaus problematischen HTML-Quellcode sowie problematische
Skripte beinhalten können.
4
Fazit
Die effiziente Erstellung und Pflege von Content ist für Hochschulen im Wesentlichen
aus zwei Gründen besonders wichtig: zum einen sind sowohl Erstellung als auch Pflege
in der Regel mit hohen Aufwendungen verbunden, zum anderen können diese jedoch
durch die Wiederverwendung des Content (z.B. durch Vermarktung) refinanziert werden. Zur Erstellung und Pflege können unterschiedlichste Systemkategorien verwendet
werden. Problematisch ist jedoch die Content-Migration sowohl innerhalb derselben
Systemkategorie als auch zwischen den verschiedenen Systemkategorien. Die Situation
verschärft sich, wenn eine Migration aus zwingenden Gründen erfolgen muss.
Bereits bei der Entwicklung oder Auswahl eines Systems für die Content-Erstellung und
Pflege für das eLearning muss darauf geachtet werden, dass zu einem späteren Zeitpunkt
eine Migration zu einem anderen System notwendig werden kann. Daher sollte bei Auswahl von Systemen, die zur Erstellung und Pflege von eLearning-Content eingesetzt
werden, unbedingt darauf geachtet werden, welche Content-Exportmöglichkeiten das
jeweilige System bietet und inwieweit exportierter Content mit vertretbarem Aufwand
für unterschiedlichste Zielsysteme automatisiert konvertiert werden kann.
Literaturverzeichnis
[BHM04] Baumgartner, P.; Häfele, H.; Maier-Häfele, K.: Evaluation von Lernplattformen: Verfahren, Ergebnisse und Empfehlungen (V1.3). 2004. http://www.campussource.de/opensource/docs/evaluation_lernplattf_at.pdf, Abruf am 2006-07-14.
[Ba05] Baumgartner, P.: Communication and Interactions in eLearning. In: Proceedings eLearning Conference, Brüssel, 19.-20.05.2005. S. 120-129.
[Bö04] Bör, A.: Service-Architekturen für Multimediale Lehre und Netzbasiertes Lernen.
http://deposit.ddb.de/cgi-bin/dokserv?idn=97770338x&dok_var=d1&dok_ext=pdf&filename=97770338x.pdf, Abruf am 2006-07-08.
[BHF03] Brandner, M.; Hoeck, B.; Friedrich, M.: Migration von Web Content Management Systemen. http://www.saxxess.com/media/GFT-WP-CMS-Migration.pdf, Abruf am 200607-21.
[Br01] Brugger, R.: Die Erstellung von wiederverwendbaren Inhalten für Web-basierte Kurse.
In: Wagner, E.; Kindt, M. (Hrsg.): Virtueller Campus: Szenarien - Strategien – Studium.
Medien in der Wissenschaft, Band 14, Waxmann Verlag, Münster 2001. S. 282 -291.
125
[Br04]
[Bu06]
[CL04]
[CN06]
[DV05]
[Dö98]
[Ga03]
[HSS01]
[HK03]
[IMS04]
[Ka04]
[Ro05]
[Sc01]
[Sc04]
[Sm05]
[SC04]
126
Brugger, R.: Auswahl und Betrieb von Lernplattformen. In: Seufert, S.; Euler, D.
(Hrsg.): Handbuch eLearning in der Hochschullehre, Oldenbourg Verlag. München
2004.
Bungenstock, M.: Entwurf und Implementierung einer vollständigen Infrastruktur für
modulare E-Learning-Inhalte. Dissertation an der Fakultät für Elektrotechnik, Informatik
und
Mathematik
der
Universität
Paderborn.
http://ubdata.unipaderborn.de/ediss/14/2006/bungenst/disserta.pdf, Abruf am 2006-07-23.
Chawner, B.; Lewis, P. H.: WikiWikiWebs: New Ways of Interacting in a Web environment.
LITA
National
Forum,
St
Louis,
October
2004.
http://www.ala.org/ala/lita/litaevents/2004Forum/CS_WikiWikiWebs.pdf, Abruf am
2006-07-22.
Cohen, E. B.; Nycz, M.: Learning Objects and E-Learning: an Informing Science Perspective. In: Koohang, A. (Hrsg.): Interdisciplinary Journal of Knowledge and Learning
Objects. Volume 2, 2006. S. 23-34.
Di Iorio, A.; Vitali, F.: Web authoring: a closed case? In: Proceedings of the Hawaii
International Conference on System Sciences 38, January 3-6, 2005, Big Island (Hawaii). http://csdl2.computer.org/comp/proceedings/hicss/2005/2268/04/22680095b.pdf,
Abruf am 2006-07-22.
Dömer, F.: Migration von Informationssystemen. Erfolgsfaktoren für das Management.
Deutscher Universitäts-Verlag, Wiesbaden 1998.
Gantz, S.: XML Unifies Content Migration. XML 2003 - Conference Proceedings.
http://www.idealliance.org/papers/dx_xml03/papers/03-06-01/03-06-01.pdf, Abruf am
2006-07-21.
Hagenhoff, S.; Schellhase, J.; Schumann, M.: Lernplattformen auswählen. In: Hohenstein, A.; Wilbers, K. (Hrsg.): Handbuch E-Learning. Fachverlag Deutscher Wirtschaftsdienst, Köln, 2001.
Hettrich, A.; Koroleva, N.: Marktstudie Learning Management Systeme (LMS) und
Learning Content Management Systeme (LCMS) – Fokus deutscher Markt. Fraunhofer
IAO. 2003. http://www.iltec.de/downloads/IAOLMSLCMSStudie.pdf, Abruf am 200607-14.
IMS Global Learning Consortium, Inc.: IMS Content Packaging Information Model.
Version 1.1.4 Final Specification. 04.10.2004.
Kamin, O.: Mehrfachverwendbare elektronische Lehr-/Lernarrangements. Eul Verlag,
Lohmar/Köln, 2004.
Robertson, J.: CMS interoperability? April 2005. http://www.steptwo.com.au/papers/kmc_interoperability/pdf/KMC_Interoperability.pdf, Abruf am 2006-07-21.
Schellhase, Jörg: Entwicklungsmethoden und Architekturkonzepte für WebApplikationen unter besonderer Berücksichtigung von Systemen zur Erstellung und Administration Web-basierter Lernumgebungen. Gabler-Verlag 2001.
Schluep, S. et al.: Learning Content Management für die Ergonomie. In: GfA (Hrsg.):
Arbeit + Gesundheit in effizienten Arbeitssystemen, Bericht zum 50. Kongress der Gesellschaft für Arbeitswissenschaften. S. 503-507.
Smith Nash, S.: Learning Objects, Learning Object Repositories, and Learning Theory:
Preliminary Best Practices for Online Courses. In: Koohang, A. (Hrsg.): Interdisciplinary
Journal of Knowledge and Learning Objects. Volume 1, 2005. S. 217-228.
Sommaruga, L.; Catenazzi, N.: Issues in Migrating to XML based Content Management
for Academic Web Portal. XML Europe 2004 - Conference Proceedings.
http://www.idealliance.org/papers/dx_xmle04/papers/03-01-01/03-01-01.pdf, Abruf am
2006-07-21.
Entwicklung rekonfigurierbarer Lerninhalte
mit (edu) DocBook
Ludger Thomas
Education and Training
Fraunhofer Institut Experimentelles Software Engineering (IESE)
Fraunhofer-Platz 1
67663 Kaiserslautern
ludger.thomas@iese.fraunhofer.de
Abstract: Wiederverwendung und Rekonfiguration sind zwei zentrale Herausforderungen für Autoren und Produzenten digitaler (Lern)Inhalte. Am Beispiel eines
aktuell laufenden Projektes wird dargestellt, wie entsprechende Inhalte in rekonfigurierbarer Form nach dem Single-Source-Publishing-Ansatz erstellt und in multiplen Konfigurationen und Formaten ausgegeben werden können. Es wird aufgezeigt welche Möglichkeiten sich hieraus für Inhaltsanbieter, Trainer und
Seminaranbieter ergeben und wie der Ansatz mit freier Software und weltweit genutzten Standards umgesetzt werden kann.
1
Rekonfiguration und Wiederverwendung als Herausforderung
für die Inhaltsentwicklung
Digitale und insbesondere Lerninhalte werden meist mit einem hohen Aufwand an Ressourcen erstellt: Ein Team von Konzeptern und Autoren erarbeitet die Gesamtkonzeption
sowie die Vorlagen für die Implementierung; Agenturen oder interne Dienstleister setzen
die entsprechenden Konzepte um. Aufgrund des großen Personaleinsatzes und des damit
verbundenen Aufwandes für die initiale Erstellung von Inhalten müssen diese aus betriebswirtschaftlicher Sicht eine möglichst große - und ggf. auch zahlungskräftige - Zielgruppe ansprechen sowie über effiziente Kanäle zur Verfügung gestellt werden. Erst
wenn die Inhalte möglichst günstig erstellt und von möglichst vielen Rezipienten (mit
gutem Erfolg) verwendet werden, entfalten sie ihr maximales betriebswirtschaftliches
Potenzial für den Auftraggeber. Dies ist jedoch nur eine, zwar wichtige, jedoch verkürzte
Sicht auf den betriebswirtschaftlichen Nutzen. Der Blick auf den gesamten sog. Content
Lifecyle, also den Lebenszyklus der Inhalte, wird nur ansatzweise berücksichtigt: Zum
betriebswirtschaftlichen Erfolg trägt nämlich ebenfalls bei, wenn bestehende Inhalte
möglichst einfach für neue Medienformate aufbereitet, inhaltlich aktualisiert und an neue
Erfordernisse angepasst sowie in neuen Kontexten genutzt werden können. Zu einem
Zeitpunkt, da sich E-Learning als ein fester Bestandteil des Medienmixes im Trainings-,
Dokumentations- und Supportbereich etabliert hat, und in Unternehmen und Bildungseinrichtungen bereits zahlreiche Inhalte vorliegen und kontinuierlich neue Inhalte erstellt
127
werden, ist die Erschließung und Ausschöpfung von Wiederverwendungspotenzialen ein
nicht zu vernachlässigender betriebswirtschaftlicher Faktor im Content Lifecyle.
Wiederverwendung und Rekonfiguration von Inhalten, d.h. die Anpassung der inneren
und äußeren Struktur an neue Anforderungen, ist somit nach wie vor ein zentrales Thema für die Weiterentwicklung der Lernmedienproduktion. Dies wurde beispielsweise in
einer Studie der eLearning guild 2005 bestätigt [El05]. Thomas und Ras haben in ihrer
Analyse aufgezeigt, dass die meistgenutzten Techniken für die Lernmedienerstellung
gerade den Aspekt des „re-use“ und „re-purposing“ vernachlässigen [TR06]. Zum einem
ähnlichen Schluss kommt auch Hörmann in seiner Dissertation [Ho06]: Danach behindern „verbreitete Autorenwerkzeuge […] die Wiederverwendung häufig durch die Verwendung monolithischer Datenformate zur Speicherung der Lernobjekte […]“.
Betrachtet man das Thema Wiederverwendung von Inhalten aus einer allgemeinen Perspektive, so lassen sich grundsätzlich mehrere Dimensionen unterscheiden:
Dimension 1: Verwendungszusammenhang
Lerninhalte werden erstellt, um bestimmte Ziele zu erreichen, beispielsweise „Unsere
Mitarbeiter sollen weniger Fehler bei der Eingabe der Daten machen“. Durch Konzeption und Auswahl der Technologien werden Inhalte oftmals auf spezifische Verwendungszusammenhänge wie z.B. auf die Verwendung als Selbstlernmedium festgelegt.
Wechselt der Verwendungszusammenhang, beispielsweise vom Einsatz als Selbstlernmedium für KFZ-Meister hin zum Einsatz in einem Support-Portal für Kunden eines
Automobilzulieferers, so müssen die Medien ggf. aufwändig umgearbeitet werden. Eine
besondere Herausforderung bei der Wiederverwendung besteht folglich darin, Inhalte so
zu erstellen, dass sie in möglichst vielen unterschiedlichen Verwendungszusammenhängen genutzt werden können.
Dimension 2: Medienformat
Eine weitere Dimension ist die Wiederverwendung über Medienformate hinweg. Inhalte,
die für ein Medienformat produziert wurden, sollen auch in anderen Formaten nutzbar
sein: Ein Online-Kurs sollte sich also beispielsweise auch als gedrucktes Werk ausgeben
lassen oder in einem ganz anderen Format auf ein mobiles Endgerät, beispielsweise für
eine Nutzung im Zug, darstellen lassen.
Zentral für die medienformatübergreifende Wiederverwendung ist der Single-Source
Multiple-Media Publishing Ansatz. Dieses Konzept besagt, dass Daten und Dokumente
zunächst möglichst redundanzfrei zentral abgelegt werden. Dabei muss insbesondere auf
die konsequente Trennung der drei Textdimensionen Inhalt, Struktur und Layout geachtet werden, da nur so eine medienformatübergreifende Wiederverwendung möglich ist.
Durch eine entsprechende Speicherung und anschließende Transformation der Daten
können aus den Daten letztlich beliebige Ausgabeformate erzeugt werden.
Aus dem Bereich der elektronischen Hilfesysteme kommt der so genannte Electronic
Performance Support System (EPSS) Ansatz [Ge91]. Damit wird die Gesamtheit aller
technischer Systeme und Medien bezeichnet, die den Nutzenden bei der Arbeit mit einem (elektronischen) System unterstützen: EPSS ist “an integrated electronic environ-
128
ment that is […] structured to provide immediate, individualized on-line access to the
full range of information, software, guidance, advice and assistance, data, images, tools,
and assessment and monitoring systems to permit job performance with minimal support
and intervention by others.” (ebd.) Im Bereich von Softwareprodukten bedeutet dies
beispielsweise, dass ein EPSS im Allgemeinen aus einer Sammlung von Dokumenten
(z.B. Handbüchern), Hilfesystemen (z.B. Online-Hilfen) sowie Trainingsmedien (z.B.
WBT) sowie weiteren Unterstützungsangeboten besteht. Diese Medien tragen dazu bei,
dass die Nutzer ihre Aufgaben effizienter erledigen können. Lerninhalte werden in diesem Kontext neben den gedruckten und den online verfügbaren Medien als ein weiterer
Baustein zur Unterstützung der Nutzung gesehen.
Abstrahiert man nun von den einzelnen Medienformaten im EPSS-Ansatz und betrachtet
das Ganze aus der medienformatübergreifenden Sicht des Single-Source-Publishings, so
stellt man fest, dass die im EPSS-Ansatz vorgesehenen Dokumente zahlreiche Informationen enthalten, die sich in multiplen Medienformaten und Verwendungszusammenhängen wiederverwenden lassen [vergl. TR05]. So werden beispielsweise in kleinen und
mittleren Unternehmen (KMU) die unterschiedlichen Dokumente vom selben Autor
verfasst. Auch enthalten die Dokumente gleiche oder ähnliche Inhalte. Ebenso verfolgen
sie ähnliche Ziele, nämlich dass sie den Nutzenden bei seinen Aufgaben unterstützen
sollen. Dazu müssen die jeweiligen Bestandteile möglichst gut auf den Gegenstand sowie die Bedürfnisse der Zielgruppe zugeschnitten sein. Entsprechend ähnlich gestalten
sich auch die damit verbundenen Qualitätsanforderungen: So ist für ein Lernmedium der
sprachliche Ausdruck und Verständlichkeit, eine klare Struktur, unterstützender Medieneinsatz, gute Navigierbarkeit und schneller Zugriff auf die enthaltenen Informationen
usw. ebenso wichtig wie für ein Hilfe-System oder auch eine Dokumentation. Nichtsdestotrotz gibt es auch Unterschiede: Während ein Lernprogramm i.A. darauf ausgelegt ist,
einen Fluss von Informationen anzubieten, den die Lernenden, mit einigen Verzweigungen, möglichst von Anfang bis zum Ende durcharbeiten, um z.B. eine Abschlussprüfung
zu bestehen, kann bei Online-Hilfen oder Handbüchern i.A. von einer singulären Nutzung einzelner Teilbereiche ausgegangen werden. Eine Online-Hilfe lesen wohl nur
wenige Nutzer von Anfang bis zum Ende durch; eine explizite Auflistung von Lernzielen würde ein Nutzer in einer Courseware erwarten, in einer Online-Hilfe würde sie aber
vermutlich keinen Sinn machen, da hier ein enzyklopädischer, selektiver Zugriffstil
vorliegt. Bei der Erstellung eines EPSS muss entsprechend darauf geachtet werden, dass
neben einer möglichst hohen Wiederverwendung auch den o.g. inhaltlichen und strukturellen Aspekten Rechnung getragen wird.
Dimension 3: Organisation
Diese Dimension spielt eine wesentliche Rolle für den Erfolg von Wiederverwendung.
Letztlich reicht es nicht, dass auf der technischen und inhaltlichen Ebene Wiederverwendung ermöglicht wird. Es muss vielmehr geklärt werden, auf welchen Ebenen und
Organisationseinheiten Wiederverwendung ermöglicht werden kann, darf und soll, und
unter welchen Konditionen dies geschieht. So lässt sich unterscheiden:
129
1. Projektinterne Wiederverwendung:
Dies ist die einfachste Form der Wiederverwendung, bei der es im Wesentlichen auf die
Lösung der technischen und inhaltlichen Probleme, der Abstimmung unter den Autoren
(Redaktionsleitfaden) sowie der geschickten Konzeption, Speicherung und Erstellung
der Inhalte ankommt.
2. Organisationsweite Wiederverwendung:
Sobald Wiederverwendung vom „rechtsfreien“ Raum des Projekts, des Dozenten, des
Lehrstuhls oder der Arbeitsgruppe gelöst ist, spielt die Vergabe und Einhaltung von
Nutzungsrechten eine zentrale Rolle bei der Wiederverwendung. So begegnen Organisationen beim Versuch einer organisationsweiten Bereitstellung und Nutzung von Inhalten
– z.B. auch bei Wissensmanagement Systemen – oft dem Problem, dass die Fachexperten fürchten, mit ihren Inhalten auch „Herrschaftswissen“ preiszugeben und dadurch an
„Wert“ zu verlieren. Entsprechende Versuche, Inhalte dem Unternehmen zur freien und
uneingeschränken (Wieder) Verwendung zu überlassen, stoßen in der Praxis daher oft
auf zum Teil massive Widerstände resp. entsprechende Inhalte werden einfach nicht zur
Verfügung gestellt.
3. Organisationsübergreifende Wiederverwendung:
Ähnlich wie bei der organisationsweiten Wiederverwendung spielen die Nutzungsrechte
auch hierbei eine zentrale Rolle. Noch mehr als in der anderen Dimension von Wiederverwendung, bedarf die organisationsübergreifende Form einer vertraglichen Fixierung
sowie ggf. eines Ressourcentauschs. Plattformen, wie educanext (www.educanext.org),
die einen organisationsübergreifenden Austausch von Lernobjekten zum Ziel haben,
verfügen deshalb über ein umfangreiches Lizenzierungs- und Nutzungsrechtemanagement, bei der die Emittenten detailliert die Bedingungen der Nutzung
durch andere regeln können.
Diese kurze Analyse hat gezeigt, dass Wiederverwendung eine zentrale Herausforderung
im Content Lifecycle darstellt und dass dieses Problem in mehreren Dimensionen mit je
ganz spezifischen Schwerpunkten betrachtet werden muss. Das zentrale Augenmerk
dieser Arbeit liegt auf praxisnahen und technischen Fragen, wie sie in den Dimensionen
Verwendungszusammenhang und Medienformat angerissen wurden. Diese werden insbesondere vor dem Hintergrund einer projektinternen Wiederverwendung diskutiert und
es werden erste Lösungsansätze präsentiert. Auf die Notwendigkeit eines systematischen
Erstellungsprozesses sowie einer geschickten Koordination der Autoren wurde an anderer Stelle bereits hingewiesen [GT06] und soll deshalb hier nicht weiter ausgeführt werden.
Im Folgenden wird zunächst die Idee eines eduDocBook als Austauschformat für Lerninhalte konzeptionell umrissen. Anschließend wird auf die modulare Inhaltsproduktion
mit diesem Format eingegangen und es werden Erfahrungen und Entwicklungen, wie sie
im Rahmen eines aktuell laufenden EU-Forschungsprojektes gemacht wurden, vorgestellt. Abschließend werden in einer Diskussion des Ansatzes Möglichkeiten und Grenzen dargestellt und es wird ein Ausblick auf zukünftige Arbeiten geboten.
130
2
eduDocBook. Austauschformat für Lerninhalte
DocBook ist ein mehr als 400 Elemente umfassender XML-Dialekt, der Anfang der
1990er Jahre als Austauschformat für (Software-)Dokumentationen entworfen wurde
und der seitdem weltweit große Verbreitung erlangt hat. Eine rege, weltweite Community stellt für DocBook neben dem Support eine Vielzahl von Hilfsmitteln für die Erstellung der Daten sowie deren Transformation in diverse Ausgabeformate zur Verfügung.
Aufgrund seiner weltweiten Nutzung diente DocBook zahlreichen Entwicklern von
XML-Dialekten als erfolgreiches Beispiel für die Entwicklung eines strukturierten Formates für Dokumente. So berichten Entwickler von Educational Modeling Languages
(EML), dass DocBook bei der Entwicklung der XML-Dialekte Pate gestanden hat
[KO04]. Zu einer größeren, dokumentierten Verbreitung des DocBook Standards im
Bereich der Lernmedienproduktion kam es jedoch bislang nicht. Vielmehr wurden in den
letzten Jahren zahlreiche proprietäre Formate für diesen Bereich entwickelt, die jeweils
bislang jedoch nur singulär Bedeutung erzielt haben (z.B. ML3, LMML, eLML). Im
Gegensatz zu diesen Arbeiten fokussiert vorliegender Ansatz auf die Verwendung von
DocBook als weltweit genutztem Standard für EPSS.
Der Begriff „eduDocBook“ wurde – jedenfalls laut der Suchmaschine Google - erstmals
im Juni 2003 in einer Internet-Diskussion der CETIS erwähnt. Dabei ging es darum, ob
und wie SCORM mit der Modellierung der eigentlichen Lerninhalte umgehen sollte und
ob es hierfür eine Art universeller Auszeichnungssprache bedarf [Go03]. Weiterhin
wurde in der Diskussion darauf eingegangen, dass Elemente von DocBook sowie die
Idee der Inhaltsauszeichnung ursprünglich in der Educational Modeling Language (OUEML) der Open University der Niederlande enthalten waren, aber aufgrund der damit
verbundenen Komplexität auf dem Weg der Standardisierung (IMS LearningDesign)
über Bord geworfen wurden.
eduDocBook, wie es am Fraunhofer IESE entwickelt und genutzt wird, ist eine Erweiterung und Spezialisierung von DocBook, die diese Sprache insbesondere für den Bildungsbereich sowie für die Erstellung von EPSS empfiehlt. Die bisherige und zukünftige
Entwicklung von eduDocBook folgt im Wesentlichen den folgenden Leitgedanken:
Es sollen, soweit möglich, nur minimale Anpassungen an DocBook vorgenommen
werden, sodass die Inhalte weitgehend mit dem Standard kompatibel bleiben.
Es sollen, soweit möglich, zunächst alle Möglichkeiten zur Spezialisierung von
Elementen (z.B. über das role Attribut) geprüft werden, bevor Erweiterungen an
DocBook vorgenommen werden. Domänenspezifische Erweiterungen sollen,
wenn möglich, vermieden werden (z.B. <para role=“definition“> statt <definition>).
Über Anpassungen der Standard-Transformationen werden lernmedienspezifische
Ausgabeformate, wie z.B. ein WBT-Format, erzeugt. Dabei kommen Standardtechnologien, frei verfügbare und anpassbare Werkzeuge zum Einsatz.
131
Im Ergebnis erlaubt der derzeit vorliegende Stand von eduDocBook die feingranulare
Modellierung sequenziell-hierarchischer Lerninhalte. Auf Seiten der Informationsmodellierung werden u.a. folgende Möglichkeiten geboten:
Auszeichnung von zielgruppenspezifischen Inhalten (z.B. Anfänger, Fortgeschrittene) und Inhaltsvarianten (z.B. für WBT, Hilfe, Handbuch).
Unterstützung von Relationen innerhalb von Dokumenten (z.B. x istÜbungZu y).
Modellierung von Übungsaufgaben und automatische Umsetzung von einzelnen
Übungsformen für nicht-interaktive Formate (z.B. Druckformate).
Modulare Speicherung und Wiederverwendung von Inhalten.
Build-Tool auf Basis von Open-Source-Software.
Zusätzlich alle Möglichkeiten, die DocBook per se bietet: Glossar(e), Index, div.
Verzeichnisse, Funktionsreferenzen, Bibliographien, …
Wie erste Anwendungen in Industrie und Hochschule belegen, lassen sich mit dem erarbeiteten eduDocBook Format sowie den begleitenden Werkzeugen zahlreiche Formen
von Inhalten detailliert auszeichnen und in multiplen Konfigurationen und Medienformaten ausgeben. So wurden seitens des Fraunhofer IESE für einen Industriekunden
multiple Dokumentenvarianten (z.B. Kurs, Hilfe, Handbuch) semantisch feingranular
modelliert und in diversen Endformaten bereitgestellt. Wenngleich nicht detailliert bezifferbar, ergab sich im Projekt eine sehr hohe Wiederverwendungsquote. Auch im Rahmen des hier referenzierten Projektes Up2UML wurden Inhalte so modelliert und aufbereitet, dass sie in multiplen Konfigurationen und Medienformaten in Blended-learningArrangements eingebettet werden können. Erste Evaluationen zeigen, dass die medienformatübergreifende Wiederverwendung funktioniert und von den Teilnehmern sehr gut
angenommen wird. Ebenso lassen sich Inhalte in multiple Konfigurationen einbetten und
so von mehreren Trainern und Kursanbietern parallel nutzen.
3
Inhaltsproduktion mit (edu)DocBook
Auf technischer Ebene lassen sich bei einem DocBook-basierten Ansatz zur Inhaltsentwicklung grundsätzlich vier aufeinander aufbauende Schichten (layer) unterscheiden, die
bei der technischen Erstellung und Aufbereitung von Dokumenten nacheinander durchlaufen werden. Auf die entsprechenden Redaktionsprozesse wurde an anderer Stelle
bereits hingewiesen [GT06].
1. Datenhaltung (storage layer)
In dieser Schicht werden die Bestandteile der Dokumentationen in XML erstellt
und für die weitere Verarbeitung vorgehalten.
2. Komposition (composition layer)
Diese Schicht dient der Aggregation der Bestandteile zu einem in sich geschlosse-
132
nen, validen DocBook-Dokument, das als Grundlage für die weiteren Verarbeitungsprozesse dient.
3. Transformation (transformation layer)
Auf dieser Ebene werden die aggregierten Dokumentationen in das gewünschte
Ausgabeformat überführt.
4. Präsentation (presentation layer)
Die formatierten Dokumentationen werden in dieser Schicht den Benutzerinnen
und Benutzern präsentiert.
Abbildung 1: Produktionsprozess mit DocBook [GT06]
Auf der Ebene der Erstellung und Bereitstellung der Dokumentationsbestandteile (storage layer) arbeiten Autorinnen und Autoren typischerweise mit einem Autorenwerkzeug,
beispielsweise einem XML-Editor oder einem IDE-Werkzeug wie Eclipse. Die Bestandteile werden beispielsweise in einem SVN-Repository gespeichert und für die weitere
Be- und Verarbeitung vorgehalten. Durch Verwendung entsprechender Technologien
wie xinclude, xpointer, xml catalog, conref usw. ist eine weitgehende Modularisierung
der Informationen sowie eine Wiederverwendung auf technischer Ebene möglich. Zentrales Werkzeug auf den Ebenen Komposition (composition layer) und Transformation
(transformation layer), ist ein XSLT-Prozessor, der die valide XML-Datei einer Dokumentation (Profiled intermediate-File) regelbasiert nach HTML bzw. XSL-FO überführen kann. Für das Überführen der XSL-FO Dateien in das Portable Document Format
(PDF) stehen sowohl freie als auch kommerzielle Software zur Verfügung. Für die Präsentation und Bereitstellung der finalen Dokumentationen und Medien kann ein Content
133
Management System (CMS) oder, im Fall von Lernsoftware, ein Learning Management
System (LMS) wie Moodle verwendet werden. Über eine entsprechende Transformation
können aus DocBook heraus IMS Manifest-Dateien geschrieben werden, die den Import
in ein LMS über die SCORM-Schnittstelle unterstützen. Der gesamte Produktionsvorgang ist für das eduDocBook-Format weitgehend automatisiert und wird durch einen
Transformations-Assistenten gesteuert.
Im Rahmen des EU-Forschungsprojektes „Upskilling to Object-oriented development
with the UML“ (Up2UML) wurde diese Form der Inhaltsproduktion – initial entstanden
im Rahmen eines Industrieprojekts - weitgehend beibehalten und weiter verfeinert. Zusätzlich wurde ein spezifisches WBT-Ausgabeformat für eduDocBook entwickelt, das
eine ansprechende und funktionale Oberfläche zur Präsentation der DocBook Inhalte
erzeugt und den Lernenden schnelle und unkomplizierte Zugriffsmechanismen auf die
Inhalte erlaubt. Durch den SCORM-Export wurde ermöglicht, dass die Inhalte direkt in
jedes gängiges LMS, z.B. Moodle, Ilias importiert werden können.
4
Der CourseComposer als Beispiel für ein Werkzeug zur Rekonfiguration von (Lern)Inhalten
Im Rahmen des Projektes Up2UML wurden Inhalte zur „Unified Modeling Language“
(UML) in modularer Form erstellt und als weitgehend voneinander unabhängige Informationsobjekte gespeichert. Insgesamt wurde dadurch das Ziel verfolgt, späteren „Wiederverwendern“ der Bausteine – also Trainern, Verlagen, Kursanbietern – die Möglichkeit zu geben, Kurse nach individuellen Wünschen zusammenzustellen. So kann ein
Trainer mit den im Projekt erstellten Inhalten in der Vorbereitung einer Präsenzphase
beispielsweise die theoretischen Grundlagen der UML-Diagramme in Form eines WBT
herausgeben und die praktischen Übungen zusammen mit einer Case Study den Teilnehmern erst mit Abschluss des Workshops zur Verfügung stellen, um den Transfer des
Gelernten zu sichern. Auch sind durch diese Rekonfiguration der Medien so beispielsweise Fokussierungen auf bestimmte Diagrammarten innerhalb der UML oder auch
Anpassungen an vorliegende Blended-learning-Konzeptionen möglich.
Der Begriff der Rekonfiguration von Inhalten im hier verwendeten Zusammenhang
entspricht dem, was [HRS05] im Wesentlichen als „Authoring by Aggregation“ bezeichnen. Letztlich wird mit Rekonfiguration die Zusammenstellung von Inhalten aus
bestehenden Inhaltsbausteinen (Aggregation) bzw. die Änderung einer solchen Zusammenstellung sowie die Übertragung auf andere Dimensionen der Wiederverwendung
bezeichnet (Rekonfiguaration).
Der Erstellungsprozess für Lernmedien in Up2UML erfolgt in zwei Schritten: Zunächst
werden Inhalte in modularer Form erstellt und gespeichert. Im zweiten Schritt werden
diese Bausteine, die so genannten Inhaltsobjekte, zu didaktisch sinnvollen Arrangements
inklusive der diversen Zugriffshilfen aggregiert. Als Werkzeug für diese Aggregation
und letztlich auch Rekonfiguration der Inhalte wurde im Rahmen des Projektes zunächst
mit einer lokalen Lösung gearbeitet. Dabei kam die Idee auf, dass die gleichen Prozesse
sich auf einen Web-Server übertragen lassen und so den späteren Nutzern eine komfor-
134
tablere Zusammenstellung und Rekonfiguration von Lernmedien erlaubt. Aus diesem
Gedanken heraus ist der CourseComposer entstanden. Diese Applikation erlaubt es den
Nutzern, didaktisch-motivierte Arrangements aus Inhaltsobjekten - faktisch sind dies in
SVN vorliegende XML-Dateien im eduDocBook-Format - komfortabel zu erstellen bzw.
bereits vorhandene Arrangements zu rekonfigurieren. Anschließend durchlaufen die
Zusammenstellungen eine Reihe von Transformationen, um schließlich im gewünschten
Ausgabeformat, der Zielsprache sowie mit den gewünschten Inhalten (z.B. den zielgruppenspezifischen Daten) zum Download zur Verfügung zu stehen (Abbildung 2).
Abbildung 2: Schematischer Ablauf der Rekonfiguration von Trainingsmedien
mit dem CourseComposer [GTS06-2]
Durch die Verwendung von Java-Script und Ajax Bibliotheken und -techniken bietet der
Course Composer eine intuitiv bedienbare Oberfläche. So ist es beispielsweise im sog.
Arranger des CourseComposers möglich, Kurse über Drag&Drop regelgeführt zusammenzustellen oder einzelne Knoten, Lektionen, Kapitel usw. mit der Maus zu verschieben. Im so genannten Transformer werden die so „zusammengeklickten“ Kurse in die
gewünschten Formate überführt. Mit Abschluss der Transformationen stehen Sie dann in
den Formaten WBT (HTML) und PDF sowie ggf. mehreren Sprachen zur Verfügung
und können in gängige Systeme zur Distribution eingebunden werden.
135
5
Diskussion des Ansatzes und Ausblick
Die Analyse hat gezeigt, dass Wiederverwendung und Rekonfiguration von (Lern) Inhalten ein spannendes und wichtiges Feld für die Weiterentwicklung des Bereich ELearning sowie der EPSS-Systeme darstellt. Mit eduDocBook sowie den verwandten
Werkzeugen stehen Lösungen zur Verfügung, mit der einige der beschriebenen Ansätze
realisiert werden können. Insbesondere projektinterne und medienformatübergreifende
Wiederverwendung kann so gut unterstützt werden. Im Gegensatz zu vielen proprietären
Lösungen (wie den diversen EMLs), kann DocBook als etablierter und weltweit genutzter Standard auf eine rege Nutzergruppe sowie zahlreiche verwandte Technologien zurückgreifen. Hierin liegt denn auch einer der originären Beiträge des Ansatzes. Gerade
aufgrund der Verbreitung und der Nutzung von Standard-Technologien, scheint ein
Einsatz von DocBook resp. eduDocBook für Unternehmen und Bildungseinrichtungen
mittelfristig als zukunftssicher. Auch in Bezug auf die derzeit auf internationaler Ebene
geführten Diskussionen zu Open Content scheint die Verwendung freier Standards für
die Lernmedienproduktion ein zentraler Aspekt zu sein.
Der hier beschriebene Ansatz zur Erstellung und Re-Konfiguration von Inhalten hat sich
bislang im Rahmen von je einem Industrie- und einem Forschungsprojekt zu ganz unterschiedlichen Themenstellungen bewährt, wenngleich eine intensive wissenschaftliche
Evaluation noch aussteht. Erste Erfahrungen aus dem eigenen Einsatz sowie einer Evaluation der damit erstellten Inhalte verliefen bislang sehr positiv. Eine grundsätzliche
Eignung des Ansatzes für weitere Themenfelder scheint plausibel, kann in der Gänze
jedoch nicht belegt werden. Selbst wenn der Einsatz von DocBook in den Sozial- und
Geisteswissenschaften vereinzelt gefordert wird [Bu05], so liegen nur wenige Erfahrungsberichte über die Eignung des Standards für die Auszeichnung entsprechender
Texte, z.B. für die Bereiche Medizin, Jura usw., vor [MRS02].
Grundsätzlich hat sich (edu)DocBook in den beschriebenen Kontexten als relativ universell nutzbare Auszeichnungssprache bewährt. Die beschriebene geringe Spezialisierung
auf den Bereich der Lernmedienmodellierung ist jedoch auch ein Problem von eduDocBook: So lassen sich Übungsaufgaben nur begrenzt in DocBook semantisch sauber modellieren. Auch die immer wieder geforderten, aber selten praktisch realisierten, komplexen didaktischen Szenarien lassen sich nur schwer mit der in DocBook
implementierten Lehrbuch-Logik umsetzen. Vielmehr muss man hier (gangbare) Umwege gehen, um entsprechende Ergebnisse zu erzielen. Für die „gute Praxis“ im Bereich
des Blended-learning – bei der der Trainer durch weitere Aktivitäten ausreichend viele
Interaktionen in einen Kurs einbetten kann - scheint dies kein nennenswerter Nachteil zu
sein, wie erste Evaluationsergebnisse im Projekt zeigen: Vielmehr artikulierte die überwiegende Zahl der befragten Teilnehmer, dass sie eine rein sequenzielle Lehrbuchform
in PDF einer Variante im WBT-Format sogar vorziehen würden.
Mittelfristig ist der Ansatz auf seine praktische Tragfähigkeit außerhalb der beschriebenen Projekte hin zu überprüfen. So ist zu eruieren, ob die beschriebenen Techniken auch
im Rahmen von weiteren EPSS-, Dokumentations- oder E-Learning-Vorhaben zu den
gewünschten Ergebnissen führen. Kurzfristig stehen zunächst technische Arbeiten im
Vordergrund, die den Ansatz komplettieren helfen: So ist beispielsweise abzuwägen, ob
136
und inwieweit multiple Wiederverwendung innerhalb desselben Dokuments unterstützt
werden kann. XML-Dialekte wie Darwin Information Typing Architecture (DITA) bieten hierfür mit conref entsprechende Mechanismen, die auch in eduDocBook implementiert werden könnten [Wa05]. Ein weiteres Arbeitsfeld ist die Verbesserung der Suche
von Informationsobjekten im CourseComposer, da diese die Kursautoren dabei unterstützt, neue Arrangements zusammenstellen bzw. bestehende Inhaltsarrangements zu
rekonfigurieren. Mit dem weiteren praktischen Einsatz der beschriebenen Technologien
wird zukünftig sicherlich auch der Bereich der Projekt- und organisationsübergreifenden
Wiederverwendung von Bausteinen einen wichtigen Stellenwert einnehmen.
6
Zusammenfassung
Gerade vor dem geschilderten Hintergrund, dass „re-purpose“ und „re-use“ von Content
mittel- und langfristig zentrale Herausforderungen für Inhaltsentwicklung im ELearning-Bereich darstellen, scheinen Ansätze, Lernmedien nach den Prinzipien des
Single-Source-Publishings und mit Blick auf eine mögliche Rekonfiguration und Wiederverwendung der Inhalte zu erstellen, eine Alternative für die bislang betriebenen
Vorgehensweisen der singulären Produktion zu sein. Entsprechende Investitionen in eine
saubere Konzeption und Modularisierung lohnen sich für Autoren oder Produzenten
mittel- oder langfristig, da nicht nur die Wiederverwendung besser unterstützt wird,
sondern auch Wartungs- und Anpassungsprozesse effizienter werden.
Im Rahmen des EU-Forschungsprojektes Up2UML wurde ein Repository mit Lernobjekten aufgebaut, das von Trainern, Kursanbietern oder Verlagen zur Herstellung
eigener Produkte genutzt werden kann. Für die Rekonfiguration der Lernmedien wurde
mit der CourseComposer Anwendung ein Werkzeug entwickelt, das es erlaubt, modular
vorliegende Informationsobjekte im (edu)DocBook Format zusammenzustellen und in
multiple Ausgabeformate zu überführen. Zukünftige Arbeiten werden darauf fokussieren
neben den Lernmedien ganze Blended-Learning-Szenarien und -Muster in rekonfigurierbarer Form zu beschreiben und o.g. Zielgruppen eine weitgehend automatisierte
Lernmedien, Handbücher und Kursraumgenerierung zu ermöglichen.
Danksagungen
Das Projekt „Upskilling to Object-oriented development with the UML“ (Up2UML)
umfasst Partnerorganisationen aus Deutschland, Frankreich, Irland, Rumänien und Bulgarien und erhält Fördermittel aus dem europäischen Berufsbildungsprogramm LEONARDO da VINCI 2005-2007 (Förderkennzeichen PP 146369).
Besonderer Dank an Eric Ras für Durchsicht und hilfreiche Anmerkungen.
137
Literaturverzeichnis
[Bu05]
Bunke, Hendrik: Schreibt strukturiert! XML und Docbook in Sozial- und
Geisteswissenschaften. 07.12.2005. <http://hbxt.org/edutech/docbook-in-geisteswissenschaften> [17.03.2007]
[El05] The
eLearningguild:
The
Content
Authoring
Research
Report
2005.
<http://www.elearningguild.com/pdf/1/Oct05-contentauthor.pdf> (13.03.06)
[Ge91] Gery, G.: Electronic Performance Support System. Gery Association, 1991
[Go03] Gorissen, P.: Fiercely complex ? In reponse to the dynamic appearance model and implementing SCORM 1.3 (13.07.2003)
<http://zope.cetis.ac.uk/content/20030713202337/20030714000846> [29.06.2007]
[GT06] Grützner, I.; Thomas, L.: Systematische Entwicklung von Medien zur Benutzerunterstützung und -schulung mit einem XML basierten Single-Source-Ansatz. Multikonferenz
Wirtschaftsinformatik 2006
[GTS06-2] Grützner, I.; Thomas, L.; Steinbach-Nordmann, S.: Building re-configurable multilingual training media. in: Méndez-Vilas, Antonio (Ed.); Solano Martin, A. (Ed.); Mesa
González, Julian (Ed.); Mesa González, J.A. (Ed.): Current Developments in Technology-Assisted Education (2006) - Vol. 3, S. 1944-1948
[HRS05] Hoermann, S.; Rensing, C.; Steinmetz, R.: Wiederverwendung von Lernressourcen
mittels Authoring by Aggregation im ResourceCenter. In: Haake, J. M.; Lucke, U.; Tavangarian, D. (Hrsg.): DeLFI 2005: 3. Deutsche e-Learning Fachtagung Informatik, GIEdition, September 2005, S. 153-164
[Ho06] Hoermann, S.: Wiederverwendung von digitalen Lernobjekten in einem auf Aggregation
basierenden Autorenprozess. Dissertation, Technische Universität Darmstadt, 2005
[KO04] Koper, R.; Olivier, B.: Representing the learning design of units of learning. Educational
Technology & Society, 7 (3), S. 97-111.
[MRS02] Merz, A. K.; Rockmann, F.; Schwarz, C.; Reng, C. M.: Rechnergestützte Lehr- und
Lernsysteme in der Medizin. "MedicCaseML: XML Austauschformat für CBT Systeme
in der medizinischen Aus- und Weiterbildung"; In: Bernauer, J.; Fischer, M.R.; Leven,
J.; Puppe, F.; Weber, M. (Hrsg.): Rechnergestützte Lehr- und Lernsysteme in der Medizin, S. 67-76, Shaker Verlag: Berlin (2002)
[TR05] Thomas, L.; Ras, E.: Courseware Development Using a Single-Source Approach. In:
Proceedings of the World Conference on Education Multimedia, Hypermedia and Telecommunications, Ed-Media 2005; S. 4502-4509
[TR06] Thomas, L.; Ras, E.: Wiederverwendungsorientiertes Content Authoring nach dem Single-Source Prinzip. In: Mühlhäuser, M.; Rößling, G.; Steinmetz, R. (Hrsg.): DeLFI 2006,
4. e-Learning Fachtagung Informatik, September 2006, Darmstadt, S. 159-170
[WM99] Walsh, N.; Muellner, L.: DocBook. O'Reilly, 1999
[Wa05] Walsh, N.: DITA for DocBook. Volume 8, Issue 136.
<http://norman.walsh.name/2005/10/21/dita> [17.03.2007]
138
Das Authoring Management System EXPLAIN zur ganzheitlichen Unterstützung des Erstellungsprozesses von
Trainingsmedien und WBTs
Lasse Lehmann1, Helge Fredrich2, Christoph Rensing1,
Volker Zimmermann2, Ralf Steinmetz1
1
KOM - Multimedia Kommunikation
Technische Universität Darmstadt
Merckstrasse 25
64283 Darmstadt
{Lasse.Lehmann, Christoph.Rensing, Ralf.Steinmetz}@kom.tu-Darmstadt.de
2
imc - information multimedia communication AG
Altenkessler Str. 17 D3
66115 Saarbrücken
{Helge.Fredrich, Volker.Zimmermann}@im-c.de
Abstract: In Unternehmen erfordern kurze Produktentwicklungszyklen und enge
Terminpläne zumeist eine Entwicklung der Trainingsinhalte parallel zur Produktentwicklung selbst. Unternehmen können hierzu entweder externe Dienstleister
beauftragen oder die Produktion in-house durchführen. Während sich ersteres oft
schon auf Grund der hohen Kosten nicht lohnt, lohnt sich letzteres für kleine und
mittlere Unternehmen nur, wenn eine vorhandene Infrastruktur die oben genannten
Prozesse vereinfacht und unterstützt. Um eine solche Infrastruktur handelt es sich
bei dem hier vorgestellten Authoring Management System (AMS).
1
Einleitung und Motivation
Die Erstellung und Produktion von e-Learning Inhalten ist ein zeitaufwändiger und
komplexer Prozess. So dauert die Entwicklung von Produktschulungen in Unternehmen,
von der Konzeption bis zur Bereitstellung an die Kunden oder Mitarbeiter, durchaus 6-9
Monate. In Unternehmen erfordern kurze Produktentwicklungszyklen und enge Terminpläne, oftmals wird ein Produkt noch wenige Wochen vor dem Verkauf geändert, deshalb zumeist eine Entwicklung der Trainingsinhalte parallel zur Produktentwicklung
selbst. Dadurch wird die effektive Entwicklung dieser Trainingsmedien zu einem wichtigen Wettbewerbsfaktor [BBS01]. Dies gilt zwar im Besonderen für multimedial aufbereitete Inhalte, aber im Prinzip für alle möglichen Arten von Trainingsmedien, die zu
einem Produkt erstellt werden müssen. Hierzu zählen beispielsweise ProduktDokumentationen, Schulungsunterlagen, Foliensätze für Fortbildungen, Selbstlerneinheiten oder auch Werbematerial. Da die Content-Produktion durch externe Dienstleister
häufig, besonders für kleine und mittlere Unternehmen, kaum erschwinglich ist, streben
viele Unternehmen eine in-house Produktion von Trainingsmedien an. Hier fehlen je139
doch oft das nötige Know-How und die passenden Werkzeuge zur Medien- und ContentProduktion.
Zudem ist der organisatorische Aufwand sehr hoch: Die Inhalte müssen konzipiert und
das Konzept dann von den zuständigen Projektleitern autorisiert werden, noch bevor der
eigentliche Inhalt erstellt wird. Die Fachexperten müssen die Inhalte liefern und ihr Wissen in enger Zusammenarbeit mit den Autoren zur Verfügung stellen. Dafür müssen sie
auf Wissen und Ressourcen im Firmennetzwerk zugreifen können. Mediendesigner
müssen wissen, welche Medienobjekte wann und in welcher Form produziert werden
sollen; und schließlich muss das Projektmanagement den Prozess kontrollieren, die
wichtigsten Parameter abrufen und, soweit notwendig, effektiv eingreifen können. Dies
ist nur möglich, wenn eine vorhandene Infrastruktur die oben genannten Prozesse vereinfacht und unterstützt. Um eine solche Infrastruktur handelt es sich bei dem hier vorgestellten Authoring Management System (AMS). In Kapitel 2 werden, anhand der existierenden Schwachstellen bei der Content-Erstellung in Unternehmen, Anforderungen an
ein solches System definiert, während auf dieser Basis im folgenden Kapitel das der
Authoring Management Plattform zugrunde liegende Konzept vorgestellt wird. In Kapitel 4 wird die Implementierung des Systems beschrieben, während Kapitel 5 sich mit der
Evaluation sowohl des Konzepts als auch der Plattform als solche befasst. Nach einem
Blick auf die verwandten Arbeiten in Kapitel 6, schließt Kapitel 7 den Artikel ab und
gibt einen Ausblick auf zukünftige Schritte.
2
Schwachstellen in der Content-Produktion
In [CLL07] wurden die Content-Erstellungs-Prozesse in kleinen und mittleren Unternehmen analysiert. Dazu wurden Firmen, die bereits selber Content produziert haben,
befragt und eine Reihe von Schwachstellen in der Content-Produktion identifiziert. Hieraus lassen sich wiederum Anforderungen an ein AMS ableiten. Die nachfolgend aufgeführten Schwachstellen werden weitestgehend in [CLL07] detailliert beschrieben und im
Einzelnen begründet.
1. Hoher Zeitbedarf bei spezialisierten, teuren Mitarbeitern
Eine Authoring Management Plattform muss für eine optimale Einbindung der Fachexperten in den Erstellungsprozess der Inhalte sorgen und nach Möglichkeit nicht inhaltliche Tätigkeiten von den Fachexperten fernhalten.
2. Fehlende Integration der Werkzeuge
Die Authoring Management Plattform muss entweder die Funktionen der verschiedenen
Werkzeuge beinhalten oder eine kompatible und konsistente Schnittstelle zu existierenden Werkzeugen bieten.
3. Hoher Kommunikations- und Koordinationsaufwand
Das AMS soll einen integrativen, zentralen Kommunikationspunkt darstellen, über den
alle Koordinationsaufgaben schnell und unkompliziert gelöst werden können.
140
4. Große Datenmenge und ungewollte Redundanz
Die Authoring Management Plattform muss ein konsistentes System zur Verwaltung und
zum Austausch der Inhalte bieten, aber dennoch einfach und intuitiv zu benutzen sein.
5. Hohe Kosten und Aufwände durch Aktualisierungen und Lokalisierungen
Das AMS muss ein einfaches und zügiges Aktualisieren bestehender Inhalte unterstützen, indem bspw. Inhalt und Layout getrennt voneinander gehandhabt werden.
6. Divergenz zwischen erwarteten und tatsächlichen Kosten
Das System kann durch klare Projektmanagement- und Controlling-Funktionen eine
Hilfestellung bieten.
7. Höherer Zeitaufwand durch komplexe Drehbücher
Drehbücher werden im industriellen Umfeld häufig als Meilensteine in der ContentErstellung verwendet. Der Projektleiter autorisiert nach Durchsicht des Drehbuchs die
Weiterführung des Inhaltserstellungs-Prozesses, was eine Form der Qualitätssicherung
darstellt. Die von uns durchgeführten Anwendungs-Szenarien haben jedoch gezeigt, dass
komplexe Drehbücher den Prozess unnötig in die Länge ziehen, da sie weder einen guten
Überblick über die zu erstellenden Inhalte vermitteln, noch schnell und effizient zu lesen
sind (siehe Kapitel 5). Das AMS sollte zumindest optional eine effektivere Möglichkeit
der Qualitätssicherung und Konzepterstellung bieten.
8. Spezieller Werkzeug-Bedarf
Unterschiedliche Formen von Lernmaterial haben unterschiedliche Anforderungen an
die Werkzeuge, mit denen die Inhalte erstellt werden. So benötigt man beispielsweise
zum Erstellen einer e-Lecture ein anderes Werkzeug als zum Erstellen eines WBTs.
Daher müssen oft teure Software-Lizenzen für einmalig oder selten benutzte Werkzeuge
erworben werden. Das Authoring Management System muss hier zum einen passende
Werkzeuge für die unterschiedlichen Arten von Lerninhalten zur Verfügung stellen und
zum anderen Geschäftsmodelle anbieten, die auf die Bedürfnisse von kleinen und mittleren Unternehmen zugeschnitten sind.
3
Das Authoring Management System
Im Folgenden wird ein Konzept vorgestellt, welches die in Kapitel 2 genannten Anforderungen erfüllt und Grundlage unserer Implementierung ist.
3.1
Gesamtkonzept
Einigen der in Kapitel 2 genannten Schwachstellen liegt das Problem zu Grunde, dass
die verwendeten Autorenlösungen nicht den gesamten Produktionsprozess und den begleitenden Projektmanagement-Prozess hinreichend unterstützen. Der überwiegende
Großteil setzt erst bei der Produktion der eigentlichen Inhalte an (siehe Kapitel 5). Viele
141
der genannten Schwachstellen können vermieden werden, indem ein Werkzeug bereits
die Konzeptionsphase unterstützt und allen Projektbeteiligten, also auch den Fachexperten und dem Projektmanager, zur Verfügung steht (1, 3). Das Konzept für ein AMS sieht
daher vor, alle Teilprozesse innerhalb der Content-Erstellung (vgl. Kapitel 3.2) und
insbesondere die Konzeption und Modellierung der Inhalte mittels einfacher integrierter
Werkzeuge zu unterstützen (2) und den gesamten Produktionsprozess zu managen (4, 6).
Die Drehbucherstellung wird durch eine angereicherte Content-Modellierung ersetzt (5,
7). Neben der Unterstützung der verschiedenen Teilprozesse innerhalb eines ContentProjektes soll das AMS umfangreiche Mehrwertdienste bieten. Diese Mehrwertdienste,
die vom Betreiber des AMS angeboten werden, sammeln Erfahrungswissen, welches
allen Nutzern zur Verfügung gestellt werden kann. Dazu zählen Profile externer
Dienstleister, ein didaktischer Assistent und ein Pool von WBT-typischen Ressourcen,
sowie Werkzeugen auf Basis verschiedner Lizenzmodelle (8).
3.2
Teilprozesse des AMS
Um die in Kapitel 2 gestellten Anforderungen zu erfüllen, muss ein AMS Teilaspekte
und Funktionen der Bereiche Projekt-Management, Content-Konzeption bzw. Erstellung
und Material-Management abdecken oder unterstützen. Diesen Anwendungsbereichen
entsprechen die drei grundlegenden Prozesse, die die Hauptfunktionalität der Plattform
bilden (siehe Abbildung 1). Die Basis all dieser Prozesse bildet das Content-Modell. Es
folgt in der Modellierung dem Buchparadigma und besteht somit aus einer hierarchischen Struktur von Kapiteln und Seiten. Die tatsächliche Realisierung des WBTs und
seine Navigation können von diesem Paradigma abweichen, beispielsweise durch von
den Autoren definierbare Lernpfade. Die Gesamtheit der Kapitel und Seiten wird Inhaltspaket genannt. Die Kapitel bilden die logische Struktur des Inhaltspakets ab, während die Seiten die Inhalte der Kapitel darstellen. Den Seiten können binäre Materialien,
wie beispielsweise Bilder, Animationen oder Videos, die für die spätere Produktion von
Bedeutung sind, zugeordnet werden. So ist es möglich, bereits während der Konzeption
fertig gestellte oder aus anderen Projekten wieder verwendete Materialien zu berücksichtigen. Kapitel, Seiten und Materialien besitzen jeweils neben den Standard-Metadaten
wie Titel, Beschreibung, Stichworte etc. umfangreiche Attribute, in denen Informationen
für das Projekt-Management, die spätere Produktion sowie didaktische Informationen
enthalten sind [LA06]. Das Content-Modell eines Inhaltspakets kann also neben Materialien in allen Entwicklungsstufen auch umfangreiche Informationen über die Produktion, wie Design- oder Layout-Informationen, inhaltliche Informationen wie Sprecherund Bildschirmtexte und didaktische Informationen wie Lernziele und Testfragen beinhalten. Es kann somit in Form eines angereicherten Content-Modells als vollwertiger
Ersatz für das Drehbuch dienen [CLL07]. Darüber hinaus enthält das Content-Modell
alle für das Projektmanagement relevanten Informationen.
Im „Projektmanagement-Prozess“ werden alle Planungs- und Controlling-Aufgaben für
ein Content-Projekt durchgeführt. Die Plattform dient in diesem Bereich als Produktionsleitstand, wo alle wichtigen Parameter eingesehen und beeinflusst werden können
sowie die Qualitätssicherung geplant und durchgeführt wird. Die wichtigsten Teilprozesse stellen hier das Kosten- und Termin-Management sowie das Regeln der Verantwort-
142
lichkeiten dar. Jedem Element des Content-Modells können Soll- und Istkosten, sowie
Start- und Solltermine zugewiesen werden. Neben den Statusinformationen der Inhaltspakete eines Projektes müssen vom Projekt-Management auch die Projekte selbst, die
Personen und Rollen sowie Aufgaben, die den Projekten und Inhaltspaketen zugeordnet
werden können, verwaltet werden.
Der „Content-Erstellungs-Prozess“ ist der eigentlich Kernprozess des Authoring Management Systems und dient der Planung, Konzeption und schließlich Produktion der Inhalte. Das Authoring Management System wurde so konzipiert, dass die Planung und
Modellierung der Inhalte als integrativer Bestandteil der Plattform vorgesehen sind,
während die eigentliche Produktion der Lernmaterialien auch mit Hilfe von externen,
bereits vorhandenen Werkzeugen vorgenommen werden kann. Hierfür ist eine entsprechende Schnittstelle vorgesehen [ZF06].
Der „Material-Management-Prozess“ ist für die Verwaltung der für die Produktion benötigten Inhalte zuständig. Dieser Prozess bildet auch gleichzeitig die Grundlage für den
Produktionsleitstand, da alle Entscheidungen auf Grund von Statusveränderungen bei
Materialien oder Elementen des Content-Modells getroffen werden.
3.3
Mehrwertdienste
Neben den drei Hauptprozessen umfasst das Konzept der Plattform noch verschieden
unterstützende Dienste, über welche das Erfahrungswissen des Plattformbetreibers den
verschiedenen Nutzern zur Verfügung gestellt wird. Die Dienste werden in Abbildung 1
jeweils in derselben Farbe dargestellt, wie der Prozess, dem sie zugeordnet sind.
Die „Assistenten“ unterstützen die Projektgruppe bei verschiedenen Entscheidungen, die
nicht unmittelbar in ihrem Kompetenzbereich liegen. So unterstützt der didaktische Assistent den Fachexperten bei didaktischen Entscheidungen, schlägt für unterschiedliche
didaktische Parameter unterschiedliche Format- und Sequenzmuster [NN06]. Wenn eine
Formatentscheidung getroffen wurde, unterstützt der Tool Assistent die Benutzer der
Plattform bei der Auswahl eines passenden Werkzeugs. So kann ein bestimmtes Werkzeug beispielsweise zur Erstellung einer e-Lecture – also einer Präsentationsaufzeichnung – sehr gut geeignet sein, aber zur Produktion eines interaktiven WBTs ungeeignet.
„Bibliotheken“ enthalten Ressourcen, Werkzeuge und Materialien, welche bei der Content-Produktion benötigt werden und die ein Mandant der Plattform lizenzieren kann.
Hierzu zählen beispielsweise Sammlungen von Bildern oder Videoclips, die in ContentProduktionen häufig verwendete Themen zum Inhalt haben, oder Layout-Vorlagen für
Lerninhalte.
Bei den „Ressourcen Pools“ handelt es sich um umfangreiche Kontaktdatenbanken zu
externen Dienstleistern, die im Inhaltserstellungsbereich tätig sind, da oftmals externe
Agenturen für Übersetzungen, das Erstellen von Bildern oder Tonaufnahmen benötigt
werden. Die „Kollaborationsdienste“ stellen Mittel für die Kommunikation unter den
Projektbeteiligten eines Mandanten zur Verfügung.
143
Prozesse Projekt-
Planung
Planung
Management
Steuerung
Steuerung // Statusmanagement
Statusmanagement // Controlling
Controlling
ContentContentPakete
Pakete anlegen
anlegen
und
und Format
Format
planen
planen
ContentErstellung/
Authoring
Seitenkonzeption
Seitenkonzeption
Kapitelkonzeption
Kapitelkonzeption
AutorentoolAutorentoolbasierte
basierte
Produktion
Produktion
ContentModell /
Stückliste
Intro
1
MaterialManagement
1.1
1.1.1
1.1.2
Materialsammlung,
Materialsammlung, -zuordnung
-zuordnung
und
und -management
-management
1.2
Dienste
Projektbezogene
Archive
Material-,
Material-,
DokumentenDokumenten- und
und
Produktionsarchiv
Produktionsarchiv
Didaktischer
Assistenten Didaktischer
Assistent
Assistent
Bibliotheken
RessourcenPools
Kollaborations- Live
CommProjektLive
Comm- ÜbersetzungsProjektÜbersetzungsSprecher
Sprecher
Dienste
agenturen
unication
Blog/Wiki
agenturen
unication
Blog/Wiki
Tool
Tool
Assistent
Assistent
KalkulationsKalkulationsassistent
assistent
BeispielBeispielBibliothek
Bibliothek
VorlagenVorlagenbibliothek
bibliothek
Layoutvorl.Layoutvorl.- Grafik-&FotoGrafik-&Fotobibliothek
bibliothek
bibliothek
bibliothek
ClipClipBibliothek
Bibliothek
LeitfadenLeitfadenbibliothek
bibliothek
Tool
Tool
bibliothek
bibliothek
Autoren
Autoren
Fotografen
Fotografen
VideoVideoagenturen
agenturen
Sprecher
Sprecher
Übers.Übers.agenturen
agenturen
MedienMedienagenturen
agenturen
Tonstudios
Tonstudios
Medien-
MedienKontakte
Kontakte
agenturen
agenturen
Abbildung 1: Konzept der Authoring Management Plattform
4
Implementierung
In Kapitel 3 wurde das Konzept eines Authoring Management Systems beschrieben.
Realisiert wurde dieses System als Web-basierte Plattform, um (1) die Hemmschwelle
der Nutzung durch die Verwendung des Browsers als Werkzeug zu verringern und (2)
flexible, auf die Zielgruppe KMU angemessene Lizenzmodelle anbieten zu können. Im
Rahmen des Forschungsprojektes war es nicht die Zielsetzung, ein neues System komplett zu entwickeln sondern die grundsätzliche Validität des Ansatzes anhand eines Prototypen nachzuweisen. Daher war es sinnvoll die Entwicklungsarbeiten auf bestehende
Systeme aufzusetzen. Nach eingehender Untersuchung möglicher Basistechnologien
wurde entschieden die Explain Plattform auf Basis von MS Sharepoint umzusetzen, da
dieses neben den bereits vorhandenen Material-Management- und Kollaborationskomponenten mit .net eine solide Technologiebasis und, wie sich gezeigt hat, große Flexibilität hinsichtlich der Erweiterbarkeit und Anpassbarkeit mit so genannten „WebParts“
bietet. Um aus den vorhandenen Funktionalitäten einen möglichst großen Nutzen zu
ziehen, wurde die vorhandene Funktionalität sinnvoll mit eigenen Modulen erweitert.
Die daraus resultierende Architektur wird im Folgenden beschrieben.
4.1
Architektur
Abbildung 2 zeigt den schematischen Aufbau der Explain Plattform. Um die Erweiterbarkeit und Update-Fähigkeit von Sharepoint nicht zu beeinträchtigen, wurde das Sharepoint zu Grunde liegende Backend nicht verändert und somit das Backend der Plattform
auf dem aus Listen und Bibliotheken bestehenden Backend von Sharepoint aufgesetzt.
Dies hat den Vorteil, dass alle vorhandenen Funktionalitäten von Sharepoint weiterhin
über das angebotene Frontend genutzt werden können. Das Materialmanagement, also
144
das Auf-, Herunterladen und Verwalten von für die Produktion der Inhalte benötigten
Materialien, wurde mit Anpassungen von Sharepoint übernommen. Dieses ist dem vielen
Benutzern bekannten Explorer-Schema des Betriebssystems Windows sehr ähnlich,
dadurch entsteht keine Benutzbarkeitshürde. Zwischen dem Frontend und dem Sharepoint basierten Backend sitzt ein Controller, der die ausgeführten Aktionen verarbeitet
und dementsprechend Daten aus dem Backend zurückliefert. Bei der Verwendung des
nativen Sharepoint-Frontends geschieht dies in Form von Eventhandlern, die bestimmten
Strukturen im Sharepoint Backend zugewiesen werden können. Die über die StandardFunktionen von Sharepoint hinaus gehenden Funktionalitäten wurden mit Hilfe einer
Ajax Middleware in das Sharepoint-Framework integriert. Dadurch wird hohe Flexibilität und größtmögliche Unabhängigkeit vom Backend gewährleistet.
So können selbst komplexere Teilapplikationen, wie der ContentModeller problemlos in
Sharepoint integriert werden. Eine dritte Zugriffsmöglichkeit auf die Explain Plattform
besteht über eine integrierte Webservice Schnittstelle. Diese wird in [ZF06] detaillierter
beschreiben.
Webservices
Frontend
(angepasst)
AjaxPro Middleware
SP
Frontend
Explain Controller
erweitertes Sharepoint Backend (Listen, Bibliotheken)
Abbildung 2: Architektur der EXPLAIN Plattform
4.2
Bereiche der Explain Plattform
Die Explain Plattform ist Mandanten-basiert, das heißt, jeder Nutzergruppe wird ein
eigener, auf diese Gruppe zugeschnittener Bereich der Plattform zugewiesen. Neben
diesen Mandantenbereichen, die nur registrierten Benutzern der Plattform zugänglich
sind, existiert ein offener Bereich, der die Funktionen eines Portals übernimmt. Hier gibt
es Neuigkeiten, allgemeine Informationen über die Explain Plattform, Aufzeichnungen
von Beispielsitzungen und die Möglichkeit sich zu registrieren und Mandant der Plattform zu werden. Der Mandantenbereich unterteilt sich in mehrere Module, die unterschiedlich stark voneinander abhängig sind.
Der „Projekt-Management Bereich“ gliedert sich in drei Ebenen. Auf der obersten Ebene
werden Projekte angelegt und verwaltet, Budgets und Kosten überwacht, sowie die Termine und Statusinformationen aller Projekte zusammengefasst. Hierfür werden die Kosten und Termindaten der Materialien, Seiten, Kapitel und Inhaltspakete der Projekte bis
auf die Projektebene aufgerechnet und visuell in Form von Budget- und GanttDiagrammen aufbereitet (Abbildung 3). Pro Mandant können beliebig viele ContentProjekte verwaltet werden. Auf der zweiten Ebene werden die Eigenschaften und Attri-
145
bute eines einzelnen Projektes verwaltet. Hierfür können die Metadaten bearbeitet, Projektmitglieder hinzugefügt und Aufgaben zugewiesen werden. Auf dieser Ebene werden
zu einem Projekt Inhaltspakete hinzugefügt. Dabei kann ein Projekt mehrere Inhaltspakete enthalten, da in vielen Fällen für ein Projekt Inhalte unterschiedlicher Formate benötigt werden. Wie auch auf der obersten Ebene des Projekt-Managements werden hier
Terminpläne und Budget-Übersichten auf Basis aller in dem Projekt vorhandenen Inhaltspakete generiert. Auf der untersten Ebene des Projekt-Management Bereichs
schließlich, werden die Attribute eines Inhaltspakets definiert. Neben den Metadaten
können hier Aufgaben und Phasen für das Inhaltpaket verwaltet werden, auf deren Basis
wiederum Gantt-Diagramme generiert werden. Jedem Inhaltpaket ist ein Content-Modell
zugeordnet.
Abbildung 3: Projektübersicht
Im „ContentModeller“ kann das Content-Modell eines Inhaltpakets erstellt und bearbeitet werden. Dieser Bereich wird immer aus dem Kontext eines bestimmten Inhaltpakets
heraus aufgerufen, so dass er eng mit dem Projekt-Management Bereich zusammenhängt. Die Modellierung wird auf Basis eines intuitiven, Drag & Drop-fähigen Editors
vorgenommen (Abbildung 4). Im linken Bereich, kann mit wenigen Klicks eine komplexe Baumstruktur erstellt werden, während im rechte Bereich wahlweise die Metadaten
und Attribute des gewählten Elements bearbeitet werden können, oder Materialien gesucht und ebenso mit Hilfe von Drag & Drop den Seiten in der Struktur zugeordnet werden können. Die Materialsuche im ContentModeller ist nicht identisch mit der Benutzerschnittstelle der Material-Management Komponente. Während diese darauf ausgerichtet
ist, möglichst einfach Materialien in die Pools zu übertragen und dort in Ordnern zu
strukturieren, bietet die Materialsuche im ContentModeller eine unabhängige Sicht auf
die Materialien im Backend. Es gibt verschiedene Sichten, die nach diversen Aspekten
gefiltert und durchsucht werden können.
146
Obwohl das Konzept der Plattform vorsieht, dass mittels einer generischen Schnittstelle
diverse Autorenwerkzeuge für die Produktion der Inhaltpakete verwendet werden können, wurde ein einfaches Autorenwerkzeug in die Plattform integriert. Es wird aus dem
ContentModeller heraus aufgerufen und dient auf Basis eines HTML-Editors dazu, die
modellierten Seiten und zugeordneten Materialien direkt zu produzieren. Das fertige
Inhaltspaket kann dann als HTML Paket vom ContentModeller aus exportiert werden.
Die Integration eines eigenen Autorenwerkzeugs erfolgte auf ausdrücklichen Wunsch
der Projektpartner, da diese eine vollständige Wiederverwendung der bereits Erstellten
Content-Modelle gewährleistet. Die Schnittstelle zu anderen Autorenwerkzeugen wurde
auf Basis von Webservices (siehe Abbildung 2) umgesetzt und arbeitet bisher noch nicht
vollkommen verlustfrei.
Abbildung 4: ContentModeller
Das „Material-Management“ umfasst das Verwalten der für die Inhaltsproduktion benötigten Materialien. An dieser Stelle wird die auf WebDav basierende Sharepoint Standard-Funktionalität verwendet. Diese gleicht von der Benutzbarkeit und dem Design her
dem bekannten Explorer des Windows Betriebssystems. Materialien wie Bilder, Videos
oder Animationen können einfach in die dafür vorgesehenen Dokument-Bibliotheken
gezogen werden, während ein für diese Bibliotheken registrierter Eventhandler dafür
sorgt, dass den Materialien alle benötigten Metadaten automatisch zugewiesen werden.
Jedem Mandanten sind zwei Typen dieser Bibliotheken zugeordnet. Der Projektübergreifende Mandantenpool ist dafür vorgesehen Projekt-unabhängig benötigte Assets
wie Firmenlogos, oder allgemein verwertbare Inhalte zu verwalten, während in den Projektpools Materialien für ein bestimmtes Content-Projekt gesammelt werden können.
Die vorhandenen Pools können beliebig tief mit Unterordnern versehen und strukturiert
werden. Die Attribute und Metadaten der Materialien können entweder mit dem Standard-Frontend von Sharepoint oder direkt mit Hilfe des Metadateneditors im ContentModeller bearbeitet werden.
147
Der „didaktische Assistent“ ist als Wizard implementiert, den ein Benutzer beim Anlegen eines neuen Inhaltpakets durchlaufen kann. Anhand der Antworten des Fachexperten
auf verschiedene Fragen bezüglich des Lernziels, der Zielgruppe und des zu vermittelnden Wissens, die der Benutzer anhand von Checkboxen oder Drop-Down Menus beantworten kann, wird eine priorisierte Liste von Formatvorschlägen für das gewünschte
Inhaltpaket ausgegeben [NN06]. Darüber hinaus stellt der Assistent eine didaktische
Wissensbasis dar, die, unabhängig vom Content-Erstellungs-Prozess, vom Fachexperten
genutzt werden kann. Neben den genannten Bereichen gibt es noch weitere Bereiche,
welche die Mandanten bei der Erstellung der Inhalte unterstützen.
Dazu zählen die Ressourcen Pools, wo Kontakt und Preisdaten verschiedener externer
Dienstleister, wie Fotografen, Übersetzer, Grafikdesigner etc. hinterlegt sind und Arbeitsproben dieser begutachtet werden können, der Hilfe-Bereich mit FAQs, Tutorials
und Aufzeichnungen sowie der Bereich Team Services, welcher den Mitgliedern eines
Mandanten die Möglichkeit bietet, auf unterschiedliche Arten miteinander zu kommunizieren. Momentan enthält dieser Bereich ein Adressbuch, ein Forum, einen Chat zur
Echtzeitkommunikation und ein Wiki.
5
Evaluation
Noch vor Beginn der Entwicklungsarbeiten wurden die, der Authoring Management
Plattform zu Grunde liegenden, Konzepte in mehreren Anwendungs-Szenarien getestet
und evaluiert. Dies geschah, indem für die einzelnen Basisprozesse jeweils den Anwendungspartnern bekannte und vertraute Tools zur Verwendung kamen. Dabei handelte es
sich beispielsweise um MS Visio zur Modellierung der Inhalte, MS Project für das Projektmanagement, MS Sharepoint für die Materialverwaltung und Autorentools wie eXact
Packager [EX07] oder EasyProf [EA07] für die endgültige Produktion der Lerninhalte.
Es zeigte sich hierbei, dass schon die konsequente Anwendung der Konzepte eine Effizienzsteigerung des Entwicklungsprozesses der Inhalte zur Folge hatte, während die
anderen Beurteilungsfaktoren, wie didaktische Qualität oder inhaltliche Flexibilität, laut
der Anwendungspartner keine Änderung, respektive Verschlechterung, erfuhren. Das
angereicherte Content-Modell konnte deutlich schneller zur Produktion freigegeben
werden, und war für die Produktion selbst besser zu verwerten als ein umfangreiches
Storyboard; demzufolge sank die Gesamtdauer des Erstellungsprozesses bei konstanten
Kosten [CLL07]. Selbstverständlich ist bei den genannten Anwendungsfällen das vorhandene Verbesserungspotential enorm. So können beispielsweise weiterhin Medienbrüche verhindert und die Integration der einzelnen Teilaspekte verbessert werden. Daher ist
für die Evaluation der gesamten Plattform eine weitere Effizientsteigerung zu erwarten,
da hier Medienbrüche auf ein Minimum reduziert und die einzelnen Teilaspekte optimal
integriert sind. Auch im Hinblick auf die weiteren Faktoren ist, hinsichtlich der Dienste
der Plattform wie beispielsweise des didaktischen Assistenten, eine Verbesserung zu
erwarten. Die Evaluation der entwickelten Plattform mit den drei Anwendungspartnern
des Explain Projekts wird momentan durchgeführt.
148
6
Verwandte Arbeiten
Es gibt viele Arbeiten und implementierte oder in der Entwicklung befindliche Systeme,
die Teilaspekte des hier vorgestellten AMS abdecken. Hierzu zählen bspw. Autorenwerkzeuge, mit denen Inhalte produziert werden können. Die meisten dieser Werkzeuge
decken jedoch allein den Produktionsprozess der Inhalte ab. Dazu zählen neben Autorenwerkzeuge für WBTs wie easyProf [EA07] oder Macromedia Authorware, Aufzeichnungssoftware wie Lecturnity oder Captivate auch Werkzeuge wie Flash, Powerpoint,
Dreamweaver oder Frontpage.
Einige Autorenlösungen unterstützen zudem eine Modellierung der Inhalte. Dazu zählen
das ResourceCenter [HHR06], wo die Inhalte auf Kapitelebene modelliert werden können, bevor diese mit Inhalt befüllt werden oder der eXact Packager [EX07], der die Modellierung einer Struktur erlaubt. Zum Modellierungsansatz selbst wurde in [LAR07]
eine hinreichende Analyse bestehender Ansätze durchgeführt. Learning Content Management Systeme wie ILIAS [ILI07] oder Clix [IMC07] erlauben es häufig, neben einem
auf Lernen ausgerichteten Materialmanagement, Kurse aus bestehenden Inhalten zu
strukturieren. Diese Systeme unterstützen jedoch die eigentliche Produktion der Inhalte,
sowie eine Koordination der Produktionsprozesse nicht. Projektmanagement-Systeme
wie beispielsweise MS Project können zwar als Produktionsleitstand verwendet werden,
jedoch ergibt sich hier die Integrationsproblematik mit anderen verwendeten Werkzeugen. Oft sind diese Projektmanagementsysteme auch sehr komplex und bieten weit mehr
Funktionalitäten als benötigt werden, worunter wiederum die Benutzbarkeit leidet. Verschiedene Content Management und Versionierungs-Systeme wie Typo3 oder CVS
decken den Materialmanagementprozess des AMS hinreichend ab, bieten jedoch keine
Unterstützung für die restlichen Aspekte der Inhaltsproduktion oder eine hinreichende
Integrationsmöglichkeit. Enterprise Content Management Systeme wie Sharepoint verbinden Content Management mit kollaborativen Elementen und Controlling-Funktionen
und können als Grundlage für eine Implementierung in Betracht gezogen werden (siehe
Kaptitel 4). Systeme, welche das komplette Spektrum einer Authoring Management
Plattform abdecken, sind kaum vorhanden. Ein System, was diesem Konzept nahe
kommt, aber dennoch einige wichtige Funktionalitäten vermissen lässt ist QMind
[QM07]. Hierbei handelt es sich um eine webbasierte Plattform zur Konzeption, Produktion und Qualitätssicherung von Inhalten. Diese können jedoch einzig im Flash Format
erstellt werden, was den Anwendungsbereich der Plattform sehr stark einschränkt. Des
Weiteren wurde der Projektmanagement-Prozess nur in Bezug auf Review- und Qualitätssicherungsfunktionalitäten umgesetzt. Auch generische Schnittstellen zur Integration
bereits vorhandener Lösungen lässt das System vermissen.
7
Zusammenfassung und Ausblick
Mit dem Authoring Management System Explain wurde ein System konzipiert und umgesetzt, welches, besonders in Unternehmen, die Produktion von e-Learning Inhalten
effizienter und einfacher macht. Auch im universitären Bereich kann eine Anwendung
des Systems sinnvoll sein, jedoch nur, wenn der Content-Produktion ein kollaborativer
149
Prozess mit mehreren unterschiedlichen Rollen zu Grunde liegt. Der hauptsächliche
Einsatzbereich der Plattform ist in Unternehmen mittlerer Größe zu sehen, die durch inhouse Produktion von Inhalten den Zeit- und Kostenaufwand verringern wollen. Die
prototypische Implementierung kann als Proof of Concept dienen, setzt jedoch die konzipierte Plattform nicht in allen Details um. Hier können durch zukünftige Arbeiten,
beispielsweise bei der Überführung in die Produktreife, noch an einigen Stellen Verbesserungen angebracht werden. So wäre eine Rollen-abhängige Sicht auf den Mandantenbereich sinnvoll.
Des Weiteren könnte die automatisierte Unterstützung der Metadatenerstellung verbessert werden. Auch der Einbezug externer, in vielen Unternehmen bereits vorhandener
Materialquellen, wie Datenbanken, Dateisysteme oder FTP-Server in das Materialmanagement der Explain Plattform, kann noch umgesetzt werden.
Danksagung
Das diesem Bericht zu Grunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Wirtschaft und Technologie unter dem Förderkennzeichen 01 MD 512 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor.
Literaturverzeichnis
[BBS01] Back, A.; Bendel, O. & Schai, D.S. (2001), E-Learning im Unternehmen, Orell Fuessli.
[CLL07] Chikova, P.; Leyking, K.; Loss, P.; Bruch, E. & Lehmann, L. (2007), Reengineering der
Content-Erstellungsprozesse in Industrieunternehmen durch Content-Modellierung:
Fallbeispiel, in 'Proceedings of the 8. Intern. Tagung Wirtschaftsinformatik WI 2007'.
[EA07] Daten + Dokumentation GmBH - easyProf, http://www.easyprof.de/, 2007
[EX07] Giunti Labs Learnexact - eXact Packanger, http://www.giuntilabs.com/info.php?vvu=12
[HHR05] Hoermann, S.; Hildebrandt, T.; Rensing, C. & Steinmetz, R. (2005), ResourceCenter - A
Digital Learning Object Repository with an Integrated Authoring Tool, in 'Proceedings
of the Edmedia 2005'.
[ILI07] ILIAS open source - ILIAS, http://www.ilias.de, 2007
[IMC07] imc - Lernplattform Clix, http://www.im-c.de/138/Lernplattform-CLIX/, 2007
[LAR06] Lehmann, L.; Aqqal, A.; Rensing, C.; Chikova, P.; Leyking, K. & Steinmetz, R. (2006),
A Content Modeling Approach as Basis for the Support of the Overall Content Creation
Process, in 'Proceedings of the IEEE ICALT 2006'.
[NN06] Niegemann, H.M. & Niegemann, L. (2006), Ein „Didaktischer Assistent“ für die Entwicklung von eLearning-Angeboten, in 'Proceedings of 10. Workshop Multimedia in
Bildung und Wirtschaft'.
[QM07] QMind - QMind, http://www.qmind.com/, 2007
[ZF06] Zimmermann, V. & Fredrich, H. (2006), Authoring Management Plattform "Explain"
Effiziente Content Produktion durch Integration von Autorenlösungen über eine webbasierte Prozess- und Serviceplattform, in 'Proceedings of 10. Workshop Multimedia in
Bildung und Wirtschaft'.
150
Eine logfilebasierte Evaluation des Einsatzes von
Vorlesungsaufzeichnungen
Christoph Hermann1 , Martina Welte1 , Johann Latocha2 ,
Christoph Wolk3 , Wolfgang Huerst1
Institut für Informatik
Albert-Ludwigs-Universität Freiburg
Georges-Köhler-Allee, Gebäude 051
79110 Freiburg im Breisgau
{hermann, welte, huerst}@informatik.uni-freiburg.de1
johann@latocha.de2 , christoph.wolk@googlemail.com3
Abstract: Ziel des vorliegenden Beitrags ist es, die Ergebnisse einer vorangehenden,
informellen Studie zur Nutzung von Vorlesungsaufzeichnungen durch harte Fakten“
”
zu überprüfen und gegebenenfalls neue Erkenntnisse zu gewinnen. Es wird kurz ein
Werkzeug vorgestellt, mit welchem wir die Zugriffe der Studierenden auf die Vorlesungsaufzeichnungen untersucht haben. Die aufschlussreichsten Analysen werden in
diesem Beitrag vorgestellt. Es ergeben sich hierbei interessante Ergebnisse bezüglich
der Verwendung der Materialien durch die Studierenden oder der Nachfrage nach verschiedenen Medienformaten. Auch das immer wieder kontrovers diskutierte Thema,
ob Vorlesungsaufzeichnungen mit Dozentenvideo besser geeignet sind als Aufzeichnungen ohne das Video, wird von uns aufgegriffen und die Position unserer Studierenden zu dieser Thematik anhand der Logfileanalyse dargelegt. Des Weiteren diskutieren
wir das Thema der Archivierung von Vorlesungsaufzeichnungen und untersuchen, zu
welchen Zeitpunkten Studierende besonders auf Vorlesungsaufzeichnungen als Lernmaterial zurückgreifen.
1 Motivation
Vorlesungsaufzeichnungen [MO00] haben sich an Hochschulen in systematisch aufgebauten Fächern wie Informatik als eines der Hauptmaterialien in der Lehre sowohl in Präsenz
als auch zur Unterstützung der Durchführung von Onlinekursen herausgestellt. An der
Universität Freiburg werden alle Vorlesungsaufzeichnungen der Fakultät für Angewandte
Wissenschaften (FAW) über das eLectures-Portal“ [HHW06] verteilt und archiviert. Die
”
Zugriffe auf diese Materialien werden über den verteilenden Webserver (Apache) protokolliert und können somit von uns ausgewertet werden.
In einer früheren Studie [HLT06] haben wir das Nutzungsverhalten, die Funktionalität und
Usability von Vorlesungsaufzeichnungen aus der Sicht der Studierenden im Fach Informatik untersucht. Diese Studie hat bisherige Vermutungen über den Mehrwert von Vorle-
151
sungsaufzeichnungen bestätigt. Ferner hat sie aufgezeigt, welche Funktionalitäten, Medien
und Formate von den Studierenden akzeptiert bzw. als wichtig angesehen werden.
In dem vorliegenden Beitrag wollen wir die damals anhand von Fragebögen durchgeführte
Evaluation, welche auf der subjektiven Sicht der Studierenden basiert, anhand vorliegender Fakten aus den Logfiles der Zugriffe auf die Materialien verifizieren. Uns interessieren
hierbei Fragestellungen der Art: Welche Art von Dokumenten wird von den Studierenden
”
bevorzugt verwendet?“, Gibt es bestimmte Typen von Dokumenten, die besonders nach”
gefragt werden?“, Gibt es einen Zusammenhang zwischen der Nachfrage nach bestimm”
ten Dokumenten und bestimmten Ereignissen wie Klausuren oder Übungsblattabgaben?“.
Für Entscheider an Hochschulen, die über den Einsatz von Vorlesungsaufzeichnungen
nachdenken, ist auch insbesondere interessant, wie lange die enormen Datenmengen in
einem Archiv vorgehalten werden sollten. Für eine Veranstaltung der Länge von 45 Minuten (eine einstündige ex-cathedra-Vorlesung) fallen durchschnittlich etwa 25MB für eine
Vorlesungsaufzeichnung ohne das Dozentenvideo und mehrere hunderte Megabyte für eine Vorlesungsaufzeichnung mit Dozentenvideo an. Insgesamt ist an unserer Fakultät fast
ein halbes Terabyte an Vorlesungsaufzeichnungen vorhanden (fast das gesamte Curriculum der Informatik sowie das der Mikrosystemtechnik ist als Vorlesungsaufzeichnungen
verfügbar), die täglich gesichert werden müssen.
Ziel dieses Beitrags ist es, diese und andere Fragen anhand der ausgewerteten Daten der
Logfiles unseres eLecture-Portals zu beantworten.
2 Auswertung der Logfileanalyse
2.1
Vorgehensweise
Zur Analyse der Logfiles unseres Portals wurde ein Werkzeug entwickelt, das die vorliegenden Daten in einem ersten Schritt von überflüssigen Einträgen bereinigt, in einem zweiten Schritt die Metadaten des eLecture-Portals einbezieht und letztendlich die Möglichkeit
bietet, grafische Reports der Daten zu liefern.
Das Werkzeug bietet verschiedene standardisierte Abfragen, die auch in den gängigen
Logfileanalysetools zu finden sind, etwa eine Aufschlüsselung nach verwendetem InternetBrowser, Betriebssystem oder angefragter Datei. Im Gegensatz zu Standard-Logfileanalysetools ist jedoch eine wesentlich detailliertere und damit aufschlussreichere Analyse der
Daten möglich. Dies geschieht durch die Einbeziehung der Metadaten, die im eLecturePortal (hier sind Vorlesungsaufzeichnungen mit Semester, Autor, Titel und einer Struktur
versehen) gespeichert sind. Abbildung 1 zeigt einen Screenshot der grafischen Oberfläche.
Über die Kommandozeilenversion des Werkzeugs sind noch weitere, deutlich detailliertere
Analysen möglich.
Die Logfiles, die zur Analyse der Daten herangezogen wurden, stammen aus dem Zeitraum
Februar 2006 bis März 2007 und enthalten etwa 2,6 Millionen Zeilen an Logfileeinträgen.
Die eLectures-Datenbank enthält Einträge über die Strukturen der gesamten Vorlesungen des Informatik-Curriculums. Zu jeder Vorlesungsaufzeichnung werden die Metadaten
152
Abbildung 1: Tool zur Logfileanalyse
Autor, Datum, Vorlesung und Titel erfasst. Die einzelnen Vorlesungsaufzeichnungen sind
über die Struktur in Kapitel und Unterkapitel unterteilt, die es ermöglichen, den Zusammenhang zwischen einer Datei und der jeweiligen Veranstaltung (Titel, Semester sowie
Dozent) herzustellen.
Zur Bereinigung der Logfiles von Zugriffen von Robots und um ungewöhnliche Zugriffsspitzen1 , die eine Auswertung verfälschen würden, zu entfernen, wurden die Logfiles wie
folgt gefiltert: Es wurden pro Stunde jeweils die Zugriffe einer IP-Adresse nur einmal
gezählt, so dass ein mehrfacher Download derselben Datei von einem Rechner (identifiziert durch die IP-Adresse) nicht mehrfach gezählt wurde. Bei Browsern und Betriebssystemen wurde in den jeweiligen Statistiken identisch vorgegangen. Zugriffe von Clients, deren Benutzeragentkennungen den Begriff Robot“ bzw. Bot“ enthielten, wurden
”
”
zusätzlich entfernt.
2.2
Nutzergruppe
Teilnehmer unserer ersten Umfrage (siehe [HLT06]) waren Studierende der Veranstaltungen Informatik II (Algorithmen und Datenstrukturen) im Sommersemester 2004 und
Sommersemester 2005 sowie Algorithmentheorie im Wintersemester 2003/2004 und Studierende der Geometrischen Algorithmen im Wintersemester 2004/2005. Bei der Analyse der Logfiles kann die Zielgruppe nicht exakt eingegrenzt werden (da der Zugriff auf
die Vorlesungsaufzeichnungen auch von außerhalb der Universität gestattet ist), jedoch ist
davon auszugehen, dass zum größten Teil nur Studierende der entsprechenden Veranstaltungen auf die Aufzeichnungen auf dem Portal zugreifen2 . Es ist jedoch klar, dass sich
1
2
Als Zugriffsspitzen bezeichnen wir übermäßig starke Nachfragen zu einem bestimmten Zeitpunkt.
Zumindest ist aufgrund der Analyse der Logfiles (IP Adressen, Herkunft etc.) davon auszugehen.
153
diese Benutzergruppe von der Allgemeinheit der Internetnutzer deutlich unterscheidet, da
es sich hauptsächlich um Studierende der Informatik und verwandter Fächer handelt. Ein
Vergleich zwischen unserer Benutzergruppe und der Allgemeinheit zeigt deutliche Unterschiede in der Verwendung des Betriebssystems und auch beim verwendeten Browser.
Dies bestätigt wiederum die Ergebnisse der Befragungen der letzten Studie. Allgemein3
wird zu 58,7% der Internet Explorer verwendet, zu 32,6% Mozilla Browser (Mozilla, Firefox) zu 1,7% Safari und zu 1,5% Opera. Unter den Studierenden wird zu 40,29% Internet
Explorer verwendet, zu 42,37% Firefox. Der Rest der Zugriffe stammt von anderen Browsern oder Robots. Bei den Betriebssystemen zeigt sich eine ähnliche Abweichung: Die
Studierenden verwenden zu 70,45% Microsoft Windows XP (allgemein 76,1%), zu 9,1%
Linux (allgemein 3,5%), zu 7,08% Windows 2000 (allgemein 7,4%) gefolgt von 5,82%
Windows 98-Nutzern (allgemein lediglich 0,8%) und anderen. Man sieht, dass InformatikStudierende sich zwar von der Allgemeinheit unterscheiden, jedoch nicht so stark wie man
unter Umständen hätte vermuten können. Die tatsächlichen Angaben in den Logfiles unterscheiden sich auch leicht von den Angaben der Studierenden in der letzten Studie. Diese Abweichung ist vermutlich dadurch zu erklären, dass sich Studierende zunehmend im
Hauptstudium mit alternativen Betriebssystemen beschäftigen (und dies auch in der Studie
so angegeben haben), während ein Großteil der Studierenden im Grundstudium noch das
Microsoft-Betriebssystem (stärker) bevorzugt. Eine alternative Erklärung könnte sein, dass
das Microsoft-Betriebssystem unter den Informatik-Studierenden einen negativen Ruf hat
und sie deshalb in der Umfrage vermehrt angegeben haben, alternative Betriebssysteme zu
benutzen.
2.3
Umgang der Studierenden mit Vorlesungsaufzeichnungen
Aus den Top 15 (laut Zugriffszahlen) der uns vorliegenden Veranstaltungen haben wir zwei
besonders nachgefragte und wichtige Veranstaltungen (Informatik II im Grundstudium
und Algorithmentheorie im Hauptstudium) herausgesucht und diese im Detail analysiert.
Wir haben untersucht, welche der angebotenen Formate von den Studierenden besonders
häufig heruntergeladen bzw. aufgerufen werden, ob ältere Vorlesungsaufzeichnungen auch
in den aktuellen Veranstaltungen nachgefragt werden und ob es in Zuge dessen sinnvoll
ist, ein großes Archiv älterer Versionen der Vorlesungsaufzeichnungen vorrätig zu halten.
Des Weiteren hat uns interessiert, ob es bestimmte Zeitpunkte gibt, zu denen die Medien besonders stark nachgefragt werden und inwiefern das mit bestimmten Terminen wie
Übungsblattabgaben, Klausuren oder Ferien zusammenhängt.
Bei den zwei im Detail analysierten Veranstaltungen Informatik II und Algorithmentheorie
handelt es sich um Präsenzveranstaltungen, die im akademischen Zyklus (jährlich) angeboten werden. Der Vortrag des Dozenten wird live aufgezeichnet und wenige Stunden nach
der Veranstaltung im Internet auf dem eLectures-Portal zur Verfügung gestellt.
Die folgenden Auswertungen zeigen jeweils an den Achsen die absoluten Downloadzahlen (Y-Achse) relativ aufgetragen zur Zeitskala (X-Achse). Die Semesterzeiten werden
durch senkrechte Linien begrenzt, in der vorlesungsfreien Zeit nach dem Semester fin3
http://www.w3schools.com/browsers/browsers stats.asp
154
den meist die Prüfungen statt. Entlang der X-Achse eingezeichnete Punkte kennzeichnen die Abgabetermine der Übungsblätter zur Vorlesung, im ein- bis zweiwöchentlichen
Rhythmus). Einige der Grafiken zeigen eine geglättete“ Auswertung, hier haben wir eine
”
Glättung über drei oder sieben Tage vorgenommen, um ein konsistenteres Erscheinungsbild zu bekommen. Dies wird in den einzelnen Grafiken jeweils durch die Zusätze 3”
Tages-Durchschnitt“ oder Wöchentlicher Durchschnitt“ gekennzeichnet.
”
Vergleich der verschiedenen Medienformate
Bei der Auswertung der Logfiles haben wir untersucht, inwiefern verschiedene Dateiformate bzw. Medientypen von den Studierenden nachgefragt werden. Die auf dem eLecturesPortal verfügbaren Dateien wurden in die drei Kategorien Video“, Flash“ und Folien“
”
”
”
unterteilt und analysiert. In die erste Kategorie fallen alle Arten von Vorlesungsaufzeichnungen, d.h. es spielt hierbei keine Rolle, mit welchem Werkzeug diese aufgezeichnet
wurden (wir setzen Lecturnity und Camtasia ein), oder ob es sich um Aufzeichnungen
mit oder ohne Dozentenvideo handelt. Diese Unterscheidung haben wir an dieser Stelle
absichtlich nicht vorgenommen, da wir diese Analyse in einem eigenen Abschnitt behandeln. Flash“ enthält alle Vorlesungsaufzeichnungen im Flash-Format, und unter Folien
”
haben wir sowohl Powerpoint- als auch PDF-Präsentationen zusammengefasst. Wichtig
ist hierbei anzumerken, dass wir bei Vorlesungsaufzeichnungen“ und Folien“ nicht im
”
”
Detail feststellen können, wie oft diese Materialien tatsächlich verwendet wurden, da die
entsprechenden Dateien in der Regel von den Studierenden heruntergeladen werden und
im Anschluss oft nur noch von der lokalen Festplatte aus aufgerufen werden.
120
VIDEOS
FLASH
FOLIEN
160
DOWNLOADS
DOWNLOADS
100
200
ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT)
INFORMATIK II (3-TAGES-DURCHSCHNITT)
VIDEO
FLASH
SS 2006
FOLIEN
WS 2006/07
80
120
60
80
40
40
20
DATUM
0
24.10.06
13.11.06
03.12.06
23.12.06
12.01.07
01.02.07
21.02.07
0
3.4.06
DATUM
28.4.06
23.5.06
17.6.06
12.7.06
6.8.06
31.8.06
25.9.06
Abbildung 2: Vergleich der Downloadhäufigkeit der verschiedenen Medientypen Video“, Folien“
”
”
und Flash“; Links für die Veranstaltung Algorithmentheorie im WS2006/2007 und rechts für
”
Informatik II über alle verfügbaren Semester
Nichtsdestotrotz erkennt man in Abbildung 2 sehr deutlich eine klare Präferenz für die
Videos“, gefolgt von Folien“ und als letztes Flash“. Dies bestätigt wiederum unsere
”
”
”
Theorie des Leecher-Effekts“ der letzten Studie, d.h. die Studierenden präferieren ein
”
Format, das sie komplett herunterladen können.
155
Vergleich der Nachfrage von Vorlesungsaufzeichnungen mit und ohne Video
Die Relevanz des Videobildes des Dozenten als Einfluss auf den Lernprozess wird immer
wieder kontrovers diskutiert. Krüger [Kr05] weist darauf hin, dass verschiedene Studien
von Fey [Fe02], Glowalla [Gl04] und Moreno und Mayer [MM02] unterschiedliche Ergebnisse aufzeigen, ob das Videobild des Dozenten notwendig ist, oder ob es ausreicht, das
Tonsignal zu übertragen. Krüger weist jedoch auch darauf hin, dass die Untersuchungen
nur davon ausgehen, dass die durch das Betrachten des Videos erzielte höhere Motivation ein nachhaltigeres Lernen ermöglicht, dieses jedoch noch nicht in einer Langzeitstudie
nachgewiesen wurde. Wir wollen hier weder die eine noch die andere These bestätigen
oder widerlegen, sondern die entsprechenden Aussagen anhand der Fakten, die wir aus
einer Logfileanalyse ziehen können, überprüfen. Abbildung 3 zeigt links eine Übersicht
DOWNLOADS
800
ALLE VORLESUNGEN
(WÖCHENTLICHER DURCHSCHNITT)
80
LECTURNITY (MIT DOZENTENVIDEO)
LECTURNITY (OHNE DOZENTENVIDEO)
SS 2006
WS 2006/07
60
400
40
200
20
DATUM
6.4.06
6.6.06
ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT)
LECTURNITY (MIT DOZENTENVIDEO)
LECTURNITY (OHNE DOZENTENVIDEO)
WS 2006/07
600
0
6.2.06
DOWNLOADS
100
1000
6.8.06
6.10.06
6.12.06
6.2.07
0
25.10.06
25.11.06
25.12.06
25.1.07
DATUM
Abbildung 3: Vergleich der Vorlesungsaufzeichnungen mit und ohne Dozentenvideo
über alle vorhandenen Aufzeichnungen getrennt nach Downloads der Aufzeichnungen mit
und ohne Video. Die rechte Grafik zeigt im Detail noch einmal die Nachfrage der Studierenden nach diesen beiden Aufzeichnungsarten bei der Veranstaltung Algorithmentheorie.
Man sieht sehr deutlich, dass sowohl insgesamt als auch bei einzelnen Veranstaltungen
die Vorlesungsaufzeichnungen ohne Video deutlich von den Studierenden präferiert werden. Interessant ist jedoch, dass zum Ende der Veranstaltung Algorithmentheorie die Vorlesungsaufzeichnungen mit Video noch einmal sehr stark heruntergeladen wurden. Dies
ist eventuell damit zu begründen, dass sich Studierende zu Ende der Veranstaltungen die
gesamten Materialien herunterladen, um sich damit dann auf die Prüfungen vorzubereiten
oder um diese selbst zu archivieren. Ein anderes Argument wäre, dass zu diesem Zeitpunkt
die Veranstaltung von einem anderen Dozenten gehalten wurde und deshalb die Studierenden das Bild des unbekannten“ Dozenten sehen wollten. Es gibt Vermutungen, die genau
”
diese Argumentation unterstützen. Sie besagen, dass bei einem unbekannten Dozenten
das Bild des Vortragenden für den Zuhörer wichtig ist, da er die Person kennenlernen“
”
möchte.
156
Notwendigkeit eines Archivs
140
160
140
DOWNLOADS
180
ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT)
DOWNL.
Aufgrund der immensen Datenmenge und den damit verbundenen Kosten für die Archivierung und Aufrechterhaltung kommt der Frage, ob sich die Nutzung der Daten zumeist
auf das letzte Semester beschränkt und eine langfristige Archivierung damit gegebenenfalls gar nicht relevant ist, eine hohe Bedeutung zu. Es wäre z.B. möglich nach Ablauf
des Semesters (dem Prüfungszeitraum) die Vorlesungsaufzeichnungen zu löschen. Bei unseren Untersuchungen hat sich herausgestellt, dass die Studierenden nicht nur die aktuellen Materialien verwenden, sondern dass auch ältere Vorlesungsaufzeichnungen genutzt
werden. Abbildung 4 zeigt auch sehr deutlich, dass vor allem vor Beginn des Semesters
INFORMATIK II (3-TAGES-DURCHSCHNITT)
120
ÄLTERE
SEMESTER
WS 2006/07
ÄLTERE SEMESTER
100
SS 2006
SS 2006
120
WS 2006/07
80
100
80
60
60
40
40
20
20
0
03.10.2006
03.11.2006
03.12.2006
03.01.2007
03.02.2007
DATUM
0
3.4.06
3.5.06
3.6.06
3.7.06
3.8.06
3.9.06
DATUM
Abbildung 4: Links: Downloads von Vorlesungsaufzeichnungen aus verschiedenen Semestern der
Veranstaltung Algorithmentheorie im WS2006/2007; Rechts der Informatik II über alle
vorhandenen Semester
verstärkt Zugriffe auf alte Vorlesungsaufzeichnungen stattfinden. Die erste vertikale Linie
markiert den Beginn des aktuellen Semesters; man erkennt vor diesem Zeitpunkt einen
starken Zugriff auf die Vorlesungsaufzeichnungen des vorhergehenden Semesters. Hierfür
gibt es verschiedene denkbare Begründungen: Zum einen gibt es Studierende, die alte Vorlesungsaufzeichnungen als Orientierungshilfe“ benutzen, um sich über die Veranstaltung
”
und deren Schwierigkeitsgrad zu informieren. Auch wird diese Möglichkeit von Studierenden genutzt, um auszuloten, ob sie diese Veranstaltung im kommenden Semester als
eine ihrer Wahlpflichtveranstaltungen belegen. Zum anderen gibt es auch den einen oder
anderen Studierenden, der diese Materialien bereits als Vorbereitung auf die kommenden
Veranstaltungen nutzt, um deren Inhalte zu verinnerlichen bzw. vorzuarbeiten. Der Zugriff
auf die alten Vorlesungsaufzeichnungen nimmt im Laufe des Semesters dann zwar ab,
jedoch werden zu bestimmten Zeitpunkten weiterhin bestimmte (ältere) Aufzeichnungen
stärker nachgefragt. Wir gehen davon aus, dass die Studierenden ausgesuchte alte Vorlesungsaufzeichnungen bevorzugen, weil dort der ein oder andere Sachverhalt besser oder
ausführlicher erklärt wird als in den aktuellen Aufzeichnungen.
157
Zugriffszeitpunkte
Eine weitere wichtige Analyse, die wir anhand der Logdateien durchgeführt haben, war die
Untersuchung, zu welchen Zeitpunkten die Studierenden besonders auf die Vorlesungsaufzeichnungen zugreifen.
DOWNLOADS
100
ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT)
WS2003/04
WS2004/05
WS2005/05
WS2006/07
90
DOWNLOADS
120
120
SS2003
SS2005
INFORMATIK II (3-TAGESDURCHSCHNITT)
SS2004
SS2006
SS 2006
WS 2006/07
80
60
60
40
30
20
0
3.10.06
3.11.06
3.12.06
3.1.07
3.2.07
DATUM
0
3.4.06
3.5.06
3.6.06
3.7.06
3.8.06
3.9.06
DATUM
Abbildung 5: Downloads von Vorlesungsaufzeichnungen zu verschiedenen Zeitpunkten (jeweils
über alle verfügbaren Semester): Links die Zugriffe auf die Vorlesungsaufzeichnungen der
Algorithmentheorie; rechts der Informatik II
Abbildung 5 zeigt ein Diagramm der Zugriffe. Punkte entlang der X-Achse stehen für
Abgabetermine der Übungsblätter. Besonders deutlich zeichnet sich bei der Algorithmentheorie das folgende Phänomen ab: Direkt vor der Abgabe der Übungsblätter werden die
Aufzeichnungen vermehrt nachgefragt; man sieht sehr schön die wöchentlichen Spitzen in
der Grafik direkt vor den Abgabezeitpunkten. Auch in der Informatik II ist der Rhythmus
erkennbar, wenn auch nicht ganz so deutlich. Es ist allerdings erkennbar, dass in den zwei
Wochen, in denen kein Übungsblatt abzugeben ist, auch keine Nachfragespitze entsteht.
Bei Informatik II ist wiederum auch sehr gut erkennbar, dass vor dem aktuellen Semester
die älteren Aufzeichnungen stark nachgefragt werden. Die erkennbare Zugriffsspitze in
der Mitte der Grafik der Zugriffe auf die Algorithmentheorie stammt von einem Studierenden, der offenbar alle Vorlesungsaufzeichnungen auf einmal besitzen wollte und diese
komplett heruntergeladen hat.
Sehr deutlich ist in Abbildung 5 auch das Weihnachtsloch“ zu erkennen: Im Bereich der
”
Weihnachtsferien und Silvester werden fast überhaupt keine Vorlesungsaufzeichnungen
heruntergeladen. Solch ein deutlicher Einbruch ist sonst kaum zu erkennen, was darauf
schließen lässt, dass sich die Studierenden (von denen einige Weihnachten sicherlich zuhause verbringen) in diesem Zeitraum eine Lernpause gönnen.
Abbildung 6 zeigt die Zugriffe der Studierenden auf die Vorlesungsaufzeichnungen direkt
vor den Klausuren (Prüfungsterminen) und jeweiligen Wiederholungsterminen.
Besonders deutlich ist der Anstieg vor den ersten Klausuren, bei den Wiederholungsprüfungen ist der Anstieg nicht so deutlich, was darauf zurückzuführen ist, dass deutlich
weniger Studierende an der Wiederholungsklausur teilnehmen müssen.
158
120
ALGORITHMENTHEORIE
(WÖCHENTLICHER DURCHSCHNITT)
KLAUSUR
WS05/06
ÉVV
WS2003/04
WS2004/05
WS2005/06
WS2006/07
²V
ã¡YsÌ¡æã
DOWNLOADS
160
sæ§
Ìæúú¸
\s¡¸Ïæý\+\\
BYpµsýÌ\µ¸+ãú¸s\ýý(
mVV
mVV%
+mVV
mVV
mVV
Ìæúú¸
SS 2006
WS 2006/07
Y+mVVV÷
NACHKLAUSUR
V
80
V
40
mV
0
6.2.06
6.4.06
6.6.06
6.8.06
6.10.06
6.12.06
DATUM
V
àmàV
ààV
ààV
à²àV
àÉVàV
àÉmàV
ãæýúÏ
àmàV÷
6.2.07
Abbildung 6: Downloads von Vorlesungsaufzeichnungen vor den Prüfungsterminen: Links die
Zugriffe auf die Vorlesungsaufzeichnungen der Algorithmentheorie; rechts der Informatik II
Dass insgesamt viel mehr Zugriffe bei der Veranstaltung Informatik II zu verzeichnen sind,
liegt unter Anderem an der Teilnehmerzahl bei den zwei untersuchten Veranstaltungen.
Die Vorlesung Informatik II wurde als Grundstudiumsveranstaltung von deutlich mehr
Studierenden besucht als die Vertiefungsveranstaltung Algorithmentheorie.
3 Zusammenfassung und Ausblick
In dem vorliegenden Beitrag haben wir anhand der Auswertung der Logfiles unseres eLecture-Portals die Ergebnisse einer vorhergehenden Studie überprüft und validiert, und einige interessante und für die Bereitstellung derartiger Lehrmaterialien wichtige Erkenntnisse
gewonnen. Es zeigt sich, dass die Studierenden die Vielfalt der angebotenen Formate jeweils zu unterschiedlichen Zeitpunkten und in unterschiedlicher Intensität nutzen, dass
jedoch jedes der Formate (Vorlesungsaufzeichnungen, Folien und Flash) seine Berechtigung hat.
Des Weiteren ist es durchaus sinnvoll, ein Archiv der verschiedenen Veranstaltungen aus
verschiedenen Semestern vorzuhalten, da die Studierenden die älteren Aufzeichnungen
sowohl vor Beginn eines neuen Semesters als auch während einer laufenden Veranstaltung
nutzen. Wiederum hat sich auch bestätigt, dass unsere Studierenden die Vorlesungsaufzeichnungen mit Video des Dozenten deutlich weniger nachfragen als die Vorlesungsaufzeichnungen ohne Dozentenvideo. Als zusätzlicher Service dem Studierenden gegenüber
ist es jedoch sicherlich vorteilhaft, auch eine Variante mit Video anzubieten, da es immer
wieder eine (wenn auch geringe) Nachfrage nach diesen Dateien gibt.
In Anschluss an die bisher durchgeführten Auswertungen der Logfiles wollen wir zukünftig
durch eine genauere Zuordnung von aktuellen Vorlesungsaufzeichnungen zum Abgabezeitpunkt von Übungen das Lernverhalten von Studierenden überprüfen.
159
Zusätzlich wollen wir einige der hier verwendeten intuitiven Argumente (vor allem in
Hinblick auf die Nutzung der älteren Vorlesungsaufzeichnungen) durch eine genauere Befragung unter den Studierenden verifizieren.
Interessant wäre auch ein direkter Vergleich von Vorlesungsaufzeichnungen, die mit Lecturnity (objektbasierte Aufzeichnung) angefertigt wurden, gegenüber reinen Screengrabbingaufzeichnungen, wie sie z.B. mit Camtasia erstellt werden können. Dafür müssten für
eine Veranstaltung beide Dateiformate angeboten werden. Technisch ist angedacht, dies
über einen automatischen Mitschnitt des Videosignals der Grafikkarte zusätzlich zur Aufzeichnung mit Lecturnity zu realisieren; dies verhindert eventuelle Komplikationen zwischen den verschiedenen Aufzeichnungstools. Dieser Mitschnitt kann dann nachträglich
überarbeitet und in das typische AVI-Format konvertiert werden.
Anhand der Zugriffe aus den Logfiles ist es möglich, ein best-of“ der entsprechenden
”
Lehrveranstaltungen zu erstellen, indem die Teile ausgesucht werden, die von den Studierenden jeweils am häufigsten nachgefragt werden. Dies ist insofern interessant, als dass
jeder Dozent in seiner Veranstaltung die Schwerpunkte anders setzt und verschiedene Inhalte mehr oder minder detailliert erklärt. Mittels einer best-of“-Auswahl könnten auch
”
die Archivierungskosten gesenkt werden, indem lediglich die besten Vorlesungsaufzeich”
nungen“ archiviert werden.
Dies kann dann noch erweitert werden, indem sich Studierende ihre Wunschvorlesun”
gen“ selbst zusammenstellen können. Im AOF-Player der Universität Freiburg ist es bereits
vorgesehen, Teile einer Veranstaltung mit Metadaten auszuzeichnen [Tr06] und basierend
darauf seine individuelle Vorlesungsaufzeichnung zu erstellen.
Literaturverzeichnis
[Fe02]
Anja Fey. Audio vs. Video: Hilft Sehen beim Lernen? Vergleich zwischen einer audiovisuellen und auditiven virtuellen Vorlesung. Unterrichtswissenschaften, Zeitschrift für
Lernforschung, 30. Jhg(4):331–338, 2002.
[Gl04] Ulrich Glowalla. Utility and Usability von E-Learning am Beispiel von Lecture-ondemand Anwendungen. In Entwerfen und Gestalten, 2004.
[HHW06] Christoph Hermann, Wolfgang Hürst und Martina Welte. The eLecture-Portal: An Advanced Archive For Lecture Recordings. In Informatics Education Europe, Oct 2006.
[HLT06] Christoph Hermann, Tobias Lauer und Stephan Trahasch. Eine lernerzentrierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen zur Unterstützung der Präsenzlehre. In
Tagungsband der 4. e-Learning Fachtagung Informatik (DeLFI 2006), Sep 2006.
[Kr05] Marc Krüger. Pädagogische Betrachtungen zu Vortragsaufzeichnungen (eLectures). icom, Zeitschrift für interaktive und kooperative Medien, 3:56–60, 2005.
[MM02] R. Moreno und R.-E. Mayer. A Learner-Centred Approach to Multimedia Explanations:
Deriving Instructional Design principles from Cognitive Theory. In Interactive Multimedia Electronic Journal of Computer-Enhanced Learning, 2002.
[MO00] Rainer Müller und Thomas Ottmann. The “Authoring on the Fly” system for automated
recording and replay of (tele)presentations. Multimedia Systems, 8(3):158 – 176, 10 2000.
[Tr06] Stephan Trahasch. Skriptgesteuerte Wissenskommunikation und personalisierte Vorlesungsaufzeichnungen. Wissensprozesse und digitale Medien. Logos Verlag, 2006.
160
Anreizsysteme zur Intensivierung von E-Teaching
an Hochschulen
Klaus Wannemacher
Abteilung 3, Hochschulentwicklung
HIS Hochschul-Informations-System GmbH
Goseriede 9
30159 Hannover
wannemacher@his.de
Abstract: An den Hochschulen mangelt es an wirksamen Anreizen für Lehrende,
sich in dem Bereich E-Teaching stärker zu engagieren. Mit welchen Mitteln können Hochschullehrende jedoch für die Nutzung mediengestützter Lehrformen interessiert werden? Anhand einer aktuellen Erhebung an deutschen Hochschulen stellt
der Beitrag den gewachsenen strategischen Stellenwert von E-Learning an der
Hochschule sowie die bevorzugten Maßnahmen zu einer Intensivierung der ETeaching-Nutzung durch Dozierende dar. Gängige E-Teaching-Anreizsysteme an
deutschen Hochschulen werden anhand erfolgreicher Referenzbeispiele vorgestellt
und übergeordnete Entwicklungslinien nachvollzogen.
1
Anreizdefizit trotz gewachsenem Stellenwert von E-Teaching
Der strategischen Bedeutung eines ausgereiften E-Learning-Angebots an den Hochschulen und der Notwendigkeit einer Integration von E-Learning in die Hochschulstrategie wird von Hochschulleitungen zunehmende Bedeutung beigemessen, wie eine
Untersuchung der HIS GmbH und des Multimedia Kontor Hamburg vom Sommer 2006
zur „E-Readiness“ deutscher Hochschulen zeigt. In der „E-Readiness“-Studie, an der
sich die Hochschulleitungen von 201 Hochschulen beteiligt haben, wurden diese befragt,
welchen Stellenwert die mediengestützte Lehre konkret in Bezug auf „typische“ Hochschulziele hat? Die Resultate zeigen, dass die Hochschulen E-Learning insbesondere als
ein Instrument sehen, um die Zufriedenheit der Studierenden (77 %) und die eigene
Attraktivität für (neue) Studierende zu steigern (Reputationssteigerung: 63 %; Studienerfolgssteigerung: 60 %; Erschließung neuer Zielgruppen: 56 %).
Demgegenüber trägt der mediengestützte Unterricht nach Auffassung der Hochschulen
deutlich weniger zur Erleichterung der Lehre (37 %) oder zur Behebung von Kapazitätsengpässen (36 %) bei. Die Lehre wird – so die Sicht der Hochschulen – folglich zwar
attraktiver, aber nicht weniger aufwändig oder personalintensiv. Kurzum: Reputation
statt Rendite, Qualität statt Rationalisierung – dies sind die vorherrschenden Motive für
E-Learning an Hochschulen im Jahr 2006.
161
100
90
77
80
63
70
60
60
56
50
37
40
36
31
30
30
20
10
0
Erhöhung der
ReputationsSteigerung des Erschließung neuer Erleichterung der
Einnahmen durch
Behebung von
Nutzung von
Zufriedenheit der
steigerung der Studienerfolgs durch
Zielgruppen
Lehre für die Kapazitätsengpässen Online-Angebote Kursen/ Inhalten
Studierenden
Hochschulen Qualitätsverbesserung
Dozenten
in der Weiterbildung anderer Anbieter
im Zuge der
durch bessere Services
der Lehre
Umstellung auf
Bachelor/ Masterstudiengänge
Abbildung 1: Welchen Stellenwert hat die mediengestützte Lehre konkret in Bezug auf
„typische“ Hochschulziele (in Prozent)?
Die hohe Wertschätzung der Hochschulen für den strategischen Nutzen neuer Medien in
der Hochschullehre korreliert jedoch nicht durchgängig mit den aktuell gebräuchlichen
Maßnahmen zur Förderung des E-Learning-Einsatzes. Bei diesen Anreizmechanismen
handelt es sich um Maßnahmen, die den Fakultäten oder Lehrenden ein Motiv für die
Nutzung von E-Teaching-Anwendungen bieten, um die E-Teaching- und E-LearningProduktivität and -Effektivität der Lehrenden und Studierenden zu erhöhen. An vielen
Hochschulen sind solche Anreizsysteme zur Gewinnung von Dozierenden für mediengestützte Lehrszenarien noch unterentwickelt. Akzeptanzdefizite für E-Teaching seitens
der Lehrenden ebenso wie inadäquate Anreizstrukturen verhindern häufig eine Optimierung der Hochschullehre durch Entwicklung geeigneter Online-Lehrmaterialien.
Im Folgenden werden ausgewählte Ergebnisse der „E-Readiness“-Studie im Hinblick
auf den Stellenwert mediengestützter Lehre dargestellt, um anschließend der Frage nach
geeigneten Anreizstrukturen für eine Intensivierung von E-Teaching nachzugehen.
Die Sicht der Hochschulleitungen auf die Bedeutung von E-Learning wird nicht von
allen Hochschullehrenden geteilt. Viele Dozierende sehen sich erheblichen Schwierigkeiten bei der Nutzung mediengestützter Lehrszenarien gegenüber. Häufig schreckt die
erforderliche Medienkompetenz für die Produktion von digitalem Content, die spezifisches Media-Authoring-Anwenderwissen voraussetzt, von der E-Teaching-Nutzung ab.
Die untergeordnete Bedeutung der Lehre innerhalb akademischer Laufbahnen (im Gegensatz zu Publizieren, Drittmitteleinwerbung etc.), das hohe Arbeitsaufkommen und
das Desinteresse der Lehrenden, die fehlende Vertrautheit mit den Mehrwerten von ETeaching, aufwändige Reformprozesse an den Hochschulen, nicht ausreichend entwickelte Supportinfrastrukturen, inadäquate didaktische, technische und finanzielle Unterstützung, ein Mangel an Dialogpartnern innerhalb der Fakultät etc. tragen zu einer
162
skeptischen Haltung gegenüber E-Teaching unter den Lehrenden bei. Da ein Anfangsinteresse an E-Teaching sich in der Regel nicht automatisch ergibt, ist der Rückgriff des
Hochschul-Managements auf effektive Anreizstrukturen und -programme von zentraler
Bedeutung, um die Nutzung von E-Teaching zu steigern (ohne dabei jedoch Druck auszuüben). In diesem Sinne wurden an den Hochschulen unterschiedliche Anreizsysteme
ins Leben gerufen. Im Zentrum dieses Beitrags stehen hochschulinterne E-TeachingAnreize. Externe Anreizmechanismen (z.B. Förderprogramme durch die Wissenschaftsministerien oder durch Stiftungen) werden in diesem Kontext außer Acht gelassen.
Gebräuchliche Anreize bestanden in den vergangenen Jahren in der finanzellen Förderung von E-Teaching (d.h. der Bereitstellung von hochschulischen Fördermitteln für die
Beschäftigung zusätzlicher Mitarbeiter, die Beschaffung spezifischer Soft- und Hardware, Bereitstellung des technischen Supports etc.), der Bereitstellung von Coachingund Trainingsangeboten oder von Assistenten für die Entwicklung von E-LearningModulen. Gegenwärtig trägt die Nutzung mehrschichtiger zielgruppenorientierter Supportinfrastrukturen und Services vielfach bereits zu einem aktiveren Engagement im
Bereich E-Teaching bei. Verschiedene Anreizmechanismen sollten dabei sinnvoll miteinander kombiniert werden, um deren Wirksamkeit zu steigern.
2
E-Teaching-Strategien und der Einfluss der Hochschulleitung
Maßnahmen zur Steigerung der Akzeptanz von mediengestützter Lehre und wirksame
Anreize für E-Teaching können von unterschiedlichen Statusgruppen an Hochschulen
umgesetzt werden, insbesondere von der Hochschulleitung, von Entscheidern in den
Fakultäten, E-Learning-Pionieren, weiteren Dozierende, den E-Learning-Dienstleistern
sowie von Studierenden. Nicht alle beteiligten Personen können jedoch direkt Einfluss
nehmen, und selbst die Hochschulleitung hat auf zahlreiche Anreizfaktoren (studentische
Nachfrage nach E-Teaching, gute Kursevaluationen etc.) keinen Einfluss.
Ungeachtet dessen übt die Hochschulleitung einen beträchtlichen Einfluss auf die Anreizgestaltung aus. Ohne einschlägige Entscheidungen der Hochschulleitung zugunsten
von mediengestützter Lehre werden Planer und Entwickler von medienbasierter Lehre
und E-Teaching-Pioniere Schwierigkeiten haben, die erforderliche Unterstützung in
Entscheidungsgremien zu erhalten. Wenn die Hochschulleitung die strategische Bedeutung des Themas für das Hochschulmarketing nicht aufgreift, werden die erforderlichen
Infrastrukturen und Ressourcen nicht bereitgestellt und dürfte manch ambitioniertes ELearning-Projekt langfristig wirkungslos bleiben.
Dies bestätigen die Ergebnisse einer Online-Befragung zum Thema „E-Learning aus
Sicht der Studierenden“, die die HIS GmbH 2004 gemeinsam mit dem DLR Projektträger Neue Medien in der Bildung und Fachinformation im Rahmen des HISBUS-Projekts
(Beteiligung von bundesweit 3.811 Studierenden) durchgeführt hat. In der Umfrage wurden Studierende nach geeigneten Maßnahmen für eine intensivere Nutzung von E-Learning gefragt. Betrachtet man die Antworten, die den vorgeschlagenen Maßnahmen einen
verstärkenden Einfluss zuerkennen („führt zu intensiverer E-Learning-Nutzung“ = Skalenwerte 1 und 2), so sind Hinweise der Lehrenden und der Hochschule (81 bzw. 75 %
163
der Antworten), die Verbesserung der inhaltlichen Qualität (74 %) sowie der Einsatz in
Pflichtveranstaltungen (72 %) die wirksamsten Maßnahmen [KWW05].
81
75
74
72
70
66
62
62
62
61
54
48
47
Hinweise der Lehrenden auf relevante Angebote
Hinweise der Hochschule auf relevante Angebote
Bessere inhaltliche Qualität
Nutzung in Pflichtveranstaltungen
Bessere und mehr Kommunikation und Kooperation
Günstigere private Internetanbindung
Günstiger Kauf/Miete von Notebook
Bessere technische Qualität von Angeboten
Integration in Studienplan
Bessere Online-Betreuung
Interaktion, Multimedia-Anteile
bessere Hardwareausstattung der Hochschule
bessere Softwareausstattung der Hochschule
Prüfungen über das Internet
Schulungen, Trainings
38
34
führt zu intensiverer
E-Learning-Nutzung
(Skalenwerte 1 + 2)
7
8
9
14
10
22
24
15
21
17
17
27
27
43
47
führt nicht zu intensiverer
E-Learning-Nutzung
(Skalenwerte 4 + 5)
Abbildung 2: Maßnahmen für intensivere E-Learning-Nutzung durch Studierende (in Prozent)
Mit Ausnahme des Einsatzes in Pflichtveranstaltungen sind diese Maßnahmen zugleich
diejenigen, deren Wirksamkeit von den wenigsten Antwortenden bestritten wird. Damit
zeigt sich erneut, dass die Nutzung von E-Learning stark durch die Lehrenden und das
Hochschulumfeld motiviert ist – und durch die Erwartung guter Qualität von Seiten der
Studierenden, d.h. durch Faktoren, die unmittelbar für das Studium und den Studienerfolg relevant sind. Die geringste Wirksamkeit hätten dagegen Schulungen und Trainings (34 % zustimmende, 47 % ablehnende Antworten), die von den Studierenden möglicherweise aufgrund des zusätzlichen Aufwands oder des mangelnden konkreten
Problembezugs eher abgelehnt werden, gefolgt von Online-Prüfungen mit 38 % positiven und 43 % negativen Antworten.
Angesichts der erheblichen Bedeutung, die die Studierenden des HISBUS-Panels den
Vermittlungsleistungen durch das Hochschulumfeld beimaßen, könnten geeignete Maßnahmen der Hochschulleitung zur E-Teaching-Förderung etwa darin bestehen,
den Wandel der akademischen Lehrkultur aktiv zu unterstützen (d.h. die Bedeutung
der Lehre im Hinblick auf das Selbstverständnis der Lehrenden stärken),
E-Teaching in Zielvereinbarungen mit den Fakultäten zu berücksichtigen (u.a. auch
als Auswahlkriterium in Berufungsverhandlungen einzubeziehen),
die Medienentwicklungsstrategie der Universität bekanntzumachen,
164
Personal und technische Ressourcen für die Medienentwicklung sowie
Mittel für ein E-Learning-Kompetenzzentrum bereitzustellen.
Im Allgemeinen sind zahlreiche innerhochschulische Anreizmechanismen (interne Programme zur E-Teaching-Förderung, Reduktionen der Lehrverpflichtung, Auszeichnungen für gute mediengestützte Lehre, Einrichtung von Hilfskraftpools für das Mediendesign, Vereinfachung des Prüfungswesens durch standardisierte Online-Prüfungs-Verfahren etc.) wesentlich von der Unterstützung des Hochschul-Managements abhängig.
3
Geeignete Maßnahmen zur Intensivierung von E-Teaching
Für einen Ausbau des E-Learning-Angebots an deutschen Hochschulen müssen vor
allem die Lehrenden gewonnen werden. Daher wurde den Hochschulen im Rahmen der
eingangs erwähnten E-Readiness-Erhebung 2006 die Frage vorgelegt, für wie geeignet
sie (auf einer fünfstufigen Skala) bestimmte Maßnahmen halten, um die Nutzung von ELearning durch die Lehrenden zu steigern:
100
94
95
88
90
85
82
78
80
76
77
75
75
70
65
60
Verbesserung der ITInfrastruktur
Bereitstellung einfach
Beratungs- und
zu bedienender
Trainingsangebote für
Software
Lehrende
Anrechnung von
Multimediaproduktion/
Online-Lehre auf das
Lehrdeputat
Bereitstellung
hochschuleigener
Fördergelder
Förderprogramme
Dritter
Aufnahme von ELearning in die
strategische Planung
der Hochschule
Abbildung 3: Eignung von Maßnahmen zur Steigerung der Nutzung von E-Learning durch die
Lehrenden (in Prozent)
Bei den Ergebnissen (vgl. Abb. 3)1 ist zu berücksichtigen, dass die Antworten Einschätzungen aus der Perspektive der Hochschulen bzw. der den Fragebogen bearbeitenden
Hochschulvertreter sind und nicht von den Lehrenden selbst stammen.
1
Für die Darstellung wurden die Merkmalsausprägungen „sehr geeignet“ und „geeignet“ herausgegriffen und
zusammengefasst.
165
Als wichtigsten Anreiz für eine verstärkte Nutzung von E-Learning durch die Lehrenden
sehen die Hochschulen die Bereitstellung einfach zu bedienender Software (Autorentools, Lernplattformen etc.). 94 % aller Einrichtungen sind dieser Auffassung. Die größte
Hürde für den Einsatz von E-Learning wird daher im Bereich der Softwareanwendung
gesehen. Offen bleibt dabei, ob die verfügbaren Systeme zu kompliziert sind oder ob die
Lehrenden über eine zu geringe Medienkompetenz verfügen. Für letzteren Grund
spricht, dass 88 % der Hochschulen der Auffassung sind, Trainings- und Beratungsangebote für Lehrende zu technischen und mediendidaktischen Fragen würden zu einem
verstärkten E-Learning-Einsatz führen, und sich „nur“ 76 % der Hochschulen diese Wirkung von der generellen Verbesserung ihrer IT-Infrastruktur (Netzwerk, WLAN, Arbeitsplatzrechner, CIP-Pools etc.) erhoffen. Daraus lässt sich schließen, dass die Hochschulen der Personalentwicklung bei der Implementierung von E-Learning einen großen
Stellenwert zuerkennen.
In der Reihe der geeigneten Maßnahmen folgt auf dem nächsten Platz die Aufnahme von
E-Learning in die strategische Planung der Hochschule – mit einer Zustimmungsrate von
82 %. Dies verdeutlicht, dass E-Learning einerseits inzwischen als ein strategisches
Instrument zur hochschulischen Aufgabenwahrnehmung gesehen wird, andererseits aber
auch einer Integration in die strategische Planung bedarf, um sich erfolgreich etablieren
zu können. Ein weiterer Faktor für eine Intensivierung mediengestützter Lehre ist die
Anrechnung von Leistungen in Multimedia-Produktion und Online-Lehre auf die Lehrverpflichtung, die 78 % der Hochschulen als wirksamen Anreiz betrachten.
Überraschen muss hingegen, dass Förderprogramme externer Geldgeber (Land, Bund,
EU etc.) von „nur“ 77 % der Hochschulen als motivierend angesehen werden. Zumindest
aufwändige E-Learning-Entwicklungen waren bislang ohne solche Drittmittel kaum
möglich. Die Gründe für dieses Votum bleiben spekulativ: einer könnte die Antizipation
des weiteren Rückgangs öffentlicher Fördermittel sein, ein anderer die Erfahrung, dass
Fördermittel allein eine nachhaltige Nutzung von E-Learning nicht gewährleisten konnten. Ähnliches könnte auch auf die hochschuleigenen Fördergelder zutreffen, die nach
Auskunft von „nur“ 75 % der Hochschulen zu mehr E-Teaching motivieren. Dies ist der
niedrigste Wert unter allen Maßnahmen: Bekanntlich ist das Geld insgesamt knapp.
Generell ist jedenfalls auffällig, dass nicht primär monetäre Anreize bei der Frage nach
geeigneten Maßnahmen zur Steigerung von E-Teaching in den Vordergrund gestellt
werden, sondern eher „weiche“ Faktoren wie Kompetenzentwicklung und strategische
Einbettung.
4
Anreizsysteme für E-Teaching in der Hochschulpraxis
Anhand der Priorisierung unterschiedlicher Anreizmechanismen sollen im Folgenden
unterschiedliche Maßnahmen skizziert werden, die in den vergangenen Jahren an den
Hochschulen ergriffen wurden, um die Fakultäten und Hochschulangehörigen zu erkennbaren und nachdrücklichen Beiträgen für eine Integration von IKT in Forschung, Hochschullehre und -verwaltung anzuregen. Die Darstellung konzentriert sich dabei auf vier
übergeordnete Bereiche von Anreizmechanismen: infrastrukturbezogene Anreize (einfach zu bedienende Software, Bereitstellung von Schulungsangeboten etc.), Aufnahme in
166
die strategische Planung der Hochschule und Reputationseffekte, Anrechnung auf die
Lehrverpflichtung und Reduktion von Workload sowie monetäre Anreize. Ausgewählte
Good-Practice-Beispiele beleuchten verschiedene Formen der Umsetzung.
4.1
Infrastrukturbezogene Anreize
Als zentrale Anreize für eine erfolgreiche E-Learning-Nutzung an den Hochschulen wies
die E-Readiness-Studie die „Bereitstellung einfach zu bedienender Software” (94 %)
sowie von „Beratungs- und Trainingsangebote für Lehrende” (88 %) aus (s. Abb. 3).
Ganz allgemein stellt die Verfügbarkeit von Infrastrukturen eine zentrale Voraussetzung
für die Akzeptanz von Online-Lehre dar. Da in der unmittelbaren Arbeitsumgebung
zahlreicher Dozierenden in der Regel nur begrenzte Kapazitäten und Fertigkeiten für die
Contentproduktion verfügbar sind, sind Beratungsangebote von E-LearningKompetenzzentren oder Weiterbildungseinrichtungen maßgeblich für die erfolgreiche
Medienkonzeption und -produktion. In Kooperation zwischen E-LearningKompetenzzentrum (falls vorhanden) und weiteren zentralen Einrichtungen oder aber
durch einen aus studentischen Hilfskräften bestehenden Servicepool erhalten Dozierende
individuelle Beratung bei der konzeptionellen, didaktischen und technischen Umsetzung
von Lerneinheiten, können Qualifizierungsangebote und Multiplikatorentrainings nutzen
oder sich bei der Öffentlichkeitsarbeit für Projekte unterstützen lassen etc.2
Die Koordinierungsstelle für Neue Medien der Universität Freiburg unterhält ein Medien-Team-Programm. Eine Gruppe von Studierenden wird am Rechenzentrum qualifiziert und mit spezieller Medienexpertise ausgestattet. Dozierende aller Fakultäten können diese Support- und Beratungsangebote in den Bereichen Autorentools, Contentproduktion, Bildbearbeitung, XML, Digitalisierung etc. anfordern. Da diese Medienproduktionsdienste durch Studierende auf der Basis von Arbeitsstunden abgerechnet
werden, entrichten die Einrichtungen bei Nutzung der Medien-Team-Dienste die üblichen Sätze für studentische Hilfskräfte. Nachdem die Studierenden einen gewissen Umfang an Stunden abgeleistet haben, können sie ein Zertifikat über ihre spezifische Beratungsexpertise erwerben. Die Universität Frankfurt a.M. offeriert ein vergleichbares
„Student Consulting”-Angebot. Auch die Studierenden des Frankfurter Supportpools
werden in verschiedenen Schwerpunktfeldern ausgebildet und auf stündlicher Basis
bezahlt (Stundensatz von etwa 15 Euro pro Assistent).
4.2
Aufnahme in die strategische Hochschulplanung und Reputationseffekte
82 % der Hochschulen sahen die „Aufnahme von E-Learning in die strategische Planung
der Hochschule” als entscheidenden Anreizfaktor an (s. Abb. 3). Zahlreiche Hochschulen versprechen sich von der E-Learning-Nutzung eine Reputationssteigerung. Diese
Reputationssteigerung von Hochschulen, Fakultäten und einzelnen Lehrenden kann auf
2
Gerade der internen Öffentlichkeitsarbeit für E-Teaching kommt erhebliche Bedeutung für die Vermittlung
der hochschulstrategischen Relevanz von E-Learning zu. Die Öffentlichkeitsarbeit sollte Meinungsführer an
der jeweiligen Hochschule einbeziehen und umfasst im einzelnen Aktivitäten wie die Veranstaltung von ETeaching-Informationstagen an den Fachbereichen, Multiplikatorenkursen und Tutorien, das Vorstellen von
medienbasierten Kursen auf einschlägigen E-Learning-Webseiten etc.
167
unterschiedlichen Wegen erfolgen, etwa durch die Einhaltung einschlägiger Zielvereinbarungen auf Fakultätsebene, durch Mindestanteile von E-Learning-Kursen im Curriculum, interne Benchmarkings zwischen Fakultäten, durch Medienberichterstattung über
exemplarische E-Teaching-Angebote oder durch exzellente Evaluationsergebnisse. Drei
reputationssteigernde Maßnahmen sollen exemplarisch dargestellt werden: Auszeichnungen und Qualitätssiegel für medienbasierte Lehre sowie E-Learning-Zertifikate.
Hochwertige E-Teaching-Module können mittlerweile für eine Vielzahl unterschiedlicher Lehrpreise vorgeschlagen werden. Neben renommierten internationalen Auszeichnungen (World Summit Award, EureleA, MedidaPrix etc.) schreiben mehrere deutsche
Institutionen3 eigene Auszeichnungen für digitale Lehre aus. An der Technischen Universität Darmstadt (TUD) existiert ein solcher Best E-Teaching Award seit dem Jahr
2004. Mit diesem E-Teaching Award, der mit einem aus Stiftungsmitteln gespeisten
jährlichen Preisgeld von 6.000 Euro dotiert ist, wird jährlich ein Hochschullehrer ausgezeichnet, der qualitativ hochwertiges E-Learning in der eigenen Lehre einsetzt.4
Während manche Universitäten medienbasierte und -angereicherte Kurse in Vorlesungsverzeichnissen durch ein Symbol grafisch hervorheben, stellen Gütesiegel für medienbasierte Lehre E-Learning-Angebote vielfach wirksamer heraus. Ein solches „Gütesiegel
für computergestützte Lernarrangements“ (GCL) wurde 2004 an der TUD entwickelt; es
stellt zugleich die Auswahlkriterien für den Best E-Teaching Award der TUD bereit. Das
GCL dient als Instrument der Qualitätssicherung und überprüft 130 Qualitätsskriterien
im Hinblick auf den Lerngegenstand, die Nutzerorientierung, technische Rahmenbedingungen und Wirtschaftlichkeit. Eine weitere breitangelegte Initiative zur Festlegung von
Qualitätsstandards für E-Learning geht von der Universität Duisburg-Essen aus („Qualitätsinitiative E-Learning in Deutschland“ QED).5
Ein hoher karrierebezogener Anreiz der Qualifizierung für Nachwuchs-Wissenschaftler
stellt der Erwerb eines E-Learning-Zertifikats dar, das die Aneignung ausgiebiger Handlungskompetenzen im Umgang mit neuen Medien in der Lehre dokumentiert. Solche ELearning-Zertifikate werden derzeit an den Universitäten Braunschweig (richtet sich als
Angebot des Kompetenzzentrums „Hochschuldidaktik für Niedersachsen“ an Lehrende
aller niedersächsischer Hochschulen), Potsdam (Modellprojekt „Weiterbildung zur/m
Online-Tutor/in“) und Frankfurt a.M. (steht Angehörigen hessischer Hochschulen und
Lehrern sowie weiteren Interessenten offen) angeboten.
3
Zu den deutschen E-Teaching Auszeichnungen zählen der Digita (TU Berlin, seit 1995), der Deutsche Multimedia Preis (DMMK, BVDW etc., seit 1996), der monatliche eLearning-Award (eLearning-Journal, seit
2005) etc.
4
Ähnliche Auszeichnungen existieren an der Universität Freiburg (Media Award, seit 2004), Charité Berlin
(eTeaching-Award, seit 2005), Universität Frankfurt (seit 2005), Universität des Saarlandes (Förderpreis “Neue
Medien in der Lehre”, seit 2004/05) und an der Technischen Universität München (TUM eLearning-Award,
seit 2006).
5
Eine ähnliche Initiative auf europäischer Ebene bildet die European Foundation for Quality in E-Learning
(EFQUEL) in Gestalt des Serviceportals www.qualityfoundation.org.
168
4.3
Anrechnung auf die Lehrverpflichtung und Reduktion von Workload
Die Anrechnung von Multimedia-Produktion und Online-Lehre auf das Lehrdeputat
wurde von 78 % der Hochschulen als wirksame Maßnahme zur Steigerung der Nutzung
von E-Learning durch die Lehrenden bezeichnet (s. Abb. 3). Die Reduktion der administrativen Aufgaben der akademischen Lehre (selbsttätige Kursregistrierung und Kurszulassung, Bewältigung einer gewachsenen Anzahl von Prüfungen, erleichterte Kursmodularisierung, Redundanz fester Sprechstundenzeiten, erleichterte Initiierung von
Netzwerken für Forschung und Lehre etc.) durch Einsatz von E-Learning-Systemen ist
selbst für E-Learning-skeptische Dozenten attraktiv. Solche Komfortaspekte überzeugen
Dozenten (selbst wenn diese an den didaktischen Möglichkeiten von E-Teaching kein
Interesse entwickeln) mitunter von einer Nutzung von E-Teaching-Systemen. Des Weiteren wird die Interoperabilität und sukzessive Integration von Hochschul-ManagementSystemen und von Lernplattformen (Synchronisierung von Studierendenverwaltungssoftware und E-Learning-Systemen, Single Sign-on or Single Login für die Dienste
von Rechenzentrum, Medienzentrum, Bibliothek etc.) einen positiven Einfluss auf die
Akzeptanz dieser Systeme ausüben.
Einige Länder wie Baden-Württemberg, Bayern und Sachsen-Anhalt bieten Dozenten,
die im Rahmen ihrer Lehre digitale Kursmodule erstellen, eine Reduktion der Lehrverpflichtung an. Eine 2001 veröffentlichte Änderung der bayerischen Lehrverpflichtungsverordnung sieht vor, dass Entwicklung und Betreuung digitaler Lernangebote mit bis zu
maximal 25 % der Lehrverpflichtung auf das Deputat angerechnet werden können. Da
jedoch im Falle der Inanspruchnahme dieser Regelung nicht automatisch Mittel für eine
Vertretung bereitgestellt werden, sind die Effekte dieser Anreizstruktur begrenzt.
4.4
Monetäre Anreize
Die finanzielle Förderung von E-Teaching-Aktivitäten bildet einen starken Anreiz, der
sich auf die an den Fakultäten vorhandenen Kenntnisse zur Integration von IKT in die
Lehre und Wissenschaft unmittelbar auswirkt. Die Mehrzahl der Anreize für E-Teaching
enthält monetäre Elemente in der einen oder anderen Form. Zwei Formen von monetären
Anreizen werden im Folgenden ausgiebiger dargestellt: Projektförderung und Einnahmen aus der Contentvermarktung.
Projektförderung
Auch wenn „nur” 77 % der Hochschulen „Förderprogramme Dritter” und nur 75 % die
„Bereitstellung hochschuleigener Fördergelder” als geeignete Maßnahmen zur Steigerung der Nutzung von E-Learning durch die Lehrenden betrachteten (s. Abb. 3), haben
doch in vergangenen Jahren diverse Förderprogramme des Bundes und der Länder die ELearning-Entwicklung bundesweit erheblich forciert. Durch diese Programme standen
den Hochschulen mehrere hundert Millionen Euro für E-Teaching zur Verfügung. Einige
Hochschulen boten oder bieten ergänzend interne Förderprogramme an (oder erweiterten
bestehende Fonds zur Förderung der Qualität der Lehre). Die Freie Universität Berlin
(FU) schreibt seit 2002 ein FU-internes Programm zur Förderung von E-LearningProjekten aus, das der Stärkung der Nachhaltigkeit bereits existierender und erfolgrei-
169
cher E-Learning-Initiativen durch ergänzende Unterstützung oder der Produktion neuen
Contents dient. Die Förderung soll bis 2009 fortgeführt werden; die Fördermittel belaufen sich gegenwärtig auf jährlich 300.000 Euro.
Weitere hochschulinterne Fördermaßnahmen – vielfach geringeren Umfangs – wurden
unter anderem an der Humboldt-Universität zu Berlin (Multimedia-Förderprogramm),
den Universitäten Dortmund (eLearning plus 05-Programm), Frankfurt (eLearningFond-Ausschreibung), Kassel (Projektwettbewerb), Stuttgart (Campus-online education),
an der Universität des Saarlandes (Anreizorientierung E-Learning) und an den Technischen Universitäten Darmstadt (TUD-Online) und Dresden (Beteiligung an der SMWKAusschreibung „E-Learning”) aufgesetzt oder administriert.
Einnahmen aus der Contentvermarktung
Die hohen Erwartungen, die sich vor wenigen Jahren auf die Generierung von Einnahmen aus der Vermarktung von E-Learning Content richteten, sind mittlerweile abgeflacht. Nurmehr 31 % der Hochschulen rechnen künftig mit signifikanten „Einnahmen
durch Online-Angebote in der Weiterbildung” (s. Abb. 1). Unter den verschiedenen
Geschäftsmodellen für E-Learning (vgl. [BrHo05, KW05]) floriert gegenwärtig vor
allem die Vermarktung von postgradualen internetbasierten Weiterbildungs-Studiengängen in beschränktem Umfang. Mehrere Online-Weiterbildungsstudiengänge vorrangig aus den Bereichen Informationssysteme (Master of Science in Information Systems,
WinfoLine; International Master of Business Informatics, Virtual Global University;
etc.), neue Medien (Master of Arts in Educational Media, Universität Duisburg-Essen;
Master of Science in Multimedia and Computer Science, onCampus GmbH etc.) sowie
eine wachsende Anzahl von MBA-Programmen und Studienangeboten in weiteren Bereichen sind derzeit bereits verfügbar.
Die Vermarktung von Internet-basierten Wissensressourcen unterhalb der Studiengangsebene (Kurse mit ECTS-Kreditpunkten, Zertifikatskurse etc.) ist aufgrund des
unterentwickelten Weiterbildungsbereichs an den Hochschulen, des starken Wettbewerbsdrucks durch kommerzielle Anbieter und der mangelnden Nachfrageorientierung
in der Hochschullehre bislang weniger stark entwickelt. Auch Peer-to-peer Contenttransfer und -sharing innerhalb von Dozentennetzwerken ist noch kaum verbreitet.
Häufig begegnen Hochschulen den grundlegenden Herausforderungen der Vermarktung
von Online-Content, der an den Hochschulen entwickelt wurde, nicht angemessen und
sind diese nicht auf nachfrageorientierte Vermarktungsprozesse ausgerichtet. Zudem
wirkt sich der Mangel geeigneter Infrastrukturen wie Vermarktungs- und Transferagenturen oder von Vertriebsportalen für Marketing und Distribution von Online-Weiterbildungs-Angeboten nachteilig aus.
5
Perspektiven
Die exemplarisch aufgeführten Anreizstrukturen und -maßnahmen der Hochschulen
unterlagen aufgrund der wechselnden Verfügbarkeit von Fördermitteln einem kontinuierlichen Wandel. Da der Zenit der öffentlichen Förderprogramme für die Unter-
170
stützung von E-Teaching überschritten und die Haushaltslage der Hochschulen klamm
ist, kommt gegenwärtig – gerade aus Sicht der Hochschulleitungen – nicht-monetären
Anreizmechanismen maßgebliche Bedeutung zu. Während Förderprogramme die Verbreitung und Kompetenz im Hinblick auf E-Learning signifikant gesteigert haben, sind
nunmehr komplementär ressourcenbasierte Anreize, Publizitäts- und Aufmerksamkeitsmechanismen sowie die Bekanntmachung von Möglichkeiten zur Workload-Reduktion
wichtige Faktoren für die Akzeptanzsteigerung für E-Learning. Auch sind die Möglichkeiten der Unterstützung von Lehrenden durch E-Learning-Support-Teams und der Bereitstellung von Beratungs- und Trainingsangeboten für die Produktion von Lehrmedien
bei Weitem nicht ausgeschöpft.
Wenig bekannt ist bislang über die tatsächliche Wirkung der geschilderten Anreize. Um
Anreize zielführend gestalten zu können, wären künftig daher Studien sinnvoll, die sowohl die Anreizwirkung einzelner Maßnahmen aus Sicht der Dozenten erheben als auch
die Korrelationen zwischen einzelnen Maßnahmen und der Einstellung der Hochschulmitglieder zu E-Learning sowie zu der Entwicklung des E-Learning-Angebots selbst
ermitteln müssten. Da den Ergebnissen der E-Readiness-Studie zufolge bevorzugt „weiche“ Faktoren wie Kompetenzentwicklung und strategische Einbettung zur Steigerung
von E-Teaching herangezogen werden, sind Hochschulleitungen grundsätzlich aber gut
beraten, künftig erstens die Bedeutung von E-Learning im Rahmen der strategischen
Hochschulplanung noch stärker als bislang bekannt zu machen und zweitens die ETeaching-Rahmenbedingungen durch die Verknüpfung der Bereitstellung einfach zu bedienender Software mit ausgiebigen Beratungs- und Trainingsangeboten für Lehrende
(bis hin zum Einsatz von Change Agents für die Lehre) so umzugestalten, dass demotivierende Faktoren, die von der E-Teaching-Nutzung abhalten, zumindest reduziert
werden.
Literaturverzeichnis
[BH05] Breitner, M.H.; Hoppe, G.: E-Learning. Einsatzkonzepte und Geschäftsmodelle. Physica,
Heidelberg 2005.
[He06] Heesen, B.: Diffusion of Innovations. Factors Predicting the Use of E-Learning at Institutions of Higher Education in Germany. dissertation.de, Berlin 2006.
[Je06] Jentzsch, D.: Anreizinstrumente der TU Dresden zur Nutzung von eLearning. In: Lattemann, C. & Köhler, T. (Hrsg.): Multimediale Bildungstechnologien. Multimediale Technologien. Multimedia im E-Business und in der Bildung. Frankfurt a. M. u. a. 2006.
[Ke05] Kerres, K.; Euler, D.; Seufert, S.; Hasanbegovic, J. et.al.: Lehrkompetenz für eLearningInnovationen in der Hochschule. Ergebnisse einer explorativen Studie zu Maßnahmen
der Entwicklung von eLehrkompetenz. St. Gallen 2005.
[KW05] Kleimann, B.; Wannemacher, K.: Geschäftsmodelle für E-Learning. Konzepte und Beispiele aus der Hochschulpraxis. In: Tavangarian, D., Nölting, K. (Hrsg.): Auf zu neuen
Ufern! E-Learning heute und morgen. Münster 2005. S. 187-196.
[KWW05] Kleimann, B.; Weber, S.; Willige, J. (2005): E-Learning aus Sicht der Studierenden.
HISBUS-Kurzbericht Nr. 10. HIS, Hannover 2005.
[Sa06] Sandrock, J.: System Dynamics in der strategischen Planung. Zur Gestaltung von Geschäftsmodellen im E-Learning. Deutscher Universitäts-Verlag, Wiesbaden 2006.
171
172
Fourth Party E-Learning-Provider –
Ein Koordinationsansatz zur nachhaltigen Etablierung
von E-Learning an einer Massenuniversität
Harald Kolbe, Alexander Nikolopoulos
Professur für Information Systems Engineering
Johann Wolfgang Goethe Universität Frankfurt am Main
Mertonstr. 17
60325 Frankfurt
{kolbe, nikolopo}@ wiwi.uni-frankfurt.de
Abtract: Die nachhaltige Etablierung von Neuen Medien in der universitären
Ausbildung gilt als ein vorrangiges Ziel in der gegenwärtigen E-LearningDiskussion. Dem Aspekt der Nachhaltigkeit wird nun verstärkt Aufmerksamkeit
geschenkt, weil E-Learning-Angebote häufig nicht weitergeführt werden, nachdem
Fördergelder auslaufen oder Lehrende die Organisation verlassen. In der Literatur
wurden verschiedene Erfolgsfaktoren für eine nachhaltige Etablierung identifiziert.
Als besonders bedeutsam wird die Existenz einer so genannten „E-LearningKoordinationsstelle“ angesehen, die sich vor allem organisatorischen Aufgaben
widmet. Diese Erkenntnis steht im Widerspruch zu den Ergebnissen, die in Unternehmensstudien gewonnen wurden, in denen den organisatorischen Aspekten verhältnismäßig wenig Bedeutung zugemessen wird. In diesem Beitrag wird mithilfe
eines organisationstheoretischen Modells anhand der Situation an einer deutschen
Massenuniversität gezeigt, warum die Existenz von Koordinationsstellen in dezentralen Organisationen erforderlich ist. Das verwendete Viable System Model eignet
sich insbesondere dazu, Organisationsstrukturen und Kommunikationsbeziehungen
zu untersuchen. Basierend auf dieser Analyse wird ein dezentraler Koordinationsansatz motiviert und daraus die Aufgaben eines „Fourth Party E-LearningProviders“ abgeleitet.
1
Einleitung
Zur qualitativen Verbesserung der universitären Lehre insbesondere in Massenveranstaltungen eignen sich E-Learning-Angebote1 in besonderem Maße [GNH06]. Allerdings
fehlt häufig eine zentrale Strategie, so dass E-Learning-Angebote nur in Eigeninitiative
einiger Lehrender eingesetzt werden. Somit kommt es zu keiner flächendeckenden Bereitstellung der Angebote. Darüber hinaus werden die Angebote häufig nicht weiterge1
Der E-Learning Begriff ist in der Literatur nicht einheitlich definiert. Zahlreiche unterschiedliche Lehrformen
werden unter diesem „modernen“ Begriff zusammengefasst. In dieser Arbeit wird auf die sehr allgemeine
Definition von Wesp zurückgegriffen, der unter dem Begriff E-Learning alle Lehr- und Lernformen versteht,
bei denen ein Bildschirmarbeitsplatz benötigt wird [We03].
173
führt, nachdem Lehrende die Organisation verlassen haben. Die Sicherung der Nachhaltigkeit der Angebote stellt daher eines der obersten Ziele bei der Implementierung neuer
Angebote dar [SM03]. In aktuellen Förderprojekten und Förderausschreibungen wird
deshalb besondere Aufmerksamkeit auf den Aspekt der Nachhaltigkeit gelegt.
Zur Beurteilung der nachhaltigen Implementierung von E-Learning-Angeboten schlagen
Euler und Seufert [Se06, SE03] ein Dimensionssystem vor, das die unterschiedlichen
Aspekte der Nachhaltigkeit abbildet. Sie vertreten die Ansicht, dass fünf Dimensionen
(technische, didaktische, ökonomische, sozio-kulturelle und organisatorische Dimension) berücksichtigt werden müssen, um eine nachhaltige Verankerung der Angebote
sicherstellen zu können. Eine Studie des Swiss Center for Innovations in Learning aus
dem Jahr 2006 kommt zu dem Ergebnis, dass die organisatorische Dimension in zentral
strukturierten Unternehmen eine eher untergeordnete Rolle spielt [DSE06]. In dezentralen Organisationen wie einer Universität kommt diesem Aspekt allerdings eine große
Bedeutung zu. Insbesondere die hohe organisatorische Komplexität an einer Universität
– hervorgerufen durch die Vielzahl der Dozenten sowie Lehrveranstaltungen und Studierenden – erfordert eine besondere Berücksichtigung der organisatorischen Dimension.
Sowohl die nahezu autonomen Fachbereiche als auch die jeweiligen Professuren und
schließlich eine Vielzahl an möglichen E-Learning-Initiativen führen zu einer Komplexität, die explizit adressiert werden muss.
In unterschiedlichen Studien [SES04, We06] wurde die Existenz einer E-LearningKoordinationsstelle als wichtiger Erfolgsfaktor der Nachhaltigkeit von E-LearningAngeboten ermittelt. Eine Begründung, warum diese Koordinationsstelle notwendig ist,
wird allerdings in der Regel nicht gegeben. Der vorliegende Beitrag beantwortet die
Frage, wann und warum die Einrichtung einer E-Learning-Koordinationsstelle notwendig ist, um eine nachhaltige Implementierung von E-Learning-Angeboten in der universitären Lehre sicher zu stellen.
Hierzu werden zunächst die in der Literatur ermittelten und diskutierten Erfolgsfaktoren
einer nachhaltigen E-Learning-Implementierung dargestellt, zu denen auch die Einrichtung einer Koordinationsstelle zählt. Anschließend werden mithilfe eines organisationstheoretischen Modells die universitären Organisationsstrukturen sowie die zwischen den
einzelnen Organisationseinheiten bestehenden Informationsflüsse am Beispiel der Johann Wolfgang Goethe-Universität Frankfurt am Main (JWG-Universität) identifiziert,
dokumentiert und analysiert. Im Anschluss lässt sich daraus ableiten, warum und in
welcher Form die Einrichtung einer E-Learning-Koordinationsstelle sinnvoll ist.
Schließlich wird ein innovativer Koordinationsansatz zur nachhaltigen Etablierung von
E-Learning-Angeboten an einer Massenuniversität skizziert.
2
Erfolgsfaktoren einer nachhaltigen E-Learning-Implementierung
Die Frage nach den Faktoren einer nachhaltigen Verankerung der E-Learning-Angebote
in der universitären Ausbildung nimmt in der gegenwärtigen Diskussion einen bedeutenden Rang ein [Eu06, Ow06, We06]. Bei der Implementierung von Informationssystemen
allgemein, als welche sich E-Learning-Angebote ebenfalls auffassen lassen, ist die Un-
174
terstützung durch das Top-Management einer der Haupt-Erfolgsfaktoren [JI91, KZ87,
LD88, PSZ01, SY03]. Für die Implementierung von E-Learning-Angeboten in der universitären Lehre bedeutet dies, dass die Hochschulleitung hinter den Angeboten stehen
muss und die Implementierung aktiv unterstützen muss [Ow06]. Ein hochschulweiter
Entwicklungsplan sowie verbindliche Zielvorgaben tragen dazu bei, den Einsatz Neuer
Medien in der Lehre voran zu treiben [We06].
Besonders während der initialen Implementierung erfordern Neue Medien in der Lehre
einen beträchtlichen finanziellen und personellen Mehraufwand. Neben den Investitionen in die erforderliche Infrastruktur stellt vor allem der Aufwand für die Erstellung
multimedialer Angebote einen beträchtlichen Kostenblock dar [EGS02]. Darüber hinaus
verursacht die Betreuung der angebotenen Kurse auch während ihrer Laufzeit kontinuierlich Personalkosten. Somit stellen verfügbare finanzielle Mittel und personelle Ressourcen einen weiteren Erfolgsfaktor dar.
Als Enabler des E-Learnings gilt eine absolut zuverlässige technische Infrastruktur. Des
weiteren erfordern die eingesetzten Technologien eine stärkere Motivation der Studierenden, als dies bei konventionellen Medien notwendig ist [De02]. Zur Anregung der
Motivation, die als wesentlicher Erfolgsfaktor des Lernens gilt, werden in der Literatur
unterschiedliche Modelle (z. B. ARCS-Modell [Ke83], Time-Continuum-Ansatz [Wl78],
Ansatz der Supermotivation [Spi96]) vorgeschlagen. Je nach berücksichtigtem Ansatz
erfordert die Motivation der Studierenden unterschiedliche Maßnahmen.
Als weiterer wichtiger Faktor, der den erfolgreichen Einsatz Neuer Medien in der Lehre
determiniert, gilt die Motivation der Lehrenden [Ha00, Ow06, SBH01, We06]. Hagner
und darauf aufbauend auch Seufert unterscheiden vier Typen von Lehrenden, die sich
hinsichtlich ihrer Innovationsbereitschaft unterscheiden: Unternehmer, Risikovermeider,
Karriereorientierte und Widerstrebende [Eu06, Ha01]. Entsprechend müssen die Dozenten unterschiedlich zum Einsatz der Neuen Medien motiviert werden. Während die Unternehmer hauptsächlich intrinsisch motiviert sind und die Angebote in Eigeninitiative
einsetzen, benötigen die Vertreter der anderen Typen externe Motivatoren und in der
Regel umfangreiche Beratungsleistungen.
Eine zentrale E-Learning-Koordinationsstelle gilt ebenfalls als erfolgsentscheidend
[SBH01, We06]. Je größer die betrachtete Hochschule bzw. der betrachtete Fachbereich
ist, desto bedeutsamer ist die Existenz einer zentralen E-Learning-Koordinationsstelle
[We06]. Dieses Ergebnis deckt sich mit der in diesem Beitrag vertretenen Annahme,
dass insbesondere in großen und dezentralen Organisationen der organisatorische Aufwand bei der Implementierung von E-Learning-Angeboten unverhältnismäßig hoch ist.
Die von der Koordinationsstelle übernommenen Aufgaben können unterschiedlicher
Natur sein: Sie reichen von der Vermittlung bereits bestehender Angebote bis hin zu
kompletten Beratungsangeboten über den gesamten Zeitraum des E-Learning-Einsatzes.
Die Unterstützung der Lehrenden wird ebenfalls als Aufgabe der Koordinationsstelle
genannt [SES04].
175
3
Das Viable System Model
Um die universitäre Organisationsstruktur sowie die zwischen den einzelnen Organisationseinheiten bestehenden Informationsflüsse identifizieren, dokumentieren und analysieren zu können, wird in diesem Beitrag auf das von Beer entwickelte und auf der Systemtheorie basierende Modell des Lebensfähigen Systems, das Viable System Model
(VSM), zurückgegriffen. Als Metamodell konzipiert, identifiziert das VSM die Lenkungsaufgaben und Informationsflüsse, die es einem System ermöglichen, in einer beliebig komplexen Umwelt einen gewünschten Zustand auf unbestimmte Zeit aufrechterhalten und somit seine Lebensfähigkeit sichern zu können [Be79].
Das VSM basiert auf der Kybernetik, einer Denkrichtung der Systemtheorie. Die Kybernetik versucht „Lösungen für die Probleme der Lenkung und Informationsverarbeitung
von und in [...] dynamischen Systemen zu entwickeln“ [Ba83]. Ausgangspunkt der kybernetischen Bemühungen ist seit jeher die Komplexität von Systemen sowie die Möglichkeiten zu ihrer Beherrschung [Ho99]. Als Maß für die Komplexität eignet sich nach
Ashby der Begriff der Varietät. Die Varietät eines dynamischen Systems bezeichnet die
Anzahl der möglichen Zustände, die es annehmen kann [As64, Be85]. Als eine der wichtigsten Erkenntnisse der Kybernetik ist das von Ashby auf diesem Komplexitätsmaß
formulierte Gesetz der erforderlichen Varietät zu sehen: „Only variety can destroy variety“ [As64]. Es besagt, dass die Varietät eines Systems nur beherrscht werden kann, wenn
es gelingt, zu seiner Beherrschung ebenso hohe Varietät zu erzeugen. Das durch das
VSM abgebildete System ist über so genannte Varietätshemmer mit der umgebenden
Umwelt verbunden. Hierdurch wird eine Informationsüberlastung des Systems verhindert. Zur Reaktion auf Änderungen der Umwelt existieren im Umkehrschluss Varietätsverstärker. Die Gestaltung der Varietätshemmer und -verstärker zählt zu den wichtigsten
Aufgaben des Managements. Weiterhin liegt dem Modell das Prinzip der Rekursivität
zugrunde. Dieses besagt, dass sich die Struktur des VSM in seinen Teilen wiederholt:
Jede Stufe einer Organisation stellt eine Rekursionsstufe ihres Super-Systems dar
[Be79].
Das VSM besteht aus fünf miteinander agierenden Komponenten bzw. Sub-Systemen
und Informationskanälen zwischen den Sub-Systemen:
System 1: Auf jeder Rekursionsstufe des VSM stellen die Divisionen eine Gruppierung
aller Operationen und Aktivitäten dar, die der Erbringung eines Leistungspakets dienen.
Jede Division wird von einer Management-Einheit gelenkt und ist mit der divisionalen
Umwelt verbunden. Alle Divisionen sowie alle den Divisionen assoziierten Management-Einheiten einer Rekursionsstufe formen System 1.
System 2: Zur Koordination der Aktionen der einzelnen Divisionen des System 1 wird
ein übergeordneter Mechanismus benötigt. Dieser wird durch das System 2 bereitgestellt, das aus diesem Grund auch als interdivisionales Management bezeichnet wird.
Ohne System 2 käme es zu unkontrollierten Schwingungen bzw. Oszillationen im Verhalten der Divisionen, da jede einzelne ihre Aktionen immer nur ad hoc an die Aktionen
der übrigen Divisionen anpassen würde. System 2 bietet eine Informationsplattform in
Form eines Informationsnetzwerks und eines Divisionskoordinationszentrums. Allein
176
durch die Abstimmung der einzelnen Divisionen über das System 2 kann ein Großteil
der denkbaren Konflikte umgangen werden, ohne die Autonomie der Divisionen einzuschränken. Zusätzlich agiert das Divisionskoordinationszentrum als Informationsfilter
für System 3.
System 3: Zur Sicherstellung der Lebensfähigkeit des Gesamtsystems koordiniert System 3 aktiv die Aktionen des System 1. Es sorgt für eine optimale Allokation der Ressourcen und überwacht den Ressourcenverbrauch der Divisionen. Hierzu existiert ein
Kommunikationskanal zum Divisionskoordinationszentrum. Weiterhin besteht ein direkter Kanal zu den Management-Einheiten der System 1-Divisionen. Diese so genannte
zentrale Befehlsachse stellt darüber hinaus eine Verbindung zu System 4 und 5 dar. Da
das System 3 die Schnittstelle zwischen den operativen Systemen einer Organisation und
dem Metasystem – bestehend aus den Systemen 3 bis 5 – bildet, stellt es gewissermaßen
das Machtzentrum der jeweiligen Organisation dar.
System 3*: Über den so genannten Audit-Kanal – das System 3* – besteht ein zusätzlicher Informationskanal direkt zwischen System 3 und den operationalen Einheiten der
System 1 Divisionen. Es findet keine Informationsfilterung durch die Divisionsleitungen
oder das System 2 statt.
Systeme 4: Da das System 3 keine Informationsverbindung zur Umwelt hat, wird zusätzlich System 4 benötigt, das diese Verbindung herstellt. Hierdurch werden die Koordinationsaktivitäten auch auf Änderungen der Umwelt abgestimmt. Gleichzeitig plant das
System 4 die zukünftige Entwicklung der Organisation, wofür ebenfalls ein Abgleich mit
den Änderungen der Umwelt notwendig ist.
System 5: Das normative Management schließlich, das die Normen und Werte der Organisation vorgibt, ist in System 5 zu finden. Es sorgt für eine kontinuierliche Entwicklung
der Organisation, indem es die Koordinationsaktivitäten zwischen System 3 und System
4 beeinflusst und so verhindert, dass es hier zu Oszillationen kommt.
4
4.1
Modellierung der JWG-Universität mit Hilfe des VSM
Überblick über die JWG-Universität
Die 1914 gegründete JWG-Universität zählt mit ca. 35.000 Studierenden zu den größten
Hochschulen Deutschlands. Die in 16 Fachbereichen organisierten ca. 600 Professoren
unterrichten an vier über das Stadtgebiet Frankfurt verteilten Standorten. Neben der
Größe ist der hohe Anteil an internationalen Studierenden eine weitere Besonderheit, der
in Frankfurt bei ca. 10% liegt.2 Aus der großen Anzahl der Studierenden, sowie der
räumlichen Verteilung der Standorte ergeben sich Probleme, die unter anderem durch
den Einsatz Neuer Medien in der Lehre gemildert werden sollen [GNH06]. Zur Unterstützung des breiteren Einsatzes Neuer Medien wurde die E-Learning-Strategie der Universität (studiumdigitale) formuliert, die im Rahmen des durch das Bundesministerium
2
http://www.uni-frankfurt.de/ueber/fakten/index.html
177
für Bildung und Forschung (BMBF) geförderten Projekts „megadigitale“ umgesetzt
wird. Zentraler Bestandteil der Strategie ist ein top-down-/bottom-up-Vorgehen, das
besagt, dass die jeweiligen Fachbereiche eigene spezifische Konzepte zur Etablierung
der Neuen Medien erarbeiten, während sie gleichzeitig zentral beraten und durch ein
zentrales mediendidaktisches Zentrum unterstützt werden [Br06].
4.2
Erste Rekursionsstufe: Die JWG-Universität
Die Organisation der Universität kann mithilfe des VSM dargestellt werden, um das
Zusammenspiel der unterschiedlichen Akteure und die Informationsflüsse zwischen
ihnen bei der Umsetzung der E-Learning-Strategie aufzuzeigen. Das betrachtete System
(system in focus) repräsentiert hierbei die Gesamtuniversität und wird in Abbildung 1
dargestellt. Es gilt zu beachten, dass die Organisation im Zusammenhang mit der Umsetzung der E-Learning-Strategie untersucht wird, wodurch die unterschiedlichen Rollen
und Systeme determiniert werden. Alternative Zuordnungen sind in unterschiedlichen
Zusammenhängen denkbar und wahrscheinlich.
Als operative Einheiten, die sich mit der Umsetzung der E-Learning-Strategie befassen,
lassen sich die einzelnen Fachbereiche (System EINS) identifizieren, die die Verbindung
zu der umgebenden Umwelt herstellen, in diesem Fall hauptsächlich die Studierenden
eines Fachbereichs. Die zentrale Befehlsachse ist nur rudimentär vorhanden, hierdurch
drückt sich die Autonomie der Fachbereiche bei der Umsetzung der Strategie aus. Eine
zentrale Weisungsinstanz, die die Strategie verbindlich vorgibt, existiert nicht. Lediglich
über die Ausschreibung und Bewilligung von Fördermitteln besteht eine Möglichkeit,
die Aktionen der Fachbereiche zentral zu steuern. Aus Gründen der Übersichtlichkeit
werden in Abbildung 1 lediglich drei Fachbereiche berücksichtigt.
Über ein Informationsnetzwerk (System ZWEI) kommunizieren die Fachbereiche sowohl untereinander als auch mit den steuernden Instanzen. Um diese Kommunikation zu
unterstützen, die in erster Linie dem Erfahrungsaustausch dient, finden monatliche Jour
Fixes statt. Hier werden neue Erkenntnisse und Ergebnisse berichtet sowie Probleme
kommuniziert und diskutiert. Zusätzlich wurde ein Informationssystem (BSCW-Server)
eingerichtet, das den Informationsaustausch ebenfalls unterstützt. Interessierte Dozenten
werden darüber hinaus über einen regelmäßigen Newsletter auf dem Laufenden gehalten. Schließlich wurden Arbeitskreise gebildet, in denen Vertreter der verschiedenen
Fachbereiche zusammen arbeiten und Erkenntnisse zum Einsatz Neuer Medien in der
Lehre austauschen. Über dieses Informationsnetzwerk läuft der Hauptteil der Kommunikation ab, da weitere Informationskanäle, wie die zentrale Befehlsachse, nur unzureichend ausgeprägt sind. Das beschriebene Informationsnetzwerk wird insbesondere vom
megadigitale-Kernteam betreut, das aus der Projektleitung sowie aus Mitarbeitern des
Kompetenzzentrums Neue Medien in der Lehre besteht. Es ist insofern ebenfalls Teil des
Systems ZWEI. Das Kompetenzzentrum wurde bereits vor dem Start des Projektes eingerichtet und soll den Einsatz Neuer Medien in der Lehre vorantreiben. Daher werden
vor allem Schulungen und Beratungen zu technischen und pädagogischen Aspekten
sowie zu allgemeinen Fragen zum Einsatz der Neuen Medien in der Lehre angeboten.
178
Projektmanagement
FÜNF
- Teilnahme an Tagungen
- Akquise von Fördergeldern
- Veröffentlichung der Projektergebnisse
- Kommunikation mit Projektträger
Umwelt
megadigitale
Kernteam
VIER
Umwelt und Zukunft
Projektleitung
Kompetenzzentrum für Neue Medien
- Evaluation der
Fachbereichsprojekte
Studierende
FB01
DREI
Evaluation
Collegium
studiumdigitale
DREI *
ZWEI
Zentrale Befehlsachse
E IN
- E- Learning Förderfond
- Anträge
- Zuweisung Projektmittel
S
16 Fachbereiche
5
FB0
1
3*
4
Informationsnetzwerk
3
- monatlicher Jour Fixe
- halbjährliche Netzwerktage
2
-
xxx
O1
Studierende
FB02
1
...
...
O
BSCW -Server
monatlicher Newsletter
zentrale Projektdatenbank
Projektwebsite
Univis
x
z. B. Fach bere ich süber greife nde
Lehr veran staltung en
x
E IN
S
5
3*
FB0
2
-
Fachbereichsrat
Dekanat
Fachschaft
Mittelbau
4
- Studiendekan
3
O
1
Pr
o fe
ss
ur
- Dekanat
- Fachbereichsrat
2
en
1
Studierende
FB03
-
.. .
...
O4
2
E- Learning Koordinationsstelle
Informationsveranstaltungen
Newsletter
Mailings
42
ON
E
I NE
S
5
3*
FB
03
4
Operationale Einheit
3
Management Einheit
2
xx
x
O1
1
...
UNTERSUCHTES SYSTEM
JWG Universität Frankfurt
...
:
Ox
x
Systeme der ersten Rekursionsstufe
:
EINS, ZWEI , DREI , DREI *, VIER , FÜNF
Systeme der zweiten Rekursionsstufe
1, 2, 3, 3* , 4, 5
:
Abbildung 1: Zwei Rekursionsstufen des VSM der JWG-Universität
Das „collegium studiumdigitale“ plant, steuert und kontrolliert die Aktionen der einzelnen Fachbereiche (System DREI). Das „collegium studiumdigitale“ wurde vom Präsidium der Universität eingerichtet, um die Fachbereiche an der Strategieentwicklung und
179
-umsetzung zu beteiligen [Br06]. Im „collegium studiumdigitale“, das in regelmäßigen
Abständen tagt, befinden sich daher führende E-Learning-Akteure der beteiligten Fachbereiche. Die Entscheidungen werden hierbei hauptsächlich auf der Basis der Informationen getroffen, die durch das Informationsnetzwerk (System ZWEI) übermittelt werden.
Die getroffenen Entscheidungen werden anschließend über das Informationsnetzwerk an
die einzelnen Fachbereiche übermittelt.
Sämtliche Fachbereichsprojekte werden durch Mitglieder des „collegium studiumdigitale“ nach festen Kriterien evaluiert. Die Evaluationen finden in der Regel am Ende der
Projektlaufzeit statt, in Ausnahmefällen auch während der Projektlaufzeit. Die übermittelte Informationsmenge ist jedoch aufgrund der recht seltenen Evaluationen begrenzt.
Über dieses zusätzliche Informationsnetzwerk (System DREI*) wird das „collegium
studiumdigitale“ über den Stand der Fachbereichsprojekte informiert.
Die Anbindung des Projektmanagements an die umgebende Umwelt wird über die Projektleitung (System VIER) hergestellt. Sowohl die Kommunikation mit dem Projektträger, in diesem Fall das BMBF, als auch die Außendarstellung auf Messen und Kongressen werden von System VIER übernommen.
Die normative Projektentwicklung wird von allen Mitgliedern des megadigitaleKernteams wahrgenommen (System FÜNF). Sie achten auf die Einhaltung der langfristigen Projektentwicklung, die bereits im ursprünglichen Projektantrag skizziert wurde.
Hierzu wird insbesondere in die Kommunikation zwischen System DREI und VIER
eingegriffen, sollte die Entwicklung zu stark von den ursprünglichen Projektzielen abweichen.
4.3
Zweite Rekursionsstufe: Der Fachbereich Wirtschaftwissenschaft
Auf der zweiten Rekursionsstufe stehen die einzelnen Fachbereiche der JWG-Universität
im Vordergrund. Im Rahmen der folgenden Analyse wird exemplarisch der Fachbereich
Wirtschaftswissenschaften (FB02) untersucht (fett markiert in Abbildung 1). Der FB02
stellt einen der größten Fachbereiche der JWG-Universität dar und setzt sich aus über 42
Professuren für Betriebswirtschaftslehre und Volkswirtschaftslehre zusammen. Die
Professuren sind thematisch in verschiedenen Abteilungen organisiert und bilden insgesamt über 4200 Studierende aus. Jedes Semester immatrikulieren sich ca. 300 Studienanfänger in den im Wintersemester 05/06 gegründeten Bachelor-Studiengang (Bachelor of
Science in Wirtschaftswissenschaften).
Aus Sicht des VSM stellen die Professuren des FB02 die operativen Einheiten dar (System 1). Neben dem Dekanat, das den Fachbereich leitet, werden die zentralen Entscheidungsprozesse im Fachbereich durch die Gremien Fachbereichsrat, Prüfungsausschuss
und Promotionsausschuss getragen (System 3). Der Studiendekan (System 4) – als Bestandteil des Dekanats – erarbeitet u. a. Vorschläge für die Planung und Durchführung
des Studienangebots und zur Wahrnehmung der Studienfachberatung. Er steht somit in
enger Verbindung mit den Studierenden des FB02. Darüber hinaus wird System 4 vom
Fachbereichsrat repräsentiert, der die strategische Entwicklung des Fachbereichs wahrnimmt. Durch ihn wurden bspw. die neuen Bachelor- und Masterstudiengänge beschlos-
180
sen. Als normatives Management (System 5) können sowohl die oben genannten Gremien als auch der Mittelbau sowie die Fachschaft angesehen werden. Sie formulieren die
Vision des Fachbereichs und determinieren somit die langfristige Entwicklung des Fachbereichs.
Ebenso wie auf Rekursionsstufe 1 kommt der zentralen Befehlsachse bezüglich der ELearning-Implementierung nur ein geringer Stellenwert zu. Die Professuren handeln
weitestgehend autonom und bestehen auf ihre Unabhängigkeit. Zur Koordination der ELearning-Aktivitäten am FB02 wurde daher im Oktober 2006 eine E-LearningKoordinationsstelle eingerichtet, die in engem Kontakt zum megadigitale-Kernteam
sowie zu den Koordinationsstellen der anderen Fachbereiche steht. Über die E-LearningKoordinationsstelle werden einerseits die Angebote des Kernteams durch Informationsveranstaltungen, Newsletter, Mailings und persönliche Gespräche an die Professuren
kommuniziert (top-down). Andererseits werden individuelle E-Learning-Aktivitäten am
FB02 an die Professuren, an die anderen Fachbereiche sowie an das Kernteam vermittelt
(bottom-up). Diese Informationskanäle und die Koordinationsstelle bilden System 2.
Ihnen kommt für eine nachhaltige Implementierung von E-Learning-Angeboten eine
große Bedeutung zu.
4.4
Die Koordinationsstelle als Steuerungsinstrument für eine nachhaltige Implementierung von E-Learning-Angeboten
Die vorangegangene Analyse zeigt, dass der Koordinationsstelle als Steuerungsinstrument bei der Umsetzung einer universitätsweiten E-Learning-Strategie eine besondere
Bedeutung zukommt. Insbesondere bei staatlichen Massenuniversitäten lässt sich eine
dezentrale Organisationsstruktur – determiniert durch die Autonomie der Fachbereiche
bzw. Professuren – feststellen. Aus Sicht des vorgestellten organisationstheoretischen
Modells ist deshalb auf beiden Rekursionsstufen ein gut ausgeprägtes System 2 erforderlich. Darüber hinaus ist die enge Verknüpfung zwischen den fachbereichseigenen Koordinationsstellen und der zentralen universitätsweiten Koordinationsstelle von besonderer
Wichtigkeit. Durch diesen Kommunikationskanal können die Schwächen der zentralen
Befehlsachsen sowie der Audit-Kanäle (System 3*) ausgeglichen werden.
Für eine nachhaltige Implementierung von E-Learning-Angeboten müssen auf Universitätsebene (Rekursionsstufe 1) einerseits die unterschiedlichen Rahmenbedingungen in
den einzelnen Fachbereichen berücksichtigt werden und andererseits die Fachbereichsinitiativen effektiv aufeinander abgestimmt werden. Diese Aufgaben werden von dem
beschriebenen Kompetenzzentrum, das als zentrale universitätsweite Koordinationsstelle
fungiert, wahrgenommen. Auf Fachbereichsebene (Rekursionsstufe 2) wird eine Koordinationsstelle eingesetzt, die die Dozenten über andere Initiativen informiert und beim
Einsatz Neuer Medien in der Lehre beratend zur Seite steht sowie technische Unterstützung anbietet. Darüber hinaus muss die Koordinationsstelle dafür sorgen, dass die Erkenntnisse der Einzelinitiativen nicht mit dem Ausscheiden der Mitarbeiter aus der Organisation verloren gehen.
181
5
Fourth Party E-Learning-Provider
Für das dezentrale Koordinationsproblem wird im Folgenden ein Lösungsansatz vorgeschlagen, der sich an das Konzept der Fourth Party Logistics anlehnt [NB02]. Hierbei
handelt es sich um einen Ansatz aus dem Bereich der Logistik, bei dem ein Dienstleister
Unternehmen bei der Planung und Koordination diverser Logistikprozesse unterstützt.
Als eine Art Hub koordiniert er Zulieferer und Abnehmer sowie weitere notwendige
Dienstleister. Hierzu setzt er neben dem notwendigen Know-how eigene Informationssysteme ein, mit dessen Hilfe die Prozesse unterstützt werden. Für den vorliegenden Fall
der nachhaltigen E-Learning-Implementierung in Organisationen mit dezentralem Charakter wird in Analogie an die Logistik ein Fourth Party E-Learning-Provider vorgeschlagen und dessen Aufgaben und Funktionen skizziert. Er übernimmt sämtliche Koordinationsaufgaben sowie die Beratung und Motivation aller an der Etablierung Neuer
Medien beteiligten Akteure.
Im Fall der E-Learning-Koordinationsstelle gilt es vor allem die bereits erwähnten Erfolgsfaktoren einer nachhaltigen Implementierung zu unterstützen. In erster Linie richtet
sich das Beratungsangebot daher an die Dozenten, die die Neuen Medien einsetzen wollen. Die Koordinationsstelle vermittelt – wie in Abbildung 2 dargestellt – zwischen den
Anbietern technischer Infrastruktur, didaktischer und rechtlicher Beratung sowie potentieller Content- und Tool-Anbieter einerseits und den Dozenten andererseits. Für den
einzelnen Dozenten ist es aufgrund des äußerst heterogenen Marktes für E-Learning
Anbieter häufig nicht möglich, eigenständig die geeigneten Anbieter auszuwählen. Der
Fourth Party E-Learning-Provider kann und soll daher dem Dozenten basierend auf den
bisher gesammelten Erfahrungen die entsprechenden Anbieter vermitteln. Weitere eigene Angebote wie beispielsweise organisatorische Beratung sowie Hilfestellungen bei
technischen Angelegenheiten oder bei der Evaluation der Lehre werden ebenfalls durch
den Fourth Party E-Learning-Provider bereitgestellt. Darüber hinaus kann der Fourth
Party E-Learning-Provider dafür sorgen, dass die Erkenntnisse der Einzelinitiativen nicht
mit dem Ausscheiden der Mitarbeiter aus der Organisation verloren gehen.
Didaktische
Beratung
Content - und Tool Anbieter
Infrastruktur
Rechtliche
Beratung
Evaluation
Organisatorische
Beratung
Dozenten
Fourth Party ELearning Provider
Dozenten
Dozenten
Weitere
Dienstleistungen
Dozenten
Abbildung 2: Aufgaben eines Fourth Party E-Learning-Providers
182
6
Zusammenfassung und Ausblick
Auf der Suche nach den Erfolgsfaktoren der nachhaltigen Etablierung von E-Learning in
der universitären Lehre zeichnet sich in der relevanten Literatur u. a. der Einsatz einer
Koordinationsstelle ab. Eine Begründung, warum diese Koordinationsstelle notwendig
ist, wird allerdings nicht gegeben. Der vorliegende Beitrag widmet sich dieser Fragestellung. Dafür wurden die Organisationsstrukturen sowie die Informationskanäle zwischen
den einzelnen Organisationseinheiten einer Massenuniversität identifiziert, dokumentiert
und analysiert. Am Beispiel der JWG-Universität konnte gezeigt werden, dass insbesondere an Massenuniversitäten die zentrale Befehlsachse schwach ausgeprägt ist, da Fachbereiche sowie die einzelnen Professuren autonom handeln. Mit Hilfe des Viable System
Modell konnte gezeigt werden, wie durch den Einsatz von Koordinationsstellen sowohl
auf Universitätsebene als auch in den jeweiligen Fachbereichen der von der Universitätsleitung entwickelte top-down-/bottom-up-Ansatz zur nachhaltigen Etablierung von Neuen Medien in der Lehre implementiert werden konnte. Schließlich wurde in Analogie zur
Fourth Party Logistik ein Koordinationsansatz vorgestellt, durch den die Aufgaben der
Koordinationsstellen konkretisiert werden.
Weiterer Forschungsbedarf besteht für die Frage, ob der hier vorgestellte Fourth Party ELearning-Provider sein Dienstleistungsangebot auch nach außen verkaufen kann. Hierzu
ist die Entwicklung eines Geschäftsmodells notwendig.
Danksagung
Wir danken den Gutachtern für die wertvollen inhaltlichen Anregungen zu unserem
Beitrag. Diese Arbeit entstand im Rahmen des vom Bundesministerium für Bildung und
Forschung geförderten Projekts megadigitale (Förderkennzeichen: 01PI05017).
Literaturverzeichnis
[As64]
[Ba83]
Ashby, W.R.: An Introduction to Cybernetics. University Paperbacks, London, 1964.
Baetge, J.: Kybernetische Kontrollsysteme. Kybernetik und Management: Ein Roundtable-Gespräch. Berlin, 1983, S. 31-58.
[Be79] Beer, S.: The heart of enterprise. John Wiley & Sons, New York, 1979.
[Be85] Beer, S.: Diagnosing the System for Organizations. John Wiley & Sons, New York,
1985.
[Br06] Bremer, C.: megadigitale - Hochschulweite Umsetzung einer eLearning-Strategie. In:
Tagungsband des 10. Workshops "Multimedia in Bildung und Weiterbildung", 14-15.
Sept. 2006 an der Technischen Universität Ilmenau, 2006.
[De02] Deimann, M.: Motivationale Bedingungen beim Lernen mit Neuen Medien. In: Medienunterstütztes Lernen-Beiträge von der WissPro Wintertagung, 2002, S. 61-70.
[DSE06] Diesner, I., Seufert, S., Euler, D.: SCIL-Trendstudie - Herausforderungen für das Bildungsmanagement. In: SCIL-Arbeitsbericht 9, 2006.
[EGS02] Encarnacao, J.-L., Guddat, H., Schnainer, M.: Die Hochschule auf dem Weg ins ELearning Zeitalter. In: Bentlage, U. (Hrsg.): E-Learning: Märkte, Geschäftsmodelle, Perspektiven. Bertelsmann-Stiftung, Gütersloh, 2002.
183
[Eu06]
Euler, D., et al.: Handbuch der Kompetenzentwicklung für E-Learning Innovationen;
Eine Handlungsorientierung für innovative Bildungsarbeit in der Hochschule. Bern,
2006.
[GNH06] Grüne, M., Nikolopoulos, A., Holten, R.: Der Einsatz von E-Learning-Technologien an
einer Massenuniversität. In: Proc. der MKWI 2006; Teilkonferenz: E(lectronic)-Learning
– Technologiebasiertes Lehren und Lernen. Springer-Verlag, Berlin, 2006.
[Ha00] Hagner, P.R.: Faculty Engagement and Support in the New Learning Environment. Vol.
35, 2000, S. 27–36.
[Ha01] Hagner, P.R.: Interesting practices and best systems in faculty engagement and support.
In: NLII White Paper, 2001.
[Ho99] Holten, R.: Entwicklung von Führungsinformationssystemen - Ein methodenorientierter
Ansatz. Wirtschaftswissenschaftliche Fakultät. Westfälische Wilhelms-Universität
Münster, Münster, 1999.
[JI91]
Jarvenpaa, S.L., Ives, B.: Executive Involvement and Participation in the Management of
Information Technology. In: MIS Quarterly 15, 1991, S. 205-227.
[Ke83] Keller, J.M.: Motivational design of instruction. Reigeluth, C.M. (Hrsg.): Instructional
design theories and models: An overview of their current status. Erlbaum, Hillsdale, N.J.,
1983, S. 386-434.
[KZ87] Kwon, T.H., Zmud, R.W.: Unifying the fragmented models of information systems
implementation. Critical issues in information systems research John Wiley & Sons,
New York, USA, 1987, S. 227-251.
[LD88] Leonard-Barton, D., Deschamps, I.: Managerial Influence in the Implementation of New
Technology. In: Management Science 34, 1988, S. 1252-1265.
[NB02] Nissen, V., Bothe, M.: Fourth Party Logistics – Ein Überblick. In: Logistik Management,
Nr 1, 2002, S. 16-26.
[Ow06] Owston, R.D.: Contextual factors that sustain innovative pedagogical practice using
technology: An international study. In: Proceedings of AREA 2004, San Diego, 2006.
[PSZ01] Purvis, R.L., Sambamurthy, V., Zmud, R.W.: The Assimilation of Knowledge Platforms
in Organizations: An Empirical Investigation. In: Organization Science 12, 2001, S. 117135.
[SBH01] Seufert, S., Back, A., Häusler, M.: E-Learning: Weiterbildung im Internet, Das"PlatoCookbook" für internetbasiertes Lernen. 2001.
[SE03] Seufert, S., Euler, D.: Nachhaltigkeit von eLearning-Innovationen. In: SCILArbeitsbericht 1, 2003.
[Se06] Seufert, S.: Sustainability of eLearning Innovations. 2004.
[SES04] Schönwald, I., Euler, D., Seufert, S.: Supportstrukturen zur Förderung einer innovativen
eLearning-Organisation an Hochschulen. Swiss Center for Innovations in Learning, St.
Gallen, 2004.
[SM03] Seufert, S., Miller, D.: Nachhaltigkeit von eLearning-Innovationen: Von der Pionierphase zur nachhaltigen Implementierung. In: Medienpädagogik, 2003.
[Spi96] Spitzer, D.R.: Motivation: The Neglected Factor in Instructional Design. In: Educational
Technology 36, 1996, S. p45-49.
[SY03] Sharma, R., Yetton, P.: The Contingent Effects of Management Support and Task Interdependence on Successful Information Systems Implementation. In: MIS Quarterly 27,
2003, S. 533-555.
[We03] Wesp, D.: Warum erfolgreiches E-Learning so selten ist – Thesen und Erfahrungen. In:
Apel, H./Kraft, S.(2003)(Hrsg.): Online lehren – Planung und Gestaltung netzbasierter
Weiterbildung. Bielefeld: Bertelsmann Verlag, 2003, S. 177-195.
[We06] Werner, B.: Status des E-Learning an deutschen Hochschulen. In: www.e-teaching.org,
2006.
[Wl78] Wlodkowski, R.J.: Motivation and Teaching: A Practical Guide. NEA Distribution Center, West Haven, 1978.
184
Interoperabilität von elektronischen Tests
Michael Piotrowski, Wolfram Fenske
Otto-von-Guericke-Universität Magdeburg
Institut für Wissens- und Sprachverarbeitung
Postfach 4120
39016 Magdeburg
mxp@iws.cs.uni-magdeburg.de
Abstract: Die Erstellung qualitativ hochwertiger Tests ist aufwändig. Daher ist es
wünschenswert, einmal erstellte Tests wieder- und weiterverwenden zu können. Um
eine Abhängigkeit von einer einzelnen Testplattform zu vermeiden, werden standardisierte Austauschformate benötigt. In diesem Beitrag formulieren wir Desiderata für
derartige Formate und untersuchen den derzeitigen De-Facto-Standard, die IMS Question & Test Interoperability Specification (QTI), auf seine Eignung. Das erklärte Ziel
von QTI ist es, den Austausch von Tests zwischen verschiedenen Systemen zu ermöglichen. Nach der Analyse der Spezifikation und aufgrund unserer Erfahrungen bei der
Implementierung von QTI im System „ECQuiz“ kommen wir zu dem Schluss, dass
QTI jedoch als Austauschformat ungeeignet ist.
1 Einleitung
Formative Tests tragen entscheidend zur kontinuierlichen Verfolgung des Lernprozesses
bei. Webbasierte objektive1 Tests (wie Multiple-Choice-Tests) sind in diesem Zusammenhang besonders nützlich, da sie schnell und häufig durchgeführt und zeitlich und räumlich
flexibel eingesetzt werden können.
Die Erstellung qualitativ hochwertiger Tests ist jedoch aufwändig. Schon alleine aufgrund
des damit verbundenen zeitlichen und personellen Aufwands ist es wünschenswert, dass
einmal erstellte Tests wieder- und weiterverwendbar bleiben. Dies gilt sowohl für den Fall,
dass sich die verwendete Testplattform ändert als auch für den Austausch mit anderen
Lehrenden.
Um dies zu ermöglichen, wird ein Austauschformat benötigt, also eine Repräsentation
von Tests, die von verschiedenen Systemen geschrieben und gelesen werden kann. Im
Kontext von Tests handelt es sich bei den Systemen üblicherweise um Lernplattformen mit
integrierten Testmöglichkeiten (z. B. Blackboard, ILIAS, Moodle, OLAT oder WebCT)
oder um eigenständige Testsysteme (z. B. Hot Potatoes, Questionmark Perception oder
Test Pilot).
1 Im Sinne der Testtheorie, d. h., Antwortalternativen sind eindeutig richtig oder falsch (vgl. [LR98]) und somit
automatisch überprüfbar.
185
In diesem Beitrag gehen wir zunächst auf einige Aspekte ein, die unseres Erachtens für den
Austausch von Tests relevant sind und definieren Anforderungen an Austauschformate für
Tests. Wir berichten über unsere Erfahrungen mit der IMS Question & Test Interoperability
Specification (QTI) in dem von uns entwickelten System „ECQuiz“. Es folgt eine kritische
Betrachtung von QTI.
2 Desiderata für Austauschformate
Ob ein (direkter) Datenaustausch zwischen Systemen möglich ist, hängt zunächst davon
ab, ob es ein gemeinsames Datenformat gibt. Das alleine ist aber in der Praxis leider noch
keine Garantie für einen reibungslosen Datenaustausch. Vielmehr hängt die Zuverlässigkeit des Austauschs fast unmittelbar von der Spezifikation des Austauschformats ab. Ist
das Austauschformat unzureichend spezifiziert, ist es möglich – und sogar wahrscheinlich
–, dass es von verschiedenen Entwicklern auf verschiedene Weise interpretiert und implementiert wird; auch wenn alle Varianten dabei prinzipiell der Spezifikation entsprechen,
kann ein Datenaustausch dennoch unmöglich sein.
Weiterhin kann man davon ausgehen, dass mit der Komplexität der Spezifikation auch
die Zahl der Fehler in den Implementierungen wächst. Schreibt oder liest ein System das
Austauschformat nicht korrekt, ist es wiederum wahrscheinlich, dass der Datenaustausch
gar nicht oder nur fehlerhaft funktioniert. Dabei ist die Situation, dass ein Datenaustausch
zwar stattfindet, die Daten aber z. B. vom Zielsystem nicht richtig interpretiert werden,
potentiell gefährlicher, als wenn der Datenaustausch von vornherein nicht möglich ist: Die
dabei entstehenden Fehler können lange unentdeckt bleiben und im Falle von Tests etwa
zu einer falschen Bewertung der Kandidaten führen.
Formale Definition
Aus diesen Überlegungen ergeben sich eine Reihe von Anforderungen an Austauschformate für Tests. Zunächst sollten sich Standards – oder als solche intendierte Spezifikationen – soweit wie möglich auf bereits vorhandene Standards stützen. Im Bereich von
Datenformaten bedeutet dies heutzutage die Verwendung von XML [Wo06]. Auf diese
Weise kann die Spezifikation des eigentlichen Austauschformats kompakt gehalten werden und es kann bei der Implementierung auf bereits vorhandene und insbesondere bereits
getestete Werkzeuge zurückgegriffen werden.
Die Verwendung von XML in einer Spezfikation ist jedoch nur dann sinnvoll, wenn auch
eine formale Definition in einer Schemasprache (Relax NG [ISO03] oder W3C XML
Schema [Wo04]) erfolgt. Die Möglichkeiten der Schemasprachen sollten dabei voll ausgeschöpft werden, um die Konformität möglichst weitgehend bereits durch einen XMLParser sicherstellen zu können; natürlichsprachliche Einschränkungen und Anforderungen, sind dagegen weit schwerer automatisch zu überprüfen, somit fehlerträchtig und sollten daher vermieden werden. Durch ein Schema wird die Syntax beschrieben. Für eine
Implementierung, die das Format schreiben oder lesen soll, muss darüberhinaus auch die
186
Semantik, also die Bedeutung der einzelnen Elemente, genau spezifiziert sein, so dass
Tests auch tatsächlich in der vom Ersteller intendierten Form übertragen werden.
Trennung von Inhalt und Form
Beim Austausch und bei der Wiederverwendung von Tests gibt es verschiedene Szenarien.
In manchen Fällen sollen Tests vollständig übernommen werden, während in anderen Fällen z. B. nur einzelne Fragen aus einem Test oder einer Aufgabensammlung („item bank“)
in einen anderen Test integriert werden sollen. Daher ist es wichtig, die verschiedenen
Aspekte von Tests – insbesondere Inhalt, Erscheinungsbild und Verhalten – klar voneinander zu trennen, so dass etwa der Austausch von Inhalten nicht dadurch behindert wird,
dass Inhalt und Erscheinungsbild miteinander vermischt sind.
Umfang
Um vollständige Tests mit allen ihren Eigenschaften austauschen zu können, erscheint
es zunächst wünschenswert, dass ein Austauschformat die gesamte Funktionalität aller
Systeme abbilden kann. Bei näherer Betrachtung wird jedoch klar, dass diese Anforderung
illusorisch ist: Zu vielfältig und zu verschieden sind die Möglichkeiten von Testsystemen,
wobei kein System alle Testtypen und Auswertungsfunktionen unterstützt.
Daher sollte sich ein Austauschformat zunächst auf einen relativ kleinen Kern von Testund Fragetypen beschränken; weitere Typen können in späteren Versionen standardisiert
werden, wenn klar ist, welche Beschreibungsmöglichkeiten in der Praxis tatsächlich benötigt werden. Die Aufnahme von optional zu implementierenden Teilen oder mehrerer
Alternativen für eine Funktion ist dagegen zu vermeiden, da sich gezeigt hat, dass dies die
Entwicklung interoperabler Implementierungen stark behindert. 2
Langlebigkeit
Schließlich sollte ein Austauschformat langlebig sein, d. h., im Austauschformat beschriebene Tests sollten über einen möglichst langen Zeitraum verarbeitbar bleiben. Zur Korrektur von Fehlern und zur Erweiterung der Beschreibungsmöglichkeiten werden immer
wieder neue Revisionen des Formats notwendig sein. Hierbei sollte jedoch soweit wie
möglich vermieden werden, dass neue Revisionen zu Problemen beim Datenaustausch
führen.
2 Ein gutes Beispiel dafür sind SGML und XML. SGML enthält eine Vielzahl optionaler Teile: Trotz des nunmehr 20jährigen Bestehens von SGML gibt es bisher keinen Parser, der den Standard vollständig implementiert.
XML ist eine Untermenge von SGML, bei der auf alle optionalen Teile verzichtet wurde: In kürzester Zeit waren
eine große Zahl von konformen und interoperablen Implementierungen verfügbar und XML fand eine praktisch
universelle Verbreitung.
187
3 IMS QTI: Überblick
Für die Beschreibung von Multiple-Choice-Tests und verwandten Testtypen ist die IMS
Question & Test Interoperability Specification (QTI) [IMS05] zur Zeit die einzige öffentliche, von einer Implementierung unabhängige Spezifikation. Darüberhinaus kann das
IMS-Konsortium im E-Learning-Bereich als De-Facto-Standardisierungsinstanz betrachtet werden.
QTI beschreibt ein Datenmodell und eine XML-Repräsentation für die Kodierung von
Testfragen (sog. „assessment items“) bzw. Tests. Das erklärte Ziel der Spezifikation ist es,
den Austausch dieser Daten zwischen Autorenwerkzeugen, Aufgabensammlungen, Lernplattformen und Testsystemen zu ermöglichen; QTI ist also als Austauschformat gedacht.
QTI Version 1.0 wurde im Jahr 2000 veröffentlicht und mehrfach überarbeitet. Wenn bei
Systemen „Unterstützung für QTI“ angegeben ist (beispielsweise bei Respondus, WebCT
oder OLAT), ist in den meisten Fällen damit eine Version von QTI 1.x gemeint. Eine kurze
Beschreibung von QTI 1.0 durch Mitglieder der QTI-Arbeitsgruppe bietet [SR00].
Im Einsatz zeigten sich jedoch grundsätzliche Mängel in QTI 1.x, so dass die QTI-Arbeitsgruppe einen kompletten Neuentwurf für nötig erachtete. Dieser Neuentwurf ist die Version 2.0, die 2005 veröffentlicht wurde. Entgegen den Zusagen weitgehender Kompatibilität
durch IMS – „software that is compliant with the V1.0 DTD will be able to import V2.0
Items providing it ignores the optional tags“ [SR00] – verwendet QTI 2.0 ein grundsätzlich anderes Modell und eine vollkommen andere XML-Struktur und ist mit QTI 1.x nicht
kompatibel. Darüberhinaus deckt QTI 2.0 nicht alle Bereiche ab, die in QTI 1.x verfügbar waren; so können etwa mit QTI 2.0 nur einzelne Items, aber keine kompletten Tests
beschrieben werden. Im Folgenden gehen wir auf QTI 2.0 ein; dies ist z. Z. die neueste
offizielle Version der Spezifikation.
Die QTI-Spezifikation besteht aus mehreren Teilen. Im Teil „Information Model“ wird
zunächst ein abstraktes Datenmodell beschrieben. Hier wird beispielsweise behandelt,
was eine Frage ist und über welche Attribute sie verfügt. Das „XML Binding“ definiert
dann eine Abbildung dieses Modells in eine konkrete XML-Repräsentation. Für die XMLRepräsentation werden ein W3C XML Schema und eine DTD definiert. Die weiteren Teile
der Spezifikation beschäftigen sich mit verschiedenen Teilaspekten und geben Hinweise
zur Implementierung und Nutzung von QTI.
Das grundlegende Element von QTI 2.0 ist das Item, also eine Frage mit den dazugehörigen Antwortmöglichkeiten. Für die Auszeichnung des Iteminhalts wird dabei eine Untermenge von XHTML verwendet, die um testspezifische Elemente ergänzt wird.
Abbildung 1 zeigt ein einfaches Beispiel für ein in QTI 2.0 kodiertes Item, in dem eine
Multiple-Choice-Frage mit Mehrfachwahl definiert wird. Das Element <itemBody> enthält dabei die eigentliche Frage (Element <prompt>) und die Antwortmöglichkeiten. Da
der Kandidat mit den Antworten „interagieren“ kann, wird dieser Teil in QTI als „Interaction“ bezeichnet. Im Beispiel soll eine Auswahl getroffen werden, daher wird das Element
<choiceInteraction> verwendet, das in den <simpleChoice>-Elementen die Antwortmöglichkeiten enthält. Welche der Antwortmöglichkeiten korrekt sind, wird im Element <correctResponse> am Anfang der Datei festgelegt.
188
❁❄①♠❧ ✈❡rs✐♦♥❂✧✶✳✵✧❄❃
❁✦❉❖❈❚❨P❊ ❛ss❡ss♠❡♥t■t❡♠ ❙❨❙❚❊▼ ✧✐♠sqt✐❴✈✷♣✵✳❞t❞✧❃
❁❛ss❡ss♠❡♥t■t❡♠ ✐❞❡♥t✐❢✐❡r❂✧❊❳✶✧ t✐t❧❡❂✧❋♦r♠❡❧✲✶✧
❛❞❛♣t✐✈❡❂✧❢❛❧s❡✧ t✐♠❡❉❡♣❡♥❞❡♥t❂✧❢❛❧s❡✧❃
❁r❡s♣♦♥s❡❉❡❝❧❛r❛t✐♦♥ ✐❞❡♥t✐❢✐❡r❂✧❘✲❊❳✷✧ ❝❛r❞✐♥❛❧✐t②❂✧♠✉❧t✐♣❧❡✧❃
❁❝♦rr❡❝t❘❡s♣♦♥s❡❃
❁✈❛❧✉❡❃❝❤♦✐❝❡✶❁✴✈❛❧✉❡❃
❁✈❛❧✉❡❃❝❤♦✐❝❡✷❁✴✈❛❧✉❡❃
❁✴❝♦rr❡❝t❘❡s♣♦♥s❡❃
❁✴r❡s♣♦♥s❡❉❡❝❧❛r❛t✐♦♥❃
❁✐t❡♠❇♦❞②❃
❁❝❤♦✐❝❡■♥t❡r❛❝t✐♦♥ r❡s♣♦♥s❡■❞❡♥t✐❢✐❡r❂✧❘✲❊❳✷✧
s❤✉❢❢❧❡❂✧tr✉❡✧ ♠❛①❈❤♦✐❝❡s❂✧✵✧❃
❁♣r♦♠♣t❃■♥ ✇❡❧❝❤❡♥ ❏❛❤r❡♥ ✇✉r❞❡ ▼✐❝❤❛❡❧ ❙❝❤✉♠❛❝❤❡r
❋♦r♠❡❧✲✶✲❲❡❧t♠❡✐st❡r❄❁✴♣r♦♠♣t❃
❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✶✧❃✶✾✾✹❁✴s✐♠♣❧❡❈❤♦✐❝❡❃
❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✷✧❃✷✵✵✵❁✴s✐♠♣❧❡❈❤♦✐❝❡❃
❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✸✧❃✷✵✵✻❁✴s✐♠♣❧❡❈❤♦✐❝❡❃
❁✴❝❤♦✐❝❡■♥t❡r❛❝t✐♦♥❃
❁✴✐t❡♠❇♦❞②❃
❁✴❛ss❡ss♠❡♥t■t❡♠❃
Abbildung 1: Einfaches Beispiel für eine QTI-2.0-Datei
4 Beispiel: QTI 2.0 in „ECQuiz“
„ECQuiz“3 [PR05] ist ein Modul der von uns entwickelten eduComponents [RPA07], das
die Integration von Multiple-Choice-Tests in das freie Content-Management-System Plone4 ermöglicht. Für den Import und Export von Tests haben wir in „ECQuiz“ eine Untermenge von QTI 2.0 implementiert und dabei Erfahrungen mit diesem Standard gesammelt,
die die Grundlage für diesen Artikel bilden. Wir beschreiben im Folgenden den konkreten
Einsatz von QTI in „ECQuiz“ und unsere Erfahrungen bei der Implementierung.
Da es zu Beginn der Entwicklung bereits konkrete Anforderungen gab, welche Funktionen
„ECQuiz“ bereitstellen sollte, war unser Ansatz, zuerst die benötigte Funktionalität mittels
eines geeigneten Modells zu implementieren und diese dann für den Import und Export auf
QTI 2.0 abzubilden.
Das kleinste Element im Modell von „ECQuiz“ ist eine Frage. „ECQuiz“ bietet z. Z. zwei
grundsätzliche Fragetypen: Multiple-Choice-Fragen, bei denen die Kandidaten aus mehreren Antwortmöglichkeiten auswählen müssen, und Textfragen, bei denen eine freie Antwort formuliert werden muss. Mehrere Fragen, die sich z. B. auf dieselbe Textpassage
oder dasselbe Bild beziehen oder anderweitig inhaltlich verwandt sind, können in einer
Fragegruppe zusammengefasst werden. Der gemeinsame Inhalt wird in den sogenannten
„Bearbeitungshinweisen“ der Fragegruppe abgelegt, vgl. Abb. 2. Mehrere Fragen und Fra3
4
Frühere Versionen hießen „LlsMultipleChoice“.
❤tt♣✿✴✴✇✇✇✳♣❧♦♥❡✳♦r❣✴
189
Abbildung 2: Beispiel eines Tests (hier in der Ergebnisansicht) in „ECQuiz“ mit Fragegruppen (➊
und ➋) und den dazugehörigen Bearbeitungshinweisen (➌ und ➍).
gegruppen bilden schließlich einen Test. Analog zu den Fragegruppen können auch für den
Test als ganzes Bearbeitungshinweise gegeben werden.
Für „ECQuiz“ haben wir QTI zunächst soweit implementiert, dass ein „round trip“ möglich ist, d. h., dass von „ECQuiz“ exportierte Dateien ohne Informationsverlust wieder
importiert werden können. Bei der Abbildung des Modells von „ECQuiz“ auf QTI traten
mehrfach Probleme auf, die es erforderlich machten, „ECQuiz“-spezifische Erweiterungen
vorzunehmen.
Wie bereits oben erwähnt, deckt QTI 2.0 im Gegensatz zu QTI 1.x nur einzelne Fragen
ab und lässt die Teile von QTI 1.x aus, die sich mit der Aggregation von Fragen in Abschnitte und Tests beschäftigten. Da „ECQuiz“ jedoch sowohl komplette Tests als auch
Gruppen von zusammengehörigen Fragen unterstützt, musste ein Weg gefunden werden,
diese Strukturen dennoch in einer möglichst portablen Weise zu beschreiben. Die Teile
„Integration Guide“ und „Migration Guide“ der QTI-Spezifikation schneiden einige dieser Aspekte an, es bleiben jedoch viele Fragen bezüglich der konkreten Umsetzung offen:
As this version of the QTI specification does not define either an information model or a binding for section, assessment and objectbank objects
no recommendations on how to interpret collections of packaged version 2
190
items are made. However, packaged items may be referred to individually in
an associated learning design or set of sequencing rules. [IMS05, Integration
Guide, S. 4]
Sie machen auch deutlich, dass die Integration der verschiedenen IMS-Spezifikationen
noch nicht optimal ist:
IMS Learning Design and IMS QTI are natural partners in the learning
process. [. . . ] However, the type systems used in IMS LD and IMS QTI differ:
[. . . ] A final complicating factor is the presence of multi-valued variables in
QTI which have no equivalent in IMS LD. [IMS05, Integration Guide, S. 7
bzw. S. 9]
Wir haben den im Folgenden beschriebenen Ansatz gewählt. Eine Frage mit ihren zugehörigen Antworten wird gemäß QTI 2.0 in ein „assessmentItem“ abgebildet. Die Zusammenstellung der Fragen zu einem Test erfolgt gemäß der IMS Content Packaging Specification (CP) [IMS04]. „Packaging“ bedeutet hier, dass alle Items zusammen mit einem
sog. „Manifest“ in ein ZIP-Archiv gepackt werden. Das Manifest ist eine XML-Datei mit
dem Namen „imsmanifest.xml“ im Wurzelverzeichnis des Archivs und beschreibt die im
Archiv enthaltenen Ressourcen.
Die von „ECQuiz“ vorgesehenen Bearbeitungshinweise für Test und Fragegruppen werden
weder von QTI noch von CP explizit unterstützt. Wir behandeln diese Hinweise als „assessmentItem“ ohne „Interaction“. Auf diese Weise lässt sich die Erweiterung syntaktisch
konform modellieren, es ist allerdings nicht sicher, ob andere Systeme diese Verwendung
des <assessmentItem>-Elements korrekt interpretieren können.
Die Randomisierung der Antworten innerhalb einer Frage wird von QTI abgedeckt, „ECQuiz“ unterstützt jedoch auch die Randomisierung von Fragen, einschließlich der zufälligen Auswahl einer Untermenge der vorhandenen Fragen. Das Verhalten kann für jede
Fragegruppe separat eingestellt werden. Um diese Eigenschaften zu beschreiben, greifen
wir auf die IMS Simple Sequencing Specification [IMS03] zurück. Diese Spezifikation definiert Elemente, mit denen die Abfolge von Lernobjekten beschrieben werden kann. Diese
Elemente können im <organization>-Element des Manifests verwendet werden. Wir benutzen sie, um die Randomisierung von Elementen, die Anzahl erlaubter Versuche und die
zeitliche Freigabe von Tests zu beschreiben.
Der Implementierungsaufwand für die QTI-Unterstützung in „ECQuiz“ war sehr hoch,
denn um einen Test ohne Informationsverlust exportieren zu können, mussten neben QTI
auch IMS CP sowie Teile von IMS Simple Sequencing implementiert werden, die nicht
immer perfekt aufeinander abgestimmt sind. Außerdem galt es, Lösungen für Eigenheiten und Einschränkungen von QTI zu finden. Das QTI-Modul macht in „ECQuiz“ fast
50 % des gesamten Codes aus. Um den Aufwand in Grenzen zu halten, ist der QTI-Import
primär darauf ausgerichtet, von „ECQuiz“ selbst exportierte Tests zu importieren. Experimente mit QTI-Dateien bzw. Content-Packages aus verschiedenen Quellen waren, außer
bei sehr einfachen Items, unbefriedigend. Beispielsweise sind die von Moodle exportierten
QTI-2.0-Items und Content-Packages nicht mit den Spezifikationen konform, so dass der
Import in „ECQuiz“ fehlschlägt.
191
5 IMS QTI: Probleme
Beim Entwurf von QTI 2.0 sind Rückmeldungen von der Anwendergemeinde zu QTI 1.x
eingeflossen. Trotzdem sind uns während der Implementierung in „ECQuiz“ (vgl. Abschnitt 4) eine Vielzahl von Schwachstellen aufgefallen, von denen wir einige im Folgenden beschreiben. Die Probleme lassen sich dabei drei Bereichen zuordnen: „Problematische Designentscheidungen“, „formale Schwächen“ und „Schwächen in der technischen
Umsetzung in XML“.
Vorab ist anzumerken, dass QTI 2.0 keine existierende Praxis kodifiziert, sondern komplett neu geschrieben wurde. Im Gegensatz zum Standardisierungsverfahren für RFCs der
IETF [Br96] verlangt IMS nicht mindestens zwei voneinander unabhängig entwickelte,
interoperable Implementierungen; es gibt auch keine Referenzimplementierung von QTI
2.0.
5.1
Problematische Designentscheidungen
QTI 2.0 ist eine überaus umfangreiche Spezifikation mit vielen optionalen Teilen. Um
die Interoperabilität zwischen Systemen zu sichern, die nicht den gesamten Standard umsetzen, sieht die QTI-Spezifikation die Definition von Profilen vor. Sie erlauben es, die
von einem System implementierte Untermenge von QTI zu beschreiben. Zwei Profile,
„QTI-Lite“ und „QTI-All“, sind vordefiniert. Beide sind praktisch leider von geringem
Nutzen. QTI-Lite beschreibt eine minimale Untermenge, die selbst für einfachste Tests zu
beschränkt sein düfte: Beispielsweise dürfen in QTI-Lite-konformen Items keine Aufzählungen oder Tabellen und lediglich die Bildformate JPEG und GIF, nicht aber das vom
W3C standardisierte PNG-Format benutzt werden. Diese Einschränkungen sind aus technischer Sicht nicht nachvollziehbar. QTI-All hingegen fordert die Implementierung der
gesamten Spezifikation. Zur Zeit ist uns keine vollständige Implementierung von QTI 2.0
bekannt; angesichts des Umfangs erscheint es uns fraglich, ob es eine solche jemals geben
wird.
Die QTI-Spezifikation ist in vielen Punkten recht liberal; innerhalb eines Items sind praktisch beliebige Strukturen zugelassen. So ist etwa ein komplett leeres Item vollkommen
standardkonform, ebenso ein Item ohne <itemBody> (und damit ohne Fragetext) sowie ein
Item mit mehreren „Interactions“, d. h. ein Item, das z. B. gleichzeitig Multiple-ChoiceFrage als auch Lückentext ist. Ein Vorteil dieser Philosophie ist, dass prinzipiell viele
Fragetypen auf QTI abgebildet werden können. Der Nachteil ist, dass der Import von
QTI-Items aus unbekannten Quellen sehr komplex wird. Da der Standard zudem nicht
klärt, welche Bedeutung etwa ein leeres Item oder eines mit mehreren „Interactions“ hat,
kann kaum sichergestellt werden, dass ein Item genau so importiert wird, wie vom Autor ursprünglich vorgesehen. Somit wird der Hauptzweck eines Austauschformats nicht
erreicht.
Zusätzlich zur Beschreibung von Fragen und Tests spezifiziert QTI mit dem sogenannten
„Response Processing“ eine Programmiersprache zur Auswertung von Tests. Da Beschreibung und Auswertung von Tests aber zwei vollkommen unterschiedliche Aspekte sind,
192
hätte das „Response Processing“ unserer Meinung nach in eine separate Spezifikation ausgegliedert werden sollen. Dies hätte zur Vereinfachung des ohnehin sehr umfangreichen
QTI-Standards beigetragen.
Die oben genannte Trennung von Inhalt, Erscheinungsbild und Verhalten findet sich im
Design von QTI praktisch nicht wieder. In den Definitionen vieler Elemente, die den Inhalt
des Items beschreiben, z. B. <feedbackBlock>, <feedbackInline> oder <responseDeclaration>, finden sich Abhängigkeiten zum per „Response Processing“ beschriebenen Verhalten des Items. Selbst wenn die Auswertung eines Tests nicht mit „Response Processing“
erfolgt, müssen bestimmte Elemente und Attribute vorhanden sein, damit ein Item dem
QTI-Standard entspricht.
5.2
Formale Schwächen
Da sie an vielen Stellen ungenau oder mehrdeutig ist, genügt die QTI-Spezifikation nicht
unserer Forderung nach exakter Formulierung. Zahlreiche Fragen bleiben ungeklärt oder
müssen vom Leser selbst erschlossen werden. Wir halten es daher für unwahrscheinlich,
dass zwei Implementierungen von QTI in ihrer Interpretation des Standards genug übereinstimmen, dass ein reibungsoser Austausch zwischen ihnen möglich ist.
Beispielsweise wird der Datentyp „language“ im [IMS05, XML Binding, S. 52] mit dem
knappen Satz „A trivial restriction of xsd:string.“ definiert. Ob Sprachbezeichnungen z. B.
nach RFC 3066 anzugeben sind, wird nicht näher festgelegt.
Die Definition des Formats des Typs „identifier“ ist hingegen übermäßig lang ausgefallen. Üblicherweise werden für derartige Definitionen reguläre Ausdrücke oder kontextfreie
Grammatiken in Backus-Naur-Form (BNF) verwendet. In der QTI-Spezifikation wird jedoch eine umständliche natürlichsprache Definition gegeben:
An identifier is a string of characters that must start with a Letter or an underscore (’_’) and contain only Letters, underscores, hyphens (’-’), period (’.’,
a.k.a. full-stop), Digits, CombiningChars and Extenders. Identifiers containing the period character are reserved for future use. The character classes
Letter, Digit, CombiningChar and Extender are defined in the Extensible Markup Language (XML) 1.0 (Second Edition) [XML]. Note particularly that
identifiers may not contain the colon (’:’) character. Identifiers should have
no more than 32 characters. for compatibility with version 1 They are always
compared case-sensitively.
Die Interpunktionsfehler sind im Original enthalten; dadurch ist unklar, worauf sich die
Kompatibilität mit Version 1 bezieht. Abweichend von der obigen Spezifikation ist im
Schema der Typ „identifier“ als „NMTOKEN“ deklariert, das Schema erlaubt somit u. a.
Punkt und Doppelpunkt, so dass die Anwendung die weiteren Restriktionen implementieren muss, obwohl dies bereits im Schema möglich gewesen wäre. Ebenso wird nicht
verbindlich geregelt, ob Bezeichner mehr als 32 Zeichen lang sein dürfen und innerhalb
welches Bereiches sie eindeutig sein müssen – tatsächlich macht die Spezifikation überhaupt keine Aussage zur Eindeutigkeit von Bezeichnern.
193
Ein anderes Beispiel findet sich in der Definition des Elements <extendedTextInteraction>
für Freitextaufgaben. Dieses Element hat unter anderem die Attribute „expectedLines“ und
„expectedLength“. Beide sind dafür vorgesehen, dem Kandidaten einen Anhaltspunkt zu
geben, wie umfangreich seine Antwort ausfallen sollte (vgl. [IMS05, Information Model,
S. 29]):
Attribute:
expectedLines [0..1]: integer
The expectedLines attribute provides a hint to the candidate as to the expected
number of lines of input required. A Delivery Engine should use the value of
this attribute to set the size of the response box, where applicable.
Attribute:
expectedLength [0..1]: integer
The expectedLength attribute provides a hint to the candidate as to the expected overall length of the desired response. A Delivery Engine should use the
value of this attribute to set the size of the response box, where applicable.
Aus den nahezu identischen Beschreibungen dieser beiden Attribute ist nicht ersichtlich,
worin sie sich in ihrer Funktion unterscheiden. Ebensowenig wird erläutert, welcher Wert
Vorrang hat, falls beide Attribute angegeben wurden. Zudem ist bei beiden unklar, worauf sich der anzugebende Wert bezieht. Die Vorgabe einer bestimmten Anzahl von Zeilen
mittels „expectedLines“ ergibt nur dann einen Sinn, wenn auch festgelegt ist, wie lang die
Zeilen sind. Der Wert von „expectedLength“ könnte z. B. die Anzahl an Wörtern meinen
oder die Anzahl der Sätze oder die Breite in Zentimetern eines Eingabefeldes auf einer
Webseite. Bei Items aus unbekannten Quellen ist es unmöglich festzustellen, was beabsichtigt war.
5.3
Schwächen in der technischen Umsetzung in XML
Die QTI-Spezifikation umfasst auch das „XML Binding“, in dem ein XML-Schema definiert wird, das vorgibt, wie die im „Information Model“ beschriebenen Items auf XMLElemente abgebildet werden. Leider werden die Möglichkeiten von XML und XMLSchema nur ansatzweise ausgenutzt, so dass QTI-Dokumente mit Standard-XML-Werkzeugen nur zum Teil validiert werden können. Damit wird eine weitere unserer Anforderungen an Austauschformate nicht erfüllt. Einige Beispiele sollen dies illustrieren.
An vielen Stellen in QTI wird für Querverweise auf andere Elemente ein Attribut verwendet, das den Bezeichner des Zielelements enthält. Teilweise werden Querverweise in
QTI-Dokumenten aber auch anders realisiert. Wie in Abbildung 1 zu sehen ist, werden
z. B. die richtigen Antwortmöglichkeiten auf eine Multiple-Choice-Frage mit Hilfe des
<correctResponse>-Elements angegeben, das wiederum ein oder mehrere Elemente vom
Typ <value> enhält. Der Inhalt jedes <value>-Elements ist der Bezeichner einer korrekten
<simpleChoice>.
Problematisch ist an diesem Ansatz, dass bei konsequenter Nutzung der XML eine deutlich
robustere und elegantere Lösung möglich gewesen wäre. Zur Realisierung von Querverweisen stellt XML eigens die Attributtypen „ID“, „IDREF“ und „IDREFS“ zur Verfügung.
194
Werden Attribute dieses Typs verwendet, ist garantiert, dass alle Bezeichner vom Typ „ID“
eindeutig sind und dass alle per „IDREF“ oder „IDREFS“ referenzierten Element auch tatsächlich existieren. Vermutlich ist diese Semantik auch in QTI intendiert; im QTI-Schema
werden jedoch an keiner Stelle die Attributtypen „ID“, „IDREF“ oder „IDREFS“ verwendet.
Stellvertretend für zahlreiche weitere Schwächen in der XML-Umsetzung sei noch das
Element <rubricBlock> genannt. Im [IMS05, Information Model, S. 23] findet sich in
der Definition dieses Elements der Hinweis „Although rubric blocks are defined as simpleBlocks they must not contain interactions.“ Im XML-Schema wird diese Einschränkung aber nicht umgesetzt, obwohl W3C XML Schema durchaus die dazu notwendigen
Mittel bietet.
6 Zusammenfassung und Schlussfolgerung
Aufgrund unserer Erfahrungen bei der Implementierung einer Untermenge von QTI 2.0 in
„ECQuiz“ und der Analyse der QTI-Spezifikation kommen wir zu dem Schluss, dass QTI
2.0 als Standard für den Austausch von Tests nicht geeignet ist: Es erlaubt zwar prinzipiell die Beschreibung einer großen Zahl von Testtypen und Auswertungsverfahren, eine
vollständige Implementierung ist aber nur mit extrem hohem Aufwand möglich – unvollständige Implementierungen erreichen jedoch nicht die angestrebte Interoperabilität.
Zur Zeit (Juni 2007) ist QTI 2.1 in Vorbereitung; diese Version soll u. a. die bislang fehlende Möglichkeit zur Beschreibung vollständiger Tests nachliefern. In den aktuellen Entwürfen sind darüberhinaus keine grundsätzlichen Änderungen gegenüber Version 2.0 vorgenommen worden, so dass die o. g. Kritikpunkte weiterhin zutreffen. Es ist jedoch bereits
absehbar, dass QTI 2.1 nicht vollständig abwärtskompatibel zu QTI 2.0 sein wird: Nach
QTI 2.0 kodierte Tests werden also ohne Änderungen keine gültigen QTI-2.1-Tests sein.
Gorissen hat 2003 und 2006 [Go03, Go06] bei einer Auswahl von Systemen5 die Unterstützung für QTI evaluiert. Seine Untersuchungen zeigen, dass alle Systeme nur sehr kleine
Untermengen von QTI unterstützen; in den meisten Fällen gehen beim Import Informationen verloren. Er bemerkt, dass sich die Situation seit 2003 – trotz des offensichtlichen
Bedarfs für Austauschmöglichkeiten von Tests – praktisch nicht verbessert hat.
Angesichts dieser Situation und der Komplexität von QTI schlägt Gorissen die Entwicklung einer freien Referenzimplementierung durch die „educational community“ vor. Da
die Probleme mit QTI letztendlich in der Designphilosophie begründet sind, lassen sie sich
nicht dadurch beheben, dass lediglich die o. g. Schwächen ausgebessert werden. Vielmehr
ist aus unserer Sicht ein grundsätzlich anderer Ansatz notwendig, um die in Abschnitt 2
definierten Kriterien erfüllen zu können. Daher halten wir auch eine Beteiligung am QTISpezifikationsprozess nicht für Erfolg versprechend.
5 2006: Respondus, QuestionMark Perception, N@tschool!, Blackboard, Learn eXact (QTI 1.2) und TOIA (QTI
2.1)
195
Viele der Probleme im Ansatz von QTI rühren auch daher, dass QTI nicht aus dem praktischen Einsatz heraus entwickelt wurde, sondern von einem Kommittee „am grünen Tisch“
entworfen wurde (vgl. Abschnitt 5). Wir schlagen deshalb vor, dass die Anwendergemeinde (also die „educational community“) stattdessen auf der Basis ihrer praktischen Erfahrungen selbst ein Austauschformat für Tests entwickelt, das die o. g. Desiderata umsetzt
und so die Implementierung tatsächlich interoperabler Testsysteme ermöglicht.
Literaturverzeichnis
[Br96]
[Go03]
[Go06]
[IMS03]
[IMS04]
[IMS05]
[ISO03]
[LR98]
[PR05]
[RPA07]
[SR00]
[Wo04]
[Wo06]
196
Scott Bradner. The Internet Standards Process – Revision 3. RFC 2026 (BCP 9), Internet
Engineering Task Force, 1996.
Pierre Gorissen. Quickscan QTI. Usability study of QTI for De Digitale Universiteit,
2003.
Pierre Gorissen. Quickscan QTI – 2006. Usability study of QTI for De Digitale Universiteit, 2006.
IMS Global Learning Consortium. IMS Simple Sequencing Specification Version 1.0,
2003.
IMS Global Learning Consortium. IMS Content Packaging Specification Version 1.1.4,
2004.
IMS Global Learning Consortium. IMS Question and Test Interoperability Version 2.0
Final Specification, 2005.
ISO (International Organization for Standardization). ISO/IEC 19757-2:2003. Information technology – Document Schema Definition Language (DSDL) – Part 2: Regulargrammar-based validation – RELAX NG, 2003.
Gustav A. Lienert und Ulrich Raatz. Testaufbau und Testanalyse. Psychologie Verlags
Union, Weinheim, 6. Auflage, 1998.
Michael Piotrowski und Dietmar Rösner. Integration von E-Assessment und ContentManagement. In Jörg M. Haake, Ulrike Lucke und Djamshid Tavangarian, Hrsg., DeLFI2005: 3. Deutsche e-Learning Fachtagung Informatik der Gesellschaft für Informatik
e.V., number P-66 in Lecture Notes in Informatics, Seiten 129–140, Bonn, 2005. GIVerlag.
Dietmar Rösner, Michael Piotrowski und Mario Amelung. A Sustainable Learning Environment based on an Open Source Content Management System. In Wilhelm Bühler, Hrsg., Proceedings of the German e-Science Conference (GES 2007). Max-PlanckGesellschaft, 2007.
Colin Smythe und P. Roberts. An Overview of the IMS Question & Test Interoperability
Specification. In Proceedings of the 4th CAA Conference, Loughborough, England, 2000.
Loughborough University.
World Wide Web Consortium. XML Schema, 2004.
World Wide Web Consortium. Extensible Markup Language (XML) 1.0, 2006.
Aktueller Stand und Perspektiven der
eLearning-Infrastruktur an deutschen Hochschulen
Ulrike Lucke, Djamshid Tavangarian
Universität Rostock
Institut für Informatik, Lehrstuhl für Rechnerarchitektur
Albert-Einstein-Str. 21
18059 Rostock
{ulrike.lucke, djamshid.tavangarian}@uni-rostock.de
Abstract: Neben organisatorischen und pädagogischen Rahmenbedingungen ist
eine leistungsfähige IT-Infrastruktur eine zentrale Voraussetzung für erfolgreiches
eLearning. Eine Reihe von Forschungsaktivitäten und Strukturmaßnahmen hat in
den vergangenen Jahren zur Weiterentwicklung und Verstetigung der an den
Hochschulen verfügbaren Infrastrukturen beigetragen. Inwiefern damit die für aktuelle eLearning-Szenarien – insbesondere über die Grenzen einer Hochschule
hinweg – benötigte Funktionalität gegeben ist, wird in diesem Beitrag untersucht.
Basis der Aussagen ist eine Bestandsaufnahme der aktuellen IT-Infrastrukturen,
die aus dem Verbund „Virtuelle Hochschullandschaft Norddeutschland“ (VHN)
entstanden ist. Es werden der erzielte Entwicklungsstand wie auch bestehende Defizite aufgezeigt und Empfehlungen für die richtungsweisende Gestaltung von eLearning-Infrastrukturen an unseren Hochschulen angegeben.
1
Motivation
Im Rahmen unterschiedlicher Förderprogramme vor allem des Bundes sowie auf Initiative einzelner Hochschulen wurden in den vergangenen Jahren vielfache Anstrengungen
unternommen, um eLearning dauerhaft als integralen Bestandteil der Hochschulbildung
zu etablieren. Einzelziele waren zum Beispiel, eLearning-Inhalte zu entwickeln [Bu00],
Konzeptionen für das mobile Lernen zu entwerfen und im Studienbetrieb zu verankern
[Bu01] oder nachhaltige Strukturveränderungen für eLearning an den Hochschulen herbeizuführen [Bu04]. Begleitet wird dies bereits seit langem durch Maßnahmen zum
Ausbau der grundlegenden Infrastruktur [Bu69].
Führten diese Aktivitäten zu substanziellen Veränderungen im Studium an deutschen
Hochschulen? eLearning hält nur langsam, nur in ausgewählten Bereichen und vorwiegend in Ergänzung zur traditionellen Präsenzlehre Einzug. Noch 2002 wurde dem eLearning in Deutschland ein vergleichsweise schlechter Entwicklungsstand im internationalen Vergleich bescheinigt: „On many variables for which substantial differences
between countries could be determined, Germany demonstrates the lowest score, or is
among the lowest. This refers first of all to the current use of ICT options and tools, the
197
extent to which ICT influences the general teaching practice and the support that is
available for instructors in doing so. Second, this applies to the flexibility that is currently offered to students” [CW02].
Hat sich dieser Zustand in den vergangenen fünf Jahren verbessert? Bedingt sowohl
durch Ergebnisse der o. g. Forschungsprogramme, aber auch generell durch den technologischen Fortschritt existiert heute eine Vielzahl von Geräten, Systemen, Prozessen und
Anwendungsszenarien rund um das eLearning. Sie lassen sich oft nur schwer in ein
gemeinsames Ganzes fügen. Die Infrastrukturen an den Hochschulen nehmen rasch an
Umfang, Heterogenität und damit auch an Komplexität zu. Neben einer hochschulweiten
Integration der Informations- und Kommunikationstechnologien [Te07] [Un07] oder
Portalen zur Sammlung von eLearning-Diensten [De07][Hi07] werden aber auch hochschulübergreifende Mechanismen [Fa07] sowie völlig neue organisatorische Rahmenbedingungen und pädagogische Konzepte benötigt. In diesem Zusammenhang sind beispielsweise Kooperationsstudiengänge zwischen mehreren Hochschulen (mit Präsenzund virtuellen Anteilen in einem durchgängigen Szenario) oder die flexible Anerkennung einzelner Prüfungsleistungen von fremden Einrichtungen (auch ohne die Einbettung der Lehrveranstaltungen in ein gemeinsam geplantes Curriculum) zu nennen. Hintergrund derartiger Arrangements sind nicht allein eine organisatorische
Umstrukturierung zur Kostensenkung oder der Wunsch bzw. der Bedarf nach einer Einbeziehung von Fachexperten aus einem größeren Einzugsgebiet. Angesichts der demographischen Veränderungen, der zunehmenden Mobilität von Wissenschaftlern und
Studierenden ist dies auch eine ernsthafte Herausforderung aus bildungspolitischer Sicht.
Wie wird die vorhandene Infrastruktur an unseren Hochschulen diesen, auf sie zu kommenden Anforderungen gerecht?
2
Bestehende Infrastruktur für eLearning
Angesichts der oben aufgeworfenen Fragen haben die Wissenschaftsminister der fünf
norddeutschen Bundesländer im Oktober 2005 den Verbund „Virtuelle Hochschullandschaft Norddeutschland“ (VHN) ins Leben gerufen. Hier sollen neue Strategien für
das eLearning erarbeitet werden, um so die Wettbewerbsfähigkeit der norddeutschen
Hochschulen national und international zu stärken – auch angesichts der aktuellen Exzellenzdiskussionen. Einer der sechs eingesetzten Arbeitskreise beschäftigt sich mit
Aspekten der IT-Infrastruktur. In diesem Zusammenhang wurde durch den Arbeitskreis
eine Analyse der eLearning-Infrastruktur an den norddeutschen Hochschulen erarbeitet.
Deren Ergebnisse – die teilweise zwar nicht überraschend, doch in der Fachliteratur
vorwiegend als generelle Empfehlungen [DI05][Re05] ohne hochschulübergreifende
Datenbasis zusammengefasst sind – bilden den Gegenstand dieses Beitrags.
Es wurden im August 2006 alle damals 68 Hochschulen in den fünf norddeutschen Bundesländern angeschrieben. Davon sendeten 26 den Fragebogen ausgefüllt zurück, und
weitere 3 entschuldigten sich als in Auflösung oder Umwandlung begriffen. Da sich alle
großen Universitäten aktiv in die Bestandsaufnahme eingebracht haben und damit ein
Großteil der Studierenden in Norddeutschland von der Analyse erfasst ist, sind die Ergebnisse als repräsentativ zu bewerten. Die Verteilung der beteiligten Hochschulen auf
198
öffentliche und private Einrichtungen sowie auf Universitäten und Fachhochschulen ist
in Abbildung 1 dargestellt.
100%
100%
80%
priv.
80%
FH
60%
60%
40%
40%
öfftl.
20%
20%
Uni
0%
0%
öffentlich / privat
Universität / Fachhochschule
Abbildung 1: Zusammensetzung der in die Bestandsaufnahme eingegangenen Hochschulen
Bei der Konzeption der Fragebögen wurden die folgenden Hypothesen zugrunde gelegt:
Die strategische Ausrichtung der Hochschulen beinhaltet eLearning als einen integralen Bestandteil.
Der Anteil elektronisch gestützter Lehr- und Lernszenarien ist derzeit noch gering,
wird jedoch künftig zunehmen.
Die Organisationsstrukturen für eLearning resultieren vermutlich aus Forschungsprojekten und sind daher gering entwickelt, dezentral und temporär.
Die vorhandenen IT-Infrastrukturen für eLearning – als Schwerpunkt der Untersuchung – werden in den Bereichen Erstellung und Nutzung von eLearning-Inhalten
als gut entwickelt angenommen. Dagegen sind Mechanismen zur gezielten Wiederverwendung von Inhalten sowie hochschulübergreifende Szenarien vermutlich
nur gering entwickelt. Von den IT-Basisdiensten werden die Kommunikationsstrukturen als sehr gut eingestuft, aber Sicherheitsdienste (v. a. hochschulübergreifend) als noch ungenügend.
Diese vier Bereiche bilden zugleich die Struktur der nachfolgenden Auswertung.
2.1
Strategische Ausrichtung hinsichtlich des eLearning
Erst sehr wenige Hochschulen (etwa 20%) verfügen über eine klar definierte Strategie
(im Sinne eines Strategiepapiers, Hochschulentwicklungsplans o. ä.) für den Umgang
mit neuen Medien, wie Abbildung 2 zeigt.
Bei der Ermittlung der strategischen Ziele für den Einsatz von eLearning wurde auf eine
geschlossene Frage verzichtet und den Teilnehmern somit hinreichend individueller
Spielraum bei der Beantwortung eingeräumt. (Das machte die nachträgliche Zusammenfassung zu Kategorien nötig, die jedoch ohne Informationsverlust möglich war.) Von der
überwiegenden Mehrheit der Hochschulen wurde die Ergänzung der Präsenzlehre als
199
100%
80%
ohne
60%
40%
20%
in Arbeit
vorhanden
0%
Abbildung 2: Gibt es eine definierte Strategie für eLearning an Ihrer Hochschule?
Ziel für eLearning benannt; auch die Erweiterung des Lehrangebots sowie die steigende
Qualität und Attraktivität des Studiums spielen bei etwa der Hälfte der Hochschulen eine
wichtige Rolle. Dagegen erfolgt selten eine kommerzielle Ausrichtung der eLearningAngebote. Eine Hochschule äußerte die Hoffnung auf eine Kostensenkung, wie in Abbildung 3 dargestellt ist.
20
18
16
14
Ergänzung der Präsenzlehre
12
Erw eiterung des Lehrangebots
10
kommerzielle Ausrichtung
8
Kostensenkung
6
Qualitätssteigerung
4
2
0
Abbildung 3: Welche strategischen Ziele verbinden Sie mit dem Einsatz von eLearning?
Offenbar erwarten die Hochschulen vom eLearning zwar eine Verbesserung des bestehenden Lehrangebots (qualitativ wie quantitativ), jedoch keine gravierenden Veränderungen in den internen Prozessen, in ihrem Profil oder ihrer Marktposition.
2.2
Eingesetzte Lehr- und Lernszenarien
Die Hochschulen nutzen nach eigener Schätzung zu etwa 30% elektronisch unterstützte
Präsenzlehre sowie bereits zu etwa 10% neue Lehr- und Lernformen (v. a. Videoaufzeichnung, aber auch Selbstlernen oder Blended Learning – mit verschwimmenden
Abgrenzungen) und wollen diesen Anteil in den kommenden Jahren deutlich steigern.
Hochschulübergreifende Szenarien spielen mit unter 2% derzeit nur eine marginale Rolle, werden aber künftig an Bedeutung gewinnen. Dies ist dargestellt in Abbildung 4.
Die möglichen Antwortkategorien waren bei dieser Frage vorgegeben. Dabei ist anzumerken, dass einerseits die Bereiche nicht vollständig disjunkt sind (Wie viel Blended
200
hochschulübergreifend
Videoaufzeichnungen
Blended Learning
Selbstlernen
elektronisch unterstützt
klassische Präsenzlehre
heute
in 5 Jahren
Abbildung 4: Welche Lehr-/Lernszenarien setzen Sie heute ein, und welche in etwa 5 Jahren?
Learning steckt im Selbstlernen?), andererseits die Interpretation der Begriffe variierte
(Gehören PowerPoint-Folien inzwischen zur klassischen Präsenzlehre?). Trotz dieser
Unschärfe lässt sich dennoch ein allgemeiner Trend der Antworten ableiten.
2.3
Organisationsstrukturen für eLearning
An vielen Hochschulen gibt es bereits lokale Organisationsstrukturen zur Koordination
von eLearning-Aktivitäten sowie zentrale Maßnahmen bzw. Anlaufstellen für Support
und Training der Anwender (jeweils an etwa drei Viertel der Hochschulen). Es handelt
sich nur noch teilweise um projektbezogene, temporäre Einrichtungen. Oft wird die
Funktion des Koordinators durch einen Prorektor wahrgenommen bzw. in existierende
Einrichtungen mit anderem Arbeitsschwerpunkt (Rechenzentrum, Bibliothek) integriert;
selten besteht eine eigenständige Einheit. Dagegen sind Organisationsstrukturen zur
Qualitätssicherung – wenn überhaupt vorhanden – erst im Aufbau begriffen. Teilweise
werden Evaluationen durchgeführt.
Hochschulübergreifende Strukturen für eLearning sind oft bereits vorhanden bzw. werden verstärkt gefordert, wie Abbildung 5 zeigt. Die Frage war hier offen formuliert, um
28
24
20
vorhanden
16
w ünschensw ert
12
keine w eiteren gew ünscht
8
4
0
übergreifende Strukturen
Abbildung 5: Sind hochschulübergreifende Organisationsstrukturen für eLearning vorhanden?
Welche halten Sie für wünschenswert?
201
verschiedenartige Organisationsformen erfassen zu können. Teilweise handelt es sich bei
den angegebenen Strukturen um bilaterale Kooperationen, z. T. auch um regionale oder
landesweite Netzwerke. Eine Verstärkung der Kooperation wird v. a. für die überregionale, koordinierte Entwicklung und den Austausch von eLearning-Inhalten sowie für die
wechselseitige Anerkennung (elektronischer) Prüfungen gewünscht. Auffallend ist, dass
sich einige Hochschulen explizit keine weiteren übergreifenden Strukturen wünschen,
selbst wenn sie bereits auf solche zugreifen können. (Die Formulierung im Fragebogen
lautete: „Welche halten Sie für wünschenswert?“ und suggerierte somit keine ablehnende Antwort.) In individuellen Nachfragen haben sich die Einstellungen zu diesen Institutionen als ambivalent herausgestellt, da in deren Folge Abhängigkeit oder Mittelabzug
befürchtet werden.
2.4 IT-Infrastrukturen für eLearning
Auch bei der Ermittlung der bestehenden IT-Infrastruktur für eLearning wurden alle
Fragen offen formuliert. Teilweise wurden stichpunkthafte Beispiele ergänzt, um die
Fragestellung zu verdeutlichen. Das Antwortspektrum zeigt bei vielen Fragen eine große
Varianz. So waren etwa an einigen großen Universitäten viele Ausstattungsmerkmale
offenbar selbstverständlich (und daher nur auf Nachfrage feststellbar), die von anderen
Hochschulen im Detail dargelegt wurden.
Die Multimedia-Ausstattung der Hochschulen kann insbesondere an den Universitäten
als gut bis sehr gut charakterisiert werden. Für die Erstellung von eLearning-Inhalten
sind durchgängig Multimedia-Arbeitsplätze mit Internet-Anbindung vorhanden, die
sowohl dezentral in den Einrichtungen als auch hochschulweit zentral durch spezielle
Labore oder Arbeitsplätze ergänzt werden. Auch für die Nutzung von eLearning sind
eine fast durchgängige Multimedia-Ausstattung (vor allem in Hörsälen, oft auch in Seminarräumen) sowie zahlreiche Speziallabore oder Pools verfügbar. Zugangseinrichtungen für die Nutzer sind zahlreich und vielfältig vorhanden. Neben einer (abhängig von der Größe und Art der Hochschule) breiten Zahl von Plätzen in PC- oder
Workstation-Pools steht insbesondere an den großen Universitäten eine Reihe von Notebook-Arbeitsplätzen zur Verfügung.
Es gibt bislang kaum dedizierte Mechanismen zur hochschulweiten Wiederverwendung
von Lehr- und Lerninhalten. Teilweise wird dies in lokaler Eigenregie durch die Lehrenden ersatzhalber mit Hilfe von Authoring-Werkzeugen oder Lernplattformen realisiert;
es gibt kaum zentrale Repositorien. Im hochschulübergreifenden Bereich bestehen einige
gemeinsame Nutzungen von Lernplattformen; erste gemeinsame Portale befinden sich
im Aufbau – beides lässt sich jedoch nicht als wirkliche Wiederverwendung von Inhalten
bezeichnen. Dabei existiert eine Vielzahl von unterschiedlichen Lernplattformen, wie in
den Abbildungen 5 und 6 dargestellt ist.
Die Integration der Lernplattformen mit anderen universitären Diensten (Hochschulinformationssystem oder Bibliothek) ist erst vereinzelt realisiert, und zwar vorwiegend
für Stud.IP. Die Schnittstellen der eingesetzten Systemen werden mit schwankender
Aussagekraft benannt; positiv fallen hier v. a. Stud.IP und Ilias durch ihre APIs sowie
den Import/Export etwa über SCORM auf.
202
28
24
20
16
Authoringwerkzeuge
Lehr-/Lernplattform
zentrale Repositorie
12
8
4
0
Wiederverwendung (lokal)
Abbildung 5: Welche Werkzeuge setzen Sie zur gezielten Wiederverwendung von Inhalten ein?
10
8
Stud.IP
Ilias
6
WebCT
Blackboard
4
Eigenentw icklung
andere
2
0
Lernplattform (dezentral)
Lernplattform (zentral)
Lernplattform
(übergreifend)
Abbildung 6: Welche Lehr-/Lernplattformen sind bei Ihnen im Einsatz?
Als hochschulübergreifende Infrastrukturen für das eLearning werden nur einzelne Initiativen (Virtuelle Fachhochschule [Fa07], Telekolloquium [EL07]) aufgeführt. Grundsätzlich sind die Hochschulen aber zumindest im öffentlichen Bereich für die Fernkooperation gut bis sehr gut mit Videokonferenz-Systemen (zentral und/oder dezentral)
ausgestattet. Lediglich kleinere private Hochschulen verfügen noch nicht über eine solche Ausrüstung.
Zentrale Infrastrukturen zum Identity Management sind, wenn überhaupt, erst innerhalb
einer Hochschule vorhanden. Hier wird vorwiegend LDAP eingesetzt, teilweise existieren auch proprietäre Lösungen. Hochschulübergreifende Mechanismen befinden sich
erst in Planung, wie Bild 7 zeigt.
Die Vernetzung an den norddeutschen Hochschulen kann inzwischen als fast vollständig
angesehen werden. Bis auf einzelne kleinere, private Hochschulen haben alle Einrichtungen Netz am Arbeitsplatz und im Wohnheim sowie flächendeckend WLAN, zum
203
Abbildung 7: Über welche Mechanismen zum Identity Management verfügen Sie?
großen Teil auch in Verkehrsflächen. Die öffentlichen Hochschulen bieten einen gesicherten VPN-Zugang von außen an und sind mit Bandbreiten von deutlich über 10
MBit/s an das Wissenschaftsnetz angebunden. Dagegen haben die privaten Hochschulen
i. Allg. nur einen schmalbandigen Anschluss und selten einen VPN-Zugang. Dies ist in
den Bildern 8 und 9 dargestellt.
2.5
Fazit
Mit Bezug auf die eingangs formulierten Thesen der Untersuchung lassen sich folgende
Kernergebnisse der Analyse ableiten:
1. Die strategische Ausrichtung der Hochschulen hinsichtlich des eLearning umfasst
v. a. die Ergänzung und Verbesserung der bestehenden Präsenzlehre und kann daher als konservativ bezeichnet werden. Eine klare Strategie ist leider noch kaum
definiert.
2. Lehren und Lernen ohne Rechnerunterstützung nehmen derzeit noch knapp zwei
Drittel der Szenarien im Alltag der Hochschulen ein, werden jedoch in den kommenden fünf Jahren auf etwa ein Drittel zurückgehen. Besonders steigen wird nach
Selbsteinschätzung der Hochschulen der Anteil von elektronisch gestützter Präsenzlehre und Blended Learning.
3. Die vorhandenen Organisationsstrukturen für eLearning sind dauerhafter als vermutet, jedoch kaum eigenständig realisiert. Während Verantwortliche zur Koordination von und zum Support für eLearning bereits häufig definiert sind, befinden
sich Strukturen zur eLearning-Qualitätssicherung erst im Aufbau. Hochschulübergreifende Strukturen sind regional teilweise verfügbar, werden jedoch vermehrt
auch überregional gefordert.
4. Die technische Infrastruktur für eLearning ist an den untersuchten Hochschulen in
großen Teilen vorhanden, vor allem in den Bereichen Erstellung und Nutzung von
eLearning-Inhalten. Sie ist jedoch hochgradig heterogen und nicht einheitlich organisiert. Die Komplexität und Dynamik der Systeme lassen in vielen Fällen keine
204
16
14
12
10
nein
teilw eise
8
ja
6
4
2
0
Netz im Wohnheim
WLAN
hochschulw eit
Netz in
Verkehrsflächen
VPN von außen
Abbildung 8: Über welche Kommunikationsinfrastruktur verfügen Sie?
kein
6
5MBit/s
10MBit/s
4
34MBit/s
50MBit/s
100MBit/s
2
300MBit/s
600MBit/s
0
Bandbreite zum WIN
Abbildung 9: Mit welcher Bandbreite sind Sie an das wissenschaftliche Netz angeschlossen?
statische Konfiguration und manuelle Steuerung zu. Dies verhindert die nötige Interoperabilität der Systeme. Zudem fehlen grundlegende Infrastruktur-Dienste (wie
ein zentrales Identity Management) und dedizierte eLearning-Infrastrukturen (z. B.
Plattformen zur gezielten Wiederverwendung von Inhalten – lokal ebenso wie
hochschulübergreifend).
Die anhand der Bestandsaufnahme in Norddeutschland gewonnenen Aussagen lassen
sich unter Beachtung lokaler Spitzen, wie sie im Zuge der Exzellenzinitiative diskutiert
wurden [Wi07], mit großer Wahrscheinlichkeit auch auf den Rest des Bundesgebiets
ausdehnen.
3
Entwicklungsperspektiven und Empfehlungen
Besonders stark wirkt sich die bestehende Diversität der eLearning-Infrastrukturen und
Organisationsstrukturen in institutionsübergreifenden Szenarien aus, die aufgrund der
205
demographischen und bildungspolitischen Entwicklungen zunehmend an Bedeutung
gewinnen werden. Bei der Kooperation über die Grenzen einer Hochschule bzw. sogar
eines Bundeslandes hinweg sind Interoperabilität, Standards und Schnittstellen sowie
lokale Autonomie für den reibungslosen Betrieb unverzichtbar.
Als grundlegende organisatorische Maßnahme erscheint daher die durchgängige Realisierung von eigenständigen eLearning-Einrichtungen mit klaren Kompetenzen und Befugnissen für Koordination, Support&Training sowie Qualitätssicherung – auf Basis
einer klar definierten eLearning-Strategie – sowohl hochschulintern als auch hochschulübergreifend als wichtig. Solche Strukturen sind wichtige Instrumente für Kontinuität
und Kompetenzbildung. Überregionale Netzwerke und Ansprechpartner haben hier bereits vielfach positive Entwicklungen hervorgerufen.
Auf technischer Ebene kann eine signifikante Verbesserung der IT-Infrastruktur an den
Hochschulen (nicht nur für das eLearning) durch den Paradigmenwechsel zu einer
dienstbasierten Architektur erzielt werden. Dadurch könnten bestehende Werkzeuge,
Plattformen und Prozesse in aller nötigen Heterogenität und Dezentralität aufrechterhalten und dennoch zu einem durchgängigen System zusammengefasst werden [Kr06].
Durch das Nebeneinander und Miteinander verschiedener Angebote, die einander ersetzen oder ergänzen, wird der Übergang zwischen individuellen Prozessen und Dienstvarianten an verschiedenen Hochschulen nahtlos ermöglicht. In einer hochgradig heterogenen und verteilten Universitätslandschaft können dafür keine streng hierarchischen,
zentralisierten Strukturen mehr zum Einsatz kommen. Im Hochschulalltag werden durch
eine Service-Orientierte Architektur (SOA) Transparenz und Komfort für den Nutzer
erhöht sowie der administrative Aufwand verringert. Somit ergeben sich Verbesserungen
in alltäglichen Anwendungsszenarien, wie z. B.:
Kopplung von Studenten- & Personalverwaltung mit dem Nutzermanagement, direkte Übernahme von Stammdaten beim Hochschulwechsel
institutionsübergreifendes Identity Management mit Single-SignOn
automatische Erfassung von Prüfungsergebnissen (auch von anderen Hochschulen
bei Auslandssemestern oder Kooperationsstudiengängen) als Basis für Prüfungszulassungen oder individuelle Studienpläne
Weiterleitung von Netzwerkverbindungen, persönlichen Einstellungen und Daten
des Nutzers auf Basis seines aktuellen Umfelds
personalisierte Bibliothekssuche in Abhängigkeit vom Studienfortschritt sowie
Rechnerunterstützung beim Ausleihvorgang
proaktive Distribution von Lehr- und Lerninhalten auf der Basis von aktueller Position und Zeit sowie dem geltenden Veranstaltungsplan
automatische Lokalisierung geeigneter Drucker und Authentifizierung des Anwenders beim Drucken in einer unbekannten Umgebung
206
automatische Erfassung von Raumauslastungen u. ä. zur Optimierung von Belegungsplänen oder anderen logistischen Parametern
Vergleichbare Anwendungen existieren bereits in Form von mobilen Informationssystemen, wie z. B. an Flughäfen oder für das Sight Seeing. Die Herausforderung besteht in
der Übertragung dieser Technologien und Konzepte auf das komplexe Geflecht aus
Infrastrukturen und Diensten an einer Hochschule, ohne deren laufenden Betrieb zu
beeinträchtigen. Hier sind umfangreiche Forschungs- und Entwicklungsprojekte nötig.
Langfristig wird es eine weiterführende Entwicklung hinsichtlich der Kopplung von
dienstorientierten Architekturen (als infrastrukturelle Grundlage) und der aktuellen Forschung zu selbstorganisierenden Systemen, zu Peer-to-Peer-Architekturen und zum
Pervasive Computing geben. Die bereitgestellten Dienste einer solchen Pervasive University werden ergänzt durch kaum wahrnehmbare Sensoren, Prozessoren und Aktoren,
die den Anwender vorausschauend und allgegenwärtig bei seinen täglichen Aktivitäten
unterstützen und dabei physische Umgebung und Informationstechnik nahtlos ineinander
verweben. Hier ist eine Reihe von kontextsensitiven, proaktiven Diensten in Lehre, Forschung und Verwaltung der Hochschulen denkbar [TL06].
Grundlegendes Ziel sollte es dabei sein, die mit moderner IT-Technologie verfügbaren
Optionen gezielt und umfassend einzusetzen, um das eLearning (in Ergänzung und Erweiterung der bestehenden Präsenzlehre) zur Steigerung von Qualität und Flexibilität im
Studium einzusetzen. Dies würde zu einer nachhaltigen Stärkung der Position unserer
Hochschulen im internationalen Wettbewerb führen.
Literaturverzeichnis
[Bu69]
[Bu00]
[Bu01]
[Bu04]
Bundesministerium für Bildung und Forschung: „Gesetz über die Gemeinschaftsaufgabe
‚Ausbau und Neubau von Hochschulen’ (Hochschulbauförderungsgesetz, HBFG)“, September 1969. http://www.bmbf.de/pub/HBFG_1.pdf
Bundesministerium für Bildung und Forschung: „Bekanntmachung von Richtlinien über
die Förderung von Vorhaben zur Förderung des Einsatzes Neuer Medien in der Hochschullehre im Förderprogramm ‚Neue Medien in der Bildung’“, März 2000.
http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/bekanntmachung_hochschule
n.html
Bundesministeriums für Bildung und Forschung: „Richtlinien über die Förderung von
Projekten zur Unterstützung von E-Learning an Hochschulen durch mobilen Rechnereinsatz (‚Notebook- University’) im Förderprogramm ‚Neue Medien in der Bildung’“, Oktober 2001.
http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/bekanntmachung_notebook_
university.html
Bundesministerium für Bildung und Forschung: „Richtlinien über die Förderung der
Entwicklung und Erprobung von Maßnahmen der Strukturentwicklung zur Etablierung
von eLearning in der Hochschullehre im Rahmen des Förderschwerpunkts ‚Neue Medien
in der Bildung’“, Juni 2004.
http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/eLearning.pdf
207
[CW02] Betty Collis, Marijk van der Wende (Eds.): „Models of Technology and Change In
Higher Education: An international comparative survey on the current and future use of
ICT in Higher Education”, Center for Higher Education Policiy Studies, Niederlande,
Dezember 2002. http://www.utwente.nl/cheps/documenten/ictrapport.pdf
[De07] Deutsches Zentrum für Luft- und Raumfahrt: „Portal zur BMBF-Förderung Neue Medien in der Bildung“
http://www.medien-bildung.net/
[DI05] DINI: „Technische und organisatorische Rahmenbedingungen für eine erfolgreiche
Einführung und nachhaltige Nutzung von E-Learning an Hochschulen“, DINI-Schriften
5-de, Oktober 2005.
[EL07] E-Learning Academic Network Niedersachsen (ELAN): „Niedersächsisches Telekolloquium” http://www.telekolloquium.de/
[Fa07] Fachhochschule Lübeck: „oncampus” htttp://www.oncampus.de/
[Hi07] Higher Education Funding Council for England: „Joint Information Systems Committee:
supporting education and research“ http://www.jisc.ac.uk/
[Kr06] Reinhold Kröger, Ulrike Lucke, Markus Schmid, Djamshid Tavangarian: "Web Services
for the Integration of XML-based Content into Learning Platforms: a Three-level
Model", erscheint in: Proceedings of 2nd International Symposium on Leveraging Applications of Formal Methods, Verification and Validation (ISoLA 2006), IEEE Press.
[Re04] Thomas Reglin: “Welche Infrastruktur benötigt eLearning?”, in: „E-Learning – Virtuelle
Kompetenzzentren und Online-Communities zur Unterstützung arbeitsplatznahen Lernens“, Bertelsmann-Verlag, 2004.
[Te07] Technische Universität München: „TUM Projektübersicht – Integratum“
http://portal.mytum.de/iuk/integratum/
[TL06] Djamshid Tavangarian, Ulrike Lucke: „Pervasive University: Implementierung und
Einsatz des Pervasive Computing in der Hochschule“, Proc. Informatik, LNI, Vol. P-93,
S. 45-49, Köllen Verlag, 2006.
[Un07] Universität Münster: „E-Learning-Kompetenzzentrum“
http://e-learning.uni-muenster.de/
[Wi07] Wissenschaftsrat: „Exzellenzinitiative“
http://www.wissenschaftsrat.de/exini_start.html
208
...unser Admin installiert da mal was! – Zur Nachhaltigkeit
von E-Learning-Infrastrukturen – Eine Taxonomie
Thorsten Hampel, Marc Steinbring
Universität Wien
Fakultät für Informatik - Betriebliche Informationssysteme
Dr.-Karl-Lueger-Ring 1
A - 1010 Wien
thorsten.hampel@univie.ac.at, steinb@zitmail.uni-paderborn.de
Abstract: Ziel des Beitrags ist die Analyse von Faktoren der inhaltlichen und organisatorisch-infrastrukturellen Nachhaltigkeit von E-Learning-Infrastrukturen. In
Form einer Taxonomie werden die zentralen Aspekte und Einflussfaktoren eines
nachhaltigen Einsatzes von E-Learning-Infrastrukturen herausgearbeitet, systematisiert und an Beispielen illustriert.
1
Einleitung
Etymologisch betrachtet geht der Begriff der Nachhaltigkeit auf den Forstwirt Hans Carl
von Carlowitz zurück, der in seiner Sylvicultura oeconomica von 1713 das erste Mal der
Idee einer nachhaltigen Pflege des Baumbestandes nachging. „Wird der halben die größte Kunst, Wissenschaft, Fleiß und Einrichtung hiesiger Lande darinnen beruhen, wie eine
sothane Conservation und Anbau des Holzes anzustellen, dass es eine kontinuierliche
beständige und nachhaltende Nutzung gebe, weil es eine unentbehrliche Sache ist, ohne
welche das Land in seinem Esse nicht bleiben mag.“1 Fielen einst zahlreiche Flächen an
forstwirtschaftlichen Kulturen dem mit der Rodung einhergehenden Profitdenken zum
Opfer, sind nach Einführung einer nachhaltigen Nutzung deren Vorteile heutzutage offensichtlich und allgemein anerkannt. Die Idee der Nachhaltigkeit aus der forstwirtschaftlichen Definition heraus kann auch für E-Learning-Systeme übertragen und für
Handlungsanweisungen einer positiven Entwicklung entliehen werden. In beiden Fällen
hat die Definition eine dauerhafte und kontinuierliche Nutzung und Pflege einmal aufgebauter Strukturen zum Inhalt. Die Unterstützung menschlichen Lernens mit Hilfe von
Computern ist von Multimedia über Hypermedia und E-Learning in stetiger Entwicklung. Aktuell trifft vielleicht der Begriff der Wissensorganisation die vielfältigen Ansätze am treffendsten. Analog zur stetigen Entwicklung der Terminologien der Wissensorganisation werden fortlaufend neue Systeme geschaffen und bestehende Ansätze
erweitert.
1
Hans Carl von Carlowitz, Sylvicultura Oeconomica, 1713
209
Als sicherlich richtungweisende Erkenntnis steht dabei nicht länger die Frage nach der
(einen) richtigen Plattform im Vordergrund. Es geht vielmehr um die Voraussetzungen
einer auf Nachhaltigkeit aufbauenden Einbettung unterschiedlicher, miteinander vereinbarer, koexistierender Systeme in eine kooperative Diensteinfrastruktur. Sind die Gründe
für die Fülle an genutzten Systemen und Ansätzen sehr vielfältig, so gilt dem Augenmerk die Entwicklung eines geeigneten Konzepts der Nachhaltigkeit. Der vorliegende
Beitrag wird ausgehend von der Fähigkeit zur Interoperabilität verschiedener ELearning-Systeme eine Nachhaltigkeitstaxonomie vorstellen.
2
Von funktional ausgerichteter Softwareentwicklung zur nachhaltigen Interoperabilität
Prägender Gegenstand der allgemeinen E-Learning-Diskussion der letzten Jahre war der
funktionale Vergleich der verschiedenen auf dem Markt verfügbaren E-LearningPlattformen und Systeme. E-Learning-Plattformen oder auch Lernmanagementsysteme
werden hierbei primär nach funktionalen Eigenschaften und Merkmalen (ihren Features)
miteinander verglichen und voneinander differenziert. Treibende Kriterien eines derartigen Vergleichs sind die bereitgestellten didaktischen Lernformen, Kommunikationsmöglichkeiten, aber auch technische Eigenschaften, wie bereitgestellte Schnittstellen oder
unterstützte Formate. In diesem Prozess des Benchmarking orientiert sich die Bewertung
von Lernplattformen oder auch allgemein eine Bewertung wissensverarbeitender Systeme primär an Eigenschaften des jeweils betrachteten Werkzeugs. Im Zuge dieses Vorgehens sind eine ganze Reihe von teils umfangreichen Vergleichsstudien zu den Eigenschaften verschiedener E-Learning-Plattformen und Lernmanagementsystemen
entstanden (vgl. [BHM02] und [Sc03]). Derartige Studien leisten die wichtige Aufgabe,
Plattformen zunächst anhand verschiedener Kriterien, wie der unterstützten Lernformen,
Übungstypen oder auch Mechanismen der Lernfortschrittskontrolle, also die primär
funktionalen Eigenschaften, zu klassifizieren.
Zurzeit sind zwei wesentliche neue Phänomene in der Bewertung verschiedener Lernplattformen und Lernmanagementsysteme zu beobachten. Hierbei ist zum einen eine
funktionale Konvergenz der auf dem Markt verfügbaren Produkte zu nennen, zum anderen finden zunehmend Interoperabilitäts- und Architekturmerkmale (Standarisierungsaspekte) von Lernplattformen eine Berücksichtigung.2 Mit der funktionalen Konvergenz
verschiedener Lernplattformen ist zunächst eine zunehmende funktionale Ähnlichkeit
typischer Lernplattformen gemeint. Viele Systeme gleichen sich in Art und Umfang der
angebotenen Lernformen und Kommunikationswerkzeuge. Lassen sich eine Vielzahl
unterschiedlicher Ausprägungen und Unterschiede zwischen den Plattformen beobachten, so sind jedoch grundlegende Merkmale und Funktionen ähnlich bzw. vielfach aufeinander abbildbar. Dies erkennt man beispielsweise an ähnlicher Terminologie (Kurs,
Übung bzw. angebotene Übungsformen) aber auch an einem sich ausbildenden gewissen
Konsens der Gestaltung einer Lernplattform.
2
vgl. hierzu auch die Open Knowledge Initiative (O.K.I), http://okicommunity.mit.edu/
210
Besonders bemerkenswert ist in diesem Zusammenhang, dass sich Open-SourceSysteme in den letzten Jahren den großen kommerziellen Systemen angenähert haben,
bzw. diese in einigen Bereichen übertreffen. Insofern bilden Open-Source-Systeme –
nicht zuletzt aufgrund des Geschäftsmodells des Verkaufs von Service und Dienstleistung rund um Open-Source – eine ernst zu nehmende Alternative zu verbreiteten kommerziellen Lösungen. Funktionale Konvergenz bedeutet entsprechend auch eine sich
ausbildende Vielfalt an möglichen Lizenz- und Kostenstrukturen bei ähnlichem funktionalem Angebot (vgl. [SH06a]).
Gängige Lernplattformen werden sich entsprechend rein funktional betrachtet ähnlicher,
wenn auch zum Teil die Fundamente ihrer Architektur erheblich differieren. So führen
unterschiedliche architektonische Konstrukte der jeweiligen Plattformen zu sehr differenzierten Möglichkeiten der Verzahnung der angebotenen Werkzeuge/Dienste.3 Eine
wesentliche Auswirkung hat die gewählte architektonische Grundlage eines Systems
jedoch insbesondere auf dessen Fähigkeit mit anderen Systemklassen zusammenzuarbeiten. Neben der funktionalen Konvergenz von Wissensorganisations- und Lernmanagementplattformen sind als deren besondere Qualitätskriterien die Standardisierung und
Interoperabilität, also die Konvergenz auf Interoperabilitätsebene, zu nennen. Der vorliegende Beitrag begreift die Fähigkeit zur Interoperabilität, also die Systemkonvergenz
verschiedener Systemklassen des E-Learning als wesentliches Merkmal der Nachhaltigkeit einer aufzubauenden Infrastruktur. Die Fähigkeit mit anderen Systemklassen zusammenzuarbeiten erstreckt sich dabei auf die Dimension des
standardisierten Austauschs von Daten und Materialien der Lernplattform, also die
Nutzung von Standards zur Kodierung der Inhalte und Strukturen,
auf die funktionale Verzahnbarkeit verschiedener Systemklassen, also die Möglichkeit einzelne Funktionseinheiten und Dienste in verschiedenen Nutzungskonstellationen zusammenführen zu können,
und schließlich auf den Aufbau von sicheren Authentifizierungs- und Autorisierungsinfrastrukturen, also die Fähigkeit Nutzer- und Gruppenverwaltungen organisatorisch wie technisch zusammenführen zu können.
Alle drei genannten Dimensionen einer Systemkonvergenz sind entsprechend wichtige
Aspekte der Nachhaltigkeit einer gewählten Lösung. War noch vor wenigen Jahren das
Argument der Wahl einer entsprechenden Plattform aus funktionaler Sicht wesentlich
und vorrangig, so verschiebt sich zusehends der Fokus auf die Nachhaltigkeit der zu
entwerfenden Gesamtlösung. Vereinfacht ausgedrückt lassen sich verschiedene Systeme
weniger durch die besondere eine oder andere Funktion unterscheiden, als durch ihre
Fähigkeiten zur Integration in eine Gesamtinfrastruktur.
3
Auf die Aspekte der Integration von medialen Beschreibungsformen, beispielsweise verwirklicht im Konzept
der Wissensräume, sei an dieser Stelle nicht genauer eingegangen und auf [Ha02] verwiesen.
211
3
Taxonomische Darstellung für Dimensionen der Nachhaltigkeit
Die Nachhaltigkeit einer E-Learning-Umgebung bzw. eines Lernmanagement-Systems
ist von einer ganzen Reihe von Faktoren beeinflusst. Auf dem Weg hin zu einer Taxonomie der Nachhaltigkeit von E-Learning-Systemen lässt sich zunächst die Dimension
einer inhaltlichen Betreuung von der Dimension einer organisatorischen Einbettung des
genutzten Produkts mit ihren verschiedenen Faktoren differenzieren. Diese Bestandteile
führen zu einer klassifizierenden Gliederung der Nachhaltigkeit von E-LearningLandschaften und können in Form einer Taxonomie dargestellt werden (vgl. Abbildung
1). Die mit der Nachhaltigkeit einhergehenden Umsetzungskonflikte sind in Abbildung 2
tabellarisch aufgeführt.
Dimension 1: Inhaltliche Betreuung
Die inhaltliche Betreuung bezieht sich auf die Art und Weise der Pflege der wesentlichen Bestandteile einer E-Learning-Umgebung. So können einerseits die Verwaltung der
Lerner und Lehrende (Faktor 1.1), die Aktualität der Inhalte (Faktor 1.2) und die Betreuung der Nutzer (Faktor 1.3) als Nachhaltigkeitskriterium aus inhaltlicher Sicht ausgemacht werden. Zwischen inhaltlicher und organisatorisch-infrastruktureller Nachhaltigkeit bestehen diverse Abhängigkeiten und ein enger Bezug.
Faktor 1.1: Verwaltung von Lerner und Lehrende
Für jede auf Nachhaltigkeit ausgelegte Nutzung eines E-Learning-Systems gilt es die
Nutzer und Lehrenden der Lernumgebung zu verwalten und geeignete Gruppenstrukturen zu pflegen. Nur wenn Lerner und Lehrende eine strukturierte Lernumgebung vorfinden, ist eine sinnvolle Nutzung überhaupt erst möglich. Eine einfache Verwaltung liefert
die Grundvoraussetzung für eine Effizienz und Effektivität des Lernsystems.
Faktor 1.2: Aktualität der Lerninhalte
Inhaltskomponenten (Content), wie Materialien, Multiple-Choice-Tests oder Prüfungen,
bedürfen natürlicherweise einer stetigen Aktualisierung und Pflege. Inhalte in Kursen
oder Übungen müssen den wechselnden Rahmenbedingungen der Lehre stets überarbeitet und die Aufarbeitung und Darstellungsform neuen Strukturen angepasst werden.
Hierzu ist ein organisatorischer wie personell-fachlicher Aufwand zu kalkulieren. Nachhaltige Pflege bezieht sich auf die Umsetzung dieser Anforderung.
Faktor 1.3: Betreuung der Nutzer
Ähnlich komplex wie die Verwaltung und Aktualisierung eines E-Learning-Angebots ist
die Sicherstellung der Betreuung und tutoriellen Begleitung der Nutzer während des
gesamten Lernprozesses. Nicht nur im Umfeld des Blended-Learnings bedarf es personellem Aufwand, inhaltliche Strukturen aufzubauen und den Lernern anzubieten. Für die
Beantwortung von Fachfragen und als Lernbegleiter müssen Tutoren mit unterschiedlichem Fachwissen zur Verfügung stehen, Teilnehmer motivierend unterstützen sowie
Gruppenprozesse steuern und begleiten.
212
Dimension 2: Organisatorisch-infrastrukturelle Nachhaltigkeit
Infrastrukturelle Nachhaltigkeit bezieht sich auf sämtliche Aspekte des Betriebs der
notwendigen Infrastruktur, insbesondere auf ihrer Einbettung in eine übergreifende Gesamtinfrastruktur. E-Learning ist integraler Bestandteil von Systemen der Organisation
der Lehre, der Prüfungsverwaltung, Kursorganisation, aber auch vielfältiger Formen der
Bereitstellung und Recherche von Lernmaterialien, z.B. als Teil digitaler Bibliotheken.
Verschiedene E-Learning-Dienste werden Teil einer teils komplexen Infrastruktur, welche vielfältige Aspekte der Wissensorganisation und des Lernens umspannt. Zu einem
detaillierten Verständnis der infrastrukturellen Nachhaltigkeit muss einer ganzen Reihe
von Fragestellungen nachgegangen werden.
Abbildung 1: Taxonomie einer Nachhaltigkeit von E-Learning-Plattformen
Faktor 2.1: Nachhaltigkeit im Betrieb der Plattform
Die unterschiedlichen Möglichkeiten, wie E-Learning-Systeme grundsätzlich betrieben
werden, sind in genauer zu spezifizieren und unterschiedlichen Betriebsmodellen zuzuordnen (Faktor 2.1.1). Eng verknüpft mit der Art der nachhaltigen Nutzungsmöglichkeit
einer Plattform sind die jeweiligen, mit den Betriebsmodellen einhergehenden Geschäftsmodelle der Anbieter verbunden (Faktor 2.1.2). Wird von Nachhaltigkeit eines ELearning-Systems gesprochen, so sind beide Faktoren als Nachhaltigkeitskriterium zu
berücksichtigen.
Faktor 2.1.1: Entscheidung des Betriebsmodells
Betriebsmodelle im E-Learning können unterschiedliche Ausprägungen aufweisen. Beispielsweise können eine Betreuung, Wartung und Hosting vor Ort (Inhouse-Betrieb einer
eigenen Plattform) in der jeweiligen Institution erfolgen oder ein Outsourcing von Bestandteilen der Plattform vorgenommen werden. Ein Outsourcing kann über Strategien
des vollständigen externen Hostings einer Lernplattform mit Inanspruchnahme der
Dienste eines (Full) Application Service Providers bis hin zu Varianten reichen, die nur
einzelne Bestandteile auskoppeln.
213
Hierzu zählt beispielsweise das Server-Housing, bei dem lediglich Rechenleistung und
Infrastruktur (wie Hardware und Netzwerkinfrastruktur) eines Dienstleisters in Anspruch
genommen werden, um auf die eigene Anschaffung und Betreuung notwendiger (kostenintensiver) Hardware zu verzichten; eine Betreuung der E-Learning-Plattform findet
seitens des Dienstleisters nicht statt. Vor- und Nachteile gilt es in allen Lösungen gegeneinander abzuwägen. So erlaubt ein Betrieb vor Ort natürlicherweise eine intensive Anpassung und ein Zuschnitt der jeweiligen Dienste auf den Kontext des Anwendungsfalls.
Auch ist die Kostenstruktur durch vor Ort anfallende Kosten, wie Hardware und Infrastruktur, geprägt. Notwendig ist entsprechendes Know-How für den Betrieb und die
Pflege der notwendigen Infrastrukturen aufzubringen. Externes Hosting (auch von Teilen
der jeweiligen Infrastruktur) entbindet genau von diesem notwendigen Wissen bzw.
Hardwarekosten. Auch sind Kostenstrukturen zum Teil transparenter abschätzbar, da sie
in Vertragsverhandlungen mit dem Dienstleister offengelegt werden. Externes Hosting
geht oftmals einher mit der Nutzung von Standard-Lösungen, welche durch die jeweiligen Provider vorgegeben sind, allerdings in zunehmendem Maße auch mit Individualanpassungen angereichert werden. Somit bestimmt die Entscheidung für oder gegen ein
bestimmtes Betriebsmodell auch die Nachhaltigkeit des eingesetzten E-LearningSystems. Denn nicht zuletzt erweist sich eine zu ungenau durchgeführte Kostenkalkulation oftmals als Ursache des nicht reibungslosen Funktionierens, wenn nicht sogar der
Einstellung von E-Learning-Aktivitäten.
Faktor 2.1.2: Geschäftsmodell der Anbieter
Die richtige Wahl des angebotenen Geschäftsmodells beeinflusst in erheblichem Maße
die weitere Zukunftsfähigkeit eines E-Learning-Systems. Nachhaltigkeit aus Sicht der
Provider besteht in dem Anbieten geeigneter lizenzorientierter Vertragsbedingungen, da
schlussendlich die Kunden über Akzeptanz oder Ablehnung eines Dienstes entscheiden
und direkten Einfluss auf den finanziellen Erfolg eines Produktes haben. Um dieses Ziel
zu erreichen, müssen Lizenzmodelle gleichwohl als Bestandteil eines erfolgreichen Geschäftsmodells so ausgerichtet werden, dass sie auf Akzeptanz seitens der Nachfrager
stoßen und zu Vertragsabschlüssen führen. Seitens der Nachhaltigkeit aus Nachfragersicht gilt es zunächst zu unterscheiden, inwieweit Anpassungen, z.B. lediglich durch
einen Anbieter (Closed Source) oder im Idealfall einer Gruppe möglicher Anbieter (Open-Source), möglich sind. E-Learning-Infrastrukturen auf Open-Source-Basis nehmen
in dieser Form eine besondere Stellung in einer Diskussion um die Nachhaltigkeit eines
Produkts ein. Eine Nachhaltigkeit bezogen auf das vorliegende Geschäftsmodell von
Anbieter und Nachfrager erstreckt sich entsprechend über die Dimensionen:
Open-Source – kommerzielles Produkt
Freie Verfügbarkeit – Lizenzierung
Verfügbarkeit von Support – Kosten von Supportleistungen
Aktive Entwicklergemeinde – nachhaltige Betreuung/Support durch Anbieter
Diversifikation der Dienstleister und Dienstleistungen – Herstellersupport
214
Immer wieder werden Studien zum Kostenvergleich von Open-Source-Plattformen mit
kommerziellen Plattformen durchgeführt, deren Ergebnisse zu unterschiedlichen Aussagen führen. Daher wird auf das Pro und Contra von Open-Source an dieser Stelle nicht
weiter eingegangen. Vielmehr gilt es für den Anwender verschiedene, auf das einzusetzende Produkt bezogene Faktoren gegeneinander abzuwägen. Für viele auf dem Markt
verfügbare nicht-kommerzielle E-Learning-Plattformen existieren durchaus kommerzielle Anbieter, welche kostenpflichtig Support leisten und Erweiterungen an den jeweiligen
Produkten vornehmen. Das verbreitete Argument Open-Source-Software wäre einerseits
umsonst, würde andererseits aber wenig professionellen Support bieten können, ist nicht
mehr in dem Maße gültig. Vielen Orts kehrt sich das genannte Argument um, indem
Software, welche vom Quelltext offen liegt, eine breitere Vielfalt an möglichen Anbietern von Dienstleistungen und Erweiterungen nach sich zieht. Der Kunde ist in diesem
Fall nicht vom Geschäftsmodell eines einzelnen Herstellers abhängig. Kriterien für gute
Open-Source-Software im Sinne der Nachhaltigkeitsdiskussion orientieren sich an dem
Vorhandensein einer aktiven Entwicklergemeinde.4 Letztere ist gleichzeitig auch der
Garant für das Vorhandensein einer ausreichenden Zahl kommerzieller Anbieter rund
um ein Open-Source-Produkt (vgl. [SH06b]). Hieraus ergibt sich eine Kosten-NutzenRelation aus eingesparten Lizenzkosten eines kommerziellen Produktes zu eingekauftem
Support und Entwicklung durch einen externen Dienstleister für eine Open-SourceLösung. Es gilt ebenso abzuwägen wie viel Know-How zur Nutzung und Erweiterung/Entwicklung an einer Open-Source-Plattform aufzubauen ist.
Anpassbarkeit und Zukunftsfähigkeit von Lernplattformen werden in den nächsten Jahren wesentlich durch serviceorientierte Architekturen an Flexibilität gewinnen. Schon
jetzt sind mit Hilfe verschiedener architektonischer Konzepte, wie beispielsweise Webservices, Architekturmodelle erkennbar, in denen sich Dienste von verschiedenen Anbietern, also auch Open-Source-Anbietern, in Lern- und Arbeitsumgebungen zusammen
führen lassen. Möglichst offene Schnittstellen führen hierbei zu neuartigen Systemarchitekturen in denen verschiedene Diensteanbieter ihre spezifischen Services erbringen.
Gleichzeitig ergeben sich neue Geschäftsmodelle, als Teil derer sich Dienste beispielsweise mieten lassen.
Faktor 2.2: Nachhaltige Instanziierung einer Lernumgebung
Eine nachhaltige Instanziierung ist wesentlich mit der Betreuung der Nutzer und Gruppenstruktur (Dimension 1) verknüpft. Das Einrichten neuer Nutzer und Gruppen und die
Pflege und Aktualisierung der bestehenden Gruppenstruktur sind wichtige Bestandteile
eines Nachhaltigkeitskonzepts einer E-Learning-Infrastruktur. Auch wenn seit einigen
Jahren Ansätze der dezentralen Administration5 existieren und verschiedene Verfahren
der automatischen oder halbautomatischen Anmeldung zu E-Learning-Umgebungen
Anwendung finden, verbleibt ein nicht unerheblicher Aufwand an notwendiger Betreuung und Pflege der Nutzerstruktur.
4
vgl. die weltumspannende Entwicklergemeinschaft der Plattform Moodle (www.moodle.org)
Als Teil einer dezentralen Administration werden Nutzer- und Gruppenstruktur durch eine größere Gruppe
von Administratoren gepflegt – nicht wie sonst üblich durch einen oder wenige Administratoren.
5
215
Bereits heute wird in diesem Zusammenhang die Einbindung eines E-Learning-Systems
in einen zentralen Verzeichnisdienst angewendet, wie beispielsweise über eine LDAPSchnittstelle6. Autorisierungs- und Authentifizierungsinfrastrukturen führen letztlich zu
einer Zentralisierung von Aufgaben, Pflege und Verwaltung von Nutzerinformationen.
Der enge Zusammenhang von Nachhaltigkeit und entsprechender Interoperabilität der
genutzten Werkzeuge zeigt sich am Beispiel der Integration verschiedener Angebote des
SprachChancen-Verbunds7 in die der Virtuellen Hochschule Bayern (vhb). Die vhb stellt
ein zentrales Portal zur Belegung verschiedener Kursangebote bereit. Die eigentlichen
Kursmaterialien verbleiben in den Lernumgebungen der jeweiligen Kursanbieter. Dieses
Vorgehen macht entsprechend Schnittstellen zur automatischen Kursregistrierung auf
Seiten der Kursanbieterplattformen notwendig. Im Idealfall wäre der Aufbau einer zentralen Authentifizierungs- und Autorisierungsinfrastruktur (AAI) beispielsweise auf Basis
der Shibboleth-Software8 wünschenswert, die es den Lernenden erlaubt sich transparent
zwischen Lernplattformen und dem vhb-Studierendenportal mit einem Single-Sign-On
zu bewegen. Denkbar sind in diesem Zusammenhang auch Szenarien des Outsourcings
von Betreuungsleistungen der Nutzer- und Gruppenstruktur (vgl. Faktor 2.1). Teil der
Nachhaltigkeitsanalyse einer Lernumgebung ist die Prüfung des Vorhandenseins flexibler Schnittstellen zur Nutzerverwaltung (Verwendbarkeit externer Werkzeuge bzw. Einbettung in Autorisierungs- und Authentifizierungsinfrastrukturen). Gleichzeitig sind die
innerhalb des Systems angebotenen Werkzeuge zur Administration von Nutzer- und
Gruppenstrukturen bezogen auf die Größe und Struktur, sowie Komplexität des geplanten Einsatzes und der damit erforderlichen Gruppenstruktur in die Betrachtung einzubeziehen.
Faktor 2.3: Innovationsgrad einer Plattform
Als weitere Bestandteile einer Nachhaltigkeitsanalyse sind Aspekte des Innovationsgrades der gewählten Plattform zu berücksichtigen. Nachhaltigkeit definiert sich zu einem
guten Teil über die Dynamik an Innovationen, d.h. die kontinuierliche Weiterentwicklung und Anpassung der gewählten Plattform. Wachsende Bedürfnisse der Nutzer, aber
auch sich ändernde Vorstellungen der Ausgestaltung von E-Learning-Systemen definieren eine kontinuierliche Notwendigkeit zur Innovation der verwendeten Werkzeuge.
Aber auch sich laufend ändernde Rahmenbedingungen, wie beispielsweise sich wandelnde Arbeitsumgebungen der Nutzer (Betriebssysteme, verwendete Werkzeuge) und
sich ändernde Rahmenbedingungen zum Betrieb der jeweiligen Plattformen (Serverumgebungen, Schnittstellen etc.) machen die kontinuierliche Anpassung der verwendeten
Systeme notwendig.
Nachhaltigkeit bedeutet beiden Gegebenheiten in
können. Beeinflusst wird die Möglichkeit hierzu
kunftsfähigkeit einer Plattform, welche sich zum
der realisierten Systemarchitektur (Faktor 2.3.1)
kunftsweisender Standards (Faktor 2.3.2) ableitet.
6
7
8
flexibler Weise Rechnung tragen zu
zu einem guten Stück von der Zueinen von dem Innovationspotenzial
und zum anderen der Nutzung zu-
vgl. Verzeichnisdienste wie das Lightweight Directory Access Protocol.
vgl. www.sprachchancen.de
vgl. http://shibboleth.internet2.edu/
216
Faktor 2.3.1: Innovationspotential der Architektur
Die realisierte Systemarchitektur beeinflusst entsprechend unmittelbar die Art und Weise, wie sich eine E-Learning-Umgebung auf sich ändernde Ansprüche anpassen lässt.
Handelt es sich beispielsweise um eine Architektur, welche auf ein eher starres Datenbankschemata zurückgreift, lassen sich nur schwer weitere Attribute in ein System einfügen oder strukturelle Änderungen an der Systemarchitektur vornehmen. Flexible und
vor allem moderne erweiterungsfähige Architekturansätze bieten hier erheblich mehr
Spielraum. Beispiele sind so genannte serviceorientierte Architekturmodelle (SOA),
welche sich aus Sicht der Systemarchitektur durch besonders flexibel kombinierbare und
damit erweiterbare Teilkomponenten auszeichnen. Problematisch ist im Zusammenhang
mit der Einschätzung eines realisierten Architekturmodells, dass es auf die meisten verfügbaren Systeme bezogen äußerst schwer fällt, die Systemarchitektur eines Werkzeugs
im Detail zu ermitteln. Ein kritischer Blick auf die realisierte Architektur lässt sich entsprechend meist nur in engem gedanklichen Austausch mit den Entwicklern/Softwarearchitekten des jeweiligen E-Learning-Systems erzielen.
Faktor 2.3.2: Nutzung zukunftsweisender Standards
Standards definieren einen plattform- und herstellerübergreifenden Weg der Speicherung
und des Austauschs von Materialien. Standards beziehen sich auch auf die Integrierbarkeit der jeweiligen Plattform in umfassendere Infrastrukturen. Mit Blick auf die Nachhaltigkeit einmal entwickelter Materialien spielt ihre Übertragbarkeit und Wiederverwendbarkeit mit Hilfe verschiedener Standards eine ausgezeichnete Rolle. So gelingt es,
Materialien, wie Kurse oder auch einzelne Aufgaben von einem E-Learning-System in
ein weiteres System zu überführen und dort zu nutzen. E-Learning-Standards sind entsprechend kein theoretisches Qualitätskriterium, sondern ein wirkliches Kriterium der
Nachhaltigkeit einer genutzten Umgebung. Standards, wie SCORM9, LOM10, QTI 11 oder
IMS Learning Design 12 bieten sehr unterschiedliche Möglichkeiten und bedürfen einer
ganzen Reihe von Voraussetzungen. Allerdings gelingt es in der Praxis nur sehr bedingt,
in einem der genannten Standards abgelegte Materialien ohne größeren Aufwand oder
Anpassung von einer E-Learning-Umgebung in eine weitere Umgebung zu überführen.
Dies zeigt sich z.B. daran, dass Export-Funktionen von Materialien in verschiedenen
Standards oftmals ausgeprägter ausgestaltet sind als notwendige Import-Funktionen.
Entsprechend sollte im Rahmen einer Nachhaltigkeitsdiskussion auch kritisch hinterfragt
werden, wie konkret der jeweilig unterstützte Standard ausgestaltet ist. In vielen Fällen
werden lediglich Subsets des genormten Standards unterstützt; auch werden Standards in
vielen Fällen durch proprietäre Erweiterungen ergänzt. Beides macht das ursprüngliche
Ziel einer Übertragbarkeit von Materialien schwierig und in der Praxis teils unmöglich.
Leider befinden sich E-Learning-Standards, wie beispielsweise IMS Learning Design in
vielen Bereichen noch im Entwicklungsstadium und eignen sich zum Teil nur bedingt
zur Codierung von Lernmaterialien in einer alltagstauglichen Art und Weise. Auf der
9
SCORM, Sharable Content Object Reference Model
LOM, Learning Object Metadata
11
IMS Question & Test Interoperability Specification, http://www.imsproject.org/question/
12
IMS Learning Design Specification, http://www.imsglobal.org/learningdesign/)
10
217
anderen Seite zeugen vorhandene Standards gegenüber rein proprietären Lösungen von
einem hohen technischen Niveau und einer gewissen Innovationskraft der jeweiligen
Plattform. Ist die praktische Nutzbarkeit vieler Standards, speziell im Übergang zwischen verschiedenen Plattformen oftmals ernüchternd, tragen sie doch entscheidend zur
Zukunftsfähigkeit der jeweiligen Lösung bei. Zu hoffen gilt in Bezug auf den letztgenannten Punkt, dass sowohl genutzte Standards, aber auch deren Umsetzung und Ausgestaltung kontinuierlich verbessert werden.
Faktor 2.4: Verzahnung auf organisatorisch-infrastruktureller Ebene
Infrastrukturelle Nachhaltigkeit erstreckt sich auch auf die organisatorischinfrastrukturelle Verzahnung des E-Learning-Produkts mit seinen ihn umgebenden Systemen. Wie schon im Bereich der Nutzerverwaltung angedeutet, können E-LearningSysteme nicht länger als isolierte Einheiten verstanden werden, vielmehr sind sie Bestandteil einer offenen Diensteinfrastruktur. Als Teil dieser offenen und flexiblen
Diensteinfrastruktur werden Schnittstellen wichtige Grundvoraussetzung der Integrierbarkeit des jeweiligen Systems. Zu unterscheiden gilt es zunächst inwieweit eine Verzahnung auf enger technischer Kopplungsebene (Faktor 2.4.1) oder eine voneinander
unabhängige, lose gekoppelte Dienste Verzahnung erfolgt (Faktor 2.4.2).
Faktor 2.4.1: Verzahnung auf enger technischer Kopplungsebene
Eine Verzahnung auf enger technischer Kopplungsebene bildet die klassische Form der
Verknüpfung verschiedener E-Learning-Systeme, z.B. auf Basis verschiedener Programmierschnittstellen. Gängige E-Learning-Systeme zeichnen sich durch verschiedene
Schnittstellen zum Datenaustausch, z.B. zur externen Anbindung einer Nutzerverwaltung aus. Zum Teil existieren Programmierschnittstellen (oftmals ausgelegt als APIs für
typische Scripting-Sprachen), bei denen der Austausch innerhalb der jeweiligen Institution erfolgt. Hierbei werden Systeme z.B. auf Ebene der Nutzerverwaltung sehr direkt
miteinander verbunden (z.B. Anbindung an einen zentralen Verzeichnisdienst/LDAPServer). Zu einer Kopplung verschiedener Systeme und Systemklassen ist ein sehr spezifisches Wissen um die Strukturen und das Verhalten des jeweiligen Systems notwendig.
E-Learning-Standards sind ein erster wichtiger Schritt um Datenformate und Metadaten
zwischen verschiedenen Systemen zu normieren. Diese Normierung findet in der Regel
auf Basis verschiedener XML-Beschreibungen statt. Als oftmals problematisch erweist
sich in diesem Zusammenhang die fehlende technische und strukturelle Anbindungsmöglichkeit einiger E-Learning-Lösungen an die Verzeichnisdienste einer Nutzerdaten
verwaltenden Institution (z.B. Rechenzentrum).
Faktor 2.4.2: Verzahnung auf loser technischer Dienste-Ebene
Eine nächste wichtige Stufe der Koppelbarkeit von E-Learning-Systemen bilden offene
Interoperabilitätsschnittstellen. Ziel ist hier auch die institutionsübergreifende Kopplung
von Systemen zu ermöglichen. E-Learning-Systeme treten als Dienstnehmer und Dienstgeber auf.
Merkmale sind zum einen die Selbstbeschreibungsfähigkeit der bereitgestellten Dienste
zu fördern. Die konkrete Realisierung (Implementierung) des jeweiligen Systems tritt
zugunsten einer Datenkapselung in den Hintergrund. Zum anderen führen dienstorien-
218
tierte Ansätze zu einer gewissen Austauschbarkeit der jeweiligen Dienste. Wichtige
architektonische und technische Grundlagen bilden die so genannten Webservices. Webservices im E-Learning-Umfeld erlauben es beispielsweise auch sehr heterogene Systemklassen funktional zu koppeln. Beispielsweise lässt sich eine Suche aus einem ELearning-System in einer digitalen Bibliothek vornehmen oder LernmanagementSysteme werden funktional an E-Learning-Systeme angebunden (Belegung eines Kurses
o.ä.) (vgl. [Bo06]). Unter dem Gesichtspunkt einer Bewertung der Nachhaltigkeit bilden
offene und flexible Interoperabilitätsschnittstellen die wesentlichen Grundlagen zur
Realisierung erfolgreicher Systemkonvergenzen. Im letzteren Bereich findet sich sicherlich das größte Innovationspotenzial von E-Learning- und Lernmanagement-Systemen,
wenngleich auch von Kommunikationssystemen und Plattformen für Zusammenarbeit.
Die Grenzen eines einzelnen Produktes werden zu Gunsten einer durch offene Schnittstellen ermöglichte Diensteintegration zu einem Konstrukt aufgehoben, das auf Individualität und Flexibilität ausgerichtet ist.
Abbildung 2: Konfliktpotential bei angewendeter Nachhaltigkeit
4
Ausblick: Nachhaltigkeit auf Handlungsebene
Der Entwurf einer Taxonomie verschiedener Faktoren der Nachhaltigkeit hat deutlich
gemacht, wie wichtig sich Nachhaltigkeit für die aktuelle Landschaft der Wissensorganisation und des klassischen E-Learning darstellt. E-Learning-Systeme fungieren nicht
länger als weitgehend isolierte Einheiten; sie nehmen ihren Platz in einem komplexen
Geflecht aus miteinander interagierenden Diensten ein und bilden entsprechend im Idealfall eine durchgängige Infrastruktur. Zum Aufbau einer derartigen Infrastruktur sind eine
ganze Reihe technischer, aber auch organisatorischer Voraussetzungen zu erfüllen.
Diese reichen von der Wahl und Architektur der jeweiligen Plattform der Pflege und
Erweiterbarkeit bis zu Fragen ihres Betriebs als Bestandteil einer Dienstinfrastruktur.
Aktuell viel diskutierte Fragen betreffen insbesondere die Integration einer plattform-
219
übergreifenden Nutzer- und Gruppenstruktur. Die nächste Stufe einer Interoperabilität
und Systemkonvergenz betrifft sicherlich plattformübergreifende Interaktionen der Lernenden und Lehrenden. Erst wenn es gelingt Lernmaterialien unabhängig der Grenzen
der beteiligten Lern- und Arbeitsplattformen zu verwalten und für die Lernenden manipulierbar machen zu können, kann von wirklichen virtuellen Wissensräumen (vgl.
[Ha02] und [KHE05]) gesprochen werden. Ziel sollte sein, die Limitierungen medialer
Handlungsmöglichkeiten bedingt durch die beteiligten Systeme auf ein Minimum zu
reduzieren. Die Reduzierung von Medienbrüchen ist hierzu ein wesentliches Kriterium.
Literaturverzeichnis
[BHM02] Baumgartner, P., Häfele, H. & Maier-Häfele, K.: E-Learning Praxishandbuch, Studien
Verlag, Innsbruck, 2002.
[Bo06] Bopp, T., Hampel, T., Hinn, R., Lützenkirchen, F., Prpitsch, C. & Richter, H.: Alltagstaugliche Mediennutzung erfordert Systemkonvergenz in Aus- und Weiterbildung. In:
Seiler Schiedt, E., Kälin, S. & Sengstag, Ch. (Hrsg.), E-Learning – alltagstaugliche Innovation?. Waxmann, Münster, 2006, Bd. 38, S. 87-96.
[Ha02] Hampel, T.: Virtuelle Wissensräume. – Ein Ansatz für die kooperative Wissensorganisation, Universität Paderborn, Informatik, Dissertation, 2002.
[KHE05] Keil-Slawik, R., Hampel, T., Eßmann, B.: Re-Conceptualizing Learning Environments:
A Framework for Pervasive eLearning. In: Proceedings of the Third IEEE International
Conference on Pervasive Computing and Communications Workshops, IEEE Press,
2005, S. 322-326.
[Sc03] Schulmeister, R.: Lernplattformen für das virtuelle Lernen: Evaluation und Didaktik.
Oldenbourg Verlag, München, 2003.
[SH06a] Steinbring, M. & Hampel, T.: Nachfragerorientierte Lizenzierung in e-LearningUmgebungen – Eine Klassifikation typischer Lizenzmodelle. In: Mühlhäuser, M., Rößling, G., Steinmetz, R. (Hrsg): DeLFI 2006, Darmstadt, 2006, Lect. Notes Inform., Proc.
(Vol. 87), S. 363-374.
[SH06b] Steinbring, M & Hampel, T.: Finanzierungsalternativen und Dienstleistungsmodelle von
Open-Source-Software in webbasierten Umgebungen. In: Christian Hochberger, Rüdiger
Liskowsky (Hrsg): Informatik 2006, Informatik für Menschen, Dresden, 2006, Lect. Notes Inform., Proc. (Vol. 94), S. 71-76.
220
koaLA – Integrierte Lern- und Arbeitswelten für die
Universität 2.0
Alexander Roth, René Sprotte, Daniel Büse, Thorsten Hampel
Universität Paderborn
{roth, renspr, dbuese, hampel}@uni-paderborn.de
Abstract: Geleitet von der Fragestellung, wie sich die aktuellen inhaltlichen und technologischen Konzepte des sog. Web2.0 auf universitäre Infrastrukturen übertragen und
dabei neue Potenziale sowohl für traditionelle als auch informelle Lernkontexte umsetzen lassen, wurde an der Universität Paderborn die ko-aktive Lern- und Arbeitsumgebung koaLA entwickelt. In diesem Papier beschreiben wir, welche Überlegungen
und Architekturkonzepte dazu beigetragen haben, Medienbrüche in den Prozessen der
Wissenstransformation aufzuheben, Partizipationsbarrieren herabzusetzen und koaLA
Hochschulweit als Lernplattform einzuführen.
1 Einleitung
Die Vision des kooperativen Lernens mit neuen Medien ist so alt wie die Diskussion
um kooperationsunterstützende Werkzeuge und Systeme. Spätestens seit dem Entstehen
des Fachgebiets der Computer-gestützten kooperativen Zusammenarbeit (CSCW) (vgl.
[Gr88]) existiert die Vorstellung mehr oder weniger konstruktivistische Formen des Lernens durch digitale Medien geeignet unterstützen zu wollen. Einer Phase der Entwicklung von so genannten CSCW-Werkzeugen (kooperative Editoren, Shared Whiteboards
etc.) folgte eine Phase des Entwurfs zumeist geschlossener Groupware Systeme mit ihren spezifischen Ausprägungen als kooperative Lernsysteme. In dieser ersten Phase waren meist spezielle Zugangswerkzeuge (Clients) des jeweiligen Herstellers notwendig um
die Lernumgebung den Lernenden zugänglich zu machen. In der zweiten Phase erlauben WWW-Schnittstellen den Nutzern einen einheitlichen browsergestützten Zugang zu
den genannten Systemen. Letztgenannte Systeme weisen in Bezug auf ihre Funktionalität
oftmals große Ähnlichkeiten auf. Es existieren Mechanismen zur Kommunikation und Koordination der Lernenden sowie Möglichkeiten der kooperativen Ablage von Materialien.
Unterschiede finden sich in den genutzten Metaphern (Lernräume, Schreibtisch, Kurs)
und den unterstützten Fähigkeiten der Abgrenzung von Zuständigkeiten durch Rollen und
Rechte. Auch differieren kooperative Lernumgebungen in den zum Teil integrierten didaktischen Modellen. Trotzdem kann für die Klasse der kooperativen Lernumgebungen von
einer Konvergenz der angebotenen Funktionalität gesprochen werden.
Neue Impulse erhalten kooperative Systeme und Lernumgebungen durch die Diskussion
um das Web 2.0 oder auch E-Learning 2.0 (bspw. [Al06], [Ba06]). Neben dem breiten
221
Einsatz inzwischen gereifter Technologien wie RSS, Web Services und Asynchronous JavaScript and XML (AJAX) zur Implementierung offener Umgebungen und benutzungsfreundlicheren Oberflächen haben auch die Möglichkeiten zur Kooperation zugenommen:
Werkzeuge wie Wikis, Weblogs und Podcasts stellen in Verbindung mit sozialen Netzwerken den Benutzer als Produzent von Inhalten respektive seine kooperativen Aktivitäten
deutlich in den Mittelpunkt (vgl. [BD05]). Ein Einfluss, der nicht nur beim Arbeiten, sondern auch beim Lernen weg von vollständig vorgegeben Strukturen und geschlossenen
Systemen hin zu wissens- und individuumzentrierten, offenen Umgebungen führt (vgl.
[Ro06], [NMC06], [KS03]).
Im Rahmen des Paderborner Projekts Locomotion1 wurde die ko-aktive Lern- und Arbeitsplattform koaLA2 geschaffen, die diesen Fokus auf Individuen und indivuelle Kooperationskontexte aufgreift und mit den herkömmlichen Funktionen des klassischen Kursmanagements kombiniert. Über virtuelle, je nach Kontext selbst organisierbare Lern- und
Arbeitsräume werden die wichtigsten Elemente und Notwendigkeiten des Lernens, der Organisation des Studiums und des Aufbaus sozialer Strukturen integriert. Grundlegend ist
dabei die konsequente Orientierung an den individuellen Anforderungen der Studierenden.
Unsere Erfahrungen im ersten Semester Testbetrieb haben gezeigt, dass die Umsetzung
von koaLA als offenes System und der Fokus auf individuell gestaltbare Lern- und Arbeitskontexte von Studierenden sehr gut angenommen wird3 . Aber auch von Dozierende,
die das System dazu nutzen, neue didaktische Konzepte auszuprobieren und eine stärkere
Mischung von vorstrukturierten und von Studierenden selbst organisierten Szenarien in
verschiedenste Veranstaltungsformen einzubinden.
Auf den folgenden Seiten möchten wir zunächst die Konzepte und Funktionen erklären,
die es ermöglichen, sowohl formale als auch informelle Kontexte auszugestalten und zu
kombinieren und dabei die sozialen Strukturen der Lernenden zu fördern. Danach veranschaulichen wir die technische Umsetzung anhand einer typischen Web2.0-Architektur
und zeigen auf, wie durch Integration auf verschiedenen Ebenen mediale Brüche in der
universitären Informationsarchitektur aufgehoben werden. Unsere ersten Erfahrungen in
einem Semester Testbetrieb sowie die Überführung der Plattform in die etablierten hochschuleigenen Supportstrukturen für einen nachhaltigen Einsatz beschreiben wir im vierten
Abschnitt. Das Papier endet mit einem Ausblick auf die anstehende Pilotierungsphase und
die Ausweitung auf den universitätsweiten Betrieb.
1
Low Cost Multimedia Organisation and Production, siehe http://locomotion.uni-paderborn.de.
koaLA: ko-aktive Lern- und Arbeitsumgebung“ der Universität Paderborn, siehe http://koala.
”
uni-paderborn.de.
3 Pro Tag wurden durchschnittlich 1700 Besucher mit einer durchschnittlichen Verweildauer von 9 Minuten
verzeichnet.
2
222
2 Die Unterstützung formaler und informeller Lernkontexte in der
Praxis
In der Wissenschaft hat sich die Erkenntnis durchgesetzt, dass man beim Lernen – wenn
möglich – verschiedene Sozialformen und Methoden abwechseln sollte (vgl. [We05]). Individuelle Phasen sollten mit kooperativen Phasen kombiniert werden, strukturierte Settings (z. B. Kurse und Seminare) mit selbstorganisierten (bspw. Lerngruppen, Arbeitsgruppen, Projektgruppen).
Lernende bewegen sich entsprechend ihrer jeweiligen Lebens- und Lernphase, z. B. als
Studierende der Universität, in einem komplexen Geflecht aus sozialen und organisatorischen Beziehungen. Soziale Beziehungen sind in kooperativen Lernumgebungen meist
durch starre Lerngruppen repräsentiert, welche sich an der Veranstaltungsform/Organisationsform der Lehrveranstaltung orientieren. In vielen Fällen repräsentiert diese Organisationsform jedoch nicht die von den Lernenden selbst gewählten Gruppenstrukturen wie
Lerngruppen und Lerngemeinschaften. Soll der Lernende im Zentrum einer Lern- und Arbeitsumgebung stehen, muss dieser seine eigenen Prozesse der Wissensschaffung koordinieren und leicht zwischen verschiedenen individuellen, kooperativen sowie strukturierten
und selbstorganisierten Kontexten wechseln können.
Hierzu wird ein physikalischer, virtueller oder mentaler Kontext benötigt, in dem neues
Wissen geschaffen werden kann (vgl. [NTK01], S. 11). Das Konzept virtueller Wissensräume4 beschreibt dabei die Anreicherung von Orten durch virtuelle Kontakte und Kommunikation sowie die Ergänzung derer gemeinsamen Erfahrungen und Ideen auf mentaler
Ebene. Weiterhin vereinen virtuelle Wissensräum synchrone und asynchrone Formen der
Zusammenarbeit mit der Verwaltung hypermedialer Dokumente. Dem Ort wird zudem ein
Ad-hoc-Charakter zugeschrieben: Er ist immer offen und kann durch die Beteiligten nach
Belieben betreten und verlassen werden (vgl. [Ke07] und [Ha02]).
koaLA wurde grundlegend auf dem Konzept des virtuellen Wissensraums entwickelt und
integriert über dieses Modell Funktionen des klassischen Kursmanagements sowie – je
nach Kontext – selbst organisierbare Lern- und Arbeitsräume für Gruppen und Individuen.
2.1
Gruppen sind Kurse sind Gruppen
Sämtliche Arbeitsbereiche (individuelle Arbeitsräume, kooperative Arbeitsräume und Kursräume) werden in koaLA über das Konzept einer Gruppe realisiert. Eine Gruppe bildet die Umgebung in der Kommunikationsobjekte, Materialien, soziale Strukturen und
zusätzliche Funktionen dargestellt und organisiert werden. Kurse bzw. Kursräume sind in
diesem System nur eine besonders ausgezeichnete Form einer Gruppe, erben jedoch deren Funktionen. Dadurch kann leicht von einem individuellen Arbeitsraum einer privaten
Gruppe in den kooperativen Arbeitsraum eines Kurses gewechselt werden. Insbesondere für den Wechsel zwischen informellen und formalen Lernkontexten bietet dieses Kon4 In der Literatur finden sich verschiedene Bezeichnungen für dieses Konzept: Streitz et al. nannten es Activity
”
Spaces“ (vgl. [SHT89]), Nonaka et al. nennen es ba“ aus dem Japanischen für Ort“ (vgl. [NTK01]), Wessner
”
”
nennt es einfach kooperativer Kontext“ (vgl. [We05]).
”
223
strukt Lernenden die Möglichkeit, Dokumente und andere Materialien ohne Medienbrüche
innerhalb von koaLA zu transportieren.
Abbildung 1: koaLA zeigt die Startseite einens Gruppen- / Kursraums
Gruppen (und damit Kurse) sind immer gleich aufgebaut. Abbildung 1 zeigt den Aufbau eines typischen Gruppenraums. Jeder Gruppenraum besteht aus einer Startseite mit
einer Beschreibung der Gruppe und einer Liste von Personen, die diese Gruppe betreuen. Im Fall von Kursen sind dies Dozierende und/oder Mitarbeitende der Dozierenden.
Unter dem Punkt Kommunikation“ stehen unterschiedliche Kommunikationsfunktionen
”
zur Verfügung. koaLA stellt derzeit Foren, Blogs (inkl. Podcasts) und Wikis bereit. Diese Werkzeuge sind direkt im Gruppenkontext eingebettet. Die Zugriffsrechte zu diesen
Werkzeugen können von den Betreuern einer Gruppe beliebig gesteuert werden. So lassen
sich öffentliche Foren, Wikis und Blogs betreiben, in denen jeder Nutzer in koaLA lesen,
schreiben und kommentieren kann. Andere Nutzungsformen erlauben nur das Lesen und
Kommentieren oder den vollen Zugriff, jedoch beschränkt auf die Teilnehmer der Gruppe.
Der Punkt Lektionen“ stellt zur Zeit eine klassische Materialverwaltung bereit. Zukünftig
”
sollen unter diesem Punkt auch Funktionen für spezielle didaktische Szenarien zu finden
sein (vgl. Abschnitt 5). Die Materialverwaltung bietet jedoch neben den klassischen Funktionen zur Organisation von Dokumenten erweiterte Funktionen der Bearbeitung und Erschließung von Dokumenten über die Strukturierung von Diskursen oder das Bewerten
und Ordnen von Materialien bis zur Koordinierung von räumlich und zeitlich verteilten
Aktivitäten. Insbesondere können sich die Lernenden in Kleingruppen selbst organisieren
und ihre eigenen Dokumente untereinander austauschen und mit den veranstaltungsbezogenen Materialien verknüpfen.
224
koaLA erlaubt es jedem Nutzer eigene Gruppen anzulegen. Dabei werden drei Ausprägungen von Gruppen unterschieden. Diese unterscheiden sich jedoch nicht in den Funktionen, sondern nur in der Sichtbarkeit anderen Nutzern gegenüber. Öffentliche Gruppen sind
für jeden Nutzer im Gruppenverzeichnis sichtbar. Der Zugang zu öffentlichen Gruppen
kann dabei völlig offen sein oder ein gesondertes Passwort erfordern. Öffentliche Gruppen
mit Einladung sind ebenfalls für jeden Nutzer sichtbar, jedoch erfolgt die Teilnahme ausschließlich über die Einladung eines Gruppenbetreuers. Die dritte Form einer Gruppe ist
die private Gruppe. Private Gruppen sind nicht öffentlich sichtbar und eigenen sich sowohl
als individueller Arbeitsraum als auch für private Übungsgruppen. Die Mitgliedschaft anderer Nutzer erfolgt hier ausschließlich über die Einladung eines Gruppenbetreuers. Unabhängig von der Form einer Gruppe haben Gruppenbetreuer erweiterte Möglichkeiten der
Rechtesteuerung innerhalb der Gruppe. Z. B. können in der Materialverwaltung Bereiche
eingerichtet werden, die für andere Nutzer nicht bzw. explizit schreibbar sind.
Kurse werden in koaLA manuell durch Semesterbetreuer oder halb-automatisch durch den
Abgleich mit dem Prüfungsverwaltungssystem5 angelegt. Wie oben bereits erwähnt sind
Kurse nur eine besondere Form einer Gruppe (vgl. öffentliche Gruppen, private Gruppen),
die an einer gesonderten Stelle im System ausgewiesen werden. Der Mechanismus der
Rechtesteuerung verhält sich daher analog zu Gruppen. Durch diese Flexibilität können
unterschiedlichste Veranstaltungsformen abgebildet werden: Große Veranstaltungen mit
hunderten von Teilnehmern bedingen oft durch die didaktische Vorgehensweisen andere
Rechtekonfigurationen als kleine Projektseminare mit 10-20 Teilnehmern (vgl. Abschnitt
4).
Die Teilnehmer einer Gruppe bzw. eines Kurses haben über die Funktion Teilnehmer“
”
(vgl. Abbildung 1) Zugriff auf eine Teilnehmerliste. Diese Liste sowie die mit Nutzern
verknüpften Aktionen (Foreneinträge, Kommentaren an Materialien, etc.) bilden die Basis
für die Wahrnehmung der anderen Teilnehmer und damit für die virtuelle Zusammenarbeit.
2.2
Soziale Netzwerke
Nutzerprofile bilden die Basis für den Aufbau sozialer Netzwerke innerhalb von koaLA
und stellen damit eine Form der Awarness innerhalb des virtuellen Systems sicher (s.
Abb. 2). Die Profile können von den Nutzern mit Informationen über sich selbst gefüllt
werden, wobei die Angabe der Daten keinesfalls verpflichtend ist. Das Profil erlaubt die
Eingabe von Informationen zum Studium, dem Studienschwerpunkt, dem Fachbereich etc.
Darüber hinaus können Kontaktdaten wie E-Mail Adressen, Telefonnummern und IMDaten anderen Nutzern zugänglich gemacht werden. Der Netzwerkgedanke wird durch
das Profil über Kontakte und Gruppen realisiert. Zu jedem Profil ist sichtbar welche Kontakte dieser Nutzer hat und in welchen öffentlichen Gruppen dieser teilnimmt. Über die
Funktion als Kontakt hinzufügen“ kann jeder Nutzer eine Beziehung ersten Grades zu
”
jedem anderen Benutzer aufbauen und so sein Kontaktnetzwerk kontinuierlich ausbauen.
5 In diesem Fall wird die SOAP-Schnittstelle der HIS genutzt (vgl. [GR07]). Eine flexiblere Nachrichten-basierte
(echtzeit) Kopplung ist über die derzeit verfügbaren HIS-Schnittstellen nicht möglich.
225
Abbildung 2: koaLA zeigt die typische Profilseite eines Nutzers
Sämtliche Aktionen eines Nutzers, z.B. Einträge in Foren, Blogs, Wikis, Kommentare an
Dokumenten, E-Mails etc. werden mit dem Profil des entsprechenden Autors verknüpft.
Das Ziel ist es, hierbei eine möglichst hohe Transparenz der Informationen bezogen auf
den Urheber zu gewährleisten.
Durch die Verknüpfung der Nutzerprofile mit Aktionen bzw. mit den Gruppen und Kursen
ergeben sich im Umkehrschluss interessante Funktionen bezogen auf die Kommunikation
via E-Mail. So können E-Mails innerhalb von koaLA an eine Gruppe (bzw. auch an Kurse)
gesendet werden, die dann automatisch alle Teilnehmer der Gruppe erreichen.
3 Ein Web2.0-Rahmenwerk als Baukasten für koaLA
Neben den eingangs erwähnten inhaltlichen Trends zu mehr Selbstorganisation seiner Nutzer bringt das Web 2.0 auch gereifte Technologien, die diesen Trends durch offenere und
benutzerfreundlichere Systemen Rechnung tragen. Im Hinblick auf entsprechende Softwarearchitekturen sind die aktuellen Anforderungen nach Weiterverwendbarkeit von Inhalten (remixability), Medienunabhängigkeit (convergence), und stärke Einbindung der Be-
226
nutzer (participation) in den unterschiedlichsten Schichten zu berücksichtigen. In diesem
Abschnitt wollen wir die Architektur skizzieren, mit der wir in koaLA eine Reihe neuer
Dienste wie RSS und Podcasts, Blogs, soziale Netze und Awareness mit den Funktionalitäten klassischer Lernmanagementsysteme kombiniert und Verwaltungs-, Bibliotheksund Contentsysteme angebunden haben.
3.1
Die Softwarearchitektur
Die ko-aktive Lern- und Arbeitsplattform koaLA basiert als Anwendungsschicht auf dem
CSCL-Server open-sTeam6 , welcher grundlegende Funktionen kooperativen Arbeitens und
Lernens über Programmierschnittstellen bereitstellt. In seinem Kern implementiert der
Server ein Objektmodell virtueller Wissensräume. Darauf aufbauende Anwendungen basieren also auf persistent verknüpfte Raumstrukturen. Hier können verschiedene Dokumente und Kontexte verwaltet werden, in denen sich Nutzer aufhalten und bewegen können. Damit dieses Konzept als grundlegend in einer heterogenen Umgebung dienen kann,
bezieht der Server einige gängige Kommunikations- und Infrastrukturprotokolle des Internets mit Hilfe von Protokolladaptern auf die Elemente der Wissensraummetapher und bettet somit sowohl synchrone als auch asynchrone Kommunikationswerkzeuge wie Instant
Messaging, Whiteboarding, eMail und Shared Annotations in Wissensräume ein (vgl. Abb.
3). Der Server stellte in der Vergangenheit bereits mehrfach die Basisdienste für verschiedene Lern- und Community-Plattformen. Neu in koaLA ist jedoch der zentrale Fokus auf
soziale Netzwerkfunktionen und die Einbettung neuer kooperativer Werkzeuge wie Weblogs und Podcasts neben Wikis und Foren.
In der Anwendungsschicht werden mit Hilfe dieser funktionalen Komponenten dynamische Lern- und Arbeitskontexte ausgebaut, die zwar oftmals die gleichen fachlichen Funktionen benötigen, sich aber letztendlich durch den Freiheitsgrad der Selbstorganisation
voneinander unterscheiden (vgl. [RH05]). Ebenfalls in der Anwendungsschicht erfolgt die
Integration von zentralen Basis- und Komplexdiensten der universitären Informationsarchitektur über offene Service-Schnittstellen.
Die Präsentationsschicht von koaLA wurde mit Hilfe von AJAX-Funktionen derart ausgestaltet, dass eine einheitliche und einfache Bedienung in Verbindung mit einer visuell
ansprechenden Oberfläche gewährleistet ist. Dies soll Nutzungsbarrieren senken und Nutzerakzeptanz erhöhen. So kann zum Beispiel die Reihenfolge von Lektionen durch das
Verschieben (Drag & Drop) einzelner geändert werden, ohne dass die Seite gespeichert
und neu geladen werden muss.
6
Weitere Informationen zum sTeam-Server unter http://www.open-steam.org.
227
Erweiterte Benutzerschnittstellen
Bibliothekssysteme
Web Services
AJAX / Rich Client Applikation
Identitätsmanagement
Lernszenarien
Unified
Messaging
User Awareness
eMail
Verwaltungssysteme
Anwendungsschicht
Kursverwaltung
Social Software
RSS and Podcasts
Weblogs
Instant Messaging
SMS
Wikis
Web-Konferenzen
Groupware
Tagging
Voice Over IP
ToDo-Lists
Whiteboarding
Kalender
Content
Repositories
Foren
Communities
Dateiaustausch
Shared Annotations
Virtuelle Wissenräume
Web 2.0 Technologien
sTeam Applikationen
Client Technologien
Infrastrukturkomponenten
Abbildung 3: Das Web 2.0-Framework der ko-aktiven Lern- und Arbeitsumgebung koaLA
3.2
Medienbruchfreies Arbeiten mit digitalen Informationsträgern
Der CSCW-Server open sTeam verwaltet neben den Wissensräumen beliebige Informationsobjekte7 über einem Objektmodell, sowie die Rechte von Benutzern und Gruppen an
diesen Objekten und Räumen. Somit stellt diese Persistenzschicht eine Art Metaebene dar,
in der Informationsobjekte verschiedenster Art und Herkunft generalisiert und gleichbehandelt werden können.
Durch diese technische Umsetzung sind alle Informationsobjekte in koaLA grundsätzlich
mit den gleichen Berechtigungskonzepten und Medienfunktionen ausgestattet. Auf dieser
Ebene können alle Objekte z.B. Foreneinträge, Dateien oder Internetverweise gleichbehandelt werden. Auch Objekte externer Systeme – entsprechende Schnittstelle vorausgesetzt – können auf dieser Ebene integriert werden. Als Beispiel lassen sich hier der elektronische Seminarapparat der Bibliothek, anderer Lernplattformen oder Content-Repositories
(vgl. Abschnitt 3.3) aufführen.
Sie können also von Benutzern oder Benutzergruppen – entsprechende Berechtigung vorausgesetzt – zwischen vorstrukturierten Kursräumen und selbstorganisierten Arbeitsräumen hin- und herbewegt, kopiert, neu arrangiert, untereinander referenziert, annotiert und
ausgezeichnet werden. Informationen können also aus ihren ursprünglichen semantischen
Strukturen herausgelöst und mit diesen neue Wissensstrukturen in anderen Lern- und Arbeitskontexten geschaffen werden8 (vgl. hierzu [RHS05] und [Bo06]).
7 Zack definiert in [Za99], S. 48, diese Objekte ”as formally defined, atomic packet of knowledge that can be
labeled, indexed, stored, retrieved, and manipulated. The format, size, and content of knowledge units may vary,
depending on the type of explicit knowledge being stored and the context of its use” .
8 Das eingesetzte Objektmodell der Wissensraummetapher sieht dafür das Rucksackkonzept als temporäre Ablage für digitale Objekte vor, die der Benutzer hierüber von einem Wissensraum in einen anderen bewegen kann.
228
Hierdurch wird sowohl eine Weiterverwendung aller Inhalte der Umgebung erleichtert,
aber auch eine Unabhängigkeit vom Träger der Information, dem Medium. Darüber hinaus
bietet der sTeam-Server den koaLA-Benutzern eine Protokoll-Abstraktion auf Wissensraumstrukturen und Werkzeuge: Alle Wissensräume in koaLA können über das WebDAVProtokoll als virtuelles Laufwerk in das lokale Dateisystem des Benutzers eingehängt werden. Die Behandlung von Inhalten kann also bequem lokal erfolgen, wobei bei Bedarf
selbst Foren oder Wikis als Dateiordner eingebunden werden können. Die einzelnen Beiträge sind dann als Textdatei verfügbar.
Alle in koaLA eingesetzten kooperativen Werkzeuge wie Foren, Wikis und Weblogs besitzen einen XML-Nachrichtenkanal (sog. RSS-Feed), die der Benutzer bei Interesse abonnieren kann. Auf seiner persönlichen Startseite werden die abonnierten Nachrichten aggregiert und kontextübergreifend chronologisch sortiert, so dass der Benutzer sich nach dem
Anmelden am System sofort ein genaues Bild davon machen kann, welche Aktivitäten in
den für ihn wichtigen Kontexten während seiner Abwesenheit passiert sind: Seine Frage
im Kursforum wurde beantwortet, das Tutorium morgen fällt aus, der Wiki-Eintrag von
letzter Woche wurde geändert, die Ergebnisse der Klausur sind endlich online, im Weblog
seiner Lerngruppe stellt sich ein neues Gruppenmitglied vor... Über einen direkten Link
ist der betroffene Kontext sofort erreichbar. Diese Nachrichten können selbstverständlich
auch von außerhalb des Systems mit entsprechenden RSS-Readern heruntergeladen und
offline verfügbar gemacht werden.
3.3
Integration mit Verwaltung, Bibliothek und externen Content-Providern
Defizitär erweist sich in der heutigen Praxis oftmals das Grundmerkmal kooperativer Lernumgebungen als in sich abgeschlossenes System mit nur geringen Anknüpfungspunkten
zum Organisationskontext des Lernenden. Mit Kontext der Lernenden sind in diesem Zusammenhang weitere Systeme zur Studienorganisation und Verwaltung gemeint. Z.B. Systeme zur Anmeldung und Durchführung von Prüfungen und Veranstaltungen, elektronische Seminarapparate oder die (digitale) Bibliothek. Lernende bewegen sich notwendigerweise zwischen diesen verschiedenen Systemen.
In koaLA wurden Service-orientierte Ansätze genutzt, um an bestimmten Stellen diese
Systemgrenzen aufzuweichen und Funktionen oder Informationsobjekte anderer Systeme
in einer kooperativen Lern- und Arbeitsumgebung zu integrieren. Zunächst einmal wurde ein einheitlicher Zugang zu den beteiligten Systemklassen über den universitätsweiten
Authentifizierungsdienst hergestellt. Durch diese Anbindung ist sichergestellt, dass allen
Hochschulangehörigen der Zugang ohne unnötige Barrieren wie das Anlegen eines separaten Zugangs zur Verfügung steht. Darauf aufbauend wurde der im Locomotion-Projekt
ebenfalls eingeführte elektronische Seminarapparat der hiesigen Bibliothek angebunden.
Damit sind die Informationen zu Büchern und digitalen Objekten des elektronischen Seminarapparates direkt in den jeweiligen Kursräumen verfügbar. Ein Systemwechsel ist für
die Teilnehmer dieser Kurse nicht mehr erforderlich. Die können die digitalen Ausgaben
z.B. direkt herunterladen oder die Verfügbarkeit der in der Bibliothek stehenden Exemplare prüfen. Wie im vorherigen Abschnitt beschrieben werden diese Informationsobjekte
229
über das persitente sTeam-Objektmodell um Medienfunktionen erweitert, so dass sie in
koaLA in den verschiedensten Kontexten weiterverwendet werden können.
Als drittes System wurde das Paderborner HIS-LSF-Portal9 angebunden, um eine doppelte
Datenerfassung bei dem Anlegen von Kursen zu vermeiden und angemeldete Teilnehmer
zu Veranstaltungen mit den Daten in der Lern- und Arbeitsplattform zu synchronisieren
(vgl. [GR07]). An weiteren integrierten Szenarien mit Verwaltungssystemen wird derzeit
noch gearbeitet (vgl. Abschnitt 5).
Mit dem europäischen ARIADNE-Knowledge-Pool10 wurde bereits für den Testbetrieb
ein externes Nachweissystem für eLearning-Inhalte angebunden, dessen Inhalte über standardisierte Metadaten abgerufen werden können. In diesem Fall wurde die Schnittstellendefinition SQI (Simple Query Interface, vgl. [Si05]) genutzt. Über Web-Services kann mit
dem Repository kommuniziert und können Lerninhalte gesucht werden. Die Ergebnisse
können als Informationsobjekte in der sTeam-Persistenzschicht abgelegt und mit den bereits erwähnten Medienfunktionen angereichert werden11 .
4 Erfahrungen aus einem Semester Testbetrieb
Die hochschulweite Einführung der koaLA-Umgebung im Rahmen des Locomotion-Projektes ist über drei Stufen geplant – Testbetrieb, Pilotphase und hochschulweite Einführung
– von denen die erste bereits abgeschlossen ist.
Zunächst wurde koaLA zum Start des Wintersemesters 06/07 für interessierte Studierende und Dozierende im Rahmen eines Testbetriebs eingeführt und in 20 Veranstaltungen
als Lernmanagementsystem, Kommunikationsplattform und Gruppenarbeitsplatz genutzt.
Die Dozierenden migrierten zumeist von eigenverantwortlich betriebenen oder eigens entwickelten Plattformen zu diesem zentralen Angebot. Da die Zahl der Veranstaltungen ausreichend für einen Testbetrieb waren, wurde die neue Plattform innerhalb der Universität
zunächst nicht aktiv beworben. Trotzdem wurde festgestellt, dass nach nur zwei Monaten
ca. 200 der zu diesem Zeitraum 2000 Studierenden keine Kurse belegt hatten. Sie nutzten
jedoch die Social Networking-Funktionen und das Angebot, sich in eigenen Arbeitsgruppen selbst organisieren zu können.
Die Bandbreite der Nutzung im Rahmen der Lehre reichte von kleinen Projektseminaren
mit ca. 20 Teilnehmern bis zu Massenveranstaltungen mit über 800 Teilnehmern. Hier
wurden unterschiedliche didaktische Szenarien realisiert. Die kleineren Seminare stellten kooperative Funktionen wie eine gemeinsame Materialsammlung und Diskussionen
an Dokumenten bereit, wobei die großen Veranstaltungen eher auf die reine Materialbereitstellung (Download) fokussiert waren und Foren eher zur Klärung organisatorischer
Fragen einsetzten.
9
Informationen zur HIS-Software unter http://www.his.de/.
Informationen zum ARIADNE-Projekt unter http://www.ariadne-eu.org.
11 Derzeit wird daran gearbeitet, virtuelle Wissensräume in der koaLA-Umgebung als Inhaltelieferant an das
Netzwerk anzubinden, also Kontexte wie Kursräume oder Arbeitsräume von Projektgruppen auch für externe
Systeme durchsuchbar zu gestalten.
10
230
Einige wenige Dozierende nutzten in der Testphase bereits Weblogs um Informationen
zur Veranstaltung zu veröffentlichen und zu diskutieren. Diese Funktion wurde sowohl
von Dozierenden als auch von Studierenden als geeignete Darstellungsform für organisatorische Informationen, Hilfestellungen bei Übungsaufgaben und Motivation beschrieben.
Im Pilotbetrieb, der derzeit im Sommersemester 2007 läuft, wurde die Nutzung auf 70
Veranstaltungen und über 5000 Nutzer ausgebaut. Als Referenzstudiengänge sind dabei
insbesondere der Zwei-Fach-Bachelor“ in den Kulturwissenschaften und die Informatik
”
angesprochen. Punktuell haben die Systeme aber bereits auch in anderen Bereichen Nutzer
gewonnen. Neben Betrieb und Weiterentwicklung der Systeme werden in der Pilotphase
Schulungs- und Beratungsangebote bereitgestellt. Für die Studierende sind diese im etablierten Notebook-Cafe und bei der Schulungsinitiative doIT angesiedelt. Für die Lehrenden und Verwaltungsmitarbeiter wurde ein Schulungskonzept erarbeitet, das zusammen
mit der Hochschuldidaktik umgesetzt werden soll. Im Anschluss daran soll im folgenden
Wintersemester der hochschulweite Einsatz erfolgen.
5 Zusammenfassung und Ausblick
koaLA setzt neben der klassischen Funktionalität eines Lernmanagementsystems Ideen
des Web 2.0 und stellt die Bedürfnisse der Lernenden nach mehr Selbstorganisation in den
Vordergrund. Das System basiert dabei auf der Open-Source-Umgebung open sTeam, die
den Aufbau und die Pflege virtueller Wissensräume unterstützt. In koaLA lassen sich unterschiedlichste eLearning-Szenarien in einfacher Weise realisieren. Diese reichen von der
Bearbeitung und Erschließung von Dokumenten über die Strukturierung von Diskursen
oder das Bewerten und Ordnen von Materialien bis zur Koordinierung von räumlich und
zeitlich verteilten Aktivitäten. Insbesondere können sich die Lernenden in Kleingruppen
– unabhängig von Kurs oder Studiengang – selbst organisieren, ihre eigenen Dokumente
untereinander austauschen und mit den veranstaltungsbezogenen Materialien verknüpfen.
Der Pilotbetrieb soll quer zum Austesten der Systeme in der Praxis auch dazu dienen
den Unterstützungsbedarf quantitativ zu erheben. Im Anschluss soll ein hochschulweiter
Einsatz der Dienste- und Kooperationsinfrastruktur erfolgen, wobei gemäß der prozessorientierten Vorgehensweise im Projekt Locomotion Dienstleistungen kundenorientiert
in so genannten Service Units“ zusammengefasst werden sollen. Diese stellen für die
”
jeweiligen Interessenten eine einheitliche Ansprechstelle dar und bieten die entsprechenden Unterstützungsfunktionen integriert an. Dadurch sollen flächendeckend die verstärkte
Nutzung von eLearning, eTeaching und eCollaboration erreicht, die Qualität von Lehren,
Lernen und Prüfen nachhaltig gesteigert und die damit verbundenen Prozesse optimiert
werden.
231
Literaturverzeichnis
[Al06]
B. Alexander. Web 2.0 – A New Wave of Innovation for Teaching and Learning. Educause
Review, Seiten 33–44, 2006.
[Ba06] P. Baumgartner. Web 2.0: Social Software & E-Learning. Computer + Personal (CoPers),
14(8):20–34, 2006.
[BD05] W. Beuschel und S. Draheim. Potenziale kooperativer Medien für neue Lehr- und Lernformen – das Beispiel Weblogs. In K. Fellbaum, Hrsg., Grundfragen multimedialen Lehrens
und Lernens, Seiten 225–236. Shaker Verlag, Aachen, 2005.
[Bo06] T. Bopp, T. Hampel, R. Hinn, F. Lützenkirchen, C. Prpitsch und H. Richter. Alltagstaugliche Mediennutzung erfordert Systemkonvergenzen in Aus- und Weiterbildung. In
E. Seiler Schied, S. Kälin und C. Sengstag, Hrsg., E-Learning – alltagstaugliche Innovation?, Jgg. Band 38 of Medien in der Wissenschaft, Seiten 87–96. Waxmann Verlag,
Münster, 2006.
[GR07] H. Gossen und A. Roth. Die Datenintegration zwischen HIS-LSF und universitären Lernund Arbeitsplattformen – Ein Praxisbericht aus dem Locomotion Projekt. Arbeitspapier
WP073333, DS&OR-Lab, Universität Paderborn, Paderborn, 2007.
[Gr88] I. Greif. Computer-Supported Cooperative Work: A Book of Readings. Morgan Kaufmann, 1988.
[Ha02] T. Hampel. Virtuelle Wissensräume - Ein Ansatz für die kooperative Wissensorganisation.
Dissertation, University of Paderborn, Paderborn, 2002.
[Ke07] Reinhard Keil. Medienqualitäten beim eLearning: Vom Transport zur Transformation von
Wissen. BIBLIOTHEK Forschung und Praxis, 31(1), 2007.
[KS03] R. Keil-Slawik. Technik als Denkzeug, Lerngewebe und Bildungsinfrastrukturen. In
R. Keil-Slawik und M. Kerres, Hrsg., Wirkungen und Wirksamkeit neuer Medien in der
Bildung, Seiten 13 – 29. Waxmann Verlag, 2003.
[NMC06] NMC. The 2006 Horizon Report. Bericht, The New Media Consortium, 2006.
[NTK01] I. Nonaka, R. Toyama und N. Konno. SECI, Ba and Leadershp: A Unified Model of
Dynamic Knowledge Creation. In I. Nonaka und D.J. Teece, Hrsg., Managing Industrial
Knowledge: Creation, Transfer and Utilization, London, 2001. Sage Publications.
[RH05] A. Roth und T. Hampel. Konfigurierbare Softwarekomponenten zur Unterstützung dynamischer Lern- und Arbeitsumgebungen für virtuelle Gemeinschaften. In Tagungsband
zum Workshop GeNeMe 2005: Gemeinschaften in Neuen Medien, Seiten 373–384, 2005.
[RHS05] A. Roth, T. Hampel und L. Suhl. Von serverzentrierten Lernobjekten zu kooperativen
Wissensobjekten – Ein wissensbasierter Integrationsansatz verteilter Lernplattformen. In
K. Fellbaum, Hrsg., Tagungsband des 3. Workshops Grundfragen multimedialen Lehrens
und Lernens, Seiten 177–186. Shaker Verlag, 2005.
[Ro06] M. J. Rosenberg. What Lies Beyond E-Learning? Pfeiffer, 2006.
[SHT89] N.A. Streitz, J. Hannemann und M. Thüring. From Ideas and Arguments to Hyperdocuments: Travelling through Activity Spaces. In Conference on Hypertext and Hypermedia,
Proceedings of the second annual ACM conference on Hypertext, Pittsburgh, Pennsylvania, 1989. ACM.
[Si05]
B. Simon, D. Massart, F. van Assche, S. Ternier und E. Duval. A Simple Query Interface
for Interoperable Learning Repositories. In Proceedings of WWW 2005, Chiba, Japan,
2005.
[We05] M. Wessner. Kontextuelle Kooperation – Unterstützung kooperativen Lernens auf Basis des Kontextes. In J. M. Haake, U. Lucke und D. Tavangarian, Hrsg., DeLFI 2005:
Deutsche e-Learning Fachtagung Informatik, Lecture Notes in Informatics, Seiten 57–68,
Bonn, 2005. Gesellschaft für Informatik.
[Za99] M.H. Zack. Managing Codified Knowledge. In Sloan Management Review, Jgg. 40,
Seiten 44–58, Cambridge, 1999.
232
Gibt es mobiles Lernen mit Podcasts? – Wie Vorlesungsaufzeichnungen genutzt werden
Leonore Schulze, Markus Ketterl, Clemens Gruber, Kai-Christoph Hamborg
Zentrum für Informationsmanagement und virtuelle Lehre
Universität Osnabrück
Schloßstraße 9
49069 Osnabrück
{leonore.schulze, markus.ketterl, clemens.gruber, kai-christoph.hamborg}
@uni-osnabrueck.de
Abstract: Podcasts sind eine vieldiskutierte Möglichkeit kostengünstig Veranstaltungsaufzeichnungen zu erstellen und zu publizieren, und bieten somit potentiell
vielen Personen die Möglichkeit zum mobilen Lernen. Im vorliegenden Artikel
werden die bisherigen Erfahrungen zweier deutscher Hochschulen mit Veranstaltungspodcasts sowie die Ergebnisse von Befragungen studentischer (N=58) und
hochschulexterner Nutzer/-innen (N=368) dargestellt. Es zeigt sich, dass die Podcasts vor allem extern auf breites Interesse stoßen, dass das Angebot aber meist zu
Hause auf dem PC oder Laptop genutzt wird. Die Potenziale zum mobilen Lernen
werden also aktuell noch nicht ausgeschöpft. Es ist zu erforschen, ob durch die erwartete Kostensenkung für mobile Geräte und mobilen Internetzugang die Potentiale mobilen Lernens durch die Nutzer/-innen verstärkt wahrgenommen werden.
1
Auf dem Weg zum mobilen Lernen
Mobiles Lernen (M-Learning), nicht zuletzt vorangetrieben durch die stetig steigende
Verbreitung von leistungsfähigen Mobilgeräten wie PDAs, Handys oder tragbaren Video/Audio-Abspielgeräten, wird auch an Universitäten und Fachhochschulen immer
wichtiger. Neben den Vorteilen, die sich durch orts- und zeitunabhängiges Lernen mittels mobiler Endgeräte ergeben, gibt es viele Hürden für die Erstellung von M-Learning
Inhalten zu beachten [TR03]. Typischerweise müssen Inhalte gerätespezifisch formatiert
und konvertiert werden, um für verschieden Endgeräte angeboten werden zu können.
Daher ist es in der Regel zu kostspielig für Universitäten, Lerninhalte speziell für mobile
Endgeräte zu erstellen. In einem idealen Szenario sollten erstellte Lehr-/Lerninhalte
sowohl für klassisches E-Learning als auch für M-Learning verwendet werden können.
Ein anderer wichtiger Aspekt ist mit der Frage verbunden, wie potentielle Nutzer/-innen
Zugang zu den Lernangeboten erhalten können. Die hohen Verbindungskosten, die entstehen, um beispielsweise mit einem Handy größere Daten von einem Internetportal zu
übertragen, schrecken viele Anwender immer noch ab, obwohl die technischen Voraussetzungen und Rahmenbedingungen gegeben sind.
233
Eine vielversprechende Möglichkeit, universitäre Lerninhalte ohne größeren zusätzlichen Aufwand auch für mobile Endgeräte anzubieten, bietet die Podcasttechnologie.
Podcasts sind eine neue Nutzungsform, die im Rahmen der so genannten „Social Software“ und des Schlagwortes Web 2.0 diskutiert werden. Gemeinsam ist diesen Entwicklungen, dass sie nicht die technischen Innovationen fokussieren, sondern die aktive Beteiligung der Benutzer in den Vordergrund stellen.
Technisch gesehen sind Podcasts zunächst Mediendateien (Video und Audio), die über
einen RSS-Feed leicht automatisch bezogen (abonniert) werden können. Ein einzelner
Podcast ist eine Serie von Medienbeiträgen (Episoden), der sich am leichtesten mit dem
Programm eines Radio bzw. Fernsehsenders vergleichen lässt. Der Hauptunterschied ist,
dass die Sendungen nicht zu einem bestimmten Termin oder zu einer bestimmten Uhrzeit konsumiert werden müssen. Durch ein einmaliges Abonnieren des Programms (also
des Podcasts) werden dem Anwender die jeweils neuesten Episoden bequem über einen
Podcasts-Client (auch Podcatcher genannt) auf den eigenen PC übertragen. Der Podcatcher ermöglicht es dem Anwender, nicht nur bestimmte Sendungen zu abonnieren, sondern erledigt auch das automatisierte Herunterladen der neuesten Episoden auf die Endgeräte. Grundsätzlich gibt es derzeit aus technischer Sicht drei Hauptarten von Podcasts,
die sich durch die verwendeten Dateiinhalte in den Episoden unterscheiden (s. Tabelle
1).
Name
Dateiinhalte
Format
Beispiele für Abspielgeräte
Audio Podcast
Ton
MP3,AAC
Enhanced Podcast
Ton + Bilder (z.B.
Folien) + Links
Video Podcast
Ton + Video
MPEG-4
Container+
AAC Datei
.MP4,
.M4V,
.MOV
alle MP3-fähigen Geräte:
PC, Handys, MP3-Player
PC, Apple-Geräte (iPod),
einige Mobiltelefone 1
PC, tragbare Audio-/ Videoplayer wie PDA, Handys
etc.
Tabelle 1: Übersicht über die Hauptarten von Podcasts
Systematisch wird der Einsatz und der Nutzen von Podcasts in Lern- und Bildungsprozessen in einer Kooperation zwischen Universität und Fachhochschule Osnabrück seit
Januar 2006 erprobt. Dabei werden verschieden Podcastarten in unterschiedlichen Veranstaltungsszenarien eingesetzt. Teile des Osnabrücker Angebotes stehen dabei nicht nur
den Studierenden der beiden Hochschulen zur Verfügung, sondern Interessierte konnten
auch von außerhalb der Hochschulen leicht Zugang zu den Inhalten erhalten. Testweise
wurden drei unterschiedliche Veranstaltungen hochschulintern über Veranstaltungswebseiten und auch extern über den Apple Musicstore iTunes zur Verfügung gestellt.
Im zweiten Abschnitt dieses Beitrags werden die Podcastproduktion und die Verteilungsmöglichkeiten von Podcasts in der universitären Lehre ausgehend von den Osnabrücker Erfahrungen beschrieben. In den weiteren Abschnitten wird gefragt, ob und wie
1
Mobiltelefone müssen Java unterstützen; erfordert technisches Verständnis
234
Podcasts, auch im Vergleich zu herkömmlichen Vorlesungsmitschnitten, von Nutzern
und Nutzerinnen wahrgenommen und genutzt werden. Die berichteten Befunde zum
ersten Osnabrücker „Podcastjahr“ beruhen auf insgesamt drei Evaluationsuntersuchungen.
2
Podcastproduktion und Einsatzmöglichkeiten innerhalb der universitären Lehre
An vielen Universitäten werden Vorlesungen, Seminare etc. über Videosysteme aufgezeichnet und über Webseiten zur Verfügung gestellt. In Osnabrück wird dafür ein System mit dem Namen „virtPresenter“ eingesetzt [MKV06]. Motivation zur Entwicklung
dieser Systeme war es, auf einfache Weise E-Learning Inhalte zu erstellen und auf PC
Systemen über ein Webinterface (meist Webbrowser) zu betrachten. Die mit diesen
Werkzeugen aufgenommenen Videodateien bzw. daraus extrahierte Audiodateien lassen
sich auch über den Podcast-Mechanismus verteilen. Für die Studierenden wird es dadurch leichter, den Überblick zu behalten, da der Podcast-Client immer alle Episoden
anzeigt und herunter lädt. Quasi als Nebeneffekt können diese Dateien nicht nur auf dem
PC, sondern auch auf mobilen Geräten benutzt werden. In Osnabrück ist dieser Prozess
mittlerweile weitgehend automatisiert. Dabei startet die Produktionskette beim PowerPoint-Vortrag der Dozent/-innen und endet mit einer Verlinkung auf den zugehörigen
Veranstaltungswebseiten. Ein Konzept, das die Podcasttechnologie in diese Produktionskette integriert, ist in [Ke06a] beschrieben. Am Ende der Kette steht neben einem
Webinterface, das eine fein granulierte Folien- und Videonavigation ermöglicht, auch
eine Vorlesungsaufzeichnung für mobile Endgeräte in Form von Enhanced Podcasts
bereit.
Neben Podcasts in Form von Veranstaltungsaufzeichnungen wurden an den Osnabrücker
Hochschulen (Fachhochschule und Universität) auch andere Podcasts in anderen Szenarien erzeugt. So wurden z.B. in Übungen und Seminaren von Studierenden eigens Podcasts zu bestimmten Themengebieten erstellt und für andere Studierende angeboten.
Generell könnte eine Typologie des Podcast-Einsatzes an Universitäten folgende Punkte
enthalten: Vorlesungsmitschnitte, Vorträge, Hörfunkbeiträge, Experimentelle Podcasts
und Archivmaterial [Sc06].
Einige der Osnabrücker Hochschulpodcasts waren nicht nur internen Studierenden über
das vorhandene Lern-Management-System Stud.IP vorbehalten, sondern es wurden auch
Episoden über den sehr populären Musicstore von Apple („iTunes Musicstore“) einer
breiten Masse von unterschiedlichen Personen öffentlich angeboten. Dieser Musicstore
integriert sich nahtlos in die von Apple kostenlos vertriebene Musiksoftware iTunes.
Innerhalb des Musicstores können Kunden einen großen Katalog von Musiktiteln, Fernsehserien und Filmen durchsuchen und Titel erwerben. Neben den kommerziell angebotenen Titeln können aber auch kostenlose Podcasts zu den verschiedensten Themen
eingestellt, gefunden und abonniert werden.
Technisch ist es relativ einfach, einen eigenen Podcast in dem umfangreichen Angebot
im Musicstore zu platzieren. Es reicht, den eigenen Podcast über ein Webinterface an
235
Apple zu melden, und einige Tage später (nach einer redaktionellen Prüfung der Inhalte)
finden sich die eigenen Sendungen schließlich auch im Musicstore Angebot. Für uns war
hier die Frage interessant, wie sehr sich eine breite Öffentlichkeit für die Lehrangebote
von Hochschulen interessieren und auch begeistern kann. Wie diese Angebote von den
Abonnenten bewertet wurden und mit welchen Geräten Anwender die Angebote genutzt
haben, wird in den folgenden Kapiteln näher untersucht.
3
Fragestellung
Mit dem Angebot von Podcasts an den Hochschulen sowie über die Grenzen der Hochschulen hinaus waren verschiedene Forschungsfragen verbunden. In drei Befragungen
wurden die Fragen zur Podcast-Nutzung untersucht und die Bewertung durch Studierende und durch externe Hörer/-innen evaluiert.
Erstens ist die Frage der Nutzungshäufigkeit zu beantworten, d.h. ob das Angebot von
Vorlesungsaufzeichnung überhaupt genutzt wird, und wenn, von wem es genutzt wird.
Auf Seiten der Studierenden kann man einerseits von einer hohen Akzeptanz des Angebots ausgehen. So ergab eine Befragung an der Universität, dass sich 92% der befragten
Studierenden zumindest vorstellen können, Veranstaltungsaufzeichnung in Form von
Podcasts zu nutzen [Ke06b]. Andererseits werden von einem Pilotprojekt der ETH Zürich tatsächlich geringe Nutzerzahlen berichtet, wenn in einer Veranstaltung verschiedene Formen von Veranstaltungsaufzeichnungen angeboten werden [Af06]. Über die Nutzung von Veranstaltungsmitschnitten durch externe Hörer/-innen liegen unseres Wissens
noch keine Daten vor. Das mag daran liegen, dass das Angebot von Veranstaltungspodcasts aktuell noch sehr gering ist. Interessant ist hier weiterhin die Frage nach der Zusammensetzung und den Motiven etwaiger Nutzer/-innen.
Zweitens sollte die Art der Nutzung weiter untersucht werden, insbesondere wie Podcastaufzeichnungen von Vorlesungen durch Studierende und externe Hörer/-innen genutzt werden. Die folgenden drei Fragen standen hierbei im Vordergrund:
Welche Abspielgeräte werden genutzt? Es wird untersucht, welche Geräte beim
Ansehen von Veranstaltungsaufzeichnungen präferiert werden. Wie im ersten Kapitel dargestellt gibt es für die verschiedenen Podcast-Formen unterschiedliche
Abspielgeräte, die auch unterschiedlich verbreitet sind. So kann man zumindest
bei Studierenden von einer breiten Ausstattung von mobilen, mp3-fähigen Audioplayern ausgehen, jedoch wenigen Playern, die auch Video- oder Enhanced Podcasts mobil abspielen können [KSMM 06]. Über die Ausstattung mit mobilen Abspielgeräten in der Gesamtbevölkerung liegen unseres Wissens keine Daten vor.
Werden Podcasts mobil genutzt? Obwohl Podcasts allgemein mit mobilem Lernen
gleichgesetzt werden, ist die mobile Nutzung nicht selbstverständlich. Die Podcast-Formate können mit verschiedenen Geräten sowohl mobil als auch nicht mobil genutzt werden. Somit ist für die mobile Nutzung neben dem Vorhandensein
von Abspielgeräten weiterhin nötig, dass die Potentiale von Podcasts zum MLearning erstens wahrgenommen und zweitens auch genutzt werden.
236
Werden Podcasts vollständig genutzt oder werden hauptsächlich gezielt einzelne
Bereiche und Themen angesehen oder –gehört? Im Kontext der Präsentation von
Veranstaltungsaufzeichnungen über Webinterfaces wurde besonders dem Aspekt
der Navigierbarkeit der Aufzeichnungen große Bedeutung beigemessen. Auch für
Podcasts gibt es inzwischen in Form der Enhanced Podcasts erweiterte Navigationsmöglichkeiten. Es erscheint daher sinnvoll, die die aktuell präferierten Nutzungsstile zu betrachten, um die Notwendigkeit weitergehender Navigationsmöglichkeiten einschätzen zu können.
In einem dritten großen Bereich stellt sich zuletzt die Frage nach der Bewertung der
Veranstaltungsaufzeichnungen per Podcast durch die unterschiedlichen Zielgruppen.
Dabei ist die Einschätzung verschiedener Aspekte interessant: Voraussetzung für eine
effektive Nutzung ist die wahrgenommene technische Qualität in Zusammenhang mit
der technischen Zugänglichkeit des Angebots (Downloadzeiten). Weiterhin stellt sich
auch die Frage nach der Beurteilung der Akzeptanz des Podcast-Angebots (neben veranstaltungsspezifischen Aspekten). Als ein Aspekt der Effektivität wird schließlich auch
der selbst berichtete Lernerfolg betrachtet. Bisher liegen zur Lernwirksamkeit von Podcasts unseres Wissens nach noch keine Ergebnisse vor. Aufgrund der Erfahrungen mit
anderen Formen der Veranstaltungsaufzeichnung kann allerdings, zumindest für veranstaltungsergänzende Angebote, ein positiver Effekt vermutet werden.
4
Methode
Zu drei Veranstaltungen, die an der Universität und der Fachhochschule Osnabrück
durchgeführt wurden, sind Podcast-Aufzeichnungen der einzelnen Termine erzeugt und
den Studierenden sowie - über iTunes – auch externen Nutzer/-innen zur Verfügung
gestellt worden. Dabei wurden teilweise parallel verschiedene Podcast-Arten erzeugt
(vgl. Tabelle 1). Es handelt sich um eine Grundstudiumsveranstaltung der Informatik
(Veranstaltung A, Video Podcast), eine Veranstaltung der Medieninformatik (Veranstaltung B, parallel als Video und Enhanced Podcast) sowie eine Veranstaltung der Erziehungswissenschaft (Veranstaltung C, parallel als Audio, Video und Enhanced Podcast).
Im Folgenden werden die Auswertung der Serverstatistiken sowie drei Evaluationsuntersuchungen beschrieben.
4.1
Auswertung von Serverstatistiken
Für diese Podcast-Angebote wurden die Serverstatistiken ausgewertet, d.h. die Anzahl
der Downloads der einzelnen Episoden in den unterschiedlichen Formaten. Dabei überschätzt die Anzahl der Downloads möglicherweise die Zahl der tatsächlichen Hörer/-innen, da nicht geprüft werden kann, ob die einzelnen Episoden tatsächlich gesehen wurden. Dennoch kann man vermuten, dass die Mehrzahl der Abonnent/-innen die Angebote
tatsächlich genutzt hat.
237
4.2
Befragung von Studierenden einer Veranstaltung
In einer Vorlesung im Bereich Erziehungswissenschaften mit 94 Studierenden wurden
neben der üblichen Vorlesungsaufzeichnung, die man über ein Webinterface (siehe Kapitel 2) betrachten kann, ergänzend auch Podcasts eingesetzt. Zum Ende des Semesters
wurde die Veranstaltung mit Hilfe des Lern-Management-System Stud.IP evaluiert. An
der Befragung nahmen 58 Studierende teil, das entspricht einer Rücklaufquote von 62
Prozent.
Dabei wurden neben dem standardisierten „Fragebogen zur Evaluation von Vorlesungen“ (St00) einige Module des „Fragebogens zur Evaluation virtueller Lehrveranstaltungen“ (Sc07) eingesetzt sowie zusätzliche Fragen speziell zu Podcasts. Insgesamt umfasste die Befragung damit 32 Fragen der allgemeinen Lehrevaluation, 8 Fragen zu
technischen Voraussetzungen, 13 Fragen zur Gesamtkonzeption der Veranstaltung
(Kombination einzelner Veranstaltungselemente), 21 Fragen zur allgemeinen Veranstaltungsaufzeichnung und 24 Fragen zur Podcast-Nutzung.
Die Fragen zur Podcast-Nutzung deckten allgemein die Bereiche Umfang und Art der
Nutzung sowie die Bewertung des Angebots in Bezug auf die Technik, die Akzeptanz
sowie die Effizienz hinsichtlich des eigenen Lernerfolgs ab. Diese Fragen wurden nur
von dem Teil der Stichprobe beantwortet, die mindestens einen Podcast angesehen hatten. Die Fragen waren als Aussagen formuliert, die auf einer vierstufigen Likert-Skala
(von „trifft nicht zu“ bis „trifft zu“) beantwortet wurden.
4.3
Befragungen externer Hörer/-innen
Darüber hinaus wurden mit zwei Online-Erhebungen zusätzlich die externen Nutzer/-innen der beiden Informatik-Veranstaltungen befragt. Die Abonnent/-innen des Podcasts
wurden einmal über die Beschreibung des Angebots in iTunes, zweitens jeweils im
Rahmen einer eigenen Podcast-Episode, in der die Befragung vorgestellt wurde, um ihre
Teilnahme gebeten. Dabei wurde in beiden Befragungen der gleiche Fragebogen in
leicht abgewandelter Version mit 19 bzw. 20 geschlossenen und zwei offenen Fragen
verwendet. Dabei wurde, im Gegensatz zur Studierendenbefragung, ein fünfstufiges
Antwortformat mit einer Mittelkategorie verwendet. Inhaltlich wurden demographische
Variablen erhoben sowie Fragen zu Häufigkeit und Art der Nutzung und zur Bewertung
der Podcasts in Bezug auf die Technik, sowie zur Akzeptanz und zum wahrgenommenen
Lernerfolg.
Es nahmen insgesamt 310 Personen (Veranstaltung A) und 58 Personen (Veranstaltung
B) an den Befragungen teil, das entspricht etwa 10 Prozent der geschätzten Nutzer/-innen. Da es bezüglich der nicht-veranstaltungsbezogenen Fragen keine signifikanten
Unterschiede zwischen den Stichproben gibt, wurden die Daten der beiden Veranstaltungen zu einem Datensatz zusammengefasst (im Folgenden als Stichprobe externer
Hörer/-innen bezeichnet) und werden gemeinsam berichtet.
238
5
Ergebnisse
Im Folgenden werden, bezogen auf die in Kapitel 3 angesprochenen Fragestellungen,
ausgewählte Ergebnisse berichtet. Dabei wird in Bezug auf jede Fragstellung zuerst auf
die Studierenden und als zweites auf die externen Hörer/-innen eingegangen.
5.1
Nutzungshäufigkeit
In der Studierendenstichprobe wurde das Angebot der Podcasts nicht sehr intensiv genutzt. 75% der Befragten hatten das Podcastangebot gar nicht in Anspruch genommen,
und nur 6% der Befragten hatten mehr als 50% der Episoden gehört. Podcasts wurden
somit seltener genutzt als die übliche Veranstaltungsaufzeichnung mit dem Webinterface
virtPresenter (T=4,501, p<0,001). Abbildung 1 zeigt, wie häufig Veranstaltungsaufzeichnungen (a) und Podcasts (b) genutzt wurden.
(b) Podcasts
20
15
10
5
0
19
11
7
7
10
Nennungen
Nennungen
(a) Veranstaltungsaufzeichnungen
40
30
20
36
10
0
7
2
3
Abbildung 1: Anzahl der angesehenen Episoden in der Studierendenstichprobe (a) der Veranstaltungsaufzeichnung mit dem virtPresenter und (b) der Podcasts
Bei den externen Hörer/-innen ist ein Vergleich mit der Grundgesamtheit möglicher
Nutzer/-innen nicht möglich, hier liegen lediglich die Serverstatistiken für die angebotenen drei Veranstaltungen vor. Die Episoden von Veranstaltung A (Video Podcasts) wurden durchschnittlich 3000mal herunter geladen. Die Video-Podcast-Episoden von Veranstaltung B wurden durchschnittlich 400mal herunter geladen, die Enhanced-PodcastEpisoden 1400mal. Die Audio-Podcast-Episoden von Veranstaltung C wurden durchschnittlich 200mal herunter geladen, im Vergleich dazu die Video Podcasts dieser Veranstaltung 300mal und die Enhanced Podcasts durchschnittlich 400mal. Damit stellten
gerade die ersten beiden Veranstaltungen zwei der am häufigsten genutzten PodcastAngebote der Plattform iTunes dar und waren über mehrere Wochen unter den Top Ten
der am meisten genutzten Angebote (über alle Podcastkategorien hinweg) zu finden.
Es stellt sich weiterhin die Frage, aus welchen Personengruppen sich diese externen
Nutzer/-innen zusammensetzen. Dieser Frage wurde in den am häufigsten genutzten
Informatik-Veranstaltungen (Veranstaltung A und B) mit einer Online-Befragung nachgegangen. Es zeigte sich, dass die große Mehrzahl der Befragten männlich war (96%),
239
mit einem Alter zwischen 15 und 74 Jahren (M=32,4, Sd=12,7). Die meisten Befragten
waren berufstätig (56%), es gab weiter auch größere Anteile an Studierenden (30%) und
Schüler/-innen (13%) sowie einige wenige Rentner/-innen (1%). Als Motive für die
Podcast-Nutzung gaben die meisten Befragten ein allgemeines Interesse am Thema an
(56,8%), andere benötigten das Wissen aber auch für die Schule, Ausbildung oder ein
Studium (18,8%) oder für den Beruf (22,4%).
5.2
Art der Nutzung
Bezüglich der Art der Nutzung wurde zunächst gefragt, welche Abspielgeräte genutzt
wurden. Hier zeigt sich, dass PCs bzw. Laptops am häufigsten genutzt wurden (Studierende: 85%; externe Hörer/-innen: 82 %). iPods und andere mobil nutzbare Geräte spielten eine vergleichsweise geringe Rolle (Studierende: 15%; externe Hörer/-innen: 18%).
Abbildung 2 stellt die Antworthäufigkeiten zu diesen Fragen bezüglich der beiden Stichproben gegenüber.
Analog zeigt sich, dass Podcasts sowohl von Studierenden als auch externen Hörer/-innen vorwiegend zu Hause genutzt wurden (Studierende: 75%; externe Hörer/-innen:
88%). Diesen Aspekt gibt Abbildung 3 einmal für die Studierenden und für die externen
Hörer/-innen graphisch wieder.
12
10
8
6
4
2
0
(b) externe Hörer/-innen
11
0
2
Nennungen
Nennungen
(a) Studierende
300
250
200
150
100
50
0
270
57
4
Abbildung 2: Abspielgeräte (a) in der Studierendenstichprobe und
(b) in der Stichprobe externer Hörer/-innen
Drittens wurde gefragt, ob die Podcasts vollständig rezipiert werden oder ob einzelne
Bereiche und Themen gezielt angesehen bzw. –gehört werden. Hier zeigt sich, dass sich
die Mehrzahl der Befragten der Studierendenstichprobe nicht ganze Folgen ansieht
(13%). 35% der Studierendenstichprobe gaben an, dass sie gezielt nach einzelnen Themen suchen. Im Gegensatz dazu gaben 84% der externen Hörer/-innen an, dass sie die
gesamten Folgen anschauen. Entsprechend gaben lediglich 16% der externen Hörer/-innen an, sie sähen sich eher einzelne Teile einer Folge an.
240
6
5
4
3
2
1
0
(b) externe Hörer/-innen
6
2
Nennungen
Nennungen
(a) Studierende
300
200
304
100
0
40
Abbildung 3: Podcast-Nutzung zuhause oder unterwegs (a) in der Studierendenstichprobe und (b)
in der Stichprobe externer Hörer/-innen
5.3
Technische Bewertung, Akzeptanz und Effektivität
In Bezug auf die technischen Aspekte der Podcasts schätzten 57% der Studierendenstichprobe und 79% der externen Hörer/-innen die Bildqualität mindestens mit „eher
gut“ ein. Die Tonqualität wurde von 77% der Studierendenstichprobe und 78% der externen Hörer/-innen als „eher gut“ bewertet. Die Downloadzeiten beurteilten entsprechend 79% der Studierenden als akzeptabel. 72% der externen Nutzer/-innen beurteilten
die Downloadzeiten positiv, weitere 20% beurteilen sie als „mittelmäßig“.
Bezüglich der Akzeptanz von Podcasts stimmten der Aussage „Allgemein halte ich das
Angebot von Podcasts für sinnvoll.“ 76% der studentischen Nutzer/-innen zu bzw. eher
zu, bei den externen Hörer/-innen betrug der Anteil zustimmender und ziemlich zustimmender Antworten 99%. Ähnlich stimmten 50% der Studierendenstichprobe der Aussage „Mit Hilfe der Podcasts habe ich viel gelernt.“ zu bzw. eher zu. Bei den externen
Hörer/-innen betrug der Anteil mindestens ziemlich zustimmender Antworten 84%.
Abbildung 4 verdeutlicht diese Ergebnisse noch einmal für die beiden Stichproben.
6
Diskussion
Ein zentrales Ergebnis der vorliegenden Untersuchungen ist, dass Veranstaltungsaufzeichnungen in Form von Podcasts auch außerhalb der Hochschulen auf großes Interesse
stoßen und auch neben technisch weit aufwändiger produzierten und inhaltlich massentauglicheren Angeboten wie den Podcasts der „Tageschau“ oder der „Sendung mit der
Maus“ in den Top10 der beliebtesten Podcasts Deutschlands zu finden waren. Selbst ein
eher randständiges Thema wie die „Theorie der Schule“ hat Downloadzahlen von mehreren hundert pro Episode erreichen können. Auch wenn die Downloadzahlen die tatsächlichen Hörer/-innenzahlen überschätzen, kann man allein aufgrund der regen Beteiligung an den Befragungen von beträchtlichen tatsächlichen Nutzer/-innen-Zahlen
ausgehen.
241
6
5
4
3
2
1
0
(b) externe Hörer/-innen
5
3
6
2
Nennungen
Nennungen
(a) Studierende
200
150
100
174
111
50
0
1
4
49
!"
Abbildung 4: Zustimmumg zur Aussage „Mit Hilfe der Podcasts habe ich viel gelernt.“ (a) in der
Studierendenstichprobe und (b) in der Stichprobe der externen Hörer/-innen
Zweitens wurden in den Veranstaltungen, wo verschiedene Podcast-Formate angeboten
wurden, die Enhanced Podcasts den Video Podcasts vorgezogen. In Veranstaltungen, in
denen mit PowerPoint-Folien gearbeitet wird, erscheinen diese den Nutzer/-innen offensichtlich informativer als das Bild des Dozenten. Die Frage, wie notwendig Videos für
Veranstaltungsaufzeichnungen sind, ist in der Literatur umstritten. Bestehende Untersuchungen richten das Augenmerk auf Vor- und Nachteile der gleichzeitigen Präsentation
von Folien bzw. Videos (z.B. [MM00], [BL01]), ein möglicher Unterschied in der
Lernwirksamkeit von Videos und PowerPoint-Folien speziell auf mobilen Abspielgeräten ist dabei jedoch noch zu prüfen.
Studierende präferierten die klassischen Veranstaltungsaufzeichnungen, in denen gleichzeitig das Video der Dozent/-innen als auch die PowerPoint-Folien gezeigt werden, und
nutzten Podcasts eher wenig, was die Ergebnisse von [Af06] repliziert. Ob auch die
externen Hörer/-innen die Veranstaltungsaufzeichnungen lieber mit dem Webinterface
„virtpresenter“ angesehen hätten, das neben der erhöhten Media Richness auch bessere
Navigationsmöglichkeiten bietet, ist eine offene Frage. Möglicherweise beruht die Beliebtheit der Podcasts bei den externen Hörer/-innen eher auf der guten Zugänglichkeit
des Podcast-Angebots über den iTunes Musicstore.
Der Vorteil von Podcasts gegenüber der virtPresenter-Nutzung liegt vor allem in der
Möglichkeit zum mobilen Lernen, wobei diese Möglichkeit aktuell selten genutzt wird.
Das könnte daran liegen, dass die Gelegenheit zum mobilen Lernen bei vielen eher selten gegeben ist (z.B. wenig lange Fahrtstrecken). Es könnte jedoch auch sein, dass die
Befragten das mobile Lernen von komplexen Inhalten nicht für sinnvoll halten oder die
Potentiale nicht wahrnehmen. Für letzteres spricht, dass als häufigste Antworten auf die
Frage, was die Besonderheit von Podcasts als Lernmedium sei, die zeitliche Flexibilität
(30,0%) und das Ansehen in eigenem Tempo (22,4%) genannt wurden. Die räumliche
Flexibilität (9,2%) und speziell die Möglichkeit zum mobilen Lernen (5,0%) wurden,
wie auch die Zugänglichkeit zu universitärem Wissen allgemein, seltener genannt. Eine
dritte Erklärung für die geringe mobile Nutzung von Podcasts liegt in der nicht flächendeckenden Verbreitung von iPods oder vergleichbaren Geräten sowie in den bislang
noch recht hohen Kosten für Internetverbindungen ausgehend von mobilen Abspielgeräten. Welche der drei Hypothesen möglicherweise zutreffend ist, sollte in Folgeuntersu242
chungen geklärt werden. Die große Beliebtheit von Podcatchern wie iTunes sowie die
allgemeine Diskussion in der Fachliteratur aber auch in Funk, Fernsehen und Presse
deuten darauf hin, dass eine positive Grundhaltung gegenüber mobilem Lernen besteht
bzw. dass aktuell ein Einstellungswandel stattfindet. Gemeinsam mit dem Preisverfall
mobiler Geräte sowie Handy-Flatrates ist dem mobilen Lernen durchaus ein Zukunftspotential einzuräumen.
Die Technik, das Angebot an sich und der eigene Lernerfolg werden durch die Befragten
allgemein positiv bewertet. Nichtsdestotrotz zeigt sich hier ein deutlicher Forschungsbedarf. So ist das Medium Podcast an der Universität Osnabrück derzeit Gegenstand mehrerer experimenteller Untersuchungen, die der Frage nach den technischen, pädagogischen und didaktischen Potenzialen des Mediums nachgehen. Ein interessanter
technischer Ansatz zur Lernerfolgskontrolle ist dabei die geplante Verknüpfung der
Podcasts mit Online-Assignments [Ke07].
Schließlich bedeutet die hohe Zahl an externen Nutzer/-innen für die Universität Osnabrück einen nicht unerheblichen Werbeeffekt, da sich die Universität erstens auch uniextern mit guter Lehre zu positionieren kann, zweitens herausragende Beispiele interessanter Veranstaltungen präsentiert werden und drittens besonders Schüler/-innen und
Studierenden anderer Universitäten vermittelt werden kann, dass die Universität auch
auf dem Gebiet innovativer Technologien eine Vorreiterrolle einnimmt. Viertens eröffnen Podcasts der Universität neue Zielgruppen auf dem Weiterbildungsmarkt.
Literaturverzeichnis
[Af06]
Affolter, B.; Wilding, B.; Korner, M.; Lautenschlager, P.: Video-Streaming und –
Podcasting – universitäre Bildung für unterwegs? In E. Seiler, S. Kälin, C. Sengstag
(Hrsg.). E-Learning – alltagstaugliche Innovation? Münster: Waxmann, 2006, S. 276286.
[BL01] Brünken R.; Leutner D.: Aufmerksamkeitsverteilung oder Aufmerksamkeitsforschung?
In Unterrichtswissenschaften. Zeitschrift für Lernforschung, 4, 2001.
[HWW06] Hürst,W.; Welte, M.; Waizenegger, W.: Podcasting von Vorlesungen in der universitären Lehre. Workshop AudioLearning 2006 im Rahmen der 4. e-Learning Fachtagung der
GI (DeLFI), September 2006. S. 91-98.
[Ke07] Ketterl, M.; Heinrich, T.; Mertens, R.; Morisse, K.: Enhanced content utilisation: Combined re-use of multi-type e-learning content on mobile devices. IMCL International
Conference on Interactive Mobile and Computer Aided Learning 2007, Amman, Jordan,
18.-20. April 2007.
[Ke06a] Ketterl, M.; Mertens, R., Morisse, K.; Vornberger, O.: Studying with Mobile Devices:
Workflow and Tools for Automatic Content Distribution. World Conference on Educational Multimedia, Hypermedia & Telecommunications (ED-Media 2006), Orlando, FL,
USA, June 2006, S. 2082-2088.
[Ke06b] Ketterl, M.; Schmidt, T.; Mertens, R.; Morisse, K.: Techniken und Einsatzszenarien für
Podcasts in der universitären Lehre. Workshop AudioLearning 2006 im Rahmen der 4.
e-Learning Fachtagung der GI (DeLFI), September 2006. S. 81-90.
[MM00] Moreno R.; Mayer R.: A Learner-Centred Approach to Multimedia. Explanations: Deriving Instructional Design Princilpes from Cognitive Theory. In Interactive Multimedia
Electronic Journal of Computer-Enhanced Learning. 2(5), 2000. S. 1-7.
243
[MKV06] Mertens, R.; Ketterl, M.; Vornberger, O.: Interactive Content Overviews for Lecture
Recordings. IEEE International Symposium on Multimedia 2006 Workshop on Multimedia Technologies for E-Learning (MTEL), San Diego, CA, USA, 11-13 Dezember
2006. pp. 933-937
[Sc07] Schulze, L.; Klostermeier, F.; Gruber, C.; Hamborg, K.-C.: If you can’t measure it, you
can’t manage it! Evaluation elektronisch gestützter Lehre mit einem modularen Screening-Fragebogen. Universität Osnabrück: unveröff. Manuskript.
[Sc06] Schmidt, T.: Typologie des Podcast-Einsatzes. learnmedia@uos, 2, 2006, S.12.
http://www.virtuos.uni-osnabrueck.de/Content/LearnMedia.
[St00] Staufenbiel, T.: Fragebogen zur Evaluation von universitären Lehrveranstaltungen durch
Studierende und Lehrende. Diagnostica, 46, 2000, S. 169-181.
[TR03] Trifonova, A.; Ronchetti, M.: Where is Mobile Learning Going?. In G. Richards (Ed.),
Proceedings of World Conference on E-Learning in Corporate, Government, Healthcare,
and Higher Education, 2003, pp. 1794-1801.
244
Ein Framework für die kooperative Wissensorganisation –
Informelles semantisches Strukturieren und
Einsatz in der Praxis
Dominik Niehus, Patrik Erren, Thorsten Hampel
Universität Paderborn
niehus@hni.uni-paderborn.de
erren@campus.uni-paderborn.de
hampel@uni-paderborn.de
Abstract: Das grafisch-semantische Arrangieren von Medien ist zentral für modernes E-Learning und Wissenskonstruktion in Gruppen. Aufbauend auf der Grundlage so genannter virtueller Wissensräume erlaubt der Medi@rena Composer “ das
”
kooperative Positionieren und Strukturieren von vielfältigen Formen von Wissensobjekten. Ein konsequent objektorientiertes Arrangieren von Wissenselementen in einer
Medienarena benötigt spezifische architektonische Grundlagen. Der vorliegende Beitrag stellt aufbauend auf diesen Grundlagen unser Eclipse-Rich-Client-basiertes BasisFramework mediarena“ vor. Anhand einer Reihe von Einsatzerfahrungen in der uni”
versitären Lehre werden die Kernmerkmale semantischen Positionierens gegenüber
klassischen Shared Whiteboard-Ansätzen herausgearbeitet.
1 Einleitung
Moderne Ansätze der Erwachsenenbildung sehen die Lernenden im Zentrum eines aktiven Prozesses der Wissensorganisation. Wissensorganisation meint hierbei den selbstorganisierten Prozess der Strukturierung vielfältiger Wissensquellen und Lernmaterialien. Unabhängig von verschiedenen didaktischen Methoden und Herangehensweisen helfen digitale Medien und Werkzeuge diese Prozesse zu vereinfachen und zum Teil erst zu
ermöglichen. Unter den Stichworten des Findens neuer Qualitäten von Mobilität oder auch
neuer Interaktionsformen steht letztlich die schon seit den Anfängen der Forschung zum
computergestützten kooperativen Lernen stehende Anspruch der zeit- und ortsübergreifenden Integration aller Orte und Situationen in denen Wissen verarbeitet wird.
Die klassische Unterscheidung nach einem synchronen oder asynchronen Charakter dieser
Dienste tritt unter dem Anspruch in verschiedensten Konstellationen zeit- und ortsübergreifend zusammenarbeiten und lernen zu wollen mehr und mehr in den Hintergrund.
Um so spannender und dringlicher stellt sich die Frage nach der Integration geeigneter Werkzeuge zur Unterstützung einer lernzentrierten Wissensstrukturierung, welche der
Vielfalt von Lernorten und Lernkontexten von individuell bis kooperativ gerecht wird.
Speziell im Hinblick auf das Finden geeigneter Strukturierungsmittel zum Aufbau von
245
Erschließungsstrukturen, die den Lernfortschritt reflektieren und Wissensstrukturierungsprozesse geeignet unterstützen, scheint dieser Anspruch bislang nur in Ansätzen realisiert. Im Zentrum dieser Prozesse steht letztlich eine Zusammenfährung aus grafischsemantischen Visualisierungs- und Strukturierungstechniken mit klassischen Formen des
Hypertext. Neue Qualitäten ergeben sich zum einen unter dem Stichwort social Software“
”
bzw Web 2.0“ in einer Generation neuer sozialer“ Formen der netzgestützten Kommu”
”
nikation und Kooperation, wie Wikis und Weblogs, zum anderen in neuen technischen
Möglichkeiten der Bereitstellung und Entwicklung netzgestützter interaktiver Werkzeuge,
wie z.B. Rich Client Architekturen.
Im vorliegenden Beitrag werden wir aufbauend auf den Paderborner Erfahrungen im Aufbau von Methoden der semantischen Strukturierung von Wissen [GHK04] und ihrer Einbettung in zukunftsweisende Lehr-/ Lernkonzepte unsere aktuelle Forschung und Praxis in
der Schaffung einer neuer Generation semantischer Visualisierungs- und Strukturierungstechniken vorstellen. Das Synonym Medi@rena steht hierbei für ein Theatrum, eine Arena
medialer Strukturierungsvielfalt in der Wissenskonstruktion.
Der Medi@rena Composer schafft eine synchron wie asynchron nutzbare räumliche Sicht
auf Wissensräume [Ha01]. In ihren technischen Grundlagen wie ihrer praktischen Einbettung in vielfältige Lehr/Lernprozesse markiert sie für uns den Übergang von der bislang
praktizierten Wissenspräsentation zur kooperativ-visuellen Wissensstrukturierung. Eine
neue Generation von Mechanismen der semantischen Wissensstrukturierung (Positionierung) steht für einen längerfristigen Prozess, bei dem Objekte, Dokumente und grafische Elemente so räumlich miteinander in Beziehung gesetzt werden, dass sich durch
die räumliche Anordnung der Wissenselemente und die Visualisierung von semantischen
Zusammen- hängen die unterliegende Wissensstruktur erschließen lässt. Dies schließt die
Nutzung von hypertextuellen Wissenselementen (Wikis) als Teil der arrangierten und verknüpften Wissensstrukturen ein. Neu ist in diesem Zusammenhang eine Form des objektorientierten Umgangs mit Wissensobjekten auszugestalten. Wissensobjekte können in
vielfältiger Art und Weise verknüpft und attributiert. An Wissensobjekten können sich
Kommunikationskanäle bilden oder vielfältige weitere Werkzeuge festmachen. Wissensobjekte benötigen besonders in ihrer technischen Umsetzung hierzu spezifische architektonische Vorbedingungen.
In den folgenden Abschnitten werden wir zunächst die technischen Grundlagen einer derartigen Infrastruktur zur Wissensstrukturierung basierend auf der Eclipse Plattform in Verbindung mit der Open Source Infrastruktur sTeam [Os07] vorstellen. Diese technischen
Entwicklungen werden von der Open Source Community unter dem Stichwort Flywheel
vorangetrieben. In einem zweiten Schritt werden wir kurz von unseren Erfahrungen aus
der praktischen Einbettung derartiger Mechanismen der Praxis der Wissensstruklturierung
in der Lehre berichten.
246
2 Technische Plattform
open-sTeam (sTeam) wird als serverbasierte Plattform für kooperatives Arbeiten im Umfeld der Forschung und Lehre an der Universität Paderborn eingesetzt. Im Rahmen eines Projektes des Deutschen Forschungsnetz (DFN) am Heinz Nixdorf Institut entworfen,
steht das Konzept des virtuellen Wissensraums zum objektgestützten Strukturieren im Mittelpunkt. Ein Wissensraum oder Areal nimmt sowohl Dokumente und Verzeichnisse, als
auch komplexe Objekte wie Foren, Kalender, Chat, Gruppen und Benutzer auf. Flexible
und gleichberechtigte Verwaltung von Objekten und Attributen ermöglicht die leichte Erweiterung und damit ständig neue Einsatzszenarien und Dienste von sTeam.
Angepasste Benutzeroberflächen und Sichten auf Wissensräume in sTeam stehen zur Nutzung des CSCW/L Systems zu Verfügung. Neben einer umfangreichen Weboberfläche
unterstützt sTeam gängige Protokolle wie FTP, IRC und Webdav. Abbildung 1 zeigt schematisch das Zusammenspiel der Protokolle und wie sie auf den virtuellen Wissensraum
abgebildet werden.
Als universelles Protokoll für verschiedene Client Anwendungen ist das COAL-Protokoll
entwickelt worden. Es ermöglicht eine event-basierte, synchrone Kommunikation zwischen der Anwendung und sTeam. Für das COAL-Protokoll existieren unter anderem API
Implementierungen für PHP und Java. Die Java API, JavaSteam, bildet die Netzwerkschnittstelle zum Medi@rena Composer .
Client
(synchron)
WEBDAV
FTP
E-MAIL
NEWS
Browser
Browser
...
COAL
Internet
Webserver
COAL
object
repository
database
HTTP
IMAP
FTP
....
WEBDAV
sTeam-Server
LDAP
Abbildung 1: open-sTeam Protokolle
2.1
Rich Client
Das Ziel unserers Basis Frameworks flywheel“ ist es gleichermaßen eine flexibel er”
weiterbare wie modulare, aber auch schnelle und Betriebsystem unabhängige Plattform
247
für Client-Anwendungen zu schaffen. Webtechnologien wie Ajax würden sich für die Umsetzung anbieten. Sie scheiden jedoch wegen ihrer asynchronen Arbeitsweise aus. Wir setzen auf eine Rich-Client-Architektur, die wir nach unseren Ansprüchen flexibel anpassen
können. Das Eclipse-Projekt ist durch das Eclipse SDK, eine Java Entwicklungsumgebung (IDE), weit verbreitet. Neben dieser IDE ist Eclipse eine generische Entwicklungsplattform in die sich leicht Editoren und Werkzeuge für weitere Programmiersprachen
und Systeme integrieren lassen. Grundlage dieser Entwicklungsumbegung ist die Eclipse Rich Client Plattform (RCP) [RCP07]. Die RCP ist ein universelles Framework für
Komponeten-basiete Client-Anwendungen mit einer Vielzahl grundlegender Komponeten.
Eclipse Plattform
Help
(optional)
Update
(optional)
Text
(optional)
IDE
Text
Compare
PDE
(optional)
Debug
JDT
(optional)
Search
Team/
CVS
Eclipse SDK
Java IDE
andere Tools
(CDT etc.)
(optional)
Rich Client Anwendung
Rich Client
Plattform
IDE
Generic Workbench (UI)
Workspace
(optional)
JFace
SWT
Plattform Runtime (OSGI)
Java VM
Abbildung 2: Eclipse Rich Client Plattform in Komponeten
Der Eclipse Rich Client ist seit Version 3.0 Teil der Eclipse Plattform. Die Struktur der
Abhängigkeiten zwischen den einzelnen Komponenten in der Java-basierten Anwendungsplattform zeigt Abbildung 2. Eine Eclipse Anwendung wird durch den Zusammenschluss
verschiedener Komponenten gebildet. Diese heißen im Eclipse Sprachgebrauch Plug-ins
[Bi05].
Das Standard Widget Toolkit (SWT) [SWT07] gehört zu den Plug-ins, die fester Bestandteil des RCP Paketes sind. SWT bietet Java Bibliotheken für grafische Benutzeroberflächen. Im Gegensatz zu den Swing“ Paketen, bietet SWT Zugriff auf native UI
”
Widgets (z.B. Fenster und Buttons) des umgebenen Betriebsystems. Das Ergebnis sind
schnellere Reaktionszeiten der Anwendung und nahtlose Einbettung in das Look & Feel
der Umgebung. Während SWT low-level Zugriff auf die einzelnen Widgets des Fenstersystem ermöglicht, bieten die JFace Pakete, welche als separates Plug-in vorliegen, highlevel Klassen für häufige Aufgaben in der GUI-Programmierung. Durch das UI Workbench Plug-in werden Schnittstellen und Klassen hinzugefügt, die für die grafische Repräsentation der Benutzeroberfläche verantwortlich sind. Entwurfsmuster für views, editors, perspectives und actions sind bereits vorbereitet und lassen sich einfach in die eigene
Anwendung integrieren. Ein wichtiger Teil des Komponenten-Konzeptes von Eclipse sind
die Erweiterungspunkte (extension points), die andere Plug-ins nutzen können, um ihrer-
248
Eclipse Plattform
Rich Client Application
Update
(optional)
Text
(optional)
Mediarena
Editor
Rich Client
Plattform
Model
Generic Workbench (UI)
Chat
sTeam
Copy
Developer
Tools
Admin
Tools
flywheel
Mediarena
Help
(optional)
Workspace
(optional)
JFace
SWT
Plattform Runtime (OSGI)
Java VM
Abbildung 3: Der Medi@rena Composer in Komponeten
seits bestehenden Plug-ins mit Funktionalität zu erweitern. Das Plug-in, das einen Erweiterungspunkt zur Verfügung stellt, definiert durch Java-Schnittstellen und ein XML-Schema
eindeutig diesen Erweiterungspunkt. Dieses führt zu einem sehr flexiblen KomponentenModell, in dem Funktionalität in Plug-ins gekapselt wird.
Durch diese Konzepte in Verbindung mit den Plug-ins SWT, JFace und UI Workbench ist
die Eclipse Rich Client Plattform ein sehr leistungsstarkes Framework, welches wir für die
Umsetzung einer interaktiven kollaborativen Wissensraum-Anwendung benötigen. Trotz
einer aufwendigen Konfiguration ergibt sich ein sehr gut skalierendes Komponentensystem, das in der Basisversion aus etwa 60 Plug-ins besteht.
Die Struktur von Medi@rena zeichnet sich besonders durch die Zergliederung in unterschiedliche Komponenten aus. Beim Softwareentwurf wurde besonders darauf geachtet,
dass die Komponenten geeignete Funktionseinheiten bilden, um sich der Anforderung
nach flexibler Austauschbarkeit und Erweiterbarkeit anzunähern [Ga94]. Zusammengefasste Komponenten bilden Funktionseinheiten und werden im Eclipse Sprachgebrauch als
Features“ bezeichnet. Der Medi@rena Composer selbst besteht aus zwei Features, dem
”
flywheel und mediarena Feature. Zur Ausführung werden allerdings noch weitere Features benötig, das Eclipse RCP Feature und einige weitere Infrastruktur Komponenten wie
GEF und EMF. Die gemeinsame Schnittstelle zwischen den beiden Komponentengruppen
flywheel und mediarena bildet die Model-Komponente, die Bestandteil von flywheel ist.
Das Komponentenschema von Medi@rena (Abbildung 3) veranschaulicht, den Zusammenhang zwischen der Eclipse Rich Client Plattform und den mediarena Komponenten.
Der in blau dargestellte RCP Unterbau umfasst alle zur Laufzeit notwendigen Komponenten. Grün gefärbt sind die Komponenten von mediarena. Sie betten sich genau wie die
Eclipse IDE ein. Sehr deutlich wird an dieser Stelle die Regel der Gleichberechtigung von
Komponenten in der Eclipse Hausordnung, da einer verhältnismäßig kleinen Anwendung
wie der Medi@rena Composer die selben Schnittstellen zu Verfügung sehen, wie der sehr
umfangreichen Eclipse Java IDE.
249
3 Medi@rena Composer
Entsprechend unserer Anforderungen an Anwendungen im CSCW/L Bereich, haben wir
mit flywheel ein flexibles und modulares Framework auf Basis der Eclipse Rich Client
Plattform geschaffen. mediarena ist eine Anwendung, die auf flywheel aufsetzt.
Unser Framework ist wiederum in verschiedene Plug-ins unterteilt. Sie übernehmen zum
einen die Kommunikation mit dem sTeam Server und zum anderen bilden sie das Objektmodell ab und verwalten dieses. Zusammen mit der Eclipse Rich Plattform sind sie die
Basis für Anwendungen, wie der Medi@rena Composer .
Erweiterung
Erweiterung
Internet
Chat
Erweiterung
Model
BaseEditParts
...
Erweiterung
ModelManager
Erweiterung
Erweiterung
SteamConnection
open-sTeam
Server
...
IServerConnection
Flywheel
Mediarena
Abbildung 4: Medi@rena im Zusammenspiel mit open-sTeam
Beim Design von flywheel verwendeten wir ein gängiges Entwurfsmuster, die ModelView-Controller Sturktur (MVC) [KP88]. sTeam organisiert Wissensobjekte in virtuellen
Räu- men. Auch Benutzer werden durch ein Objekte repärsentiert und befinden sich in dem
Raum der aktuell betrachtet wird. Für die Repräsentation von Räumen auf der Seite unserer Rich Client Anwendung ist die Modell-Komponente zuständig ( flywheel.model“).
”
Der Controller in flywheel.core“ hält das Modell synchron mit den Server. Für die Kom”
munikation bindet er das Event-basierte COAL-Protokoll mit der Java API JavaSteam ein.
Abbildung 4 illustriert darüber hinaus die definierten Erweiterungspunkte z.B. im fly”
wheel.editor“. Anwendungen wie mediarena setzten auf die durch das flywhheel Framework geschaffene Model-Controller-Basis auf und fügen die für ihre Einsatzzwecke notwendigen Views und Editoren hinzu.
Im Zentrum der grafischen Benutzeroberfläche des Medi@rena Composer steht der grafische Editor, der den Inhalt des aktuellen Raumes zeigt. Er ermöglicht das Arrangieren und
Verknüpfen von Wissensobjekten über die Drag&Drop Funktionalität. Die Palette bietet
die Möglichkeit neue grafische Objekte zu erzeugen. Die Objekt Outline listet alle Wissensobjekte im aktuellen Raum auf. Ebenen lassen sich durch Drag&Drop Operationen manipulieren. Der Navigator zeigt einen Gesamtüberblick über den aktuellen Wissensraum und
ist eine Orientierungshilfe in großen Zoomstufen. Die Benutzerliste stellt eine Awareness-
250
Objekt-Übersicht
grafischer Editor
Navigator
Chat und Benutzerliste
Rucksack
Abbildung 5: Medi@rena Benutzeroberfläche
Komponente dar und zeigt alle Benutzer, die sich aktuell im aktiven Raum befinden. über
das Chat-Fenster besteht die Möglichkeit Nachrichten mit einzelnen Benutzern oder allen
Anwesenden im Raum auszutauschen.
In seiner Grundkonstruktion bezieht sich der Medi@rena Composer sowohl aus Sicht der
medialen Nutzungskonzeption als auch aus Sicht der gewählten Softwarearchitektur auf
einen konsequenten Objektansatz. Sämtliche arrangierbaren Wissenselemente werden als
identische Objekte behandelt, welche sich lediglich durch eine angepasste Attributierung
(Metadaten) unterscheiden. Auf diese Weise lassen sich auch komplexe Elemente, beispielsweise ganze Wiki-Hypertexte, in identischer Weise behandeln wie einfache grafische
Elemente (Linienelemente, Kreissegmente etc.). Bei einem Objekt kann es sich genauso um ein Office-Dokument handeln wie um eine einfache Grafik. Auf ihrer technischen
Grundlage heraus erlaubt der Composer die Strukturierung beliebiger Objekte und ist daher für die gesamte Breite möglicher Medienformen geeignet. Ziel der Basisarchitektur ist
es auf diese Weise eine Grundlage für das Strukturieren von Objekten zu schaffen, in der
sich auch komplexe Elemente grafisch positionieren, in Unterstrukturen (Ordnern) strukturieren lassen und damit in verschiedene Kontexte setzten lassen. Der Rich Client mediarena verwaltet dahingehend eine echte, persistente Objektstruktur und Sicht auf einen
virtuellen Wissensraum. Er unterscheidet sich in dieser Weise grundlegend von bekannten
Shared Whiteboard-Systemen, die vereinfacht ausgedrückt eine synchrone Zeichenfläche
mit verschiedenen Medienelementen bereitstellen.
Ein Mechanismus zur Erweiterung des grafischen Editor ermöglicht es den Medi@rena
Composer um neue Objekttypen zu erweitern oder bestehende Darstellungen auf einfache
Weise auszutauschen.
251
Abbildung 6: Arbeiten mit dem Medi@rena Composer
Insbesondere im Zusammenspiel mit klassischen grafischen Elementen eines Whiteboards
lassen sich auf diese Weise echte Mehrwerte von Wissensräumen ausgestalten. - Die Grenze zwischen klassischem Hypertext und grafisch-semantsicher Wissensstrukturierung verschwimmt im virtuellen Wissensraum.
4 Komplexe Aussagen durch semantisches Positionieren
Während im letzten Kapitel vornehmlich der technische Aufbau unseres Konzeptes beschrieben wurde soll der theoretische Rahmen und der Praxisbezug deutlich werden. Als
semantisches Positionieren [EK06] bezeichnen wir eine grafische Strukturierungstechnik
bei der Wissensobjekte wie z.B. Dokumente allein aufgrund ihrer Position in einem visuellen Arrangement bereits eine semantisch interpretierbare Bedeutung erlangen. Dabei
nutzen wir ein grundsätzliches Framework das auf vier Methoden der Anordnung sowie
Kombinationen derselben aufbaut. Es gibt Topologien welche eine Anordnung von Elementen in n-Dimensionen erlauben, üblicherweise in Form von benannten Achsen realisiert. Die zweite Kategorie sind Prädikatenlogische Mengenkonstrukte bei denen Enthaltensein die zentrale Objektbeziehung darstellt. Drittens gibt es Relationskonstrukte in
Form von Graphen mit üblicherweise benannten Kanten, die unterschiedliche Beziehungen zwischen Objekten konkretisieren. Der letzte Arrangementtyp sind Kombinatoriken
die sich als Matrizen darstellen und jedem Objekt eine Kombination von Eigenschaften
252
aus dem zugehörigen Zeilen- und Spaltenvektor zuordnen. Durch Nutzung dieses Konzeptes lassen sich visuelle Wissenstrukturierungen erstellen, die durch Kombination der
Arrangementtypen erlauben komplexe Aussagen zu treffen. Solche Konstrukte bezeichnen wir als Overlays.
Wir nutzen dieses Konzept im Zusammenhang mit verschiedenen weiteren Technologien
aus dem Bereich des Web 2.0 um verschiedenste Lern- und Lehrszenarios an einer Universität zu kreieren. Das Szenario welches derzeit im Zusammenhang mit dem Konzept des
semantischen Positionierens am stärksten von den grafischen Fähigkeiten der medi@rena
Gebrauch macht ist das medi@thing (’thing’ bezieht sich dabei auf die altgermanischen
Versammlungen bezüglich von Rechtsdingen). Dieses ist eine auf Erfahrungsbasis verbesserte Variante des ursprünglichen Jour Fixe Konzeptes [KH03] [EK06] für vorlesungsbegleitende Übungen welches in seiner Struktur eher Seminaren als klassischen Übungen
mit Aufgabenblattabgaben entspricht. Die Studierenden erarbeiten sich dazu ein komplexes Themengebiet welches sie in Form einer visuellen Wissensstrukturierung basierend
auf virtuellen Wissensräumen aufbereiten. Dieses präsentieren sie zu drei Zeitpunkten in
der Entstehungsphase vor dem versammelten Kurs und stellen sich Diskussion und eventueller Kritik, die bei der Verbesserung der Struktur helfen soll.
Das es tatsächlich möglich ist auf diese Weise durch semantisches Positionieren komplexe
Aussagen zu treffen, soll in folgendem Beispiel gezeigt werden.
Diese von Studenten erstellte Visualisierung zum Thema Atomkrieg aus Versehen nutzt
eine neue Overlaystruktur aus Zeitstrahl und Mengenstruktur (letzteres aber nur inkonsequent), den Zeittunnel. Der Tunnel wurde als Mittel gewählt um problematische Phasen in
der Geschichte als Verengungen des Tunnels zu visualisieren. Erklärende Dokumente zu
relevanten Phasen wurden wie aus Abbildung 7 ersichtlich nur über und unter dem Tunnel
angeordnet, wobei auch eine Anordnung innerhalb möglich wäre. Drei Einflussfaktoren
nämlich Politik“, Mensch“ und Technik“ wurden bezüglich der Thematik identifiziert
”
”
”
und durch wirr verwobene Bänder innerhalb des Tunnels dargestellt. Die Ersteller wollen damit nach eigener Aussage eine quantitative Gewichtung der einzelnen Faktoren als
Grund einer Krise ausschließen.
Allein schon diese Aufstellung erlaubt es Wissensobjekten in der Struktur Bedeutung zuzuweisen. Die wirkliche Komplexität der gemachten Aussagen zeigt sich aber oft erst in
der Diskussion. Dabei ergaben sich hier die Kritikpunkte, dass durchaus Gewichtungen
der Einflussfaktoren (meist versagende Technik als potentieller Auslöser eines versehentlichen Atomkrieges und menschliche Intervention um dies zu verhindern) möglich waren.
Auf den dann geordneten Linien für Politik, Mensch und Technik könnten dann auch direkt innerhalb des Tunnels die erklärenden Dokumente angebracht werden um die Aussagekraft noch zu erhöhen.
Der Vorteil einer solchen Wissensstrukturierung liegt aber auch darin, dass jemand der
einen Wissensraum mit Dokumenten zu einem komplexen Thema betritt, rein aus der grafischen Aufbereitung heraus sehr schnell Einschätzungen darüber machen kann, was für
einen Inhalt die enthaltenen Dokumente jeweils behandeln. Die Vermutung ist, dass dadurch die nicht-sequentielle Erarbeitung des Themas unterstützt wird. Dies muss aber noch
empirisch belegt werden. Zumindest wurde aber bereits demonstriert, dass das semanti-
253
Abbildung 7: Wissensstrukturierung als Zeittunnel zum Thema Atomkrieg aus Versehen“
”
sche Positionieren mit Hilfe des Medi@rena Composer in ersten Ansätzen zur Prozessunterstützung von lebenslangem Lernen und der dafür nötigen Erweiterbarkeit geeignet
ist.
Weitere Lern- und Lehrszenarien die eine grafische Representation auf Basis von virtuellen
Wissensräumen haben sich im Zusammenhang mit Web 2.0 Technologien wie Blogs und
Wikis ergeben. Letztere können z.B. ebenfalls schon als Dokumente im Medi@rena Composer verwendet werden. Auch Bewertungs- und Verbesserungsverfahren, speziell Pyramidendiskussionen und Thesen-Replik-Verfahren [BS05], wie sie beispielsweise in der
Diskursstrukturierung verwendet werden wurden auf Basis von virtuellen Wissensräumen
schon realisiert. Eine Einbindung in den Medi@rena Composer steht hierbei allerdings
noch aus und wird weiteren Implementierungsaufwand erfordern.
5 Verwandte Arbeiten
Verschiedene andere Projekt setzen auf unterschiedlichen Umgang mit Wissenssturkturen.
Einige davon stellen wir im folgenden kurz vor.
254
Groove Virtual Office [Gr07] ist ein Anwendung zur kooperativen Dokumentenverwaltung, die sich in die Windows Plattform integriert. Neben Chat und Voice Nachrichten zur
Kommunikation bietet Groove kooperative Möglichkeiten wie z.B. gemeinsames Navigieren. Außerdem hat man hier die Möglichkeit zusätzliche Programmfunktionen über Erweiterungen zu ergänzen. Groove besitzt auch ein kooperatives Whiteboard, wobei dieses
hier aber eher einer simplen Zeichen- und Skizzenfläche entspricht und nicht zur Dateiverwaltung dient. Die vornehmbaren Annotationen stehen demnach auch nur auf der jeweils
angelegten Whiteboard-Seite zur Verfügung. Komplexe Arrangements und eine persistente
Datenhaltung sind nicht vorgesehen, es geht vielmehr darum einen verteilten Kommunikationsprozess durch grafische Skizzen oder Highlights von Bildern zu unterstützen.
Habanero [Ha07] ist ein Framework zur Konstruktion verteilter kollaborativer Anwendungen auf Basis von Java. Habanero bietet Werkzeuge für Chat, Whiteboard und Viewer für
unterschiedliche Dateiformate. Eigene Erweiterungen können durch so genannte Hablets
hinzugefügt werden. Auch hier entspricht das Whiteboard als eine grafische Aufbereitungsfläche aber eher einer Fläche für kurze Skizzen als einem Tool für aufwendige und
persistente Wissensstrukturierung mit visuellen Arrangements.
6 Ausblick
Die generelle Offenheit des Ansatzes und die Breite an Möglichkeiten zur Definition neuer
Lernszenarien macht semantisches Positionieren im Zusammenhang mit virtuellen Wissensräumen und Web 2.0 Technologien zu einem Schwerpunkt der weiteren Entwicklung
des Medi@rena Composer . So sollen weitere Lern- und Lehrszenarien innerhalb der grafischen Oberfläche ermöglicht werden. Einige Umsetzungen wie Pyramidensidkussionen
und Wikis existieren bereits auf Basis virtueller Wissensräume und werden nun sukzessive
in den Medi@rena Composer integriert.
Eine weitere Perspektive sind sogenannte responsive Szenarien, bei denen Prozesse aufgrund der Platzierung von Objekten angestoßen werden. Dies könnte beispielsweise zur
Entwicklung neuer Wissensabfragekonzepte ähnlich wie Multiple-Choice auf grafischer
Ebene genutzt werden, wenn Auswertungen über das semantische Arrangement laufen,
das ein Student zu einer Aufgabe vornimmt.
Literaturverzeichnis
[EK06]
Erren, P., Keil, R. (2006): Semantic Positioning as a Means for Visual Knowledge Structuring. In: Nejdl, W.; Tochtermann, K. (Hrsg.): EC-TEL 2006, LNCS, Band 4227, S. 591596, Berlin, Heidelberg, Springer-Verlag.
[GHK04] Geißler, S., Hampel, T., Keil-Slawik, R.: Vom virtuellen Wissensraum zur Lernumgebung
- Kooperatives Lernen als intergrativer Ansatz für eine mediengestütze Bildung. i-com,
3.Jahrg., Heft 2
[Ha01] Hampel, T.: Virtuelle Wissensräume - Ein Ansatz für die kooperative Wissensorganisation,
Universität Paderborn, Paderborn 2001
255
[Os07]
open-sTeam Projektseite,
http://www.open-steam.org [Juni 2007].
[Bi05] Birsan, D.: On plug-ins and extensible architectures, New York, USA, 2005, 40–46,
ACM Press
[Ga94] Gamma E., Helm R., Johnson R., M. Vlissides J.: Design Patterns: Elements of Reusable
Object-Oriented Software, 1994, Addison-Wesley Professional.
[RCP07] RCP (Eclipse Rich Client Plattform) Projektseite,
http://www.eclipse.org/rcp [Juni 2007].
[SWT07] SWT (Standard Widget Toolkit) Projektseite,
http://www.eclipse.org/swt [Juni 2007].
[KP88] G. E. Krasner and S. T. Pope. A cookbook for using the model-view controller user interface paradigm in Smalltalk-80. Journal of Object-Oriented Programming, pages 26-49,
August/September 1988.
[Gr07] Microsoft Office Groove 2007 Projektseite. http://www.groove.net/, [Juni 2007].
[Ha07] NCSA Habanero Projektseite. http://www.isrl.uiuc.edu/isaac/Habanero/, [Juni 2007].
[BS05] Blanck, B., Schmidt, C.: Erwägungsorientierte Pyramidendiskussion im virtuellen Wissensraum open sTeam. in: Djamshid Tavangarian, Kristin Nölting (Hrsg.): Auf zu neuen
Ufern! E-Learning heute und morgen. Münster: Waxmann. 2005, S. 67-76.
[KH03] Keil-Slawik, R., Hampel, T.: Neue Wege kooperativen Lernens - Das Paderborner JourFixe-Konzept. In: DFN Mitteilungen 63. Jahrg, Heft 11, 2003, S.16-20.
256
Zur Gestaltung der Aushandlungsunterstützung in
CSCL-Systemen
Andrea Kienle
Fraunhofer IPSI
Dolivostraße 15
64293 Darmstadt
andrea.kienle@ipsi.fraunhofer.de
Abstract: In vielen Prozessen computergestützten kollaborativen Lernens wird die
Erarbeitung eines gemeinsamen Ergebnisses als Ziel genannt. Dazu werden in
CSCL-Systemen Aushandlungsfunktionalitäten benötigt, die jedoch bislang nur
selten realisiert wurden. Der vorliegende Artikel leistet einen Beitrag zu diesem
Thema, indem er zum ersten Mal die Ergebnisse dreier Studien zusammenfasst, in
denen verschiedene Aushandlungsunterstützungen in CSCL-Systemen evaluiert
wurden. Ziel dieser Betrachtung ist die Ableitung allgemeiner Designprinzipien,
die für die Gestaltung zukünftiger Systeme handlungsanleitend sind. Zunächst
werden dazu Merkmale von Aushandlungsunterstützungen für CSCL-Systeme erarbeitet, an Hand derer die Aushandlungsfunktionalitäten von KOLUMBUS,
BSCL und nBSCW vorgestellt werden. Anschließend werden zentrale Ergebnisse
aus den Erprobungen dieser Systeme präsentiert und gegenübergestellt. Aus diesem Vergleich werden dann die Designprinzipien abgeleitet.
1
Einleitung
In der Forschung zur elektronischen Unterstützung von Lernprozessen setzt sich zunehmend die Einsicht durch, dass Lernen gemeinsam durch das Zusammenwirken mehrerer
Akteure erfolgt. Dementsprechend stellt der Ansatz des Computer Support for Collaborative Learning (CSCL) die Aktivität der Lernenden und das selbstorganisierte Lernen in
den Vordergrund [Ko96]. In der Vergangenheit wurden unterschiedliche kollaborative
Lernprozesse entworfen (für einen Überblick siehe [KH04]), die zu sehr ähnlichen Ergebnissen bzgl. der Aktivitäten der Lernenden kommen: dies sind Aktivitäten, die sich
auf die Beschäftigung mit (gemeinsam erarbeitetem) Material, der Diskussion unter den
Lernenden und auf die Einigung auf ein gemeinsames Ergebnis beziehen.
Soll das kollaborative Lernen computergestützt erfolgen, sind für diese Aktivitäten entsprechende Funktionalitäten in CSCL-Systemen bereitzustellen. Insbesondere die gezielte Unterstützung der Einigung auf ein gemeinsames Ergebnis, oft als das Ziel kollaborativen Lernens genannt (siehe z.B. [SH99], [Di02]), fand in den letzten Jahren für die
Gestaltung von CSCL-Systemen noch wenig Beachtung (vereinzelte Ausnahmen finden
sich in [DB96], [Di02]). Stahl und Herrmann sehen hier insbesondere das Problem, dass
257
eine fehlende Systemunterstützung zu fehlenden Gruppenergebnissen führt und damit
das Ziel kollaborativen Lernens nicht erreicht wird [SH99]. Um der Relevanz der Aushandlungsunterstützung Rechnung zu tragen, wurden aufbauend auf den Erfahrungen
mit bestehenden Anwendungen drei prototypische Aushandlungsfunktionalitäten in
CSCL-Systemen umgesetzt und evaluiert.
In diesem Beitrag werden nun erstmals die Ergebnisse aus diesen Studien zusammengefasst und vergleichend gegenübergestellt. Ziel dieser Betrachtung ist es, aus diesem
Vergleich allgemeine Designprinzipien für die Aushandlungsunterstützung in CSCLSystemen abzuleiten, die für die Gestaltung zukünftiger Systeme handlungsanleitenden
Charakter haben. Dazu werden im folgenden Abschnitt 2 zunächst aufbauend auf verwandten Arbeiten zentrale Merkmale von Aushandlungsunterstützungen für CSCLSysteme erarbeitet. In Kapitel 3 werden konkreter die Ausprägungen dieser Merkmale in
den drei Systemen KOLUMBUS [Ki06], [PR06], BSCL [St03] und nBSCW [Po02]
vorgestellt. Kapitel 4 widmet sich den Evaluationsergebnissen aus realen Anwendungen
dieser Systeme und stellt diese vergleichend gegenüber. In Kapitel 5 werden aus diesem
Vergleich allgemeine Designprinzipien abgeleitet. Zusammenfassung und Ausblick in
Kapitel 6 runden den Beitrag ab.
2
Merkmale von Aushandlungsunterstützungen für CSCL-Systeme
Im Zusammenhang computergestützter kooperativer Arbeit (CSCW) hat die Unterstützung der Aushandlung bereits eine längere Tradition (vgl. z.B. [DS83], [DG87]) und
wird zu unterschiedlichen Zwecken eingesetzt. Das Spektrum reicht dabei von der Aushandlung von Zugriffsrechten [SW98] über das Finden gemeinsamer Termine in Gruppenkalendern [EZR94] bis hin zu gemeinsamer Problemlösung [DS83]. Systeme, die zur
Aushandlungsunterstützung eingesetzt werden, unterscheiden sich zunächst darin, ob sie
sich ausschließlich auf die Aushandlung beziehen oder in einen größeren Zusammenhang eingebettet sind. Systeme der ersten Kategorie sind etwa Gruppenkalender
[EZR94] zum Finden eines gemeinsamen Termins und Group Decision Support Systems
[DG87] oder Negotiation Support Systems [BKM02] zur gemeinsamen Problemlösung.
Der zweiten Kategorie sind zum Beispiel Funktionalitäten zur Aushandlungen von
Zugriffsrechten wie im Projekt PoliTeam [SW98] zuzuordnen; die Aushandlung ist hier
als Abstimmung (engl. Voting) realisiert.
Bestehende Anwendungen im Bereich computergestützten kollaborativen Lernens beziehen sich auf die Lösung von Konflikten [DB96], das Aushandeln einer gemeinsamen
Perspektive auf den Lerngegenstand [SH99], [Di02] und eines gemeinsamen Ergebnisses
mittels Ko-Autorenschaft [PR06]. Die für computergestütztes kollaboratives Lernen
eingesetzten Systeme lassen sich der zweiten Kategorie (Integration der Aushandlung in
größerem Zusammenhang) zuordnen, da CSCL-Systeme idealerweise komplette Lernprozesse unterstützen, von denen ein Teil gerade die Einigung auf ein gemeinsames
Ergebnisses ist (vgl. vorangegangenen Abschnitt). Merkmale für die Aushandlungsunterstützungen in CSCL-Systemen beziehen sich also einerseits auf eigens für die Aushandlung konzipierte Funktionalitäten und andererseits auf die Integration mit anderen
Funktionalitäten des CSCL-Systems. Im Groben sind Bestandteile einer Aushandlung
258
das Einbringen von Vorschlägen (z.B. bzgl. Meinungen, Ideen, Lösungen), die von
Gruppenmitgliedern kommentiert und diskutiert werden und über die die Gruppe
schließlich abstimmt. Das Einbringen von Vorschlägen und die Abstimmung sind eigens
zu konzipierende Funktionalitäten, während die Kommentierung und Diskussion Funktionalitäten darstellen, die auch für andere Aktivitäten des Lernprozesses genutzt werden.
Basierend auf der Analyse der bestehenden Ansätze können für Aktivitäten im Rahmen
einer Aushandlung detaillierter Merkmale genannt werden, nach denen die verschiedenen Unterstützungen konzipiert und unterschieden werden können:
Ziel der Aushandlung: Die einleitenden Beispiele zeigen unterschiedliche Ziele der
Aushandlung wie Finden gemeinsamer Termine, Problemlösung, die Einigung auf
Zugriffsrechte etc. Mit Blick auf kollaborative Lernprozesse zielt die Aushandlung
auf ein gemeinsames Ergebnis.
Anzahl der Beteiligten: Angebotene Funktionalitäten können mitunter abhängig
von der zu erwartenden Gruppengröße sein; so ist z.B. der Prozentsatz, bei dem
ein Vorschlag als angenommen gilt, bei einer Gruppe von 3 Personen anders einzustellen als bei 100. In kollaborativen Lernprozessen, in denen in Kleingruppen
gemeinsam Ergebnisse erarbeitet werden sollen, handelt es sich meist um Gruppen
mit drei bis zehn Teilnehmern.
Einbringen von Vorschlägen: Hier kann unterschieden werden, wer Vorschläge,
über die abgestimmt werden soll, einbringt. In kollaborativen Lernsituationen, in
denen eine Gruppe selbst gemeinsame Ergebnisse erarbeiten soll, sollten die Vorschläge entsprechend auch von den Gruppenmitgliedern eingebracht werden können.
Auswahlmöglichkeiten für Stimmen (Voten): In [He95] werden folgende Auswahlmöglichkeiten vorgeschlagen: Zustimmung, Ablehnung, Enthaltung,
Gegenvorschlag oder Ausweichen auf andere Kommunikationswege. Das
Ausweichen auf andere Kommunikationswege ist immer dann notwendig, wenn
Gruppenmitglieder z.B. ein Gespräch initiieren möchten, da sich für sie der
betreffende Vorschlag noch nicht in dem Zustand befindet, so dass formal
abgestimmt werden kann.
Transparenz über Voten anderer: Hier ist zu unterscheiden, ob es sich um eine geheime Wahl handeln soll oder ob die Voten anderer für die Nutzer angezeigt werden. Bei Transparenz über die Voten besteht für kollaborative Lernsituationen die
Befürchtung, dass sich Gruppenmitglieder an den vermeintlich Besten in der
Gruppe halten. Bei geheimer Wahl fehlt den Teilnehmern die Transparenz bzgl.
der Beteiligung an dem Abstimmungsprozess.
Modus der Abstimmung (Voting): Je nachdem, ob das Abstimmen (Voting) als
Zwischenschritt oder Abschluss eines kollaborativen Lernprozesses angesehen
wird, kann man Voten zurücknehmen bzw. ändern oder nicht.
Integration von Aushandlung und Diskussion bzw. Kommentaren: Wie oben argumentiert, ist die Aushandlung ein Teil des Lernprozesses, der komplett vom
259
CSCL-System zu unterstützen ist. Deshalb wird dafür plädiert, dass eine enge Verknüpfung zwischen der Aushandlung und der Unterstützung von Diskussionen
bzw. Kommentaren für kollaborative Lernsituationen sinnvoll sein kann [KH04].
3
Aushandlungsfunktionalitäten in CSCL-Systemen
In diesem Abschnitt werden drei Umsetzungen vorgestellt, die in eigenen Studien evaluiert wurden (siehe folgenden Abschnitt 4). Dabei wird zunächst jeweils überblicksartig
der Aushandlungsablauf beschrieben und an Hand eines Screenshots verdeutlicht, bevor
im zusammenfassenden Unterabschnitt die jeweiligen Ausprägungen der Merkmale
gegenübergestellt werden. Dabei können aus Platzgründen nicht alle Details beschrieben
werden. Hier sei auf die jeweiligen Primärquellen verwiesen.
3.1
KOLUMBUS
In KOLUMBUS [Ki06] werden Gruppenergebnisse erzielt, indem gemeinsam Verantwortung für eine oder mehrere kleine Einheiten (Items) wie Materialsabschnitte etc.
übernommen wird. KOLUMBUS stellt hier eine Aushandlungsfunktion zur Verfügung,
bei der ein Urheber einem oder mehreren Teilnehmern die Mit-Urheberschaft vorschlägt.
Alle vorgeschlagenen und auch die bereits festgelegten Mit-Urheber werden zu dem
Aushandlungsprozess per E-Mail eingeladen. Sie können für oder gegen den Vorschlag
stimmen, sich enthalten und weitere Diskussionen fordern (vgl. Abbildung 1 linke Seite).
Abbildung 1: Abstimmung in KOLUMBUS (links) und Ergebnis (rechts)
Dabei wird aus Gründen der Vereinfachung das Prinzip einer geheimen Wahl umgesetzt,
d.h. Voten sind weder begründbar noch zurücknehmbar und Voten anderer können vor
Ablauf der Aushandlung nicht eingesehen werden.
Ein Grund für diese Entscheidung war die Überlegung, dass eine Diskussion mittels
Annotationen dem Aushandlungsschritt vorangeht, so dass während der abschließenden
Aushandlung Diskussionen nicht weiter zu unterstützen seien. Wenn ein bestimmter
Prozentsatz, der vom Administrator eingestellt wird, dem Vorschlag zustimmt, wird die
260
Gruppe der Autoren erweitert (vgl. Abbildung 1, rechte Seite). Auf diesem Weg erreicht
eine Gruppe Konvergenz hinsichtlich einer bestimmten Menge von Materialbausteinen.
3.2
BSCL
BSCL, Basic Support for Collaborative Learning [St03], verfolgt den Ansatz, dass Artefakte von allen Nutzern so lange geändert werden können, bis eine Mehrheit oder alle
Teilnehmer das Artefakt als gemeinsames Ergebnis akzeptieren. Einwände oder Diskussionen zu dem jeweiligen Stand des Artefakts werden in einem Diskussionsforum unterstützt. Die eigentliche Aushandlung findet also in der Diskussion des Artefaktes und
nicht in der Abstimmung statt: „the real negotiation action is in the evolution of the
knowledge artefact proposed for agreement, and not in the voting process itself” [St03].
Abbildung 2 zeigt auf der linken Seite die Aushandlung während der Diskussion, in der
die Diskussionsbeiträge mittels sogenannter „Thinking Types“ (z.B. Vorschlag, Zustimmung, Ablehnung) klassifiziert werden können. In diesem Ansatz ist das eigentliche
Voting Interface da sehr einfach (als Auswahl stehen nur Zustimmung oder Ablehnung
zur Verfügung), da damit nur die schlussendliche Zustimmung realisiert wird (vgl. Abbildung 2, rechte Seite). Zudem ist hier eine Begründung zur Zustimmung verpflichtend
und es werden die Voten der anderen Teammitglieder angezeigt.
Abbildung 2: Abstimmung in BSCL aus [Mö03]
3.3
nBSCW
nBSCW [Po02] basiert auf BSCW [AM99], einem Groupwaresystem, das Dokumente in
einer Ordnerstruktur bereithält. Die Aushandlung eines gemeinsamen Ergebnisses stellt
sich dementsprechend auch als ein Ordner dar: jedes Teammitglied hat die Möglichkeit,
ein Artefakt zur Aushandlung vorzuschlagen. Dazu wird ein Negotation-Ordner angelegt, in dem sich neben dem auszuhandelnden Artefakt auch Informationen über die
Aushandlung (inkl. Transparenz über die Voten anderer) und im Informationsthread die
abgegebenen Kommentare befinden (siehe Abbildung 3, rechte Seite). Jedes Teammitglied kann über Zustimmung, Ablehnung oder Medienwechsel entscheiden oder einen
Gegenvorschlag einstellen. Wird das Artefakt als gemeinsames Ergebnis bestätigt (d.h.
261
der Vorschlag angenommen), wird das Dokument aus dem Negotiation-Ordner in den
übergeordneten Ordner kopiert. Kommentare können sowohl beim Starten der Aushandlung als auch beim Abstimmen (vgl. Abbildung 3, linke Seite) abgegeben werden.
Abbildung 3: Abstimmung in nBSCW (links) und Informationen über die laufende
Aushandlung (rechts), aus [Mö03]
3.4
Gegenüberstellung der Merkmale
Tabelle 1 vergleicht die drei beschriebenen Umsetzungen an Hand der Merkmale aus
Abschnitt 2. Aufgrund des identischen Einsatzes, nämlich die Einigung auf ein gemeinsames Ergebnis im Rahmen eines computergestützten kollaborativen Lernprozesses, in
dem in einer Kleingruppe ein gemeinsames Ergebnis gefunden werden soll, haben die
ersten drei Merkmale identische Ausprägungen. Die Gestaltung der Stimmenauswahl,
ihre Transparenz sowie die Integration mit Kommentaren und Diskussionen sind hingegen unterschiedliche gestaltet.
Merkmale
Ziel der Aushandlung
Anzahl der Beteiligten
Einbringen von Vorschlägen
Auswahlmöglichkeiten
für Voten
Transparenz
über
Voten anderer
Modus der Abstimmung
Integration von Kommentaren/Diskussion
KOLUMBUS
Gemeinsames Ergebnis
in Form eines Dokuments mit Besitzergruppe
3-20
Jeder
BSCL
Gemeinsames Ergebnis
in Form eines Artefakts
nBSCW
Gemeinsames Ergebnis
in Form eines (gekennzeichneten) Artefakts
3-20
Jeder
3-20
Jeder
Zustimmung,
Ablehnung,
Enthaltung,
Diskussion
Zustimmung,
nung
Ableh-
nein
ja
Zustimmung,
Ablehnung,
Enthaltung,
Medienwechsel, Gegenvorschlag,
ja
Ein Votum pro Person,
keine Zurücknahme
Nein,
Diskussionen
getrennt
Ein Votum pro Person,
keine Zurücknahme
(Pflicht-)Kommentare,
Diskussionen getrennt
Ein Votum pro Person,
keine Zurücknahme
Kommentare,
keine
Diskussion
Tabelle 1: Vergleich der drei Umsetzungsbeispiele
262
4
Erfahrungen mit den bestehenden Aushandlungsfunktionalitäten
In diesem Abschnitt werden die Erprobungsfelder der verschiedenen Aushandlungsunterstützungen sowie Methoden und wesentliche Ergebnisse aus den Evaluationen beschrieben und diskutiert. Die Erprobungsfelder ähneln sich in der Größe der evaluierten
Gruppen, den Laufzeiten der Aushandlungen und ihrem Ziel, das in der Einigung auf ein
gemeinsames Gruppenergebnis lag. Zusätzlich waren alle als Feldexperiment konzipiert.
Durch diese Ähnlichkeiten ist eine Vergleichbarkeit der Ergebnisse möglich.
4.1
Erfahrungen mit KOLUMBUS
Die Aushandlungsunterstützung von KOLUMBUS wurde im Rahmen eines Feldexperimentes in vier Forscherteams mit jeweils drei bis fünf Teilnehmern erprobt. Die Teams
hatten die Aufgabe, sich aufbauend auf ihren Projektarbeiten auf fünf Zukunftsthemen
zu einigen, die dann im Rahmen einer zweitägigen Klausurtagung vertieft werden sollten. Zur Erreichung dieses Ziels wurden von den Teilnehmern in KOLUMBUS Vorschläge eingebracht, diskutiert und anschließend ausgehandelt.
Für die Evaluation wurden Logfiles herangezogen, um Aufschluss über die prinzipielle
Nutzung der jeweiligen Funktionalitäten zu erhalten. Die Inhaltsanalyse der entstandenen Bereiche mit vorgeschlagenen Themen, Diskussionen und Aushandlung zeigten die
Struktur der Diskussions- und Aushandlungsprozesse. Zusätzlich wurden Interviews mit
den Teilnehmern geführt und die Teilnehmer während ihrer Nutzung des Systems beobachtet, um subjektive Rückmeldung über die Eignung des Systems zur Aushandlungsunterstützung zu erhalten.
Die Evaluation zeigte, dass die Teilnehmer keine Probleme hatten, Vorschläge einzustellen und diese zu diskutieren. Der eigentliche Aushandlungsschritt indes wies Unzulänglichkeiten auf. So wurde zunächst bemängelt, dass es keine Übersicht über laufende
Aushandlungen gab. Da die Aushandlungen eng mit vorgeschlagenen Themen und Diskussionen verwoben sind, waren diese an unterschiedlichen Stellen innerhalb der Inhaltsstruktur platziert und konnten nicht immer gefunden werden. Zudem wurde deutlich
gemacht, dass die fehlende Transparenz über die Voten Unsicherheit mit sich brachte, ob
überhaupt andere Teilnehmer abgestimmt haben. Dies wurde erst transparent, wenn die
Aushandlung abgeschlossen war (d.h. alle eingeladenen Teilnehmer abgestimmt haben)
und die Liste der Urheber erweitert wurde.
Die Optionen, die für ein Votum abgegeben werden konnten, wurden von den Teilnehmern positiv bewertet. Es wurde jedoch bemängelt, dass die Voten weder zurückgenommen noch kommentiert werden konnten. Die Teilnehmer behalfen sich schließlich
damit, dass sie einen Diskussionsbeitrag an die Aushandlung hängten, in dem sie einerseits erwähnten, wie sie abgestimmt haben (und damit Transparenz über ihr Votum gaben) und schließlich begründeten, warum sie sich für dieses Votum entschieden haben.
263
4.2
Erfahrungen mit BSCL
Die Aushandlungsunterstützung von BSCL wurde im Rahmen eines 10-wöchigen Kurses Human-Computer Interaction (HCI) an der Drexel University in Philadelphia (USA)
evaluiert (vgl. [Mö03]). Es wurden vier Studierendengruppen mit drei bis fünf Mitgliedern mit insgesamt 15 Probanden evaluiert. Die Aufgabe war er, unter MenschComputer Gesichtspunkten einen Prototypen zu entwerfen, umzusetzen und anschließend unter Usabilitykriterien zu evaluieren. Die Nutzung der Aushandlung wurde insbesondere für den Schritt der Zusammenstellung eines Evaluationsplans gefordert. Hier
wurden von den Teammitgliedern Vorschläge gesammelt, die zu einem gemeinsamen
Artefakt zusammengestellt und ausgehandelt werden sollten. In der abschließenden
Woche wurde BSCL als Plattform genutzt, um BSCL zur Unterstützung von Aushandlungen zu bewerten.
Die Evaluation erfolgte mittels Logfileanalyse und einer Inhaltsanalyse der im System
entstandenen Diskussionen und initiierten Aushandlungen samt ihrer Voten und dazugehörigen Kommentare. Darüber hinaus flossen auch die Aussagen der in der abschließenden Woche geführten Diskussion und Aushandlung der Eignung von BSCL in die Evaluation ein.
Bezüglich des Diskussionsprozesses zeigte die Evaluation, dass an sehr unterschiedlichen Stellen im System (z. T. auch Diskussionen in den Kommentaren zu den Artefakten) und auch über andere Kommunikationswege (E-Mail, ICQ) diskutiert wurde. Die
Teilnehmer kritisierten anschließend, dass sie durch diese Nutzung die Übersicht verloren, einige Diskussionen verpassten und ihnen so ein vollständiger Überblick fehlte.
Gefordert wurde hier die explizite Nennung eines Diskussionskanals, der sowohl synchrone als auch asynchrone Kommunikation unterstützt.
Bezüglich der eigentlichen Aushandlung zeigten die Logfiles, dass im Vergleich zu den
anderen Studien sehr wenige Aushandlungen initiiert wurden, die dann alle zu einer
Annahme des Vorschlages führten. Die Teilnehmer gaben während der Evaluationsphase
an, dass ihnen der Sinn der expliziten Aushandlung zum Ende nicht deutlich war, da
durch die Verwendung der Kategorien in Form von „Thinking Types“ (Vorschlag, Annahme, Ablehnung, vgl. Abb. 2, linke Seite) während der Diskussion die Meinungen
aller ersichtlich waren. Diese Kategorisierung lässt in der Sicht der Teilnehmer mehr
Raum zur Meinungsäußerung als die Aushandlung, da die Thinking Types vielfältiger
waren als die Vote-Möglichkeiten (Zustimmung und Ablehnung) während der abschließenden expliziten Aushandlung. Zudem wären durch die Einstellung mehrerer Kommentare das Überdenken bzw. die Zurücknahme eine Meinung möglich.
Um der expliziten Aushandlung einen höheren Stellenwert zu geben, wurden deshalb
eine Reduzierung oder Ausschaltung der Thinking-Types und eine Erweiterung der
Vote-Möglichkeiten vorgeschlagen. Schließlich wurde von einer Mehrheit der Teilnehmer eine Übersicht über laufende Aushandlungen gefordert und gewünscht, dass die
Kommentierung des Votums optional und nicht verpflichtend sei.
264
4.3
Erfahrungen mit nBSCW
nBSCW wurde von einer Forschergruppe aus einem Dozenten und acht Doktoranden
und Diplomanden genutzt, um einen gemeinsamen Methodenfundus in Form von 20
Artikeln auszuhandeln. Der Aushandlungsprozess dauerte drei Wochen, die Gruppe
vereinbarte, dass sich jeder mindestens alle zwei Tage beteiligte. Für die Aushandlung
wurde ein eigener Experimentordner angelegt. In diesem Ordner initiierten die Teilnehmer ihre Aushandlungen durch Anlegen von Negotiation-Ordnern, (vgl. Abschnitt 3.3),
in denen dann die Aushandlungen und Diskussionen stattfanden.
Die Evaluation verlief ähnlich wie im Fall von KOLUMBUS (vgl. [Mö03]): es wurden
Logfiles verwendet, eine Inhaltsanalyse der verschiedenen Ordner samt der darin enthaltenen Kommentare und Voten durchgeführt sowie die Teilnehmer interviewt und während ihrer Nutzung des Systems beobachtet.
Die Evaluation zeigte, dass der Experimentsordner zunächst das Auffinden von Aushandlungen erleichterte. Bereits nach einigen Tagen führte die Vermischung von noch
laufenden und bereits abgeschlossenen Aushandlungen jedoch zu einer von den Teilnehmern bemängelten Unübersichtlichkeit. So wurde im Verlauf der dreiwöchigen Nutzung eine Unterstruktur eingeführt, die laufende und bereits abgeschlossene Aushandlungen in verschiedenen Ordnern vorhält.
Bezüglich der Aushandlungen innerhalb der Negotiation-Ordner wurden die vorhandenen Optionen für das Votum und die Transparenz über die Voten der anderen positiv
bewertet. Gewünscht wurde hier die Abgabe vorläufiger Voten.
Auch die Möglichkeit zur Kommentierung von Voten fand prinzipiell Anklang. Es wurde jedoch bemängelt, dass diese zum einen redundant zu den im BSCW sowieso schon
vorhandenen Kommentarfunktionalitäten seien, so dass auch hier – ähnlich wie bei
BSCL – zu viele unterschiedliche Kommentierungsmöglichkeiten vorhanden waren, die
zu Kommentaren an unterschiedlichen Stellen innerhalb der Inhaltsstruktur führten. Zum
anderen wurde kritisiert, dass die Kommentare von den eigentlichen Voten getrennt
angezeigt werden, obwohl sie zusammen eingegeben wurden. Der Nachvollzug der
Kommentare wurde dadurch erschwert. Zusätzlich wurde bemängelt, dass es keine Möglichkeit zu Diskussionssträngen gab.
4.4
Diskussion der Ergebnisse
Vergleicht man nun die verschiedenen Anwendungen, so wird zunächst deutlich, dass
der eigentliche Aushandlungsschritt nur dann als relevant eingestuft wird, wenn er mehr
ist als nur ein simpler Votemechanismus wie im Fall von BSCL. Dies wird zum einen
dadurch erreicht, dass mehr Auswahlmöglichkeiten für die eigentlichen Voten angeboten
werden wie im Fall von KOLUMBUS und nBSCW, da dadurch mehr Meinungen zum
Ausdruck gebracht werden können.
Zum anderen dürfte eine Möglichkeit zur Zurücknahme von Voten dem Aushandlungsprozess einen noch höheren Stellenwert geben, da dadurch die Aushandlungsfunktionali-
265
täten schon zu einem früheren Zeitpunkt und häufiger (Votum setzen, ggf. revidieren
statt einmal Votum setzen) genutzt wird. Aus allen hier beschriebenen Studien lässt sich
aber nur der Wunsch nach einer solchen Funktionalität ableiten. Zum jetzigen Zeitpunkt
liegen mit zurücknehmbaren Voten keine Erfahrungen vor, da keines der eingesetzten
Systeme eine solche Möglichkeit bot.
Zusätzlich ist eine enge Verzahnung mit einer optionalen Kommentarmöglichkeit sinnvoll. Ein Fehlen kann, wie im Fall von KOLUMBUS, zu alternativen Begründungswegen führen. Ein Zwang zur Kommentierung wie bei BSCL führt auf der anderen Seite
zur Ablehnung. Um die Chance zu erhöhen, dass alle Kommentare wahrgenommen
werden, sollte es nur eine Kommentierungsfunktionalität geben, auf die sich die Teilnehmer konzentrieren können. Die Konzentration auf eine Funktionalität gilt auch für
eine zu fordernde Kommunikationsmöglichkeit, die eng mit der Aushandlung integriert
werden sollte. Die Beispiele KOLUMBUS und BSCL zeigen, dass es eine Bereitschaft
zur Diskussion gibt, die fehlende Integration zum Aushandlungsschritt aber bemängelt
wird. Fehlt eine Möglichkeit zur Bildung von Diskussionen in Diskussionssträngen wie
bei nBSCW, wird diese gewünscht.
Schließlich zeigen die verschiedenen Studien, dass, wie bei vielen Gruppenanwendungen, der Transparenz ein hoher Stellenwert beigemessen wird. Dies betrifft zum einen
die Übersicht über Aushandlungen, die dem nBSCW-Beispiel folgend in laufende und
bereits abgeschlossene Aushandlungen unterteilen lassen sollten. Fehlende Transparenz
führte bei KOLUMBUS und BSCL zu Problemen bei den Nutzern. Für CSCLAnwendungen kann zusätzlich festgehalten werden, dass eine Transparenz über die
Voten wie in den Fällen BSCL und nBSCW sinnvoll ist, eine geheime Wahl wie im Fall
KOLUMBUS hingegen zu Unsicherheit und der Transparenzschaffung auf anderen
Wegen führt. Sofern Kommentare (und Diskussionen) möglich sind, sollten diese zum
Nachvollzug auch mit dem jeweiligen Votum verknüpft sein.
5
Designprinzipien für Aushandlungsunterstützungen
Aufbauend auf den zuvor beschriebenen Ergebnissen und der Diskussion lassen sich
bezogen auf die Merkmale von Aushandlungsunterstützungen in CSCL-Systemen nun
allgemeine Designprinzipien zusammenstellen. Diese beziehen auf die Merkmale bezüglich der Gestaltung der Aushandlungsunterstützung. Auf Ziele einer Aushandlung und
die Anzahl der Beteiligten wird hier deshalb nicht mehr eingegangen:
Einbringen von Vorschlägen: Wie bereits eingangs deutlich gemacht und auch in
den Studien realisiert, können Vorschläge von allen eingebracht werden. Es sollte
eine Übersicht über laufende und abgeschlossene Aushandlungen dieser Vorschläge geben.
Auswahlmöglichkeiten für Stimmen (Voten): Es empfiehlt sich eine breite Palette
an Auswahlmöglichkeiten, die über die Optionen Zustimmung und Ablehnung hinausgeht. Zusätzlich sind die Enthaltung sowie eine Ausweichmöglichkeit wie
266
Gegenvorschlag, Diskussion oder Medienwechsel anzubieten. Eine breite Auswahlmöglichkeit gibt dem Aushandlungsschritt einen höheren Stellenwert.
Transparenz über Voten anderer: Für CSCL-Systeme unbedingt zu realisieren.
Modus der Abstimmung (Voting): Die Studien zeigen Hinweise, dass Voten zurücknehmbar sein sollten. Dies würde den Stellenwert des Aushandlungsschrittes
erhöhen, da Voten schon früher gesetzt und häufiger genutzt (setzen, zurücknehmen, ändern) werden.
Integration von Aushandlung und Diskussion bzw. Kommentaren: Dies ist ein entscheidendes Merkmal für den Erfolg einer Aushandlungsunterstützung in CSCLSystemen. Die Studien zeigen, dass Diskussionen notwendig sind, eine fehlende
Integration oft bemängelt wird. Kommentare sollten optional sein und eng mit dem
Votum verknüpft werden.
6
Zusammenfassung und Ausblick
Dieser Artikel leistet einen Beitrag zur Gestaltung der Aushandlungsfunktionalität in
CSCL-Systemen. Nach der Motivation zu diesem Thema wurden aufbauend auf verwandten Arbeiten zentrale Merkmale von Aushandlungsunterstützungen für CSCLSysteme erarbeitet. An Hand dieser Merkmale wurden die Aushandlungsfunktionalitäten
der drei CSCL-Systeme KOLUMBUS, BSCL und nBSCW vorgestellt. Diese Systeme
waren Gegenstand eigener Studien, deren Ergebnisse beschrieben und vergleichend
gegenübergestellt werden. Aus diesem Vergleich wurden schließlich allgemeine Designprinzipien abgeleitet.
Diese sehen vor, dass eine Transparenz über laufende und abgeschlossene Aushandlungen ebenso notwendig ist wie die Transparenz über Voten anderer. Bezüglich der Auswahloptionen für Stimmen empfiehlt sich eine breite Palette, die über Zustimmung und
Ablehnung hinaus auch Enthaltung und Ausweichmöglichkeiten vorsieht; ferner kann
die Zurücknahme und das Ändern von Voten sinnvoll sein. Als entscheidendes Merkmal
hat sich jedoch eine enge Verzahnung von Diskussion und Kommentaren mit der Stimmenabgabe herausgestellt.
Die hier gefundenen Designprinzipien sind durch die Umsetzungen und ihre Evaluationen gegründet. Keines der hier beschriebenen Systeme verfügt allerdings über die Kombination dieser Merkmalsausprägungen, so dass keine Hinweise bzgl. der Akzeptanz
geliefert werden können. Zur weiteren Fundierung der Designprinzipien ist deshalb ein
nach ihnen gestaltetes CSCL-System bzgl. der Wirksamkeit und Akzeptanz zu erproben.
Literaturverzeichnis
[AM99] Appelt, W.; Mambrey, P.: Experiences with the BSCW Shared Workspace System as the
Backbone of a Virtual Learning Environment for Students. In Proceedings of ED Media
‘99’, Charlottesville, pp. 1710-1715.
267
[Be05]
Beers, P. J.: Negotiating Common Ground: Tools for Multidisciplinary Teams. Heerlen:
Open Universiteit Nederland, 2005.
[BKM02] Bui, T.; Kertsen, G.; Ma, P.: Supporting Negotiation with Scenario Management. In:
Proceedings of the 29th Annual Hawaii International Conference on System Sciences
(HICSS), Los Alamitos: IEEE, 1996, pp. 209-218.
[DS83] Davis, R.; Smith, R.G.: Negotiation as a Metaphor for Distributed Problem Solving. In:
Artificial Intelligence, No. 20, 1983, pp. 63-109.
[DG87] DeSanctis, G.; Gallupe, R. B.: A Foundation for the Study of Group Decision Support
Systems. In: Management Science, Vol. 33, No. 5, 1987, pp. 589-609.
[Di02] Dillenbourg, P.: Over-scripting CSCL. The risk of blending collaborative Learning with
instructional design. In Kirschner, P.A. (Ed.): Three worlds of CSCL. Can we support
CSCL Heerlen. Open University Nederland., 2002, pp. 61-91.
[DB96] Dillenbourg, P.; Baker, M.: Negotiation Spaces in Human-Computer Collaborative
Learning. In: Proceedings of the International Conference on Cooperative Systems,
France, 1996, pp. 187-206.
[EZR94] Ephrati, E.; Zlotkin, G.; Rosenschein, J.: Meet Your Destiny: A Non-manipulable Meeting Scheduler. In: Proceedings of the CSCW. New York: ACM, 1994, pp. 359-371.
[He95] Herrmann, T.: Workflow Management Systems: Ensuring organizational Flexibility by
Possibilities of Adaption and Negotiation. In: Comstock, Nora et al. (Hrsg.): COOCS´95.
New York, ACM Press, 1995, pp. 83 - 95.
[Ki06] Kienle, A.: Integration of Knowledge Management and Collaborative Learning by technical supported Communication Processes. In: Education and Information Technologies,
Vol. 11, No. 2, 2006, pp. 161-185.
[KH04] Kienle, A.; Herrmann, T.: Collaborative learning at the workplace by technical support
of communication and negotiation. In: Adelsberger et al.: Multikonferenz Wirtschaftsinformatik (MKWI) 2004, Band 1, 2004, S. 43-57.
[Ko96] Koschmann, T. (ed.) (1996), CSCL: Theory and Practice, New Jersey: Lawrence Erlbaum Associates
[Mö03] Möller, E.: Computergestützte Aushandlungen – Vergleich, Evaluation und Verbesserungsmöglichkeiten. Universität Dortmund: Diplomarbeit, 2003.
[Po02] Pohé, M.: A New BSCW, Aspects of Negotiation within BSCW, Universität Dortmund:
Diplomarbeit, 2002.
[PR06] Prilla, M.; Ritterskamp, C.: Collaboration support by co-ownership of documents. In:
Hassanaly, P.; Herrmann, T.; Kunau, G.; Zacklad, M. (Eds.): Cooperative Systems Design. Seamless Integration of Artifacts and Conversations – Enhanced Concepts of Infrastructures for Communication. Amsterdam: IOS-Press, 2006, pp. 255-269.
[SH99] Stahl, G.; Herrmann, T.: Intertwining Perspectives and Negotiation, In: Hayne, S. C.:
Proceedings of Group’99 International Conference on Supporting Group Work, New
York: ACM, 1999, pp. 316-325.
[St03] Stahl, G.: Negotiating Shared Knowledge in Asynchronous Learning Networks. In:
Proceedings of the 36th Annual Hawaii International Conference on System Sciences
(HICSS), 2003.
[SW98] Stiemerling, O.; Wulf, V.: Beyond `Yes` and `No` - Extending Access Control in
Groupware with Awareness and Negotiation. In: Proceedings of the International Conference on Cooperative Systems, France, 1998, pp. 111-120.
268
Kontextualisierte Kooperationsinitiierung zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens
Andrea Kienle1, Martin Wessner2, Robert Lokaiczyk3, Andreas Faatz3, Manuel Görtz3
Fraunhofer IPSI
Dolivostr. 15, 64293 Darmstadt, Germany
andrea.kienle@ipsi.fraunhofer.de
1
Ludwig-Maximilian-University
Leopoldstr. 13, 80802 Munich, Germany
martin.wessner@psy.lmu.de
2
SAP Research CEC Darmstadt
Bleichstr. 8, 64283 Darmstadt, Germany
{robert.lokaiczyk, andreas.faatz, manuel.goertz} @sap.com
3
Abstract: In diesem Beitrag werden ein Ansatz zur kontextualisierten Suche nach
Kooperationspartnern bzw. geeigneten Experten für arbeitsplatzorientiertes kollaboratives Lernen sowie dessen Umsetzung präsentiert. Auf Basis bestehender Arbeiten zu Modellierung von Arbeitsprozessen sowie zur Rolle von Aufgaben- und
Nutzerkontext werden die vier Schritte dieses Ansatzes vorgestellt. Der Ansatz
sieht vor, dass zunächst der aktuelle Prozessschritt des Nutzers identifiziert wird
(1). Die anschließende Identifikation relevanter Experten erfolgt bezogen auf die
Parameter Kompetenz bezüglich des Prozessschrittes, Verfügbarkeit sowie organisatorische und soziale Distanz (2), die Anzeige erfolgt auf Basis dieser Liste sowie
individueller Präferenzen des Nutzers (3). Informationen über die Kooperation reichern abschließend die vorhandene Wissensbasis an (4).
1
Einleitung
Häufig wechselnde Arbeitskontexte, immer schnellere Prozess- und Produktlebenszyklen und sich ständig ändernde Anforderungen an die Mitarbeiter machen lebenslanges Lernen in der heutigen Zeit unabdingbar. Um diesen Entwicklungen gerecht zu
werden, wird verstärkt auf arbeitsplatzorientiertes Lernen [BBS01], [MS05] gesetzt.
Dabei steht die Aneignung jenes Wissen im Vordergrund, das zur Lösung einer bestimmten Arbeitsaufgabe notwendig ist und dessen Nutzen sich direkt an der Arbeitsaufgabe messen lässt (anders als beim Lernen „auf Vorrat“). Dazu werden Wissensmanagementplattformen eingesetzt, die in Dokumenten Wissen bereitstellen und Möglichkeiten des Wissensaustauschs zwischen den Mitarbeitern ermöglichen [HKT02]. Unter
dem Schlagwort des geschäftsprozessorientierten Wissensmanagements hat sich die
269
Erkenntnis durchgesetzt, dass die Integration von Wissensarbeit und Geschäftsprozessen
hilfreich ist [Di02].
Arbeitsplatzorientiertes Lernen findet nun zu einem großen Grad während sozialer Interaktion, z.B. während der gemeinsamen Bearbeitung eines digitalen Artefakts oder der
Kommunikation darüber, statt. Hier zeigt sich, dass Personen in unterschiedlichen Rollen beteiligt sein können. In der Rolle des Wissensarbeiters entwickelt, bearbeitet oder
nutzt die Person Artefakte, kommuniziert über sie etc. In der Rolle des Lernenden erwirbt eine Person zusätzliches Wissen. Dies kann auf unterschiedlichen Wegen wie z.B.
Lesen von Dokumenten oder Interaktion stattfinden. In der Rolle des Lehrenden bzw.
Experten gibt eine Person Wissen an eine andere weiter. Der Übergang zwischen diesen
Rollen ist dabei fließend [LW91]. Eine Person, die die Rolle des Wissensarbeiters innehat, wird zum Lernenden, sobald ein Problem auftritt, dessen Lösung für die Weiterarbeit notwendig ist. Gibt die Person Wissen an andere weiter, wird sie zum Lehrenden.
Beim geschäftsprozessorientierten Wissensmanagement werden diese Rollen je nach
aktuellem Geschäftsprozess eingenommen. In diesem Beitrag widmen wir uns dem
Problem, wie ein Lernender bei der Identifikation geeigneten Lehrender bzw. Experten
unterstützt werden kann. Folgendes Beispiel verdeutlicht die Problemstellung:
Beispiel: Anna soll zum ersten Mal einen Geschäftsprozess X bearbeiten. Für die Bearbeitung eines bestimmten Schrittes im Geschäftsprozess fehlt ihr das notwendige Wissen. Das vorhandene Wissensmanagementsystem bietet ihr zwar relevante Dokumente
an, diese jedoch können ihre Fragen nicht zufrieden stellend beantworten. Sie benötigt
den Rat relevanter Lehrender bzw, Experten, die sie bei der Wissensaneignung unterstützen. Aber wer ist das?
Ob eine Person ein relevanter Experte ist, hängt von verschiedenen Parametern ab: zum
einen muss sie relevant in Bezug auf den aktuellen Geschäftsprozess und zum anderen in
Bezug auf den Hilfesuchenden (im Beispiel: Anna) sein. Daher werden im folgenden
Abschnitt zwei Ansätze der Modellierung von Prozessen sowie (des Kontextes) einer
Person betrachtet. Abschnitt 3 stellt den Ansatz zur kontextualisierten Kooperationsinitiierung vor. Dazu greifen wir das oben angeführte Beispiel auf und erläutern, wie der
aktuelle Prozessschritt identifiziert werden kann (Abschnitt 3.1), wie geeignete Experten
identifiziert (Abschnitt 3.2) und in eine Rangfolge gebracht werden können (Abschnitt
3.3) und wie Informationen aus einer Kooperation wiederum in die Wissensbasis zurückfließen (Abschnitt 3.4). Abschnitt 4 widmet sich der Umsetzung dieses Ansatzes. Der
Beitrag endet mit einer Zusammenfassung und einem Ausblick (Abschnitt 5).
2
Verwandte Arbeiten
Unter der Bezeichnung Business-Process Oriented Knowledge Management sind in den
letzten Jahren verschiedene Ansätze zur Integration von Wissensmanagement- und Geschäftsprozessen entwickelt worden (z.B. [Ab04]). Dazu werden die jeweiligen Prozesse
sowie die Nutzer bzw. der Kontext der Nutzung modelliert Für die kontextualisierte
Suche nach Experten als Partner für arbeitsplatzorientiertes kollaboratives Lernen können wir auf diesen Ansätzen aufbauen. Im folgenden werden Arbeiten zur Modellierung
von Prozessen sowie des Aufgaben- und Nutzerkontextes angesprochen, Kaum thematisiert wird bei bisherigen Ansätzen das kollaborative Lernen und der Rückfluss aus dem
270
kollaborativen Lernprozess in die Wissensbasis, um wiederum zukünftiges kollaboratives Lernen besser zu unterstützen.
2.1
Prozessmodellierung
Zur Definition des Begriffes Task stützen wir uns auf van Welie und definieren „Task“
als eine Aktivität, die durchgeführt wird, um ein bestimmtes Ziel zu erreichen [WVE98].
Die klassischen Arbeiten zur Taskmodellierung lassen sich zwei Gruppen zuordnen.
Zum einen sind dies ereignisbasierte Prozessmodellierungssprachen (1) und zum anderen zustandsorientierten Modellierungssprachen von denen wir jeweils einen Repräsentanten genauer betrachten.
(1) Die Business Process Modelling Notation (BPMN) weist eine starke Verwandtschaft
zu UML-Aktivitätsdiagrammen auf. BPMN ist in erster Line als graphische Standardisierung der Geschäftsprozessmodellierung zu verstehen [BPM06]. Neben der Erfassung
elementarer Aktivitäten und ihrer zeitlichen und logischen Bedingungen kann in BPMN
die Modellierung einzelner Akteure des Prozesses explizit durch die Übergabe von Werten zwischen sogenannten „Schwimmbahnen“ (swim lanes) und die Repräsentation von
Artefakten des Prozesses durch sogenannte Data Objects erfolgen. Die BPMN ist ein
Vertreter ereignisbasierter Prozessmodellierungssprachen, welche Ereignisse oder Aktivitäten als konstituierende Elemente verwenden.
(2) Ein Petrinetz besteht aus Stellen, Marken, Transitionen und Kanten, die die Stellen
und Transitionen miteinander verknüpfen [So00]. Die Verteilung der Marken auf den
Stellen zeigt den Zustand des Petrinetzes an. Eine Transition (Feuern neuer Marken an
die angrenzenden Stellen) ist dann ermöglicht, wenn alle eingehenden Stellen mit Marken belegt sind. Marken können verschiedenfarbig sein, um typisierte Ereignisse anzuzeigen. Van der Aalst hat die Vorzüge der Nutzung von Petrinetzen für die Arbeitsprozessmodellierung ausgiebig diskutiert [Aa96]. Insbesondere sind formale Verfahren
bei der Überprüfung und Modellierung von Petrinetzen gut etabliert. Im Gegensatz zu
BPMN sind Petrinetze zustandsbasiert, das heißt, dass neben Ereignissen oder Aktivitäten auch stets der aktuelle Zustand (durch die Belegung des Netzes mit Marken) zu den
konstituierenden Elementen der Modellierung gehört.
2.2
Der Kontext einer Aufgabe und eines Nutzers
Im Hinblick auf die kontextualisierte Identifikation relevanter Experten zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens sollen hier verwandte Arbeiten
aus zwei Bereichen betrachtet werden. Zum einen geht es um die Erfassung und Nutzung
des Aufgabenkontexts (Taskkontexts) eines Ratsuchenden, da dieser mitentscheidend für
die Auswahl passender Experten ist. Zum anderen wird – unter einem breiteren Blickwinkel – die Modellierung des Kontextes einer Person (Nutzerkontext) betrachtet und
gezeigt, wie er zur Identifikation passender Kooperationspartner genutzt werden kann.
271
2.2.1 Taskkontext
Ein System, das im Speziellen den Taskkontext berücksichtigt, ist CALVIN [BL01].
Bauer und Leake fassen den Taskkontext als Term-Vektor-Beschreibung des gerade
betrachteten Dokumentes auf. Auf Basis einer Differenzanalyse werden Termmengen
durch das darunterliegende System Wordsieve über die Zeit analysiert und Taskwechsel
durch einen festgelegten Schwellenwert der Differenz in den Termmengen erkannt. Das
System arbeitet ausschließlich dokumentenbasiert über den Webbrowser. [GS05] verwendet einen umfassenderen Begriff des Taskkontextes und fügt dem Task Faktoren wie
u. a. Komplexität, Schwierigkeit und Abhängigkeiten hinzu, um mit einem BayesianBelief-Modell günstige Momente für Unterbrechungen des Arbeitsflusses zu finden. Die
Strukturierung des Prozesses in Teilschritte geschieht durch geeignete Experten, die
auch entsprechende Klassifizierungen der Tasks manuell nach obigen Faktoren vornehmen. Das Pinpoint-System [Bi05] liefert taskspezifische Empfehlungen von Dokumenten aus Wissensdatenbanken, wobei der Tasks ausschließlich durch eine manuelle Auswahl in einer Expertenontologie bzw. durch deren manuelle Erweiterung erfasst wird.
Auch hier ist eine automatische Erkennung nicht vorgesehen. Damit betrachten bisherige
Systeme meist nur dokumentenbasierte Unterstützung mit manueller Auswahl des
Taskkontextes und sind auf eine Domäne fixiert.
2.2.2 Definition und Erfassung eines Nutzerkontextes
Der Kontext eines Nutzers geht natürlich über den aktuellen Taskkontext hinaus. Im
Hinblick auf die kontextualisierte Identifikation von Experten gehen hier beispielsweise
vorhandene Kompetenzen, die Historie der Benutzung des Systems, verfügbare Werkzeuge und Nutzerpräferenzen mit ein. Solche Attribute des Kontextes werden dann –
zusätzlich zum Taskkontext der ratsuchenden Person - zur Identifikation und Auswahl
von Experten herangezogen.
Systeme zur Empfehlung relevanter Experten benutzen in der Regel anwendungs- sowie
domänenspezifische Heuristiken, um persönliche Profile zu vergleichen und Ähnlichkeiten festzustellen [Mc00]. Für das Gebiet des kooperativen Lernens bestimmt [We05]
zunächst personenunabhängig den Kontext einer Kooperation u.a. durch Angaben des
zugrundeliegenden didaktischen Modell, zum Ziel, zu den Instruktionen, zur Durchführung, zur Art der Gruppe und zum Verfahren ihrer Bildung, zu vorhandenen InputMaterialien, zur Dauer, zur Bewertung und zu den zu nutzenden Werkzeugen. Steht eine
solchermaßen beschriebene Kooperation dann für eine bestimmte Person zur Durchführung an, wird der Kontext dieser Kooperation um Informationen und Rahmenbedingungen aus Sicht dieser Person erweitert. Es kommen dann u.a. Angaben zum
Vorwissen, zu Präferenzen in Bezug auf Kooperationspartner, Zeiten und Werkzeuge
hinzu. Auf Basis dieser Attribute werden dann passende Kooperationspartner zur Durchführung der Kooperation bestimmt.
Um anwendungs- und domänenspezifische Heuristiken allgemein bei der Entwicklung
von Expertise-Recommender-Systemen berücksichtigen zu können, schlägt [Mc00] eine
flexible Architektur für derartige Systeme vor. Diese enthält u.a. folgende Komponenten: Ein „profiling supervisor“ erstellt und pflegt Benutzerprofile unter Nutzung konfigurierbarer Module und verschiedener Datenquellen. Ein „identification supervisor“
sucht eine Menge von geeigneten Resourcen bzw. Personen nach bestimmten konfigu-
272
rierbaren Heuristiken aus. Ein „selection supervisor“ filtert und sortiert die Liste gemäß
konfigurierbarer Strategien und Präferenzen.
Unser Ansatz greift diese flexible Architektur auf und passt sie den spezifischen Erfordernissen bei der Identifikation von Experten im Kontext des arbeitsplatzorientierten
kollaborativen Lernens an.
3
Ansatz
Der im Folgenden beschriebene Ansatz zur geschäftsprozessorientierten Expertenfindung wurde im Rahmen des Projektes APOSDLE erarbeitet (http://www.aposdle.org).
APOSDLE ist ein Integrated Project (IP), in der Area Technology Enhanced Learning
(TEL) und hat zum Ziel, das Paradigma des arbeitsintegrierten Lernens zu definieren
und die drei Rollen Wissensarbeiter, Experte und Lerner konzeptuell und technisch nahtlos zu integrieren. Diese Integration, die durch die APOSDLE-Plattform ermöglicht
wird, erfolgt innerhalb der computerbasierten Arbeitsumgebung des Nutzers. Der im
Folgenden beschriebene Ansatz ist ein Ausschnitt aus diesem Projekt und ist im Wesentlichen in der Diskussion mit Anwendungspartnern entstanden. Er betrachtet den fließenden Übergang von der Bearbeitung eines wissensintensiven Arbeitsprozesses durch
einen Wissensarbeiter zu einer Kooperationssituation zwischen dem Wissensarbeiter als
Lernendem (im Folgenden der Deutlichkeit halber Ratsuchender genannt) und einem
oder mehreren Experten.
Abbildung 1: Übersicht über den Ansatz
Abbildung 1 gibt nun einen Überblick über den Ansatz und greift das Beispielszenario
aus Abschnitt 1 wieder auf. Oben links sehen wir Anna, die in ihrem Arbeitsprozess
schon einige Schritte abgearbeitet hat. In dem aktuellen Prozessschritt jedoch treten
Fragen auf, die ihr die weitere Bearbeitung unmöglich machen. Sie muss sich das notwendige Wissen aneignen und benötigt den Rat eines relevanten Experten. Die APOSDLE-Plattform kennt den Taskkontext, in dem sich Anna gerade befindet (1). Basierend
auf dem Taskkontext sowie der in der APOSDLE-Plattform gespeicherten Nutzerkontexte (sowohl bezogen auf Anna als auch auf alle anderen Mitarbeiter des Unterneh-
273
mens) identifiziert die Plattform relevante Experten (2) und zeigt diese nach nutzerabhängigen Parametern an (3). In unserem Beispiel sind dies unter anderem Michael und
Gerd. Michael arbeitet in der gleichen Abteilung wie Anna und hat den aktuellen Prozess
bereits einige Male durchlaufen. Außerdem hat er schon mehrfach ein Dokument zur
Beschreibung dieses Prozesses editiert. Gerd ist ausgewiesener Experte dieses Prozesses,
da er mit seinem Team diesen Prozess definiert und im Unternehmen eingeführt hat.
Die letztendliche Auswahl des oder der Kooperationspartner aus der vorgeschlagenen
Liste wird vom Ratsuchenden (in unserem Beispiel von Anna) getroffen. Anna initiiert
eine Kooperation mit Michael. Nach Abschluss der Kooperation werden relevante Informationen der Kooperation extrahiert und in der APOSDLE-Plattform gespeichert (4).
Diese erweitern die Wissensbasis und stehen dann für spätere Expertensuchen zur Verfügung.
In den folgenden Unterabschnitten werden diese vier Schritte umfassend erläutert. Die
Nummerierung der Unterkapitel entspricht dabei der Nummerierung in der Abbildung.
3.1
Auswahl des Taskkontextes
Für das Projekt APOSDLE umfasst Kontext neben dem expliziten Wissen um den gerade zu erfüllenden Prozessschritt (Task) des Wissensarbeiters und dem Thema des Tasks
auch die Historie und die Kompetenzen des Nutzers sowie andere Zusatzinformationen.
In das generische Konstrukt Kontext fließen also eine Vielzahl von Komponenten aus
den getrennten Bereichen Nutzer- bzw. Taskkontext ein. Die Verwendung des aktuellen
Tasks hängt von der Modellierung des Arbeitsprozesses ab. Daher muss zunächst für
eine geeignete Modellierungssprache gefunden werden. Nach einer State-of-the-Art
Analyse sowie anschließender Evaluation der Modellierungssprachen auf Erfüllung der
Anforderungen wurde die auf Petri-Netzen basierende Modellierungssprache YAWL
(Yet Another Workflow Language) ausgewählt. Im Gegensatz zu aktivitätsbasierten
Modellierungssprachen wie BPMN ist bei zustandsbasierten Konstrukten wie Petrinetzen durch die explizite Unterscheidung von Stellen und Transitionen die Modellierung
mit einem höheren initialen Aufwand verbunden. Petrinetze bieten aber auch den Vorteil
der beschriebenen reichhaltigeren Möglichkeiten der Auswertung der Modelle zum Ziel
der Expertensuche durch eine mächtige formale Semantik, Möglichkeiten der Tokentypisierung und Hierarchiebildung des Netzes. Der aktuelle Task wird dabei durch den
Zustand des aktuellen Petrinetzes mit der Markenflussgeschichte darstellt. Gegenwärtig
wird der Task manuell durch den Nutzer ausgewählt. Es ist im Verlauf des Projektes
APOSDLE geplant dies durch die Aggregation und Klassifikation von Desktop-Events
zu automatisieren.
3.2
Identifikation relevanter Experten
Basierend auf dem Taskkontext (und weiteren Informationen über den Nutzer in Form
des Nutzerprofils) können dem Nutzer geeignete Werkzeuge (Applikationen und Vorlagen), Dokumente (Arbeits- und Lerndokumente) sowie Personen (Experten und andere
Personen) als Kooperationspartner vorgeschlagen werden. In diesem Abschnitt wird die
Identifikation potentiell sinnvoller Kooperationspartner beschrieben. Da eine ausführliche Darstellung der der Identifikation zugrunde liegenden Verfahren den Rahmen dieses
274
Beitrags sprengen würde, soll hier das Verfahren nur grob skizziert und exemplarisch
auf einige Aspekte eingegangen werden.
Die Eignung eines Nutzers B als Kooperationspartner für einen Nutzer A wird durch die
Kontexte der Nutzer A und B bestimmt. Dabei haben die einzelnen Bestandteile des
Kontextes je nach Rolle des Nutzers (Ratsuchender bzw. potentieller Experte) eine unterschiedliche Wichtigkeit. Beispielsweise ist für die Identifikation relevanter Experten
der aktuelle Task des Ratsuchenden von zentraler Bedeutung, der aktuelle Task des
potentiellen Experten ist aber von geringerer Bedeutung.
Für die Beantwortung der Frage, ob ein Nutzer B ein potentieller Kooperationspartner
für den ratsuchenden Nutzer A ist, betrachten wir folgende Parameter:
Kompetenz: B hat den Task, den A gerade ausführt, bereits mehrfach erfolgreich
durchlaufen, d.h. B verfügt über die zur Durchführung dieses Tasks notwendigen
Kompetenzen (siehe dazu den vorangegangenen Abschnitt).
Verfügbarkeit: B ist aktuell für eine Kooperation verfügbar. Dieses Kriterium ist
insbesondere dann von entscheidender Bedeutung, wenn schnell Hilfe benötigt
wird. Informationen über die Verfügbarkeit kommen aus zwei unterschiedlichen
Quellen:
Automatische Erkennung der Verfügbarkeit: Ähnlich wie aus anderen synchronen Kommunikationsmedien (z.B. Instant Messaging) bekannt, kann automatisch ermittelt werden, ob ein potenzieller Experte in der APOSDLEPlattform angemeldet ist oder nicht. Ist ein Experte nicht angemeldet, ist er
auch nicht verfügbar.
Manuelles Setzen der Nicht-Verfügbarkeit: Aus unterschiedlichen Gründen
möchte ein Experte, der zwar faktisch verfügbar ist, evtl. nicht als verfügbar
gelten. Gründe sind beispielsweise eine hohe eigene Arbeitsbelastung oder
(zu) viele Anfragen von Ratsuchenden. Dem Experten muss also eine Möglichkeit eingeräumt werden, seinen Status manuell auf nicht-verfügbar einzustellen.
In unserem Beispiel sind sowohl Michael als auch Gerd verfügbar. In zukünftigen Versionen kann auch der Kalender eines Nutzers in die Erkennung der Verfügbarkeit einbezogen werden. Ist im Kalender beispielsweise ein ein in Kürze beginnendes Meeting
eingetragen, steht der Nutzer voraussichtlich nicht für eine Kooperation zur Verfügung.
Organisatorische Distanz: Die organisatorische Distanz von A und B ist geringer
als ein gegebener Grenzwert dorg. Die organisatorische Distanz wird beispielsweise
durch die (aktuelle oder frühere) Abteilungs- oder Projektzugehörigkeit von A und
B bestimmt. Hierzu kann eine organisatorische Modellierung des Unternehmens
herangezogen werden.
Soziale Distanz: Die soziale Distanz von A und B ist geringer als ein gegebener
Grenzwert dsoz. Die soziale Distanz wird beispielsweise durch Vorlieben bzw. Abneigungen gegenüber Personen und Themen sowie Ausmaß von und Zufriedenheit
mit bisherigen Kooperationen zwischen A und B bestimmt. Zur Bestimmung der
sozialen Distanz kann ein soziales Netz herangezogen werden, welches Gruppen
275
und deren Interaktionsmuster darstellt [WF94]. In solchen sozialen Netzen werden
die Teilnehmer als Knoten und die Sender-Empfänger-Beziehungen als Kanten
angezeigt. Eine Sender-Empfänger-Beziehung ist zum Beispiel die Teilnahme an
einer gemeinsamen Kooperation in der APOSDLE-Plattform, kann aber prinzipiell
auch aus anderen automatisch zu verarbeitenden Quellen (z.B. E-Mail, Instant
Messaging) gewonnen werden. In unserem Beispiel wurde für Michael eine stärkere soziale Verbindung zu Anna festgestellt, da diese schon mehrfach kooperiert
haben, während Gerd bislang nie mit Anna kooperierte. Wir schlagen vor, dem sozialen Netzwerk einen hohen Stellenwert einzuräumen, da sich in vergangenen
Studien gezeigt hat, dass das Wissen über den und die Vertrautheit mit dem Kooperationspartner für den Wissensaustausch eine entscheidende Rolle spielt
[KMH03].
Für jedes dieser Kriterien kann nun die Erfüllung bestimmt und auf einen Wertebereich
zwischen 0 und 1 abgebildet werden. Ferner wird für jedes Kriterium ein Schwellenwert
festgelegt, oberhalb dessen das Kriterium als erfüllt betrachtet wird. Alle Nutzer, die die
o.g. Kriterien erfüllen, werden als potentielle Kooperationspartner vorgesehen. Abhängig
von dem Grad der Erfüllung der einzelnen Kriterien und der Nutzerpräferenzen wird in
einem nächsten Schritt die Liste geeignet priorisiert und dem Nutzer zur Auswahl von
Experten angezeigt.
3.3
Priorisierung der Liste potentieller Experten
Nachdem nun potenzielle Experten identifiziert wurden, geht es in diesem Schritt um die
geeignete Priorisierung der Kandidaten. Ziel ist es, dem Ratsuchenden eine absteigend
nach Eignung geordnete Liste von potentiellen Kooperationspartnern anzubieten, aus der
er dann den oder die gewünschten Partner manuell auswählen kann. Die Priorisierung
der Liste potentieller Experten wird zum einen durch den Grad der Erfüllung der o.g.
Kriterien (Kompetenz, Verfügbarkeit, organisatorische und soziale Distanz), zum anderen durch die Präferenzen des Ratsuchenden bestimmt.
Die Präferenzen des Ratsuchenden geben die individuelle Wichtigkeit eines Kriteriums
(Wertebereich 0 bis 1) an. Sie sind beispielsweise durch den Nutzer als Teil seines Nutzerprofils festgelegt worden. Sie können aber auch interaktiv zur Sortierung der Liste
potentieller Experten festgelegt werden. Beispielsweise kann ein Nutzer festlegen, dass
das Kriterium soziale Distanz für ihn absolut wichtig (Wert: 1) ist, während ihm die
organisatorische Distanz völlig unwichtig ist (Wert: 0).
Eine Ordnung auf der Liste kann nun definiert werden als Expertengrad:
X= ( (Erfüllung des Kriteriums x * individuelle Wichtigkeit des Kriteriums x)
/ Anzahl der Kriterien
Dies ergibt wiederum einen Wertebereich von 0 bis 1 für den Expertengrad. Dem Nutzer
wird die Liste der Experten nun nach absteigendem Expertengrad sortiert dargestellt.
276
3.4
Rückfluss relevanter Informationen
Nachdem für einen Ratsuchenden kontextbezogen Experten ermittelt (Abschnitt 3.2) und
entsprechend sortiert präsentiert (Abschnitt 3.3) wurden, wählt er aus der Liste einen
oder mehrere Experten aus, mit dem oder denen er in eine Kooperationsphase eintreten
möchte. Die APOSDLE-Plattform bietet hierfür ein Werkzeug an, das synchrone Kooperation z.B. auf einem Whiteboard und textbasierte Kommunikation in Form eines Chats
integriert [Mü06]. Für die Belange dieses Beitrages ist nicht so sehr die Phase der Kooperation an sich interessant, sondern die Frage, welche Daten aus einer solchen Kooperationssituation anschließend in die Plattform zurückfließen, wo sie dann wiederum für
zukünftige Kontextermittlung zur Verfügung stehen.
Mit Blick auf den Inhalt einer Kooperationssituation kann ein Transkript gespeichert
werden, das u.a. die Kommunikationsbeiträge enthält. Dieses Transkript kann mit weiteren Kontextinformationen bzgl. des Tasks und auch der Nutzer verknüpft werden, damit
es bei einer späteren (Experten-)Suche zielgenau gefunden werden kann.
Task/Prozess: Sofern die Kooperation, so wie in dem Beispiel in Abbildung 1 gezeigt, vor dem Hintergrund eines identifizierten Taskkontextes initiiert wurde, sollte die Information über den konkreten Prozesses und den konkreten Task in der
Plattform gespeichert werden. Hat ein anderer Nutzer zu einem späteren Zeitpunkt
beim gleichen Task im gleichen Prozess ein Problem, so kann er dieses möglicherweise durch das Lesen des korrespondierenden Kooperationstranskripts lösen.
Eine Kooperation ist dann nicht mehr notwendig.
Themen der Kooperationsartefakte: Um ein Kooperationsartefakt auch inhaltlich
zuordnen zu können, verfolgen wir hierbei zwei Wege. Zunächst bietet die Plattform eine automatische Verschlagwortung an, die den Kooperationstranskripten
Themen aus einer vorhandenen Schlagwortliste zuordnet [Sc06]. Zusätzlich können nach Beendigung der Kooperation von den Beteiligten selbst weitere Schlagworte vergeben. Die so gewonnenen Themen ergänzen die Einordnung zu Aufgaben und können andererseits auch aufgaben- und prozessübergreifend genutzt
werden.
Beteiligte: Die Speicherung der Beteiligten hat zwei Funktionen. Zum einen stellt
sie eine Verbindung zwischen der Person und dem Task sowie der Person und zugehöriger Kompetenzen her. Für zukünftige Expertensuchen bezüglich des korrespondierenden Tasks kommen diese Personen dann eher als Experten in Frage.
Zum anderen werden über die gemeinsame Beteiligung an einer Kooperation soziale Netzwerke aufgespannt, die wiederum Einfluss haben auf die Auswahl und
Anzeige der für eine Person geeigneten Experten (siehe oben unter „soziale Distanz“).
Länge der Kooperationssitzung: Aus der Länge einer Kooperationssitzung kann
(zumindest in einigen Fällen) auf die Intensität des Austausches geschlossen werden. Insbesondere sehr kurze Kooperationssitzungen sind oft für zukünftige ähnliche Situationen wenig hilfreich, weil sie wegen fehlender Ausführlichkeit und
Explizitheit von anderen, nicht an der ursprünglichen Kooperation Beteiligten
kaum nachvollziehbar sind.
277
4
Umsetzung des Ansatzes
Innerhalb des ersten Projektjahres ist ein lauffähiger Prototyp entstanden, der arbeitsplatzorientiertes individuelles und kollaboratives Lernen realisiert. Der Prototyp ist in
einer Client/Server-Architektur in Java und C# umgesetzt worden. Auf der Client-Seite
interagiert der Nutzer mit einer Sidebar (siehe Abbildung 2), die ihm nach der Auswahl
seines aktuellen Tasks und der abgestrebten Kompetenz relevante Lernressourcen und
Kollaborationspartner zur Verfügung stellt.
Abbildung 2: Sidebar zur Initiierung von Kollaborationen
Die Auswahl der Kollaborationspartner sowie der Ressourcen erfolgt in einer Serverkomponente (Plattform). In dieser werden umfangreiche Nutzerprofile gehalten, die zur
Berechnung der angezeigten Kollaborationspartner herangezogen werden. So werden
unter anderem der aktuelle sowie alle bereits abgeschlossenen Tasks vorgehalten sowie
erworbene Kompetenzen und die Kommunikationsverfügbarkeit. Die in Abschnitt 3.2
für die Auswahl der Experten notwendigen Informationen lassen sich in diesem Nutzerprofile ebenfalls speichern und für eine Auswertung abrufen.
Aus der Sidebar heraus kann der Nutzer direkt eine Kollaboration mit einem Experten
initiieren. Beide betreten danach einen virtuellen Kollaborationsraum, in dem sie Textnachrichten austauschen können sowie gemeinsam an einem Dokument oder am Whiteboard arbeiten können. Zusätzlich werden der aktuelle Task und weitere Kontextinformationen des Ratsuchenden mit angezeigt, so dass sich der eingeladene Experte schnell
ein umfassendes Bild über den Kontext der Kollaboration machen kann.
5
Zusammenfassung und Ausblick
In diesem Beitrag wurde ein Ansatz zur kontextualisierten Suche nach Kooperationspartnern bzw. geeigneter Experten zur Unterstützung arbeitsplatzorientierten kollabora-
278
tiven Lernens präsentiert. Dieser Ansatz integriert die Bereiche prozessintegriertes ELearning und gezielten Wissensaustausch und verbindet die Vorteile dieser beiden Bereiche. Zunächst wurden dazu mit Business Process Modelling Notation (BPMN) und
Petrinetzen zwei Möglichkeiten der Prozessmodellierung vorgestellt. Zudem wurde auf
verwandte Arbeiten zur Definition, Erfassung und Nutzung von Aufgaben- und Nutzerkontext eingegangen.
Die Beschreibung des Ansatzes erfolgte entlang eines Beispiels und ging auf alle vier
Schritte ein. Diese sind die Identifikation des aktuellen Prozessschrittes, die Identifikation und Rangfolgenbildung geeigneter Experten und der Rückfluss der Information
aus einer Kooperationssituation in die Wissensbasis. Bezüglich der Identifikation des
aktuellen Prozessschrittes streben wir eine automatische Erkennung des Tasks durch die
Merkmale eines Nutzerarbeitsplatzes (wie z.B. geöffnete Programme oder Dokumente)
an. Die Identifikation relevanter Experten erfolgt auf Basis der Parameter Kompetenz,
Verfügbarkeit sowie organisatorische und soziale Distanz. Dem Nutzer wird dann eine
priorisierte Liste potentieller Experten angezeigt, die auf Basis der gefundenen potenziellen Experten sowie der individuellen Präferenzen des Nutzers ermittelt wird. Der
Kreis schließt sich mit dem Rückfluss relevanter Informationen über eine Kooperationssituation in die Wissensbasis. Diese Informationen beziehen sich auf den Taskkontext
(Task, Prozess, Themen der Kooperation) und den Nutzerkontext (Beteiligte, Kompetenzen, Länge einer Kooperationssitzung).
Aufbauend auf diesem Ansatz wurde die APOSDLE-Plattform konzipiert und entwickelt, die automatisch nutzer- und prozessschrittrelevante Experten ermittelt. Aktuell
wird das System bei den Anwendungspartnern des Projektes evaluiert, um Hinweise auf
die Praxistauglichkeit des Ansatzes zu erhalten. Wir planen in der Endfassung dieses
Beitrags, zumindest aber im Vortrag auf der DeLFI 2007, detaillierter auf die Evaluation
einzugehen.
Danksagung
APOSDLE ist teilweise gefördert durch das 6. Rahmenprogramm (FP6) für Forschung
und Entwicklung der Europäischen Kommission im Information Society Technologies
(IST) Arbeitsprogramm 2004.
Literaturverzeichnis
[Aa96]
van der Aalst, W. M. P.: Three Good Reasons for Using a Petri-net-based Workflow
Management System. In: Proceedings of the International Working Conference on Information and Process Integration in Enterprises, pp. 179-201, 1996.
[Ab04] Abecker, A. (2004). Business-Process Oriented Knowledge Management: Concepts,
Methods and Tools. Dissertation Universität Karlsruhe.
[BBS01] Back, A.; Bendel, O.; Stoller-Schai, D. (2001). E-Learning im Unternehmen: Grundlagen, Strategien, Methoden, Technologien. Zurich: Orell Füssli.
[BL01] Bauer, T., Leake, D.: WordSieve: A method for real-time context extraction. In: Modeling and Using Context: Proceedings of the Third International and Interdisciplinary Conference, Context 2001, Berlin, Springer.
279
[Bi05]
Birnbaum, L.; Hopp, W.; Iravani, S.; Livingston, K.; Shou, B.; Tirpak, T.: Task Aware
Information Access For Diagnosis of Manufacturing Problems. In: Proceedings of IUl
2005. online verfügbar: http://cs.northwestern.edu/~livingston/papers/pinpoint-iui05.pdf
[BPM06] OMG-Spezifikation
der BPMN, Version
1.0: www.bpmn.org/Documents/
OMG%20Final%20Adopted%20BPMN%201-0%20Spec%2006-02-01.pdf
[BMM03] Bienzeisler, B.; Menold, N.; Mambrey, P.: Wissensmanagement – Begriffliche und
konzeptionelle Anknüpfungspunkte. In: Herrmann, T.; Mambrey, P.; Shire, K. (Hrsg.):
Wissensgenese, Wissensverteilung und Wissensorganisation in der Arbeitspraxis. Wiesbaden: Westdeutscher Verlag, 2003.
[Di02] Diefenbruch, M.; Goesmann, T.; Herrmann, T.; Hoffmann, M.: KontextNavigator und
ExpertKnowledge – Zwei Wege zur Unterstützung des Prozesswissens in Unternehmen,
In: Abecker, A.; Hinkelmann, K.; Maus, H.; Müller, H.-J.: Geschäftsprozessorientiertes
Wissensmanagement - Effektive Wissensnutzung bei der Planung und Umsetzung von
Geschäftsprozessen. Berlin: Springer, 2002, S. 275-292.
[GS05] Gievska, S.; Sibert, J.: Using Task Context Variables for Selecting the Best Timing for
Interrupting Users. In Joints of EUSAI conference 2005, Grenoble. Online verfügbar:
http://interruptions.net/literature/Gievska-sOc-EUSAI05.pdf
[HKT02] Hinkelmann, K.; Karagiannis, D.; Telesko, R.: PROMOTE: Methodologie und Werkzeug für geschäftsprozessorientiertes Wissensmanagement. In: Abecker, A.; Hinkelmann, K.; Maus, H.; Müller, H.-J.: Geschäftsprozessorientiertes Wissensmanagement Effektive Wissensnutzung bei der Planung und Umsetzung von Geschäftsprozessen. Berlin: Springer, 2002, S. 65-90.
[KMH03] Kienle, A.; Menold, N.; Herrmann, T.: Technische und organisatorische Gestaltungsoptionen für unternehmensinterne Wissensmanagementprojekte. In: Herrmann, T.;
Mambrey, P.; Shire, K. (Hrsg.): Wissensgenese, Wissensverteilung und Wissensorganisation in der Arbeitspraxis. Wiesbaden: Westdeutscher Verlag, 2003, S. 109-153.
[LW91] Lave, J.; Wenger, E. (1991): Situated learning. Legitimate Peripheral Participation,
Cambridge University Press.
[MS05] Mattauch, W.; Schmidt, M. (2005): E-Learning in der Arbeitsprozessorientierten Weiterbildung (APO). In M. H. Breitner, & G. Hoppe (Hrsg.), E-Learning - Einsatzkonzepte
und Geschäftsmodelle (pp. 383-394). Heidelberg: Physika.
[Mc00] McDonald, D.W.: Supporting Nuance in Groupware Design: Moving form Naturalistic
Expertise Location to Expertise Recommendation. PhD Thesis, University of California,
Irvine, 2000.
[Mü06] Mühlpfordt, M.: Dual Interaction Spaces: Integration synchroner Kommunikation und
Kooperation. In M. Mühlhäuser, G. Rößling, R. Steinmetz (Hrsg.), DeLFI 2006, 4. eLearning Fachtagung Informatik, S. 99-110.
[Sc06] Scheir, P.; Hofmair, P.; Granitzer, M.; Lindstaedt, S. N.: The OntologyMapper plug-in:
Supporting Semantic Annotation of Text-Documents by Classification. Semantics 2006,
Vienna.
[So00] Sowa, J.F.: Knowledge representation: logical, philosophical, and computational foundations, MIT Press, 2000.
[WF94] Wasserman, S. & Faust, K. (1994): Social Network Analysis. Cambridge: Cambridge
University Press.
[WVE98] van Welie, M.; van der Veer, G. C.; Eliens, A.: An Ontology for Task World Models,
Design, Specification and Verification of Interactive Systems '98, Springer, 1998.
[We05] Wessner, M.: Kontextuelle Kooperation in virtuellen Lernumgebungen. Lohmar, Eul
Verlag, 2005.
280
OSOTIS – Kollaborative inhaltsbasierte Video-Suche
Harald Sack, Jörg Waitelonis
Friedrich-Schiller-Universität Jena
D-07743 Jena
{sack, joerg}@minet.uni-jena.de
Abstract: Die Video-Suchmaschine OSOTIS ermöglicht eine automatische inhaltsbezogene Annotation von Videodaten und dadurch eine zielgenaue Suche auch innerhalb
einzelner Videoaufzeichnungen. Neben objektiv gewonnenen zeitabhängigen Deskriptoren, die über eine automatische Synchronisation von ggf. zusätzlich vorhandenem
textbasiertem Material mit den vorliegenden Videodaten gewonnen werden, können
kollaborativ zusätzlich eigene, zeitbezogene Schlagwörter (Tags) und Kommentare innerhalb eines Videos vergeben werden (sequentielles Tagging), die zur Implementierung einer verbesserten und personalisierten Suche dienen.
1 Einleitung
Die Informationsfülle des World Wide Webs (WWW) ist gewaltig. Milliarden von Dokumenten in hunderten von Sprachen machen es unmöglich, sich ohne Hilfsmittel darin
zu orientieren. Suchmaschinen wie Google1 verfolgen das Ziel, den erreichbaren Teil des
WWWs, möglichst vollständig zu indizieren und so durchsuchbar zu machen. Noch immer stellen Textdokumente den größten Anteil des WWWs dar, aber immer mehr Multimedia-Dokumente in Form von Bildern, Grafiken oder Video-Clips kommen täglich hinzu.
Google allein verwaltet derzeit in seinem Suchindex mehr als 1,2 Milliarden Bilder und
mehrere Millionen Videos (Stand: 05/2007).
Insbesondere der Anteil an Videodaten im WWW steigt auf Grund vielfältiger Content
Management Systeme zur Produktion, Nachbearbeitung und Bereitstellung, sowie der stetig wachsenden zur Verfügung stehenden Bandbreite. Spezialisierte Portale und VideoSuchmaschinen wie etwa YouTube2 oder Google Video3 erleichtern das Auffinden von
Videodaten im WWW. Gegenüber traditionellen Suchmaschinen, d. h. Suchmaschinen für
textbasierte Dokumente, unterscheiden sich Video-Suchmaschinen typischerweise in der
Art der Indexerstellung. Traditionelle Suchmaschinen wenden Methoden des Information Retrieval auf Textdokumente an, um aus diesen aussagekräftige Deskriptoren zur Beschreibung und Verschlagwortung des untersuchten Dokuments zu gewinnen. Diese vollautomatische Suchindexgenerierung ist im Falle von multimedialen Daten in der Regel
1
2
3
Google, http://www.google.com/
YouTube, http://www.youtube.com/
Google Video, http://video.google.com/
281
schwierig oder erst gar nicht möglich. Mit klassischen Methoden des Information Retrieval
angewandt auf multimediale Daten ist es lediglich möglich, charakteristische Eigenschaften wie z. B. dominante Farben, Farb- und Helligkeitsverteilungen in Einzelbildern oder
die Bewegungen der Kamera innerhalb einer Bildfolge zu bestimmen bzw. einzelne Objekte zu identifizieren oder zu verfolgen. Zwischen diesen charakteristischen Eigenschaften
und dem tatsächlichen Inhalt der multimedialen Daten und dessen Bedeutung besteht eine
semantische Lücke [Sm00]. Schlussfolgerungen aus den charakteristischen Eigenschaften
auf deren inhaltliche Bedeutung sind heute nur in geringem Maße möglich. Ebenso ist
eine automatische Extraktion inhaltsbezogener Deskriptoren, die den semantischen Inhalt
einer Videodatei auf einer abstrakteren Ebene beschreiben, aus den Videodaten allein nicht
zufriedenstellend möglich.
Die inhaltliche Beschreibung multimedialer Daten und insbesondere von Videodaten erfolgt über eine Annotation mit zusätzlichen Metadaten, die entweder vom Autor der Daten
selbst, von ausgewiesenen Experten oder aber auch von allen Nutzern gemeinsam erfolgen
kann. Letztere sind auch verantwortlich für den Erfolg von Web-2.0-Video-Suchmaschinen
wie YouTube, da diese dem Nutzer eine einfache Annotation der Videos über das so genannte Tagging ermöglichen, d. h. die Nutzer vergeben eigene, frei gewählte Schlüsselwörter (Tags), die den Inhalt der Videodaten beschreiben.
Betrachtet man speziell den Anteil an Lehr- und Lernmaterialien in Video-Suchmaschinen,
ist dieser heute sehr gering. Dies hat verschiedene Gründe: Einerseits liegen Lehr- und
Lernmaterialien oft auf spezialisierten Portalen oder Lernplattformen vor, die entweder
aus den bereits oben genannten Gründen bzw. auf Grund eines dezidierten Rechtemanagements nicht von Video-Suchmaschinen indiziert werden können. Andererseits liegt ein
weiteres Problem in der Natur der Videomaterialien selbst begründet: Die Videoaufnahme
einer Lehrveranstaltung hat in der Regel eine Länge zwischen 45 und 90 Minuten. Dabei
werden in einer Lehrveranstaltung oft unterschiedliche Themen behandelt. Einzelne Themen nehmen in der gesamten Lehrveranstaltung oft nur wenige Minuten in Anspruch und
sind nur schwer darin wiederzufinden. Zwar können durch Autor oder Nutzer Tags bereitgestellt werden, die alle in der Vorlesung angesprochenen Themen beschreiben, doch ist
deren zeitliche Zuordnung innerhalb des zeitgebundenen Mediums Video ebenso wie eine
direkte zeitliche Adressierung bei der Wiedergabe der Suchergebnisse noch nicht realisiert.
Im vorliegenden Beitrag beschreiben wir die Video-Suchmaschine OSOTIS4 , die eine
zeitabhängige, sequentielle Indizierung von Videodaten und damit eine direkte Suche auch
innerhalb dieser Videodaten ermöglicht. Insbesondere dient OSOTIS dabei der Archivierung und der Annotation von videobasierten Lehr- und Lernmaterialien, wie z. B. Vorlesungsaufzeichnungen. OSOTIS kombiniert zwei unterschiedliche Ansätze: Zum einen
werden Vorlesungsaufzeichnungen, zu denen eine Desktopaufzeichnung des Dozenten
und zusätzliche Daten wie z. B. eine Präsentation, ein Handout oder eine Vorlesungsmitschrift vorliegen, automatisch mit dem Inhalt dieser Zusatzinformationen synchronisiert
und annotiert. Zum anderen gestattet OSOTIS jedem Benutzer die Vergabe von zeitabhängigen Tags, d. h. eine bestimmte Stelle des Videos kann während des Abspielens von den
Nutzern mit eigenen Tags oder ganzen Kommentaren annotiert werden, die dann wieder
4
OSOTIS, http://www.osotis.com/
282
gezielt abgerufen werden können. Eigene Tags ermöglichen dem Benutzer eine personalisierte Suchfunktion und mit Hilfe der gemeinsamen Tags aller übrigen Benutzer wird die
herkömmliche Suche ergänzt. OSOTIS bietet dem Benutzer die Möglichkeit, aus einem
stetig wachsenden Datenbestand an Vorlesungs- und Lehrvideos, zielgerichtet und nach
persönlichen Vorgaben, eigene Vorlesungen aus einzelnen Videosequenzen entsprechend
seinen persönlichen Bedürfnissen zusammenzustellen.
Nachfolgend soll die Arbeitsweise von OSOTIS detaillierter beschrieben werden: Kapitel 2 untersucht Eigenschaften und Defizite aktueller Video-Suchmaschinen. Kapitel 3
zeigt die Möglichkeiten einer automatischen Annotation von Video-Daten, während Kapitel 4 näher auf die kollaborative Annotation zeitabhängiger Daten eingeht. Kapitel 5
gibt einen Einblick in die Arbeitsweise der Video-Suchmaschine OSOTIS und Kapitel 6
beschließt die Arbeit mit einem kurzen Ausblick auf deren Weiterentwicklung.
2 Aktuelle Video-Suchsysteme
Video-Suchsysteme können auf unterschiedliche Art zu dem in ihnen repräsentierten Datenbestand gelangen: Crawler-basierte Systeme durchsuchen in der Art traditioneller Suchmaschinen das WWW aktiv nach Videodaten und verwenden zum Aufbau ihres Suchindexes neben den aufgefundenen Videodaten ebenfalls verfügbare Kontextinformation (z. B.
Hyperlink-Kontext bei Google Video). Upload-basierte Systeme ermöglichen registrierten
Nutzern als Publikationsplattform das Einstellen eigener Videodaten (z. B. YouTube). Daneben existieren redaktionell gepflegte Systeme, die es lediglich einem ausgewählter Kreis
von Nutzern ermöglichen, eigenes Videomaterial einzustellen (z. B. Fernsehsender, Nachrichtenredaktionen und digitale Bibliotheken5 an Universitäten und anderen Bildungseinrichtungen).
Analog zu traditionellen Suchmaschinen können auch im Falle von Video-Suchmaschinen indexbasierte Suchmaschinen und Suchkataloge unterschieden werden. Indexbasierte
Suchmaschinen liefern auf die Eingabe eines oder mehrerer Suchbegriffe eine nach internen Relevanzkriterien hin sortierte Ergebnisliste. Viele redaktionell gepflegte Systeme dagegen arbeiten nach dem Prinzip des Suchkatalogs, d. h. sie erlauben lediglich das Blättern
und Navigieren in vordefinierten Kategorien. überschreitet das angebotene Videomaterial
eine bestimmte Dauer, ist eine inhaltsbasierte Recherchemöglichkeit unverzichtbar.
Inhaltsbasierte Suche nach und in Videodaten erfolgt nach unterschiedlichen Kriterien.
Man unterscheidet hier die Suche über Kategorien, Schlüsselwörter, Schlagworte/Tags, eine semantische Suche, Suche nach analytischen Bildeigenschaften oder die Suche nach
dem gesprochenen Wort. Aktuelle Suchmaschinen stellen kategorien- und schlüsselwortbasierte Suche sowie die Suche nach Tags bereit. Des weiteren kann nach der Suchgranularität unterschieden werden. Dies betrifft Sammlungen (Kollektionen) von Videos, ein
einzelnes Video, ein Videosegment, eine Szene (Group of Pictures), den Teilbereich einer Szene (Objekt-Verfolgung), ein Einzelbild oder den Teilbereich eines Einzelbildes.
Die aktuellen Video-Suchdienste wie Google-Video und YouTube sind lediglich in der
5
z. B. Digitale Bibliothek Thüringen, http://www.db-thueringen.de
283
Lage, nach einzelnen Videos als Ganzem zu suchen. Einen Ansatz mit feinerer Granularität verfolgen die Systeme TIMMS6 , Slidestar7 und OSOTIS. Mit diesen Systemen ist es
möglich, auch den Inhalt einzelner Videos zu durchsuchen. Die Unterschiede zwischen
den Systemen liegen in der Medienaufbereitung und Metadatengewinnung. Während bei
TIMMS Videodaten manuell mit großem Aufwand segmentiert und annotiert werden, verwendet Slidestar das proprietäre Lecturnity8 Format, um eine automatische Indizierung der
Videodaten zu realisieren. Dazu müssen Metadaten wie Folientext und Autorenannotationen bereits während der Produktion in das Lecturnity Format eingebettet werden, um von
Slidestar zur inhaltsbasierten Suche genutzt werden zu können. Dagegen ist es mit OSOTIS möglich, beliebige Videoformate mit vorhandenem textuellen Präsentationsmaterial
(z. B. im PDF9 oder PPT10 Format) vollautomatisch zu resynchronisieren, um positionsabhängige Metadaten zu generieren, die die Grundlage für die Indizierung bilden [SW06a].
Aus Effizienzgründen erstellen Suchmaschinen einen Suchindex, der einen schnellen Zugriff auf die Suchergebnisse mit Hilfe von Deskriptoren gestattet, die direkt aus den zu
durchsuchenden Daten bzw. aus zusätzlichen Metadaten (Annotationen) gewonnen werden. Deskriptoren sind zum einen analytische/syntaktische Merkmale (z. B. Farbe, Form,
Objekte), semantische Eigenschaften (z. B. Beziehungen zwischen Objekten) oder auch
Zusatzinformationen. Der Grad an Automatisierbarkeit bei der Erzeugung der Deskriptoren fällt in der genannten Reihenfolge ab. Deskriptoren können sich dabei auf einzelne
Teile der Videodaten (z. B. Videosegmente, Einzelbilder, Bereiche) beziehen.
Zur Ermittlung geeigneter Deskriptoren für den speziellen Fall der Suche in Aufzeichnungen von Lehrveranstaltungen stehen inhaltliche, semantische Gesichtspunkte im Vordergrund, also z. B. welches Thema wird zu welchem Zeitpunkt oder in welchem Videosegment behandelt. Allerdings enthält der Videodatenstrom einer Lehrveranstaltungsaufzeichnung keine geeigneten charakteristischen Merkmalsausprägungen über den Zeitverlauf hinweg. Jedes einzelne Videosegment ähnelt jedem anderen visuell so stark –
in den meisten Fällen ist ausschließlich ein Vortragender zu sehen – dass bei alleiniger
Betrachtung eines einzelnen Videosegments oft nicht festzustellen ist, zu welchem Zeitpunkt der Aufzeichnung dieses gehört. Objektidentifikation, Objektverfolgung und eine
Segmentierung entsprechend der Schnittfolge eines Videos sind in diesem Falle ebenfalls
nicht sinnvoll, da nicht auf den semantischen Inhalt der Vorlesung geschlossen werden
kann, höchstens auf eine Person, die sich z. B. nach links oder rechts bewegt. Merkmalausprägungen von besserer Separierungsfähigkeit können aus den zugehörigen Audiodaten gewonnen werden. Eine Segmentierung kann in diesem Fall z. B. bzgl. der Sprechpausen erfolgen. Die einzelnen Audio-Segmente werden hierzu einer automatischen
Sprachanalyse unterzogen, deren Ergebnis die gewünschten Merkmale hervorbringt (vgl.
Kap. 3).
Systeme, die Aufzeichnungen von Lehrveranstaltungen verwalten, müssen in der Lage
sein, auch den Inhalt einzelner Videos zu durchsuchen. Lehrveranstaltungen stellen beson6
Tübinger Internet Multimedia Server, http://timms.uni-tuebingen.de/
Slidestar IMC AG, http://www.im-c.de/Produkte/170/4641.html. Eine Beispielanwendung ist das eLecture
Portal der Universität Freiburg: http://electures.informatik.uni-freiburg.de/catalog/courses.do
8 Lecturnity IMC AG, http://www.lecturnity.de/
9 Adobe - Portable Document Format, nahezu alle textuellen Formate lassen sich in das PDF umwandeln.
10 Microsoft PowerPoint
7
284
dere Ansprüche an ein Retrievalsystem. Traditionelles Multimedia Retrieval, das versucht
charakteristische, statistische Merkmale zu indizieren, ist in diesem Falle nicht geeignet.
3 Automatische Annotation von Video-Daten
Lehrveranstaltungsaufzeichnungen bestehen heute oft aus synchronisierten Multimediapräsentationen, die eine Videoaufzeichnung des Dozenten, eine Aufzeichnung der Präsentation des Dozenten und einen Audiodatenstrom beinhalten (siehe Abb. 1). Diese können z. B. mit Hilfe der Standards Synchronous Multimedia Integration Language“ 11
”
(SMIL) oder MPEG-4 XML-A/O“ [ISO05], aber auch über andere, proprietäre Techno”
12
logien kodiert werden. Eine synchronisierte Multimediapräsentation enthält bedeutend
mehr Informationen als die Videoaufzeichnung des Vortragenden allein. Diese zusätzliche
Information wird von OSOTIS genutzt, um eine Vorlesungsaufzeichnung über automatisch
generierte Annotationen in eine durchsuchbare Form zu bringen.
Abbildung 1: Synchronisierte Multimediapräsentation bestehend aus Dozentenvideo,
Desktopaufzeichnung und interaktivem Inhaltsverzeichnis (links) in Verbindung mit
kollaborativem Tagging (rechts) als Ergebnis einer OSOTIS Suchoperation.
Mit einer Aufzeichnung der Präsentation des Dozenten (Desktopaufzeichnung) geht die
Verwendung von textuellem Präsentationsmaterial13 einher. Die aus dem synchronisierten Präsentationsmaterial gewonnene Annotation enthält alle wichtigen Informationen, die
über den Inhalt des Videos in Erfahrung zu bringen sind. Die Annotation schließt neben
textbasierten, inhaltlichen Zusammenfassungen, Stichpunkten und Beispielen auch Vorschaubilder und andere Multimediainhalte mit ein.
11
12
13
SMIL – Synchronized Multimedia, http://www.w3.org/AudioVideo/
z. B. Lecturnity IMC AG, http://www.lecturnity.de/
z. B. Adobe PDF, Microsoft PowerPoint, o.a.
285
Der Prozess der Annotation erfolgt entweder bereits online während der Produktion (wie
in [ONH04] gefordert) oder auch offline in einem Nachverarbeitungsschritt. Soll eine automatische online-Annotation erfolgen, ist das Führen einer speziellen Log-Datei auf dem
Präsentationsrechner des Dozenten erforderlich, in der Ereignisse wie z. B. Folienwechsel
aufgezeichnet werden. Aus dieser Log-Datei lässt sich leicht eine zeitliche Synchronisation zwischen Videoaufzeichnung und textuellem Präsentationsmaterial gewinnen. Die
Zeitpunkte der jeweiligen Folienwechsel segmentieren die Videoaufzeichnung und die textuellen Inhalte einer Folie werden dem Videosegment als Deskriptor zugeordnet. Textauszeichnungen wie z. B. Schriftschnitt sowie Textposition innerhalb einer Folie (z. B. Kapitelüberschrift) werden dabei zur Relevanzgewichtung der Deskriptoren herangezogen.
Oft ist das Führen einer Log-Datei auf dem Präsentationsrechner nicht möglich oder auch
nicht erwünscht. In diesem Fall oder auch für den Fall der Aufbereitung von bereits archiviertem Videomaterial, muss ein analytisches (Retrieval-)Verfahren zur Synchronisation von Videoaufzeichnung und textbasiertem Material verwendet werden. Dies erfolgt
bei OSOTIS über Schrifterkennung (Intelligent Character Recognition, ICR) und Bildvergleichanalyse (vgl. [SW06a] für eine ausführlichere Beschreibung der technischen Details). Wird ein ICR-Verfahren allein auf die Präsentationsaufzeichnung angewendet, liefert diese auf Grund oft unzureichender Videoqualität nur eine fehlerhafte Analyse der darin enthaltenen Information [NWP03, KHE05]. Dennoch ist die Qualität dieser Information
ausreichend, um eine Synchronisation von Videoaufzeichnung und textuellem Präsentationsmaterial zu gewährleisten. Sollten dabei auf einer Folie keine Textinhalte sondern
lediglich Illustrationen und Grafiken enthalten sein, löst ein einfacher analytischer Bildvergleich14 des Präsentationsmaterials mit der Präsentationsaufzeichnung diese Aufgabe.
Neben dieser bereits realisierten Synchronisation steht derzeit die direkte Synchronisation von Vorlesungsaufzeichnungen mit zusätzlich vorhandenem textuellem Material im
Vordergrund der Entwicklung (vgl. [Re07]). Diese Synchronisation basiert auf einer automatischen Spracherkennung (ASR) der aufgezeichneten Audiodaten [CH03, YOA03].
Das Verfahren unterscheidet sprecherabhängige und sprecherunabhängige Spracherkennung. Sprecherabhängige ASR (z. B. Dragon Naturally Speaking15 ) sieht eine Trainingsphase des Systems auf einen bestimmten Sprecher vor. Da eine derartige Trainingsphase
des Systems sehr aufwändig ist und mit wachsendem Datenbestand nicht skaliert, liegt
der Schwerpunkt der Entwicklung derzeit in der Weiterentwicklung einer sprecherunabhängigen Spracherkennung (z. B. SPHINX [Hu93]). Aktuelle Systeme zur Spracherkennung erreichen eine Fehlerrate (word error rate) von etwa 10 % für englischsprachige16
und etwa 20 % für deutschsprachige17 Texte. Zur Verbesserung der Erkennungsrate wird
daher ein vorab definiertes, reduziertes Vokabular (Korpus) aus Fachbegriffen zu jeder
Vorlesung bereitgestellt, die im Audiodatenstrom zeitlich lokalisiert werden (Term Spotting) [KY96]. Dieses Korpus kann etwa aus dem textuellen Präsentationsmaterial oder aus
einer Sammlung von dem Wissensgebiet zugehöriger Fachbegriffe (Lexikon, Ontologien)
generiert werden.
14
15
16
17
realisiert über imgSeek, http://www.imgseek.net/
Nuance – Dragon Naturally Speaking, http://www.nuance.com/dragon/
http://cslr.colorado.edu/beginweb/speech recognition/sonic main.html
http://www-i6.informatik.rwth-aachen.de/web/Research/SRSearch frame.html
286
Die Annotation des Videomaterials erfolgt also entweder durch Resynchronisation des
Präsentationsmaterials mit der Desktopaufzeichnung mittels ICR oder durch Resynchronisation mit dem Audiodatenstrom vermittels ASR. Laut [HLT06] stufen Rezipienten eine
Desktopaufzeichnung und die Folien der Präsentation beim Lernen als wichtiger ein als
die Aufzeichnung des Dozenten selbst, woraus abzuleiten ist, dass das Anfertigen einer
Desktopaufzeichung in Zukunft auch mehr Akzeptanz finden wird.
4 Kollaborative Annotation von Video-Daten
Neben den vielfältigen Möglichkeiten der automatischen Annotation von Multimediadaten, wie sie im vorangegangenen Kapitel besprochen wurden, soll in diesem Kapitel auf eine kollektive Verschlagwortung von Multimediadaten als Ganzem (traditionelles Tagging)
bzw. eine synchrone Verschlagwortung von zeitabhängigen Multimediadaten (sequentielles Tagging) näher eingegangen werden.
Unter dem Begriff Tagging“ wird eine Verschlagwortung verstanden, d. h. die Annota”
tion von Daten (in unserem Falle Multimedia-Daten) mit Begriffen, die den Inhalt oder
die Funktion der annotierten Datei markieren [Je95]. Formal ist ein Tag ein Tripel der
Form (u, l, r) wobei u für den Benutzer (user), l für das Schlagwort (label) und r für die
Ressource stehen. Die Schlagworte können dabei vom Autor der verschlagworteten Ressource selbst, von einem dazu bestimmten Experten, oder aber auch von allen Benutzern
(kollaboratives Tagging oder Social Tagging) der Datei gemeinsam vergeben werden.
Aktuelle kollaborative Tagging Systeme wie z. B. delicious18 , bibsonomy19 , My Web 2.020
oder das deutschsprachige mister-wong21 verschlagworten Ressourcen derzeit als Ganzes
und sind nicht in der Lage, einzelne Abschnitte dieser Ressource (sofern diese nicht über
einen URI identifiziert werden können) gezielt zu annotieren. Man unterscheidet generell
zwischen deskriptiven (auch objektiven) Tags, die eine Ressource oder deren Eigenschaften objektiv beschreiben (hierzu zählen inhalts-basierte Tags, kontext-basierte Tags und
attributive Tags), und funktionalen Tags, d. h. Tags, deren Bedeutung in der Regel einen
ganz bestimmten Zweck anzeigt, der mit der Ressource in Verbindung steht, und der sich
meist lediglich dem Tag-Autor allein erschließt und Nutzen bringt (differenziert in subjektive Tags und organisatorische Tags). Siehe [GH06] und [Xu06] für eine detaillierte
Übersicht der unterschiedlichen Tag-Kategorien und ihrer Funktion.
Ressourcen jeglicher Art lassen sich vermittels Tags verschlagworten. Diese Schlagworte
können dann im Rahmen einer Suche zusätzlich zu den bereits vorhandenen Deskriptoren
(Metadaten) genutzt werden. Dabei ist zu beachten, dass kollektives Tagging und die Einbeziehung kollektiv vergebener Tags in die Suche veränderte Rahmenbedingungen für die
Suche schaffen, die bereits eingehend untersucht worden sind [Ha06]. Funktionale (subjektiv vergebene) Tags sind in der Regel nur für den Tag-Autor zum Wiederauffinden einer
18
19
20
21
delicious, http://del.icio.us/
bibsonomy, http://www.bibsonomy.org/
My Web 2.0 http://myweb2.search.yahoo.com/
mister-wong, http://www.mister-wong.de/
287
verschlagworteten Ressource von Nutzen, während deskriptiv vergebene Tags objektiveren Ansprüchen genügen und auch allgemein für alle in der Suche von Nutzen sind, um
neue, bislang unbekannte Ressourcen zu entdecken. Die Verteilung kollektiv vergebener
Tags folgt einem Potenzgesetz [GH06], d. h. für eine bestimmte Ressource werden einige
wenige Tags sehr oft verwendet, während der Hauptanteil der übrigen Tags für diese Ressource im so genannten Long Tail“ -Bereich der Tagverteilung liegt, d. h. nur sehr selten
”
vergeben wurde. Diese Eigenschaft kann dazu genutzt werden, zuverlässige Suchergebnisse zu gewinnen bzw. bei Miteinbeziehung der Long Tail“ -Ergebnisse auf ungeahnte
”
Assoziationen und Querverbindungen zu schließen.
Ein typischer Vertreter einer Suchmaschine mit kollektiv verschlagworteten Multimediadaten ist die bekannte Videosuchmaschine YouTube. Benutzer können dort eigenes Videomaterial einstellen und alle darin vorhandenen Videoclips kollektiv verschlagworten.
Kollektive Tags und zusätzlich vom Autor eingegebene Metadaten werden dann bei einer
Suche in YouTube in Kombination genutzt. Neben den Suchergebnissen, die durch einen
eingegebenen Suchbegriff erzielt wurden, ist YouTube in der Lage, zu einem angezeigten Video anhand der kollektiven Tags weitere ähnliche Videos aus seinem Datenbestand
herauszusuchen.
Die kollektive Annotation in der Suchmaschine YouTube oder anderen auf diesem Prinzip basierenden Suchmaschinen (z. B. Google Video oder yahoo! video search22 ) ist stets
darauf beschränkt, die vorhandenen Ressourcen als Ganzes zu verschlagworten. Während
diese Einschränkung bei zeitunabhängigen Medien nur selten von Nachteil ist – auch wenn
ein langes Textdokument als Ergebnis zurückgeliefert wird, kann der Suchbegriff darin
leicht mittels einer daran anschließenden Volltext-Suche gefunden werden – kommt dieser Nachteil bei zeitabhängigen Medien voll zum Tragen. Die anschließende Suche innerhalb einer gefundenen Videodatei nach einem bestimmten Suchbegriff gestaltet sich
als schwierig. Daher liegt der Schluss nahe, die kollektive Annotation synchron zu einem
zeitabhängigen Medium durchzuführen. Zu diesem Zweck wird bei OSOTIS zu jedem
vergebenen Tag zusätzlich zum Namen des Nutzers, der das Tag vergeben hat, der Zeitpunkt innerhalb einer Videodatei, zu dem das Tag vergeben wurde, notiert. Diese Art der
kollektiven Verschlagwortung bezeichnen wir als synchrones oder sequentielles Tagging.
Formal wird das Tripel (u, l, r) also mit einer Funktion c(r) um eine zeitliche Koordinate
innerhalb der Ressource erweitert zu (u, l, c(r)).
Soll ein Tag nicht nur einen Einzelzeitpunkt sondern ein definiertes Intervall beschreiben,
muss jeweils ein Anfangs- und ein Endzeitpunkt zusammen mit dem Tag vermerkt werden.
Dieser kann entweder durch den Benutzer selbst oder aber auch durch eine automatische
Kontextanalyse bestimmt werden. Die Funktion c(r) kann also auch einen Abschnitt innerhalb einer Ressource beschreiben.
Sequentielles Tagging sowie die automatisierte Resynchronisation des verwendeten Präsentationsmaterials bilden die Basis der Video-Suchmaschine OSOTIS. Die gewonnenen
semantischen Annotationen werden als Metadaten parallel zu den Multimediadaten im
MPEG-7 Format [CSP01] kodiert. Die Kodierung sequentieller Tags mit Hilfe des MPEG-
22
yahoo! video search, http://video.search.yahoo.com/
288
7 Standards wird in [SW06b] näher beschrieben. Aus den MPEG-7 Metadaten wird ein
Suchindex aufgebaut, ohne dass ein erneutes Retrieval notwendig ist.
5 OSOTIS – eine kollaborative, inhaltsbasierte Video-Suchmaschine
OSOTIS als Video-Suchmaschine und Web-2.0-Social-Tagging-System hat sich auf die
Verwaltung, Annotation und Suche von Lehr- und Lernvideos, und insbesondere von Lehrveranstaltungsaufzeichnungen spezialisiert. Dabei kommen verschiedene Konzepte zum
Tragen, um die Recherchierbarkeit der Videodaten mit höherer Feinheit als bisher zu
ermöglichen.
OSOTIS verwendet zur Suche sowohl Standard-Suchkriterien, wie z. B. Name des Autors
oder andere autorenbezogene Metadaten sowie darüber hinaus eine schlüsselwortbasierte
Suche sowohl auf Basis des synchronisierten Präsentationsmaterials als auch mit Hilfe
des kollektiven, sequentiellen Taggings. Auf Grund einer Vorabanalyse des textuellen
Präsentationsmaterials mit Berücksichtigung von Schriftschnitt und Position in Verbindung mit TF/IDF Metriken23 [PC98] wird die Relevanzgewichtung und damit auch die
Qualität der erzielten Suchergebnisse verfeinert. So werden z. B. Videodaten, bei denen
das gesuchte Wort in einer Überschrift auftritt, als relevanter eingestuft als Videodaten,
bei denen dieses Wort lediglich in einem Nebenkommentar vorkommt. Dies bekräftigt
unseren Ansatz, das textuelle Präsentationsmaterial als Grundlage der Schlüsselwörter zu
verwenden, da dort der semantische Inhalt des Videos direkt und in kompakter Form niedergeschrieben steht.
OSOTIS präsentiert sich dem Benutzer mit einer einfachen Eingabemaske, in der ein oder
mehrere Suchbegriffe eingegeben werden können. Nach inhaltlicher Relevanz wird daraufhin eine Liste mit Suchergebnissen präsentiert und nach Auswahl eines Ergebnisses
wird dieses direkt und genau ab der relevanten Stelle wiedergegeben (vgl. Abbildung 2).
Neben der inhaltsbasierten Suche bietet OSOTIS angemeldeten Benutzern die Möglichkeit,
das verfügbare Videomaterial mit eigenen sequentiellen (zeitbezogenen) Tags zu annotieren. Auf diese Weise können bestimmte, besonders interessante Abschnitte innerhalb eines
Videos besonders hervorgehoben und kategorisiert werden. Eine so genannte Tag-Cloud“
”
(siehe Abb. 1, rechts oben) gibt einen Überblick wahlweise über alle aktuell verwendeten
Tags und deren Häufigkeit oder gestattet eine nutzer- bzw. mediumbezogene Filterung der
angezeigten Tags. Dadurch kann sich der Benutzer auf einen Blick darüber informieren,
welche Themen (1) der komplette Videodatenbestand von OSOTIS beinhaltet, (2) ein bestimmtes Video aufweist oder (3) ein bestimmter Nutzer vergeben und annotiert hat. Die in
der Tag-Cloud notierten Begriffe selbst können ebenfalls direkt durch einfaches Anklicken
zur Suche und Filterung genutzt werden.
Darüber hinaus bietet OSOTIS angemeldeten Benutzern die Möglichkeit, ohne HTMLKenntnisse eine eigene Webseite zu gestalten, auf der ausgewählte Videos zusammengestellt und präsentiert werden können. So kann der Nutzer z. B. interessante Videos ei23
TF - Term Frequency, IDF - Inverse Document Frequency
289
Abbildung 2: Suchergebnis für den Begriff Hieroglyphen“. Es wird dabei angezeigt, an welcher
”
Stelle im Video der Suchbegriff auftritt. Mit einem Klick auf die hervorgehobenen Segmente, wird
das Video an dieser Stelle wiedergegeben.
ner Vorlesungsreihe zu eigenen Kollektionen gruppieren. Neben der Vergabe eigener Tags
können auch Kommentare und Diskussionen an ausgewählte Video-Positionen gehef”
tet” werden, in denen mehrere Nutzer den betreffenden Videoausschnitt diskutieren und
beurteilen können. Diese Diskussionen erweitern die Annotation und können ebenfalls
durchsucht werden.
Das Anmelden von durchsuchbarem Videomaterial bei OSOTIS kann aktuell auf drei unterschiedliche Arten erfolgen: (1) Eigenes Videomaterial kann direkt hochgeladen werden
bzw. kann der URL einer oder mehrerer Videodateien direkt angegeben werden. Diese Daten werden nachfolgend direkt durch OSOTIS verwaltet. (2) Videomaterial kann auch über
die Angabe der URL einer oder mehrerer Videodateien, die über einem Streaming-Server
erreichbar sind, angemeldet werden. OSOTIS lädt diese Daten dann nicht ins eigene System, sondern nutzt lediglich den Link dorthin. Das spart zwar eine redundante Datenhaltung, macht jedoch ein regelmäßiges Überprüfen der betreffenden URLs auf Konsistenz
notwendig. (3) Parallel zu den Videodaten kann auch textuelles Präsentationsmaterial24
hochgeladen werden, das zur automatischen Annotation verwendet wird.
Aktuell (Stand: 05/2007) hält OSOTIS ca. 1700 Videos in englischer und deutscher Sprache vor, von denen ca. 50 % automatisch mit Hilfe des verfügbaren Präsentationsmaterials
annotiert worden sind. Der Aufwand der technischen Analyse inklusive der automatischen
Annotation benötigt in Abhängigkeit vom vorliegenden Videoformat ca. 3–10 Minuten
pro Medienstunde. Das gesamte Videomaterial kann kollaborativ verschlagwortet werden.
Aktuell erfolgt dies durch ca. 500 aktive Nutzer. Hierzu ist anzumerken, dass eine aussagekräftige Evaluation der Suchergebnisse von OSOTIS derzeit noch nicht zufriedenstellend
durchgeführt werden konnte, da die bislang vorhandene Menge an kollaborativ erstell24
aktuell nur in Form von Adobe PDF- Dokumenten
290
ten Schlagworten noch zu gering ist. Aktuell werden die an der FSU Jena aufgezeichneten Lehrveranstaltungen wöchentlich in OSOTIS eingestellt und von den Studierenden
rege verschlagwortet. Wie für ein Web 2.0 System üblich, wächst der Nutzen des Systems mit der Anzahl der daran aktiv teilnehmenden Benutzer. OSOTIS ist unter dem URL
http://www.osotis.com frei zugänglich.
6 Zusammenfassung und Ausblick
OSOTIS ermöglicht eine automatische inhaltsbezogene Annotation von Videodaten und
dadurch eine zielgenaue Suche auch innerhalb von Videos. Neben objektiv gewonnenen
zeitabhängigen Deskriptoren, die über eine automatische Synchronisation von ggf. zusätzlich vorhandenem textuellen Material mit den vorliegenden Videodaten gewonnen werden,
können registrierte Nutzer eigene, zeitbezogene Schlagwörter und ganze Kommentare innerhalb eines Videos vergeben, die zur Implementierung einer personalisierten Suche verwendet werden.
Die aktuelle Weiterentwicklung von OSOTIS erstreckt sich neben einer weiteren, qualitativen Verbesserung der damit erzielten Suchergebnisse auf den Bereich des Social Networking und einer Erweiterung des Konzeptes des sequentiellen Taggings. Wie andere SocialNetworking-Systeme auch, sollen Benutzer OSOTIS ebenfalls als Kommunikations- und
Organisationsplattform nutzen können. So ist z. B. die Bildung von speziellen Lerngruppen angestrebt, die ein gemeinsames Programm an Lehrveranstaltungen absolvieren, diese
annotieren, darüber diskutieren und mit Anmerkungen versehen können. Die persönlich
vergebenen Tags ermöglichen die Generierung von Nutzerprofilen. Nutzer mit ähnlichen
Profilen haben mit hoher Wahrscheinlichkeit ähnliche Interessen oder Expertise. Auf diese
Weise lassen sich zuvor ungeahnte Querverbindungen zwischen dem vorhandenen Videomaterial knüpfen und auf Ähnlichkeit basierende Suchfunktionen realisieren. Den Nutzern
wird es ermöglicht, eigene Kompetenznetzwerke aufzubauen.
über das zeitbezogene, sequentielle Tagging mit einfachen Schlagwörtern hinaus, werden
auch zeitbezogene Annotationen in Form von Diskussionen oder Fragestellung ermöglicht.
Dadurch ergeben sich neue Formen der Nutzer-Nutzer-Interaktion, die eine Evaluation der
begutachteten Videoinhalte gestatten. Neben der zeitlichen Dimension sollen auch Ortsund Positionsangaben innerhalb eines Videobildes in Form von multidimensionalem Tagging realisiert werden. Auf diese Weise lassen sich spezielle Bildinhalte eines Videos im
Rahmen eines bestimmten Beobachtungszeitraumes hervorheben und mit Annotation versehen.
Literaturverzeichnis
[CH03]
Y. Chen und W. J. Heng. Automatic Synchronization of Speech Transcript and Slides
in Presentation. In Proceedings of the IEEE International Symposium on Circuits and
Systems (ISCAS), Seiten 568–571. Circuits and Systems Society, May 2003.
291
[CSP01] S. F. Chang, T. Sikora und A. Puri. Overview of the MPEG-7 Standard. IEEE Trans.
Circuits and Systems for Video Technology, 11(6):688–695, 2001.
[GH06] S. Golder und B. A. Huberman. The Structure of Collaborative Tagging Systems. Journal
of Information Science, 32(2):198–208, April 2006.
[Hu93] X. Huang, F. Alleva, H. W. Hon, M. Y. Hwang und R. Rosenfeld. The SPHINX-II speech
recognition system: an overview. Computer Speech and Language, 7(2):137–148, 1993.
[HLT06] C. Hermann, T. Lauer und S. Trahasch. Eine lernerzentrierte Evaluation des Einsatzes von
Vorlesungsaufzeichnungen zur Unterstützung der Präsenzlehre. In DeLFI, Seiten 39–50,
2006.
[Ha06] P. Han, Z. Wang, Z. Li, B. Kramer und F. Yang. Substitution or Complement: An Empirical
Analysis on the Impact of Collaborative Tagging on Web Search. In Web Intelligence,
Seiten 757–760. IEEE Computer Society, 2006.
[ISO05] ISO/IEC 14496-11, Information technology - Coding of audio-visual objects - Part 11
Scene description and application engine, 2005.
[Je95]
L. H. Jeng. Organizing Knowledge (2nd ed.), by Jennifer E. Rowley. JASIS, 46(5):394–
395, 1995.
[KHE05] S. Kopf, T. Haenselmann und W. Effelsberg. Robust Character Recognition in LowResolution Images and Videos. Bericht TR-05-002, Department for Mathematics and
Computer Science, University of Mannheim, 04 2005.
[KY96] K. Knill und S. Young. Fast Implementation Methods for Viterbi-based Word-spotting. In
Proc. ICASSP ’96, Seiten 522–525, Atlanta, GA, 1996.
[NWP03] C. W. Ngo, F. Wang und T. C. Pong. Structuring lecture videos for distance learning applications. In Proceedings of the Fifth International Symposium on Multimedia Software
Engineering, Seiten 215–222. IEEE Computer Society, December 2003.
[PC98] J. M. Ponte und W. B. Croft. A Language Modeling Approach to Information Retrieval.
In Research and Development in Information Retrieval, Seiten 275–281, 1998.
[Re07] S. Repp, J. Waitelonis, H. Sack und C. Meinel. Segmentation and Annotation of Audiovisual Recordings based on Automated Speech Recognition. In Proc. of 11th European
Conf. on Principles and Practice of Knowledge Discovery in Databases (PKDD), Warsaw,
Springer, to be published 2007.
[SW06a] H. Sack und J. Waitelonis. Automated Annotations of Synchronized Multimedia Presentations. In Proceedings of the ESWC 2006 Workshop on Mastering the Gap: From
Information Extraction to Semantic Representation, CEUR Workshop Proceedings, june
2006.
[SW06b] H. Sack und J. Waitelonis. Integrating Social Tagging and Document Annotation for
Content-Based Search in Multimedia Data. In Proc. of the 1st Semantic Authoring and
Annotation Workshop (SAAW2006), Athens (GA), USA, 2006.
[Sm00] A. W. M. Smeulders, M. Worring, S. Santini, A. Gupta und R. Jain. Content-Based
Image Retrieval at the End of the Early Years. IEEE Trans. Pattern Anal. Mach. Intell.,
22(12):1349–1380, 2000.
[ONH04] J. v. Ossenbruggen, F. Nack und L. Hardman. That Obscure Object of Desire: Multimedia
Metadata on the Web, Part 1. IEEE MultiMedia, 11(4):38–48, 2004.
[Xu06] Z. Xu, Y. Fu, J. Mao und D. Su. Towards the semantic web: Collaborative tag suggestions.
Collaborative Web Tagging Workshop at WWW2006, Edinburgh, Scotland, May, 2006.
[YOA03] N. Yamamoto, J. Ogata und Y. Ariki. Topic Segmentation and Retrieval System for Lecture Videos Based on Spontaneous Speech Recognition. In Proceedings of the 8th European Conference on Speech Communication and Technology, Seiten 961–964. EUROSPEECH, September 2003.
292
Ein Werkzeug zur Unterstützung der Anpassung
existierender E-Learning-Materialien
Birgit Zimmermann1, 2, Christoph Rensing2, Ralf Steinmetz2
1
SAP AG
SAP Research CEC Darmstadt
Bleichstr. 8
64283 Darmstadt
Birgit.Zimmermann@sap.com
2
Fachgebiet Multimedia Kommunikation
Technische Universität Darmstadt
Merckstr. 25
64283 Darmstadt
{Birgit.Zimmermann, Christoph.Rensing,
Ralf. Steinmetz}@kom.tu-darmstadt.de
Die Wiederverwendung bereits existierender Lernmaterialien ist eine Möglichkeit, die
hohen Kosten der Erstellung hochwertiger E-Learning Materialien zu senken. In vielen
Fällen wird eine sinnvolle Wiederverwendung aber erst durch eine vorherige Anpassung
der Materialien an deren neue Einsatzkontexte ermöglicht. Diese Anpassung ist eine
komplexe Aufgabe Damit Autoren sie sinnvoll durchführen können, ist es notwendig,
eine geeignete Unterstützung anzubieten.
In [ZRS06a] stellen wir ein Konzept für eine derartige Unterstützung vor. Es basiert
darauf, Nutzern gezielt das zur Durchführung der Anpassungen benötigte Wissen zur
Verfügung zu stellen und da, wo dies sinnvoll möglich ist, Benutzer durch Automatisierung die durchzuführenden Aufgaben zu erleichtern. Grundidee dieses Konzeptes ist es,
Laien und Novizen das Wissen von Experten bezüglich Anpassungen verfügbar zu machen. Das Tool soll format- und dateigrenzenübergreifend arbeiten. Dadurch wird erreicht, dass Benutzer nicht etliche verschiedene Werkzeuge bedienen müssen, um eine
Anpassung durchzuführen.
Nicht alle Anpassungen lassen sich sinnvoll automatisieren [ZRS06a]. Dennoch ist es
wichtig für alle Anpassungen, unabhängig vom Grad der möglichen Automatisierung
eine Unterstützung anzubieten. Da bereits Hilfestellungen eine wichtige Unterstützung
für Laien darstellen, soll in jedem Fall eine Erläuterung angeboten werden, wie die jeweilige Anpassung durchzuführen ist.
Das für dieses Konzept zentrale Expertenwissen wird in Form von Patterns bereitgestellt
[ZRS06b]. Patterns sind aufgrund ihrer natürlichsprachlichen Notation auch für Personen
ohne IT Kenntnisse gut verständlich. Dennoch weisen sie eine feste Notation auf, die das
Verständnis erleichtert und eine spätere maschinelle Verarbeitung ermöglicht. Somit
stellen sie eine geeignete Möglichkeit dar, Wissen verfügbar machen zu können.
Das von uns umgesetzte Anpassungstool realisiert die oben genannten Anforderungen
des Konzeptes. Es ist Bestandteil des im Projekt Content Sharing entwickelten Modul-
293
editors [Me06]. Das Anpassungstool wurde in Form eines Wizards umgesetzt, der Benutzer schrittweise durch eine von ihnen gewählte Anpassung führt. Dabei erhalten Benutzer Hinweise, wie sie eine Anpassung durchzuführen haben. Dort wo es möglich ist,
wird außerdem eine Automatisierung der zur Durchführung der Anpassung nötigen
Tätigkeiten angeboten.
Der Wizard beruht auf den eben erwähnten Patterns. Diese können von den Experten
mittels eines einfachen Eingabewerkzeuges erstellt werden. Dieses Werkzeug überführt
die Patterns in eine XML Notation, die als Grundlage für eine Reihe von Informationen
dienen, die im Wizard angezeigt werden. Beispielsweise werden der Name und eine
Kurzbeschreibung des aktuell dargestellten Anpassungsschrittes im oberen Bereich der
Seiten des Wizards aus den Informationen generiert, die in den Patterns abgelegt sind.
Auch der Ablauf einer Anpassung sowie Abhängigkeiten zwischen unterschiedlichen
Anpassungen sind in den Patterns ausgedrückt und werden vom Tool berücksichtigt.
Das Anpassungstool unterstützt derzeit 5 Anpassungen: Übersetzung, Anpassung an ein
verändertes (Corporate) Design, Anpassung, um eine druckoptimierte Version zu erhalten, Terminologieanpassung und Anpassung, um eine barrierefreie Version zu erhalten.
Von diesen Anpassungen sind 4 teilweise automatisiert. Lediglich zur Anpassung an
Barrierefreiheit existiert momentan noch keine automatisierte Unterstützung. Diese ist
aber für die Zukunft geplant ebenso wie die Erweiterung des Tools um zusätzliche Anpassungen, die bisher nicht berücksichtigt wurden.
Danksagung
Das diesem Beitrag zugrunde liegende Forschungsprojekt Content Sharing wurde mit
Mitteln des Bundesministeriums für Wirtschaft und Technologie gefördert.
Literaturverzeichnis
[Me06] Meyer, M. et al.: Requirements and Architecture for a Multimedia Content Re-purposing
Framework. Proceedings of First European Conference Technology Enhanced Learning
(EC-TEL), 2006.
[ZRS06a] Zimmermann, B., Rensing, C., Steinmetz, R.: Formatübergreifende Anpassungen von
elektronischen Lerninhalten. Proceedings of DeLFI 2006: 4. e-Learning Fachtagung Informatik, Darmstadt 2006. S. 15 – 26.
[ZRS06b] Zimmermann, B., Rensing, C., Steinmetz, R.: Patterns for Tailoring E-Learning Materials to Make them Suited for Changed Requirement. Proceedings of VikingPLoP 2006,
Helsingör 2006.
294
Werkzeuggestützte Untersuchung der Vorgehensweisen
von Lernenden beim Lösen algorithmischer Probleme
Ulrich Kiesmüller, Torsten Brinda
Didaktik der Informatik
Friedrich-Alexander-Universität Erlangen-Nürnberg
Martensstraße 3
91058 Erlangen
{ulrich.kiesmueller, torsten.brinda}@informatik.uni-erlangen.de
Abstract: Um Lernende der Sek. I beim Lösen algorithmischer Probleme unter
Verwendung von Lern- und Programmierumgebungen besser zu unterstützen, wird
untersucht, inwieweit deren Vorgehensweisen automatisch erfasst und bewertet
werden können, mit dem Ziel die eingesetzten Umgebungen lernergerechter zu
gestalten. Dazu wurde für die Umgebung Kara Aufzeichnungs- und Diagnosesoftware entwickelt und in empirischen Vorstudien auf ihre Praxistauglichkeit hin untersucht.
1
Motivation und Ziel
Die in der Sekundarstufe I in der Informatikanfangsausbildung eingesetzten Systeme
zum Erlernen algorithmischer Grundkonzepte (z. B. Karol, Kara) geben den Lernenden
nicht an deren individuelle Vorgehensweisen angepasste, oft rein „technische“, wenig
schülergeeignete Fehlermeldungen aus. Die Hypothese für das hier skizzierte Forschungsprojekt lautet, dass sich die eingesetzten Lern- und Programmierumgebungen bei
genauerer Kenntnis der individuellen Vorgehensweisen bei der Bearbeitung algorithmischer Problemstellungen besser an die Bedürfnisse der Lernenden anpassen lassen. Untersuchungen zu den Vorgehensweisen von Programmieranfängern fanden bislang überwiegend auf Hochschulebene statt (z. B. [Hu06]). Hierbei wurde häufig mit Videoaufzeichnungen gearbeitet, die nachträglich aufwändig manuell ausgewertet werden mussten, um das jeweilige Vorgehen zu analysieren. Um sowohl zu quantitativen als auch zu
qualitativen Aussagen zu gelangen, werden im Rahmen der hier vorgestellten Studie
einerseits Aufzeichnungs- und Diagnosesoftware konzipiert und entwickelt und andererseits Einzelinterviews mit Lernenden zu ihren spezifischen Vorgehensweisen durchgeführt. Angestrebt wird, automatisch diagnostizierte Vorgehensweisen von Lernenden für
die Gestaltung von individualisierten Systemrückmeldungen zu verwenden.
2
Entwicklung von Aufzeichnungs- und Diagnosesoftware
Grundlage für die ersten Arbeiten bildete die Lernumgebung Kara [Re03]. Für die automatisierte Erfassung quantitativer Daten wurde in einem ersten Schritt eine Aufzeich-
295
nungssoftware (TrackingKara) entworfen und implementiert, die den zeitlichen Verlauf
aller relevanten Aktionen eines Lernenden für diesen unsichtbar in einer Textdatei protokolliert. Hierzu wurde vom Kara-Team (insbesondere R. Reichert) eine spezifische
Programmschnittstelle bereitgestellt, wofür die Autoren herzlich danken. Aufgezeichnet
werden alle Aktionen, die die Weiterentwicklung und die Ausführungsversuche eines
Kara-Programms durch den Lernenden dokumentieren. Endet ein Ausführungsversuch
eines Kara-Programms mit einer Fehlermeldung, so wird auch diese protokolliert zusammen mit der Information, wie die Bearbeitung anschließend fortgesetzt wird. Um
einerseits die Vorgehensprotokolle einzelner Lernender grafisch aufbereitet (z. B. relevante Ausbaustufen des Kara-Programms, Aktionen im Zeitverlauf) analysieren zu können und um andererseits kumulative Aussagen über die Verläufe mehrerer Probanden
treffen zu können, wurde eine zusätzliche Diagnosesoftware (EvalKara) entwickelt und
implementiert, in der die Protokollinformationen in einer Datenbank verwaltet werden.
3
Erste Untersuchungen, Ergebnisse und Ausblick
Im 1. Halbjahr 2007 wurde die Praxistauglichkeit der entwickelten Analyse- und Diagnosesoftware in Fallstudien untersucht. Hierbei nahmen in Einzelfallstudien ca. 10
Personen mit sehr unterschiedlicher informatischer Vorbildung (keine bis erhebliche)
sowie ca. 100 Lernende aus der Jgst. 7 des bayerischen Gymnasiums teil. Hierbei zeigte
sich, dass durch die Aufzeichnung der zeitlichen Veränderung der Anzahl der Programmelemente sowie der gewählten Aktionen Schlussfolgerungen im Hinblick auf
Vorgehensmuster (z. B. evolutionäres/Versuch-Irrtum-Verfahren, strategisches Vorgehen) möglich sind. Erkenn- und bewertbar ist weiterhin, wie viel Zeit ein Lernender mit
welchen Aktivitäten (Editieren von Zuständen und Übergängen, der Modellwelt, Ausführen) verbringt sowie Fehlerart und -häufigkeit pro untersuchter Aufgabenstellung.
Die Qualität des erreichten Bearbeitungsergebnisses eines Lernenden wird durch systemunterstützte Überprüfung der Lösung für vorgegebene Testdaten erfasst. Hier ist im
Weiteren noch ein Abgleich mit den Erkenntnissen aus dem Bereich der automatischen
Überprüfung von Programmieraufgaben geplant.
In weiteren Arbeiten soll die Erfassung der Vorgehensweisen verfeinert und mit Empfehlungen für die Lernenden verknüpft werden. Hierzu ist auch der Einsatz weiterer
Lern- und Programmierumgebungen geplant. Die Auswirkung der Einbindung der Empfehlungen in die Software auf die Lernprozesse ist Gegenstand weiterer empirischer
Arbeiten.
Literaturverzeichnis
[Hu06]
[Re03]
296
Hundhausen, C. D.: A Methodology for Analyzing the Temporal Evolution of Novice
Programs Based on Semantic Components. In: Proceedings of ICER '06, ACM Press,
New York, 2006, pp. 59-71.
Reichert, R.: Theory of Computation as a Vehicle for Teaching Fundamental Concepts
of Computer Science. Dissertation 15035, ETH Zürich, 2003.
Ein prozessorientiertes und dienstbasiertes Sicherheitsmodell für elektronische Prüfungen an Hochschulen
Andreas Hoffmann
Fachgruppe Betriebssysteme / verteilte Systeme
Universität Siegen, Hölderlinstraße 3,
57068 Siegen
andreas.hoffmann@uni-siegen.de
Abstract: Dieser Beitrag beschreibt ein Sicherheitsmodell für elektronische Prüfungen an Hochschulen. Das Konzept basiert auf einer prozessorientierten Sicht,
das die Schutzmechanismen für elektronische Prüfungen in Abhängigkeit ihrer Geschäftsprozesse betrachtet. Denn der Schutzbedarf der einzelnen Prozesse bestimmt das Niveau der anzuwendenden Sicherheitsmaßnahmen.
1
Sicherheitsanforderungen an elektronische Prüfungen
Elektronische Prüfungen werden mittlerweile an vielen Hochschulen erfolgreich eingesetzt. Die einzelnen Prozessphasen sind die Prüfungsvorbereitung (Planung, Erstellung),
Prüfungsdurchführung (Durchführung, Auswertung) und die Prüfungsnachbereitung
(Einsicht, Archivierung). Elektronische Prüfungssysteme bestehen häufig aus einzelnen
Komponenten wie Autorensystem, Nutzer- und Klausurverwaltung, einer Durchführungskomponente sowie einer Auswertungskomponente, die diese Prozesse abbilden.
Was bei der Umsetzung der bisherigen elektronischen Prüfungssysteme nur unzureichend betrachtet wurde, sind die unterschiedlichen Sicherheitsanforderungen, die an die
einzelnen Prozessphasen einer elektronischen Prüfung gestellt werden. Dazu zählen vor
allem die Authentizität der Prüfungsteilnehmer, die Verbindlichkeit der Prüfungsangaben (Nichtabstreitbarkeit), die Betrugssicherheit, Anonymität, Integrität, Vertraulichkeit
und die Verfügbarkeit.
Die Sicherheitsanforderungen an elektronische Prüfungen sind abhängig vom Einsatzzweck der Prüfung [St06]. Grundsätzlich unterscheidet man Prüfungen in summative
(bewertete Klausuren) und formative Prüfungen (Selbsttests, etc.), wobei den summativen Prüfungen eine juristische Bedeutung zukommt. Hierbei sind die eindeutige Authentifizierung der Teilnehmer und die Verbindlichkeit der Prüfungsangaben Voraussetzung
für eine rechtssichere Durchführung. Bei formativen Prüfungen hingegen wird eine anonyme Durchführung gefordert. Auch bei der Auswertung ergeben sich Unterschiede: Die
Auswertung der formativen Prüfungen wird dem Teilnehmer unmittelbar nach der Prüfung mitgeteilt. Bei den summativen Prüfungen hingegen, muss dem Prüfenden u.a. die
Möglichkeit zur Nachkorrektur gegeben werden. Die Nachbereitung einer summativen
297
Prüfung beinhaltet die Klausureinsicht durch den Teilnehmer und die Archivierung der
Prüfung für mindestens 5 Jahre. Für formative Prüfungen dagegen existiert keine Archivierungspflicht.
2
Ein Sicherheitsmodell für elektronische Prüfungen
Ziel ist es, ein Sicherheitsmodell zu entwickeln, das die Sicherheitsdienste in Abhängigkeit des jeweiligen Prozesses der entsprechenden Prüfungsart zur Verfügung stellt (siehe
Abb.1). Ein solches dienstbasiertes Konzept erlaubt es Sicherheit adaptiv zu gestalten.
Ein Beispiel sind die verschiedenen Formen der Authentifizierung. Je nach Anwendungszweck kann die Authentifizierung mittels Passwort oder TAN oder durch Besitz
und Wissen (Zweifaktor-Authentifikation) mittels Smartcard realisiert werden. Welche
Authentifizierungsart verwendet wird, ist abhängig von der Prüfungsart und von dem
entsprechenden Prozess.
Elektronisches Prüfungssystem
N utzer -/Klausur verw altung
Autorentools
Externe Werkzeuge
D urchführungs
komponente
-
Ausw ertungs komponente
Archivierungs
komponente
-
Text verarbeitung
SPSS
Tabellen kalkulation
...
Sicher heitsmodell
nutzen
Sicherheitsdienste
- Authentifizierung
- D atenintegrität
- Verbindlichkeit
- Anonymität
- Betrugssicherheit
- Verfügbarkeit
- Vertraulichkeit
verwenden
Sicherheitsmechnismen
- C lustering / Load - Balancing
- Qualif . digitale Signaturen
erzeugen / prüfen / anw enden
- Zugriffskontrollmechanismen
- Prüfungsumgebung
definieren
- H ashw erte erzeugen /prüfen
- ver -/entschlüsseln
- Anonymisierungsmechanismen
werden angewendet auf
Sicherheitsobjekte
(Prüfungsfragen , Benutzer -D aten , Prüfungsangaben Teilnehmer
, Zertifikate , etc .)
Abbildung 1: Sicherheitsmodell für elektronische Prüfungen
Die Sicherheitsobjekte sind die Objekte, die einer möglichen Bedrohung ausgesetzt sind.
Die Sicherheitsobjekte werden durch Sicherheitsmechanismen geschützt. Die Sicherheitsdienste verwenden diese Mechanismen in Abhängigkeit von der Durchführungsart
der Prüfung (online, offline), der verwendeten Prüfungsart und des jeweiligen Prozesses.
Die externen Werkzeuge können durch die einzelnen Komponenten des Prüfungssystems genutzt werden. Dadurch sind z.B. Werkzeuge die während der Lehrveranstaltung
eingesetzt werden, auch für die Prüfungsdurchführung einsetzbar.
Literaturverzeichnis
[St06]
298
Steinberg, M.: Organisatorisches Konzept für Online-Prüfungsverfahren – Ein Stufenmodell für die Realisierung von Online-Assessment, http://www.sra.unihannover.de/fileadmin/uploads/Mitarbeiter/Steinberg/Publikationen/
AP7_Org_Konzept_screen_V1.pdf, 2006
Zur Unterstützung kontextadaptiven E-Learnings in
Echtzeit am Arbeitsplatz durch maschinelles Lernen auf
Sensorendaten des Computerdesktops
Robert Lokaiczyk, Eicke Godehardt, Manuel Görtz, Andreas Faatz
SAP Research CEC Darmstadt
Bleichstr. 8
64283 Darmstadt, Germany
{robert.lokaiczyk, eicke.godehardt, manuel.goertz, andreas.faatz}@sap.com
Abstract: Die Zielsetzung einiger aktueller E-Learning-Ansätze ist die Unterstützung
des Lerners direkt am Arbeitsplatz während des tatsächlichen Arbeitsprozesses. Wir
verfolgenden diesen Ansatz des Echtzeit-E-Learnings, bei dem dem Nutzer spezifische Lernressourcen passend zum aktuellen Bedarf in der elektronischen Arbeitsumgebung angeboten werden. Ein zentraler Erfolgsfaktor für diesen aufgabenorientierten
E-Learning-Ansatz ist der Kontext des Nutzers. Um dem Nutzer passende Lernressourcen bereitzustellen, die sowohl auf den Bedarf abgestimmt als auch hilfreich sind,
bedarf es daher immer der Betrachtung der aktuellen Arbeitssituation, der Kompetenzen und der Historie des Nutzers. Hier stellen wir eine Architektur zur Vorhersage der
Arbeitsaufgabe am elektronischen Arbeitsplatz vor, welche auf maschinellen Lernverfahren beruht und diskutieren die Integration des Verfahrens in unsere E-LearningUmgebung.
Das Ziel des E-Learning-Systems APOSDLE1 (siehe [LLM05]) ist die Steigerung der
Produktivität des Wissensarbeiters durch die Integration von Lernen und Lehren in den Arbeitsprozess. Der traditionelle Ansatz des “auf Vorrat Lernens” und später (möglicherweise
nie) Anwenden scheint der heutigen dynamischen Unternehmenswelt nicht mehr angemessen und sollte durch ein arbeitsplatz-integriertes Lernparadigma ersetzt werden.
APOSDLE zielt darauf ab, verschiedene Rollen des Nutzers zu integrieren. So kann zum
Beispiel der erfahrene Benutzer als informeller Lehrer in Form einer elektronischen Kontaktmöglichkeit zur Verfügung stehen. Es besteht die Möglichkeit den Informationsaustausch während der Kollaboration zwischen Lerner und Lehrer mit Metainformation anzureichern und selbst als eigene Lerneinheit abzuspeichern und später anzubieten. Dadurch
muss Lernmaterial nicht mehr zeitaufwendig und kostenintensiv erstellt werden. Der Lerner vertraut informellem Lernmaterial in Form von Dokumenten, welches genau auf den
Arbeitsschritt abgestimmt ist, den dieser gerade erledigen will.
Um diesen und weitere Aspekte der Integration des Lernens und Arbeitens zu unterstützen,
muss das APOSDLE sich immer der aktuellen Arbeitsaufgabe des Lerners bewusst sein.
Diese Information soll unaufdringlich und automatisch vom Arbeitsplatz erhoben werden. Wir verwenden dazu systemnahe Desktopereignisse und prüfen die Anwendbarkeit
1 APOSDLE ist teilweise gefördert durch das 6. Rahmenprogramm (FP6) für Forschung und Entwicklung der
Europäischen Kommission im Information Society Technologies“ (IST) Arbeitsprogramm 2004 unter der Ver”
tragsnummer IST-027023.
299
maschineller Lernverfahren zur Vorhersage der aktuellen Nutzeraufgabe (Task). Als Hypothese wird dabei angenommen, dass die aufgezeichneten Sensordaten der Bildschirmarbeit
gute Indikatoren für die Abarbeitung eines abstrakter definierten Arbeitsschrittes darstellen. Denn diese technisch automatisch erfassten, systemnahen Ereignisse, welche sich aus
der Nutzerinteraktion und dem Systemstatus ergeben, dienen später als Eingabedaten für
Vorhersagealgorithmen.
Die Kontextinformation wird zumeist durch sogenannte Softwarehooks – auf Betriebssystemebene operierende Funktionen – erfasst. Zum Beispiel wird beim Auslösen eines Mausklicks die betroffene Anwendung über eine Systemnachricht informiert. Der
APOSDLE Kontextmonitor fängt die betreffende Nachricht durch das Setzen eines Softwarehooks mittels einer Kernel-Funktion in die Nachrichtenwarteschlange ab um sie dann
nach der Aufzeichnung dieses Ereignisses unverändert an die Zielanwendung weiterzuleiten. Dadurch kann dieser systemnahe Benutzerkontext im Vergleich zu anderen Ansätzen
ohne Einschränkung für den Anwender erfasst werden.
Das Problem der automatischen Taskbestimmung anhand von Systemindikatoren kann
dann als Aufgabe des maschinellen Lernens (ML) aufgefasst werden. Bei der ersten Benutzung des APOSDLE-Systems ist die Anwendung untrainiert und der Benutzer muss
seinen aktuellen Task aus einer vordefinierten Liste an Arbeitsaufgaben auswählen (manuelle Bestimmung). Während des Arbeitsprozesses zeichnet der APOSDLE Kontextmonitor die Ereignisse am Computerdesktop auf, welche die Nutzerinteraktionen reflektieren.
Dies inkludiert zum Beispiel Tastatureingaben, Programmstarts und die Textrepräsentation
von geöffneten und bearbeiteten Dokumenten. Auf diese Weise wird kategorisiertes Trainingsmaterial des Nutzerarbeitsprozesses gewonnen, welches mit dem Tasknamen als Kategoriebezeichner versehen wird. Sobald genug Trainingsmaterial gewonnen wurde, wird
daraus ein ML-Modell des Nutzertask automatisch abgeleitet. Im optimalen Fall wird dann
eine manuelle Auswahl des Task durch den Nutzer überflüssig, da die Taskvorhersage
aus dem gewonnenen Modell anhand des permanent aufgezeichneten Ereignissstroms des
Desktops den richtigen, aktuellen Task bestimmen kann (automatische Bestimmung). Sobald die Taskvorhersage dann einen Taskwechsel bemerkt, werden durch die integrierte
APOSDLE E-Learning-Umgebung kontextualisierte Lernmaterialien angeboten, welche
auf den aktuellen Task abgestimmt sind.
Eine Evaluation der Vorhersagegüte auf einem domänenspezifischen Prozess unter Anwendung eines automatischen Lernverfahren aus dem Bereich Support Vector Machines
lieferte vielversprechende Ergebnisse. Dennoch muss das Konzept sich noch in größeren
Nutzertests beweisen. Darunter sollten verschiedene inhaltliche Anwendungsdomänen und
Arbeitsprozesse genauso getestet werden wie Nutzer mit unterschiedlichen Erfahrungsstufen und Kompetenzen.
Über den Projektfortschritt hält die Webseite www.aposdle.org auf dem Laufenden.
Literaturverzeichnis
[LLM05] S. N. Lindstaedt, T. Ley und H. Mayer. Integrating Working and Learning with APOSDLE. In Proceedings of the 11th Business Meeting of Forum Neue Medien, 10-11 November 2005, Vienna. Verlag Forum Neue Medien, 2005.
300
CLab – Eine web-basierte interaktive Lernplattform für
Studierende der Computerlinguistik
Simon Clematide, Michael Amsler, Sandra Roth, Luzius Thöny, Alexandra Bünzli
Institut für Computerlinguistik
Universität Zürich
Binzmühlestr. 14
8050 Zürich
{siclemat,mamsler,sroth,lthoeni,buenzli}@cl.uzh.ch
Das CLab1 ist eine mittlerweile 3 Jahre im Einsatz stehende Lernplattform für die Studierenden des Fachs Computerlinguistik. Sie geht aus einem früheren Projekt [CH03]
hervor, das aus einer E-Learning-Initiative der Universität Zürich [Se03] entstanden ist,
und wird laufend von Studierenden im Rahmen von Hilfsassistenzen weiterentwickelt.
Inhaltlich lässt sich das CLab als eine Sammlung von thematisch selbstständigen Modulen beschreiben zu Themen wie „Reguläre Ausdrücke“, „Tokenisierung“, „Chunking“
oder „Satzähnlichkeit“. Diese Module werden Lerneinheiten genannt. Jede Lerneinheit
basiert auf einem Lehrtext (PDF), welcher die inhaltliche Grundlage bildet. Er kann
ausgedruckt, durchgearbeitet und leicht durchsucht werden. Letzteres hat eine UsabilityStudie mit 5 Probanden zu 2.5h als nützliches Feature bestästätigt. Eine Pilot-Migration
des Inhalts vom eigenen „troff“-basierten Publikation-System in das XML-basierte Format <ML>3 (Multidimensional Learning Objects and Modular Lectures Markup Language)2 wird im 2007 durchgeführt. Nebst der Eignung für multimediale Inhalte ist insbesondere die Modellierung von Stofftiefe (Dimension der Intensität) für benutzeradaptiveres E-Learning interessant.
Die interaktivsten Bausteine des CLab sind die Lernapplikationen (ILAP). Diese bieten
den Lernenden die Möglichkeit, an realistischen Problemstellungen ein Thema in einer
einfachen, webbrowser-basierten Umgebung und daher ohne technische Installationshürden zu bearbeiten. Studierende können so Methoden und Instrumente der Computerlinguistik ausprobieren und ihre erworbenen Kenntnisse in die Praxis umsetzen. Dies ist
inspiriert vom Ansatz des Problem-Based Learning [Sa06], wo die Lernenden mit konkreten Problemen konfrontiert werden, ihnen aber kein exakter Lösungsweg aufgezeigt
wird. Hingegen werden die Mittel und Instrumente zur Verfügung gestellt, welche zur
Lösung des Problems angewendet werden sollen. Die Lernenden sollen die ILAP zum
explorativen Experimentieren mit Lösungsansätzen nutzen.
Bei der Weiterentwicklung der ILAP hat uns die neuere Tradition der „Shared Tasks“
inspiriert, welche in der Forschungsmethodik der Sprachtechnologie eine innovative und
antreibende Form geworden ist. Bei diesen wissenschaftlichen Wettbewerben werden
1
2
http://www.cl.uzh.ch/clab
Vergleiche dazu die Leitseite http://www.ml3.org.
301
konkrete Aufgaben 3 gestellt wie „Erkennung von Eigennamen“, zu denen die Veranstalter annotierte und validierte Daten zur Systementwicklung anbieten. Die Leistung der
teilnehmenden Systeme wird dann an Testdaten evaluiert und verglichen. Analog dazu
werden in einigen ILAP automatische quantitative Evaluationen gemacht, deren Ergebnisse erlauben, sich an anderen Lernenden zu messen oder eine bestimmte Vorgabe zu
erreichen.
Weiter gibt es interaktive Selbstevaluationen, die den Studierenden den Stand ihrer
Lernphase rückmelden: Die von uns entwickelten Satzergänzungstests (SET) erlauben
ein automatisches Kommentieren von Texten, welche die Lernenden aus Textbausteinen
inkrementell auswahlgesteuert kombiniert haben. Sie erhalten dabei adäquate Kommentare, die sich aus den verwendeten Bausteinen berechnen. Damit lassen sich differenziertere Zwischenstufen als nur „falsch“ und „korrekt“ erfassen und rückmelden. Zu allgemeine oder zu spezifische Verständnisse von Begriffen lassen sich diagnostizieren und
korrigieren. So erfahren die Lernenden, welche Teile des Lernstoffes sie können und
welche Teile sie repetieren sollen. Zum Erstellen der SET haben wir ein graphisches
Authoringtool entwickelt, das dem Test-Autor den komplexen Aufbau eines SET visualisiert und komfortable Such-, Editier- und Konsistenzüberprüfungsfunktionen anbietet.
Schliesslich bietet das CLab als zweite Form der Selbstevaluation klassische Multipleund Single-Choice-Tests an. Zusätzlich ist es den Lernenden möglich, über ein einfaches
Web-Interface eigene Tests zu verfassen, die (nach Überprüfung) anderen Lernenden zur
Verfügung stehen.
Nebst den oben erwähnten Grundlagentexten und den interaktiven Elementen enthält das
CLab direkte Verknüpfungen zu Einträgen des institutseigenen Glossars, einer häufig
genutzten Online-Ressource. Das CLab ist somit ein Portal für Inhalte und Aktivitäten,
welche durch diese Schnittstelle einheitlich präsentiert, integriert und thematisch verknüpft werden. Das CLab wird im Sinne des „blended learning“ in Zukunft noch vermehrt in den Übungsbetrieb von Vorlesungen eingebunden, dessen Bedeutung mit der
Einführung des Bologna-Systems an der Universität Zürich gewachsen ist.
Literaturverzeichnis
[CH03] Kai-Uwe Carstensen and Michael Hess. Problem-based web-based teaching in a computational linguistics curriculum. Linguistik Online, 17:7–22, 2003.
[Sa06] John R. Savery. Overview of problem-based learning: Definitions and distinctions. The
Interdisciplinary Journal of Problem-based Learning, 1(1):9–20, 2006.
[Se03] Eva Seiler-Schiedt. E-Learning-Strategie - vier Jahre Erfahrung an der Universität
Zürich. SWITCHjournal, 1:23–25, 2003.
3
Vergleiche dazu etwa die Leitseite der „Conference on Computational Natural Language Learning (CoNLL)
http://www.cnts.ua.ac.be/conll/, welche seit 1999 jährlich solche Wettbewerbe organisiert.
302
E-Learning als ein Baustein der Hochschul- und Fakultätsentwicklung der Fachhochschule Kaiserslautern
Simone Grimmig
Fachhochschule Kaiserslautern | e-Learning Support-Einheit (e-LSE)
Amerikastr. 1
66482 Zweibrücken
simone.grimmig@fh-kl.de
1
Einleitung
Die erfolgreiche und nachhaltige Integration neuer Medien in die Lehre ist für die Weiterentwicklung und Zukunftsfähigkeit der Fachhochschule Kaiserslautern (FH-KL) von
großer strategischer Bedeutung, gerade auch im Hinblick auf die stetig wachsenden
Anforderungen zur Wahrung der nationalen und internationalen Wettbewerbsfähigkeit
und der kontinuierlichen Verbesserung der Lehrqualität. Um diese Entwicklung zu unterstützen wird von Seiten der Hochschulleitung eine integrierte (hochschulinterne und
hochschulübergreifende) Doppel-Strategie, mit dem Ziel der nachhaltigen Medienentwicklung und durchgängigen Mediennutzung, verfolgt, die gemeinsam mit der eLearning Support-Einheit (e-LSE) umgesetzt und weiterentwickelt wird.
2
Hochschulinterne und hochschulübergreifende Strategie
Der Aufbau lokaler Support-Strukturen durch die Etablierung einer e-LSE als erster
Schwerpunkt der integrierten Doppel-Strategie schafft hochschulintern alle Voraussetzungen, um eine höchstmögliche Akzeptanz unter den Dozierenden der FH-KL zu erreichen und die bestmöglichen Rahmenbedingungen für den Einsatz und die Integration
neuer Medien in der Lehre aufzubauen. Die e-LSE als eine zentrale Einrichtung der FHKL bietet breitgefächerte kostenfreie Dienstleistungen an. Interessierte Dozierende der
FH-KL können kollektive und individuelle Beratungsleistungen sowie eine Vielzahl von
Schulungs- und Weiterbildungsangeboten zum Auf- und Ausbau von E-Kompetenzen
wahrnehmen. Zusätzlich stellt ein umfangreiches Service-Angebot, wie Bereitstellung
mobiler Hard-/Softwaretechnologien, Realisierungsbegleitung von E-Learning-Projekten
und Vor-Ort-Betreuung, eine erfolgreiche Umsetzung der einzelnen Vorhaben sicher.
Studierende werden im Rahmen der sog. Semestereinführungstage in der Benutzung der
zentralen Lernplattform durch die e-LSE geschult. Zudem steht für sie während des
gesamten Studiums ein Forum für asynchrone Support-Anfragen zur Verfügung.
Das Projekt „Kompetenzentwicklung für den Einsatz neuer Medien in der Fachhochschullehre“ (KE-FH) ist ein vom Land Rheinland-Pfalz gefördertes Verbund-Projekt an
dem sich die FH-KL (in Kooperation mit weiteren Fachhochschulen und dem Virtuellen
303
Campus Rheinland-Pfalz (VCRP)) beteiligt und stellt den zweiten Schwerpunkt der
integrierten Doppel-Strategie der FH-KL dar. Das Projektziel besteht in der flächendeckenden Ausweitung des Einsatzes neuer Medien in der Lehre. Die im Projektteam von
einzelnen Arbeitsgruppen entwickelten Werkzeuge, Wissens- und Erfahrungsbestände
werden in einen großen Ressourcen-Pool eingestellt, aus dem sich die Projektbeauftragten der beteiligten Fachhochschulen zur lokalen Weiterverwendung bedienen können.
Somit werden erhebliche Synergieeffekte generiert und ein optimaler Erfahrungs- und
Wissensaustausch zwischen den Fachhochschulen ermöglicht und gefördert.
2.1
Ready for E-Learning
„Ready for E-Learning“ als ein Produkt des KE-FH-Projektes ist eine 6-wöchige praxisbezogene hochschulübergreifende Weiterbildungsmaßnahme für Fachhochschullehrende, die sich intensiv mit den grundlegenden Themen des E-Learnings auseinandersetzt.
Das Programm vermittelt E-Learning-Basisinformationen anhand eines integrativen
Gesamtkonzeptes. Onlinephasen werden mit einigen speziellen Präsenzlernkomponenten
ergänzt. Der Schwerpunkt des Programms liegt auf einem asynchronen Lehr-/Lern- und
Kommunikationsprozess.
2.2
Interne und externe Vernetzung und Kooperation
Begrenzte Ressourcen erfordern bei einer geplanten flächendeckenden und langfristig
orientierten Integration neuer Medien in die Lehre, den Aufbau umfassender Kooperationsnetzwerke, zur Erzielung eines höchstmöglichen Synergieeffekts und Informationsaustauschs. Durch die strategische hochschulleitungsnahe Verankerung der e-LSE kann
eine zentrale Schnittstellen-Funktion zum Zwecke einer optimierten Vernetzung und
Kooperation mit anderen (internen/externen) Einrichtungen wahrgenommen werden, die
Zugriff auf einen umfassenden Ressourcenpool ermöglicht und zusätzlich die ELearning-Strategie der eigenen FH in die landesweite Multimedia-Strategie integriert.
3
Weitere strategische Schritte und Ausblick
Nach dem Auf- und Ausbau lokaler Support-Strukturen und der Entwicklung des hochschulübergreifenden Weiterbildungsprogramms müssen nun weitere Mechanismen (z.B.
Zielfestlegung/-vereinbarungen, Schaffung von Anreizstrukturen) entwickelt werden, die
eine permanente Nutzung der neuen Medien in der Lehre gewährleisten und somit zu
einer kontinuierlichen Weiterentwicklung der FH-KL beitragen. Darüber hinaus sollen
die einzelnen Fachbereiche bei der Integration neuer Lehr-/Lernformen durch Umsetzung von, mit Hochschulleitung, Fachbereichen und e-LSE gemeinsam entwickelter,
fachbereichsspezifischer/-definierter Programme zur Kompetenzentwicklung im Prozess
der Fakultätsentwicklung unterstützt werden.
304
E-Learning in der Sekundarstufe II – Evaluation eines
Modellversuchs an sportbetonten Gymnasien
Thomas Köhler (1), Jens Drummer (2), Claudia Börner (1)
(1) Technische Universität Dresden, Media Design Center
Weberplatz 5, D-01062 Dresden
Thomas.Koehler@tu-dresden.de
(2) Sächsischer Bildungsserver / Sächsisches Bildungsinstitut
drummer@www.sn.schule.de
1
Darstellung des Schulversuches
In Sachsen existieren sechs Spezialschulen für Schüler mit besonderen Fähigkeiten im
sportlichen Bereich. Für Schüler, die während der Schulzeit regelmäßig an sportlichen
Aktivitäten wie Trainingslehrgängen und Wettkämpfen teilnehmen, musste eine Möglichkeit geschaffen werden, um den versäumten Schulstoff nachzuholen. Im Jahr 2004
wurde daher der Schulversuch „E-Learning an sportbetonten Schulen“ gestartet1 um mit
dem Einsatz von E-Learning die Qualität des Lernens zu verbessern. Im Rahmen des
Schulversuches werden zwei Lernplattformen eingesetzt (WebCT und BSCL2) und den
Schulen als zentrale Installationen auf dem Sächsischen Bildungsserver zur Nutzung
bereitgestellt. Der Schulversuch teilte sich in drei Phasen über je ein Schuljahr (Erstellung von Lehrinhalten, Testlauf an ausgewählten Schulen und Überführung in den Regelbetrieb). Dabei wurden im Zeitraum 2004 - 2006 insgesamt 16 Kurse unterschiedlicher Fächer für die sportbetonten Gymnasien entwickelt, die schrittweise einer Nutzung
zugeführt werden.
2
Evaluation des Modellversuchs
Die wissenschaftliche Begleitung des Schulversuches wird im Zeitraum 2005-2007
durch das Media Design Center der Technischen Universität Dresden ausgeführt3.
Zweck der wissenschaftlichen Untersuchung war und ist zu prüfen, ob das Hauptziel des
Schulversuches - die Verbesserung der unterrichtlichen Unterstützung für sportlich stark
belastete Schüler an sportbezogenen Schulen durch den Einsatz von E-Learning - in
einem ökonomisch vertretbaren Rahmen erreicht wird. Weiterhin sollte die Untersuchung feststellen, inwieweit die Arbeit mit Onlinelernumgebungen die Selbstlernkompetenz der Schüler verbessert. Die Evaluation ist als Längsschnitt angelegt und in
2 Schritte aufgeteilt. Schritt 1 (2005/06) umfasst die erste Datenerhebung und Vorbereitung der begleitenden Evaluation. Dazu gehört die Datenerhebung zur Analyse der Situa1
2
3
http://www.sn.schule.de/index.php?auswahl=elearn&u_auswahl=eleas
http://www.webct.com und http://bscl.fit.fraunhofer.de/
http://tu-dresden.de/ unter Forschung und Projekte
305
tion vor dem Einsatz von E-Learning im Rahmen von ELeaS. Schritt 2 (ab 2006/07)
umfasst die sogenannte begleitende Evaluation, d.h. die Datenerhebung und Auswertung, einschließlich notwendiger Tests und Anpassung der Fragebögen, zur Bestimmung
der Veränderung in Bezug auf die erzielte unterrichtliche Verbesserung, die erworbene
Selbstlernkompetenz, die Mediennutzung und -kompetenz sowie den ökonomischen
Aufwand.
Die Bestimmung der unterrichtlichen Verbesserung hat das Ziel, zu ermitteln, ob neben
den in der Ausschreibung aufgeführten zwei Problemen (keine unmittelbaren Rückkopplungsmöglichkeiten und zeitliche Entfernung zum eigentlichen Unterrichtsthema) weitere Probleme bestehen, die für die gegenwärtig unbefriedigende Situation verantwortlich
sind. Zu fragen war hier insbesondere nach Motivation, Strukturierung des Unterrichtsverlaufs, mangelnder Verfügbarkeit von Hilfsmitteln und nach Mängeln in der Aufarbeitung des Lehrstoffes, die durch das Medium Arbeitsblätter bedingt sind. Auf Basis der
bisher vorliegenden Daten des ersten Erhebungszeitpunktes zeigt sich, dass auf keiner
der unterschiedlichen Dimensionen des Selbstlernens (Selbststeuerung, Dozentenverhalten, intrinsische Motivation, extrinsische Motivation, Handlungsspielraum, Kognitive
Strategie, Regulation) ein signifikanter Unterschied zwischen der Nutzung von Arbeitsblättern versus eLearning im Hinblick nachgewesen werden konnte. Insofern bedeutet
das eLearning auf keinen Fall eine Verschlechterung der Unterrichtsqualität gegenüber
dem Lernen mit Arbeitsblättern.
Zudem wird bei der Arbeit mit Arbeitsblättern nur von 35% der Schüler bestätigt, dass
im Falle eines Problems der Lehrer schnell zu erreichen ist. Auch betonen 36,3% der
befragten Schüler, dass die gegenüber dem Unterricht zeitversetzte Nutzung der Arbeitsblätter mehr oder weniger problematisch sei. Insofern zeigt sich, dass die Unterrichtssituation beim Lernen im Trainingslager besonders anspruchsvoll ist. Auf die Frage „Was
sind aus Ihrer Sicht die drei größten Probleme beim Lernen mit Arbeitsblättern?“ antworten alle befragten 256 Schüler!
Allerdings ist relativierend anzuführen, dass bisher nur ein kleiner Teil (12,9%) der
befragten Schüler mit ELearning-Modulen überhaupt in Berührung gekommen sind.
Typisch sind für die Schüler-Lehrer-Kommunikation zudem eher als klassisch zu bewertende Kommunikationsformen (Fax zum Dokumentenaustausch, Telefon), das Internet
spielt dabei (noch) keine wesentliche Rolle, Email für Kommunikation und Dokumentenaustausch wurden weniger als halb so häufig genannt, das Lernmanagementsystem
nur ein mal. Ob es tatsächlich zu einer unterrichtlichen Verbesserung durch das eLearning kommt, kann erst durch den längsschnittlichen Vergleich beantwortet werden. Bei
einer weiteren Differenzierung der beiden Lernmethoden nach dem Kaderstatus wird
deutlich, dass mit höherem Kaderstatus (A) das Lernen mit E-Learning als auch das
Lernen mit Arbeitsblättern als weniger anstrengend von den Schülern empfunden wird,
als bei Schülern ohne oder mit geringerem Kaderstatus (C & D). Schließlich zeigt die
Differenzierung der unterschiedlichen Schulstufen (10-13), dass die Anstrengung beim
Lernen mit E-Learning mit zunehmender Schulstufe höher eingeschätzt wird. Bei dem
Lernen mit Arbeitsblättern zeigt sich diese Systematik nicht.
306
E-Learning im Spannungsfeld Schule
Jens Drummer
drummer@www.sn.schule.de
1
Einsatzfelder von E-Learning in der Schule
Der Nutzung von E-Learning, insbesondere die Verwendung von online basierten
Lernplattformen, ist an Hochschulen und Universitäten weitestgehend in den
Regelbetrieb überführt. Die Nutzung dieser online basierten Lernangebote verlangt von
den Studenten neue Kompetenzen für das Lernen. Schüler müssen in der Schule auf
diese neuen Lernformen vorbereitet werden.
In einigen Schulen wird das online basierte Lernen schon jetzt auf der verschiedener
Ansätze. Zum einen sind dies kollaborative Lernszenarien, in denen Schüler und Lehrer
gemeinsam ein Thema bearbeiten und durch Kollaborationstechniken neues Wissen
erwerben, zum anderen stehen Schülern aufbereitete Lernkomplexe in Lernplattformen
zur Verfügung1.
Die derzeit existierenden online basierten Lehr- und Lernumgebungen ermöglichen es,
eine Vielzahl von didaktischen Szenarien umzusetzen. Es existiert bisher noch keine
Lernplattform, welche in der Lage ist, die Vielfalt von möglichen Szenarien zu
realisieren. Wesentlich bei der Auswahl der Lernplattform ist das Ziel, welches durch
deren Einsatz verfolgt wird.
2
Sichten auf Lernumgebungen
Die Erfahrung hat gezeigt, dass für die Anwendung in der Schule eine andere Sichtweise
(als z. B. beim Einsatz in der universitären Lehre) auf die Lernplattformen sinnvoll ist.
Bei der Sicht auf die Lernplattformen sollte vorrangig der pädagogische Nutzen der
online basierten Lernplattform im Vordergrund stehen. Diese Sichten werden hier kurz
beschrieben 2.
Bisher wurden Lernumgebungen in der Regel nach dem technischen Realisierungen
(vgl. [BHM02]) bzw. nach didaktischen Ansätzen (vgl. [SBH01]) unterschieden. Nutzen
Schüler Lernplattformen, haben Sie eine – vom Lehrenden vorgegebene – eigene Sicht
auf die Lernumgebung.
1
vgl. https://www.selgo.de/selgoportal/index.php und
http://www.sn.schule.de/index.php?auswahl=elearn&u_auswahl=eleas
2
Eine ausführliche Beschreibung finden Sie unter: http://www.lernen-online.org/vortraege/delfi2007.pdf
307
Es eröffnet sich somit eine neue Sicht auf Lernumgebungen, die von der Person ausgeht,
welche die Lerninhalte wahrnimmt. Grundlegend können zwei verschiedene Sichten auf
die Nutzung von Lernplattformen unterschieden werden:
Sicht I: Primär kollaboratives System – Gruppenlernsystem (PKS): Lerner
vertiefen und erweitern sowohl ihre Fähigkeiten und Fertigkeiten sowie ihre
Kenntnisse durch Zusammenarbeit mit anderen Lernern;
Sicht II: Sekundär kollaboratives System – Individuallernsystem (SKS): Lerner
vertiefen und erweitern sowohl ihre Fähigkeiten und Fertigkeiten als auch ihre
Kenntnisse mithilfe der Lernplattform selbstständig.
Diese beiden Sichten ergeben sich aus dem Blickwinkel der Lerner innerhalb der
genutzten Lernplattformen. Während die Sicht II dem Schüler vorrangig die Lerninhalte
präsentiert, er aber nur mittelbar Kontakt zu den anderen Lernern (welche den selben
Stoff bearbeiten) aufnehmen kann, wird dem Schüler in Sicht I vordergründig den Blick
auf die anderen Lerner innerhalb der Lernplattform eröffnet. Im Fokus der Sicht I steht
die Kommunikation zwischen den Lernern während dieser Fokus bei der Sicht II auf
eine individuelle Bearbeitung der Lerninhalte gerichtet ist.
Beide Sichten stellen als Ziel die Wissensaneignung in den Vordergrund, welche jedoch
auf unterschiedlichen Wegen erreicht werden soll. Während bei der Sicht I – die der
Lerner wahrnimmt – die Notwendigkeit der selbstständige Wissensaneignung durch die
gewählten Werkzeuge vorgegeben ist, wird beim Gruppenlernen (Sicht II) ein
gemeinsames Lernen mit oder ohne Lehrersteuerung angestrebt. In beiden Sichten kann
der Lehrende mehr oder weniger stark steuernd eingreifen, jedoch wird der Schüler beim
Individuallernen (Sicht I) dazu angehalten, sich die Lerninhalte weitestgehend
selbstständig anzueignen. Die Kommunikationstools, welche die Lernplattform
bereitstellt, dienen bei dieser Sichtweise dem Hinterfragen von Problemen, während
dieselben Tools bei der Sichtweise des Gruppenlernens dazu dienen, dass der Lerner sich
Lerninhalte zusammen mit anderen Gruppenmitgliedern erarbeitet und diskutiert.
Diese beiden Sichten sollen dem Lehrer helfen, die für das jeweils geplante Szenario
richtige Lernplattform auszuwählen. Unterstützt eine Lernplattform beide Sichtweisen,
ist es dem Lehrer so besser möglich, die eigenen Lehrinhalte zu planen und somit den
Unterricht effizienter zu gestalten, da er sich in diesem Fall nicht mehr auf die
technischen Basis sondern auf der didaktischen Umsetzung konzentrieren kann.
Literaturverzeichnis
[BHM02] Baumgartner, Peter; Häfele, Hartmut; Maier-Häfele, Kornelia: Evaluierung von
Lernmanagement-Systemen. Theorie - Durchführung - Ergebnisse. In (Hohenstein, A. et
al. Hrsg.): Handbuch E-Learning. Expertenwissen aus Wissenschaft und Praxis. Dt.
Wirtschaftsdienst. Köln: Fachverlag Deutscher Wirtschaftsdienst, 2002.
[SBH01] Seufert, Sabine; Back, Andrea; Häusler, Martin: E-Learning. Weiterbildung im Internet.
Kilchberg: Smartbooks Publishing AG (= SMARTBOOKS); 2001.
308
Autorenverzeichnis
A
Amsler, Michael 301
B
Baker, Ashraf Abu 79
Baumgartner, Peter 57
Bernstein, Abraham 103
Börner, Claudia 305
Brinda, Torsten 295
Bünzli, Alexandra 301
Büse, Daniel 221
C
Clematide, Simon 301
D
Dording, Carole 91
Drummer, Jens 305, 307
E
Effelsberg, Wolfgang 33
Erren, Patrik 245
F
Faatz, Andreas 269, 299
Fenske, Wolfram 185
Frankfurth, Angela 115
Fredrich, Helge 139
G
Godehardt, Eicke 299
Görtz, Manuel 269, 299
Grimmig, Simone 303
Gruber, Clemens 233
Gurevych, Iryna 45
H
Haake, Jörg M. 9
Hamborg, Kai-Christoph 233
Hampel, Thorsten 209, 221, 245
Hauske, Stefanie 103
Hermann, Christoph 151
Hoffmann, Andreas 297
Huerst, Wolfgang 151
I
Iske, Stefan 21
K
Ketterl, Markus 233
Kienle, Andrea 257, 269
Kiesmüller, Ulrich 295
King, Thomas 33
Köhler, Thomas 305
Kolbe, Harald 173
Kopf, Stephan 33
L
Lampi, Fleming 33
Latocha, Johann 151
Lehmann, Lasse 139
Linckels, Serge 91
Lokaiczyk, Robert 269, 299
Lucke, Ulrike 197
M
Meinel, Christoph 91
Mühlhäuser, Max 45
N
Niehus, Dominik 245
Nikolopoulos, Alexander 173
309
O
Ojstersek, Nadine 67
P
Piotrowski, Michael 185
Probst, Malte 33
R
Reinecke, Katharina 103
Rensing, Christoph 139, 293
Roth, Alexander 221
Roth, Sandra 301
S
Sack, Harald 281
Schellhase, Jörg 115
Schulze, Leonore 233
Sprotte, René 221
Steimle, Jürgen 45
Steinbring, Marc 209
Steinmetz, Ralf 139, 293
310
T
Tavangarian, Djamshid 197
Thomas, Ludger 127
Thöny, Luzius 301
Tillmann, Alexander 79
Topcuoglu, Hülya 103
W
Waitelonis, Jörg 281
Wannemacher, Klaus 161
Welte, Martina 151
Wessner, Martin 269
Wolk, Christoph 151
Z
Zauchner, Sabine 57
Zimmermann, Volker 139
Zimmermann, Birgit 293