Academia.eduAcademia.edu
Christian Eibl, Johannes Magenheim, Sigrid Schubert, Martin Wessner (Hrsg.) DeLFI 2007 Die 5. e-Learning Fachtagung Informatik 17.-20. September 2007 an der Universität Siegen Gesellschaft für Informatik e.V. (GI) Lecture Notes in Informatics (LNI) - Proceedings Series of the Gesellschaft für Informatik (GI) Volume P-111 ISBN 978-3-88579-205-5 ISSN 1617-5468 Volume Editors Dipl.-Inf. Christian Eibl Universität Siegen, Fachbereich Elektrotechnik und Informatik Hölderlinstr. 3, 57068 Siegen, Germany E-Mail: eibl@die.informatik.uni-siegen.de Prof. Dr. Johannes Magenheim Universität Paderborn, Didaktik der Informatik Fürstenallee 11, 33102 Paderborn, Germany E-Mail: jsm@uni-paderborn.de Prof. Dr. Sigrid Schubert Universität Siegen, Fachbereich Elektrotechnik und Informatik Hölderlinstr. 3, 57068 Siegen, Germany E-Mail: schubert@die.informatik.uni-siegen.de Prof. Dr. Martin Wessner Ludwig-Maximilians-Universität München Leopoldstr. 13, 80802 München E-Mail: martin.wessner@psy.lmu.de Series Editorial Board Heinrich C. Mayr, Universität Klagenfurt, Austria (Chairman, mayr@ifit.uni-klu.ac.at) Jörg Becker, Universität Münster, Germany Ulrich Furbach, Universität Koblenz, Germany Axel Lehmann, Universität der Bundeswehr München, Germany Peter Liggesmeyer, Universität Potsdam, Germany Ernst W. Mayr, Technische Universität München, Germany Heinrich Müller, Universität Dortmund, Germany Heinrich Reinermann, Hochschule für Verwaltungswissenschaften Speyer, Germany Karl-Heinz Rödiger, Universität Bremen, Germany Sigrid Schubert, Universität Siegen, Germany Dissertations Dorothea Wagner, Universität Konstanz, Germany Seminars Reinhard Wilhelm, Universität des Saarlandes, Germany © Gesellschaft für Informatik, Bonn 2007 printed by Köllen Druck+Verlag GmbH, Bonn Vorwort „Die 5. e-Learning Fachtagung Informatik  DeLFI 2007“ der Gesellschaft für Informatik (GI) wird vom der GI-Fachgruppe E-Learning zusammen mit der Universität Siegen veranstaltet. Sie präsentiert dem interessierten Fachpublikum die jeweils neuesten informatiknahen Ergebnisse aus Forschung und Praxis zum Thema E-Learning und sichert den regelmäßigen Austausch zwischen Anwendern und Entwicklern. In den zurückliegenden fünf Jahren förderten die DeLFI-Tagungen in München (2003), Paderborn (2004), Rostock (2005), Darmstadt (2006) und jetzt Siegen (2007) eine Forschungsgemeinschaft, die langfristig den Beitrag der Informatik zum E-Learning in Deutschland positiv beeinflusste. Drei Besonderheiten zeichnen die DeLFI 2007 aus: die Kooperation mit der 12. GIFachtagung „Informatik und Schule – INFOS 2007“ des GI-Fachausschusses Informatische Bildung in Schulen, die Kooperation mit der GI-Fachgruppe Didaktik der Informatik, die ihren 7. Workshop „Didaktik der Informatik  aktuelle Forschungsergebnisse“ integrierte, und die Kooperation mit dem „6. Informatiktag Nordrhein-Westfalen“ der GI-Fachgruppe „Informatische Bildung in Nordrhein-Westfalen“. Den Aktiven in den drei Fachgruppen und im Fachausschuss danken wir für die ausgezeichnete Zusammenarbeit und Unterstützung. Dieser Tagungsband enthält einen der zwei eingeladenen Vorträge und 23 Beiträge, die vom Programmkomitee aus 46 eingereichten Beiträgen nach einem wissenschaftlichen Begutachtungsprozess ausgewählt wurden. Diese Beiträge beleuchten die folgenden Schwerpunkte der Tagung aus unterschiedlichen Perspektiven: Didaktik des E-Learning, Content-Engineering, Fallstudien & Erfahrungsberichte, Infrastrukturen & Mobilität und Kollaboration. Eine Abrundung erfährt der Tagungsband durch acht zweiseitige Kurzbeiträge, die aktuelle Entwicklungen aufgreifen. Im Rahmen der Konferenz finden drei Workshops mit eigenen Publikationen statt: Web 2.0 and Social Software in Technology enhanced Learning, Rechnerunterstütztes Selbststudium in der Informatik, E-Learning und Literatur. Die Organisation und Durchführung der gesamten Tagung und die Erstellung dieses Tagungsbandes waren nur durch das Engagement vieler Personen und Institutionen und durch die finanzielle Unterstützung der Sponsoren und Aussteller möglich, denen wir hiermit danken. Insbesondere wird der Sponsor „InterRed GmbH“ genannt. Außerdem möchten wir allen Autoren für ihre qualitativ hochwertigen Beiträge zu diesem Band und damit zum Gelingen der Tagung danken. Ein besonderer Dank gebührt den Mitgliedern des Programmkomitees der DeLFI 2007 für ihre sorgfältige Begutachtung der Beiträge und für die konstruktive Diskussion bei der Erstellung des Tagungsprogramms, sowie dem Organisationskomitee unter Leitung von Stefan Freischlad, dem Karin Ofterdinger, Kirstin Schwidrowski, Gerd Müller und Christian Eibl angehören. Siegen, im September 2007 Christian Eibl, Johannes Magenheim, Sigrid Schubert, Martin Wessner Programmkomitee Sigrid Schubert (Co-Chair, Uni Siegen) Johannes Magenheim (Co-Chair, Uni Paderborn) Martin Wessner (Co-Chair, LMU München) Peter Baumgartner (Uni Krems) Jörg Desel (KU Eichstätt-Ingolstadt) Jens Drummer (SMK Dresden) Wolfgang Effelsberg (Uni Mannheim) Stefan Freischlad (Uni Siegen) Jörg Haake (FU Hagen) Sybille Hambach (FhG IGD Rostock) Michael Herczeg (Uni Lübeck) Thomas Herrmann (Uni Bochum) Paul-Thomas Kandzia (Berufsakademie Lörrach) Reinhard Keil (Uni Paderborn) Andrea Kienle (FhG IPSI Darmstadt) Torsten Leidig (SAP Research) Stefanie Lindstaedt (Know-Center Graz) Ulrike Lucke (Uni Rostock) Wolfgang Merzenich (Uni Siegen) Max Mühlhäuser (Uni Darmstadt) Thomas Ottmann (Uni Freiburg) Sabine Rathmayer (TU München) Christoph Rensing (Uni Darmstadt) Ralf Sagorny (Berufskolleg Werne) Helmut Schauer (Uni Zürich) Uli Schell (FH Kaiserslautern) Ulrik Schroeder (RWTH Aachen) Gerhard Schwabe (Uni Zürich) Andreas Schwill (Uni Potsdam) Silke Seehusen (FH Lübeck) Ralf Steinmetz (Uni Darmstadt) Udo Winand (Uni Kassel) Volker Zimmermann (IMC AG) Zusätzliche Gutachter Christian Eibl (Uni Siegen) Christian Neumair (Gabrieli-Gymnasium Eichstätt) Kirstin Schwidrowski (Uni Siegen) Peer Stechert (Uni Siegen) Organisation Prof. Dr. Sigrid Schubert Dipl.-Ing. Stefan Freischlad Didaktik der Informatik und E-Learning Universität Siegen Fachbereich Elektrotechnik und Informatik Hölderlinstr. 3, 57068 Siegen http://www.die.informatik.uni-siegen.de schubert@die.informatik.uni-siegen.de freischlad@die.informatik.uni-siegen.de Inhaltsverzeichnis Eingeladener Vortrag Computer-Supported Collaborative Scripts: Einsatz computergestützter Kooperationsskripte in der Fernlehre Haake J.M. 9 Best Paper Session E-Learning aus Prozessperspektive Iske S. 21 EDL-Editor: Eine Anwendung zur automatischen Aufbereitung von Vorlesungsvideos Kopf S., Lampi F., King T., Probst M., Effelsberg W. 33 Notetaking in University Courses and its Implications for eLearning Systems Steimle J., Gurevych I., Mühlhäuser M. 45 Didaktik des E-Learning Freie Bildungsressourcen im didaktischen Kontext Baumgartner P., Zauchner S. 57 Organisation tutorieller Betreuung beim E-Learning Ojstersek N. 67 Ein generisches Konzept zur Realisierung von Self-Assessments zur Studienwahl und Selbsteinschätzung der Studierfähigkeit Baker A.A., Tillmann A. 79 Bessere Schulnoten mit MatES, dem e-Bibliothekardienst für den Mathematikunterricht Linckels S., Dording C., Meinel C. 91 Content-Engineering Flexibilisierung der Lehr- und Lernszenerien von Business-Fallstudien durch CaseML Reinecke K., Topcuoglu H., Hauske S., Bernstein A. 103 Content-Migration beim Wechsel zwischen verschiedenen Systemkategorien zur Content-Erstellung und -Pflege Frankfurth A., Schellhase J. 115 Entwicklung rekonfigurierbarer Lern-Inhalte mit (edu) DocBook Thomas L. 127 Das Authoring Management System EXPLAIN zur ganzheitlichen Unterstützung des Erstellungsprozesses von Trainingsmedien und WBTs Lehmann L., Fredrich H., Rensing C., Zimmermann V., Steinmetz R. 139 Fallstudien & Erfahrungsberichte Eine logfilebasierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen Hermann C., Welte M., Latocha J., Wolk C., Huerst W. 151 Anreizsysteme zur Intensivierung von E-Teaching an Hochschulen Wannemacher K. 161 Fourth Party E-Learning-Provider – Ein Koordinationsansatz zur nachhaltigen Etablierung von E-Learning an einer Massenuniversität Kolbe H., Nikolopoulos A. 173 Interoperabilität von elektronischen Tests Piotrowski M., Fenske W. 185 Infrastrukturen und Mobilität Aktueller Stand und Perspektiven der eLearning-Infrastruktur an deutschen Hochschulen Lucke U., Tavangarian D. 197 ...unser Admin installiert da mal was! – Zur Nachhaltigkeit von E-learning-Infrastrukturen – Eine Taxonomie Hampel T., Steinbring M. 209 koaLA – Integrierte Lern- und Arbeitswelten für die Universität 2.0 Roth A., Sprotte R., Büse D., Hampel T. 221 Gibt es mobiles Lernen mit Podcasts? – Wie Vorlesungsaufzeichnungen genutzt werden Schulze L., Ketterl M., Gruber C., Hamborg K.-C. 233 Kollaboration Ein Framework für die kooperative Wissensorganisation – Informelles semantisches Strukturieren und Einsatz in der Praxis Niehus D., Erren P., Hampel T. 245 Zur Gestaltung der Aushandlungsunterstützung in CSCL-Systemen Kienle A. 257 Kontextualisierte Kooperationsinitiierung zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens Kienle A., Wessner M., Lokaiczyk R., Faatz A., Görtz M. 269 OSOTIS – Kollaborative inhaltsbasierte Video-Suche Sack H., Waitelonis J. 281 Kurzbeiträge Ein Werkzeug zur Unterstützung der Anpassung existierender E-Learning-Materialien Zimmermann B., Rensing C., Steinmetz R. 293 Werkzeuggestützte Untersuchung der Vorgehensweisen von Lernenden beim Lösen algorithmischer Probleme Kiesmüller U., Brinda T. 295 Ein prozessorientiertes und dienstbasiertes Sicherheitsmodell für elektronische Prüfungen an Hochschulen Hoffmann A. 297 Zur Unterstützung kontextadaptiven E-Learnings in Echtzeit am Arbeitsplatz durch maschinelles Lernen auf Sensorendaten des Computerdesktops Lokaiczyk R., Godehardt E., Görtz M., Faatz A. 299 CLab – Eine web-basierte interaktive Lernplattform für Studierende der Computerlinguistik Clematide S., Amsler M., Roth S., Thöny L., Bünzli A. 301 E-Learning als ein Baustein der Hochschul- und Fakultätsentwicklung der Fachhochschule Kaiserslautern Grimmig S. 303 E-Learning in der Sekundarstufe II – Evaluation eines Modellversuchs an sportbetonten Gymnasien Köhler T., Drummer J., Börner C. 305 E-Learning im Spannungsfeld Schule Drummer J. 307 Autorenverzeichnis 309 Computer-Supported Collaborative Scripts: Einsatz computergestützter Kooperationsskripte in der Fernlehre1 Jörg M. Haake Fakultät für Mathematik und Informatik FernUniversität in Hagen Universitätsstrasse 1 58084 Hagen joerg.haake@fernuni-hagen.de Abstract: Realisierung und Wirkung von CSCL-Skripten in der Fernlehre sind heute noch weitgehend offene Fragen. Das Konzept der zusammengesetzten CSCL-Skripte soll Lehrenden die einfachere Spezifikation und Anpassung von Skripten ermöglichen. Die Implementierung solcher Skripte auf Basis gekoppelter endlicher Automaten verspricht Flexibilität in der Ausführung und dem Austausch von Skripten. Eine Feldstudie zeigt, dass CSCL-Skripte praktisch in der Fernlehre eingesetzt werden können. 1 Einleitung Im Zeitalter der verteilten Organisationen, in denen viele Teams aus örtlich verteilten Mitgliedern bestehen, nimmt auch der Bedarf an verteiltem Lernen zu. Ebenso besteht ein zunehmender Bedarf nach Fernlehre (z.B. berufsbegleitend oder wegen anderer örtlicher und zeitlicher Einschränkungen, die eine Präsenzlehre nicht zulassen). Aufgrund der örtlichen Verteilung der Lerner lassen sich klassische Lehr-/Lernmethoden, wie sie in Präsenzlehrsituationen eingesetzt werden, nur begrenzt einsetzen. Stattdessen hat sich das Internet, neben postalischer Kommunikation, als bevorzugtes Kommunikations- und Interaktionsmedium durchgesetzt. Während in Präsenzlernsituationen die Gruppenarbeit ein integraler Bestandteil des didaktischen Vorgehens ist, steht heutzutage in der Fernlehre oft noch das individuelle Lernen – oft aus pragmatischen Gründen – im Vordergrund. Dabei zeigen Studien, dass kooperatives Lernen in bestimmten Situationen durchaus lernförderlich ist; die Kompetenz zur Kooperation über das Internet ist außerdem eine gefragte Fähigkeit auf dem Arbeitsmarkt. Verteilte kooperative Lernsituationen sind jedoch durch eine Reihe von Problemen gekennzeichnet: die computervermittelte Kommunikation und Interaktion erfordert im Vergleich zur Präsenzsituation zusätzlichen Aufwand, die Koordination in größeren Gruppen wird dadurch erschwert. 1 Diese Arbeit wurde von der DFG im Projekt HA 3130/2-1 im Rahmen des Schwerpunkprogramms „Netzbasierte Wissenskommunikation in Gruppen“ gefördert. 9 Hier setzt nun die Idee des CSCL-Skripts an: ein kooperatives Lernskript definiert den Prozess des kooperativen Lernens, in dem es die Rollen der beteiligten Akteure und die möglichen Sequenzen ihrer Aktionen festlegt. Computerunterstützte Kooperationsskripte (CSCL-Skripte) sind kooperative Lernskripte, die rechnerunterstützt ablaufen. Es handelt sich damit um verteilte Systeme, die das Verhalten kooperativer Lerner auf möglichst lernförderliche Abfolgen von Aktivitäten beschränken. Experimentelle Studien haben gezeigt, dass solche Skripte bei größeren Lerngruppen und für komplexe Aufgaben einen größeren Lernerfolg bewirken können [Fi07, St06, We05]. Wenn das CSCL-Skript in einer computerunterstützten Lernumgebung ausgeführt werden soll, dann muss das Skript so in der Lernumgebung repräsentiert sein, dass es seine steuernde bzw. koordinierende Wirkung entfalten kann. Aus der Sicht der Informatik ist heute noch weitgehend offen, wie CSCL-Skripte in Lernumgebungen repräsentiert werden sollten, wie die Bedienoberfläche der Lernumgebung das Skript reflektieren sollte (um durch geeignete Affordanzen die Benutzer zu effizienter Nutzung der Lernumgebung zur Ausführung des Lernprozesses anzuregen), und wie diese Interaktion in der Lernumgebung effizient und flexibel zu implementieren ist. Zwar zeigen experimentelle Studien die positive Wirkung von speziellen CSCL-Skripten in bestimmten Situationen [DJ07, JPT03, Pf05], ein Nachweis der Wirkung solcher Skripte in realen Nutzungssituationen steht aber noch weitgehend aus. In diesem Beitrag wird nach einer kurzen Betrachtung von Skript-Ansätzen zuerst eine Lösung für die Modellierung und Repräsentation von CSCL-Skripten vorgestellt. Zusammengesetzte CSCL-Skripte können als gekoppelte Endliche Automaten modelliert werden, die die möglichen Rollen, Aktivitäten und daraus resultierende Rollenwechsel der Lerner spezifizieren. Diese konzeptuelle Repräsentation erlaubt es den Lehrenden ihre CSCL-Skripte flexibel an die Bedürfnisse der intendierten Lernsituation anzupassen. Zudem können auf dieser Basis CSCL-Plattformen implementiert werden, die die automatische Ausführung von Skripten und ihre Nutzung durch andere Lehrende unterstützen. Danach wird eine Feldstudie über den Einsatz eines speziellen CSCL-Skripts in der Fernlehre vorgestellt. 2 Ansätze für das Scripting von CSCL Je nach Umsetzung eines CSCL-Skripts kann man informale und formale CSCL-Skripts unterscheiden. Informale CSCL-Skripte werden oft in Präsenzsituationen eingesetzt und mithilfe von Instruktionen für die Lerner sowie durch einen Moderator implementiert. Der Moderator verteilt die Instruktionen und achtet auf ihre Einhaltung. Informale Skripten sind flexibel, da die Lerner und Moderatoren bei Bedarf vom starren Skript abweichen können. Allerdings sind informale Skripte in einer verteilten Situation eher schwierig anzuwenden, da dort im Vergleich zur Präsenzsituation Kommunikation und Koordination schwieriger sind. Außerdem erschwert die begrenzte Anzahl verfügbarer Moderatoren die Skalierbarkeit auf eine große Zahl von Lerngruppen. Deswegen wird manchmal auch auf Moderatoren verzichtet. Dadurch steigt die Skalierbarkeit, allerdings können Lerner die Instruktionen auch ignorieren. 10 Ein formales CSCL-Skript wird in einer computerunterstützten Lernumgebung durch Implementieren der durch das Skript festgelegten Sequenzen von Aktivitäten definiert. Für jede Lerngruppe wird ein eigener Prozess erzeugt. Die Lerner in einer Lerngruppe können nicht von den erlaubten Abfolgen abweichen. Formale Skripte sollten so definiert sein, dass sie an das verteilte Lernen in der verteilten Lernumgebung angepasst sind. Da ja keine Moderatoren sondern nur weitere Prozessinstanzen benötigt werden, sind sie skalierbar. In Experimenten wurde die Lernwirksamkeit formaler CSCL-Skripte in bestimmten Situationen nachgewiesen [MW05, PM02, PMM03]. Formale Skripte weisen allerdings auch einige Probleme auf: sie sind wegen der in der CSCL-Umgebung vorgeschriebenen erlaubten Abfolgen rigide bzw. unflexibel. Für Lehrende sind sie sind schwierig zu definieren und zu implementieren, denn in der Regel wird die Prozedur in der Lernumgebung programmiert. Außerdem sind sie schwierig von Lehrenden oder Lernenden an eine konkrete Einsatzsituation anzupassen, denn dazu sind ggf. Programmänderungen notwendig. Diese Probleme tragen dazu bei, dass formale Skripte heute noch keine etablierte Technik sind. Um das Sammeln von Erfahrungen mit formalen Skripten und eine weitere Verbreitung zu ermöglichen, untersuchen wir die Vereinfachung der Definition und Anpassung von komplexen formalen Skripten durch einfachere Modellierungssprachen und durch die Wiedernutzung von Skripten. Weiterhin untersuchen wir die Implementierung von Skripten durch Ausführungskomponenten in der CSCL-Umgebung. 3 Modellierung und Implementierung zusammengesetzter CSCLSkripte In einer verteilten Situation unterstützt das CSCL-System die ortsübergreifende Interaktion zwischen den verteilten Lernern. Ein CSCL-Skript soll mögliche Interaktionen zwischen Lernern beschränken. Das Skript kontrolliert dazu für die einzelnen Lerner die Verfügbarkeit von Operationen des CSCL-Systems und den Umfang der Statusanzeige (Awareness, rollenspezifische Information). Zur Definition von Skripten in einem CSCL-System werden eine Modellierungssprache und ein Editor benötigt. Zur Ausführung von Skripten benötigt das CSCL-System eine Ausführungskomponente. Ein CSCL-Skript wird als Sequenz von atomaren und zusammengesetzten Skripten definiert [HP07]. Ein atomares Skript unterstützt eine einzelne Lernaktivität (z.B. Brainstorming, Verfassen eines kurzen Essays). Ein zusammengesetztes Skript unterstützt komplexe Lernaufgaben durch eine Sequenz von CSCL-Skripten. Ein CSCL-Skript ist damit ein zusammengesetztes Skript, das mindestens ein atomares Skript enthält. Atomare Skripte regulieren und unterstützen die Interaktion zwischen Lernern in einer Lernaktivität, während zusammengesetzte Skripten die Abfolge von Lernaktivitäten festlegen (Kontrollfluss, Datenfluss zwischen atomaren Skripten). 11 3.1 Modellierung und Semantik atomarer Skripte Atomare Skripte können durch endliche Automaten (FSA, Finite State Automatons) repräsentiert werden. Bei der Modellierung eines atomaren Skripts müssen die Rollen der Akteure und die möglichen Sequenzen ihrer Aktionen (d.h. Operationen in der CSCL-Umgebung) definiert werden. In Abbildung 1 ist beispielhaft die Modellierung eines Frage-Antwort-Skripts dargestellt. In diesem Skript gibt es zwei Rollen: „Questioner“ und „Responder“. Jede Rolle wird durch einen eigenen FSA beschrieben (in Abbildung 1 in separaten Spalten dargestellt). Ihr Zusammenspiel und damit die Semantik des Skripts ist durch den gesamten Automat eindeutig definiert: Jeder Benutzer wird einer bestimmten Rolle und dem zugehörigen Automat zugeordnet. Vom aktuellen Zustand ausgehende benannte Transitionen definieren die möglichen Aktionen eines Benutzers in diesem Zustand des Skripts. So kann die Rolle „Questioner“ im Zustand „Initiating Round“ nur die Aktionen „start“ und „quit“ ausführen. Jede ausgeführte Aktion feuert die zugehörige (entsprechend benannte) Transition, die daraufhin den neuen aktuellen Zustand definiert. Der neue aktuelle Zustand definiert wiederum die hier für den Benutzer möglichen Operationen. Die Vernetzung der Automaten definiert nun das kooperative Verhalten der Rollen. Trigger Relationen (Transitionen, die bei ihrem Auslösen eine weitere Transition in einem anderen FSA auslösen) dienen zur Kopplung von Zustandsübergängen. In Abbildung 1 löst die Aktion „answer“ des Responders sowohl einen Wechsel des Responders zum Questioner aus als auch über die Trigger Relation einen Wechsel des Questioners zum Responder. Damit lassen sich also Rollenwechsel realisieren. Das Erreichen eines Endzustands beendet die Ausführung des Skripts. [HP07] enthält eine formale Beschreibung dieser Modellierung. Abbildung 1: Beispiel für ein atomares Skript 12 3.2 Modellierung und Semantik zusammengesetzter Skripte Ein zusammengesetztes CSCL-Skript ist als Sequenz von atomaren oder zusammengesetzten CSCL-Skripten definiert. Die Sequenz wird durch Verbinden des Endzustands des Vorgängerskripts mit dem Startzustand des Nachfolgers gebildet. In Abbildung 2 ist ein zusammengesetztes Skript zum Thema „Verstehen von Vulkanismus“ dargestellt. Zuerst beantworten die Lerner, gesteuert durch ein atomares Frage-Antwort-Skript, Fragen zum Thema (um z.B. vorhandenes Wissen zu aktivieren). Danach führen die Lerner im zweiten Schritt eine Analyse des Konzepts Vulkanismus durch, welche wiederum durch ein zusammengesetztes Skript aus Brainstorming- und Clustering-Skripten gesteuert wird. Globale Variable (inputDocuments, outputDocuments) dienen zur Weiterleitung von Inhalten, so dass Ergebnisse eines Skripts als Daten in nachfolgenden Skripts verwendet werden können (z.B. dienen die Ergebnisse des Brainstorming als Input für das Clustering in Abbildung 2). Zurzeit unterstützen wir als Kontrollstruktur die Sequenz. Es ist eine offene Frage, ob andere Kontrollstrukturen (z.B. Fallunterscheidung, Schleife) in der Praxis zur Realisierung von CSCL-Skripten benötigt werden. Abbildung 2: Beispiel für ein zusammengesetztes Skript (ohne Darstellung der Variablen inputDocuments, outputDocuments für die zusammengesetzten Skripten) Die Semantik des zusammengesetzten Skripts ist durch die Sequenz der verbundenen Skripte definiert. Das Verhalten eines atomaren Skripts ist durch Automaten definiert. Das Verhalten eines zusammengesetzten Scripts ist durch Verketten der Semantik seiner Komponenten definiert. Das Endergebnis ist als Inhalt der Variable outputDocuments des letzten Scripts definiert. Eine formalere Definition findet sich in [HP07]. 13 3.3 Erstellung von CSCL-Skripten Grundlage der späteren Ausführung von CSCL-Skripten ist die Erstellung einer ausführbaren Beschreibung des zugrunde liegenden Automaten. Atomare Skripte können prinzipiell als ausführbares Programm erstellt werden. Die Ausführungsumgebung im CSCL-System muss dann in der Lage sein, ein Skript-Programm zu starten, ggf. mit Input-Daten zu versorgen, am Ende die Beendigung festzustellen und ggf. Output-Daten zwischen zu speichern. Über eine Registratur können Skript-Programme im CSCLSystem bekannt gemacht und später aufgerufen werden. Zusammengesetzte Skripte können mit einem Editor in der CSCL-Umgebung selbst erzeugt bzw. editiert werden. So kann eine Bedienoberfläche für den Aufbau einer Sequenz aus bekannten atomaren Skripten einfach realisiert werden, die jeweils das Anhängen bzw. Einfügen und Entfernen von atomaren und zusammengesetzten Skripten in einer Sequenz erlauben. Aus dieser Spezifikation kann dann das CSCL-System für eine Gruppe von Lernern eine Instanz des Skripts generieren. Hierdurch wird ein einfaches Ändern zusammengesetzter Skripte und das Experimentieren mit Skriptvarianten ermöglicht. Andere Lehrende können auf die registrierten CSCL-Skripte zugreifen und diese in ihrer Lehre anwenden bzw. anpassen. 3.4 Implementierung von CSCL-Skripten Die Implementierung zusammengesetzter CSCL-Skripte haben wir in der Web-basierten CSCL-Plattform CURE [Ha04a, Ha04b, Ha04c] erprobt. CURE (siehe Abbildung 3) organisiert Gruppenarbeit in Räumen, zu denen Benutzer mit passenden Schlüsseln Zugang und Zugriffsrechte haben. Eine Lernumgebung besteht aus einem Eingangsraum, von dem aus seine Unterräume erreichbar sind. Jeder Raum enthält außerdem von den Benutzern editierbare Seiten sowie persistente Kommunikationskanäle (Chat, threaded Mailbox). CURE verwendet eine Servlet-basierte Architektur. Abbildung 3: Konzeptuelle Implementierung von formalen Skripten in CURE Zur Implementierung von zusammengesetzten CSCL-Skripten erweiterten wir CURE um einen Typ von Seite (Page) für atomare CSCL-Skripte (Atomic CSCL Script Types). 14 Unterklassen enthalten die Repräsentation des jeweiligen geschachtelten Endlichen Automaten. Instanzen einer atomaren Skriptklasse repräsentieren eine konkrete Ausführung eines Skripts mit gruppenspezifischen Teilnehmern und Inhalten. Zusammengesetzte Skripte werden in CURE als Seitentyp CSCL Script repräsentiert. Instanzen werden für eine Gruppe als neue Seite im Gruppenraum erzeugt. Sie enthalten eine Sequenz von Skriptseiten (Instanzen von Page oder CSCL Script), die die Interaktion der Gruppenteilnehmer steuert. In CURE wird die Startseite des Skripts mit einer Beschreibung des Skripts und einem Startknopf angezeigt. Das Drücken des Startknopfes startet die Ausführung des Skripts. Jetzt weist die Ausführungskomponente jedem Benutzer des Raums eine Rolle, die im Skript definiert ist, zu (d.h. Benutzer werden mit den entsprechenden Automaten assoziiert). Die Ausführungskomponente initialisiert dann die Automaten und erzeugt die jeweiligen HTML-Seiten für die Bedienoberfläche der jeweiligen Benutzer, in der dann auch nur die zulässigen Operationen (als Buttons bzw. Links) und die definierten Informationen angezeigt werden. Wenn der Benutzer eine Aktion auslöst wird ein entsprechender Request an das Skript Servlet gesendet. Das Servlet führt die Operation aus und definiert den neuen Zustand gemäß der Automatendefinition in der CSCL-Skript-Seite im Raum. Die Bedienoberflächen aller Benutzer des Skripts (d.h. HTML Seiten) werden gemäß des neuen Zustands mittels Web 2.0 Technologie verändert. 4 Einsatz eines zusammengesetzten CSCL-Skripts in der Fernlehre Ziel der Feldstudie war es, die Wirksamkeit eines speziellen CSCL-Skripts in einer praktischen Anwendung in der Fernlehre zu untersuchen. Wir nehmen an, dass CSCLSkripte gemeinsames Lernen unterstützen können, insbes. in verteilten Situationen und bei komplexen, längerfristigen Problemlösungsprozessen. Dabei sollte das Lernen mit zunehmender Erfahrung besser werden (Lernkurve). Dies kann nur durch eine Langzeitstudie untersucht werden. In der hier vorgestellten Feldstudie untersuchten wir, ob sich die Wirkung formaler CSCL-Skripte von denen informaler CSCL-Skripte bei komplexen, längerfristigen Problemlösungsprozessen unterscheidet. Hierbei betrachteten wir die Lösung einer komplexen Querschnittsaufgabe durch einen 3-phasigen Problemlösungsprozess (Brainstorming, Clustering, Essay). Der gesamte Prozess wurde durch ein zusammengesetztes CSCL-Skript unterstützt, in dem für jede Phase ein eigenes atomares Skript definiert wurde. 4.1 Hypothesen In der Feldstudie wurde die Wirksamkeit zweier Realisierungsalternativen eines zusammengesetzten CSCL-Skripts verglichen: einmal als formales CSCL-Skript versus ein vorgehensmäßig äquivalentes informales CSCL-Skript, welches über Instruktionen realisiert wurde. Mit Hilfe dieser Skriptrealisierungen mussten die verteilten Lerngruppen identische komplexe Querschnittsaufgaben in einem Zeitraum von jeweils 2 Wochen 15 lösen, die die Betrachtung des Stoffs einer Lerneinheit aus einer neuen bzw. übergreifenden Perspektive erforderten. Das Skript definierte dazu einen 3-phasigen Problemlösungsprozess, der aus den Aktivitäten Brainstorming, Clustering und Essay bestand. Zur Untersuchung der Lernkurve mussten alle Gruppen über ein Semester fünf solcher Aufgaben bearbeiteten. Als Qualitätsmaße betrachteten wir die Qualität der Brainstorming-Ergebnisse, die Qualität der Clustering-Ergebnisse, die Korrektheit / Verständlichkeit / Nachvollziehbarkeit des Essays sowie den Lernerfolg des Individuums und der Gruppe. Unsere Hypothese war, dass die Gruppen mit dem formalen Skript ab einem Zeitpunkt (in Abhängigkeit von der Lernkurve) immer besser oder gleich gut abschneiden würden als die Gruppen mit dem informalen Skript. Wir erwarteten außerdem, dass sich der Vorteil des formalen Skripts mit der Zeit verstärken würde. 4.2 Methode Setting: Wir arbeiteten an der FernUniversität Hagen mit verteilten Lerngruppen aus 3 Studierenden. Die Lerngruppen bearbeiteten vorlesungsbegleitende kooperative Übungen zum Kurs Betriebssysteme im Master of Science Informatik. Alle Lerngruppen nutzen die kooperative Lernplattform CURE über einen Webbrowser auf ihrem Rechner. Evaluationsinfrastruktur: Wir erweiterten CURE so, dass nach der Abgabe einer Übung ein Multiple Choice-Post-Wissenstest in CURE durchgeführt werden musste. Design: Wir verglichen zwei Bedingungen (informal Skript IS, formal Skript FS) mit je 21 Gruppen je 3 Personen. Testpersonen: Insgesamt nahmen im Sommersemester 2006 von April bis Juli 126 Fern-Studierende im Hauptstudium des Informatik-Diplom/Master freiwillig an den kooperativen Übungen teil. Die Gruppenbildung erfolgte durch die Betreuer gemäß der von den Studierenden angegebenen zeitlichen Verfügbarkeit, so dass auch die Gelegenheit zu synchroner Kooperation bestand. Prozedur: Zuerst wurden alle Teilnehmer des Kurses per Informationsschreiben und Newsgroup über die Gelegenheit zur Teilnahme an den kooperativen Gruppenübungen informiert. Danach fand die Gruppenbildung statt (Anmeldung per Mail, Zuweisung zu Gruppe/CURE-Raum durch Betreuer). Instruktionen zur Durchführung der Übung gemäß dem Skript befanden sich im CURE-Raum jeder Gruppe (inkl. Manual). Alle 14 Tage wurden die Aufgaben abgeschlossen und die nächste Aufgabe freigeschaltet. Nach Abgabe der Lösung wurden die Teilnehmer zur Abgabe des Post-Wissenstests aufgefordert. Die Betreuer korrigierten die Lösungen und machten diese den Studierenden in ihrem CURE-Raum verfügbar. Insgesamt wurden 5 Übungen mit analoger Struktur durchgeführt. Jede Übung erforderte die Lösung einer komplexen Querschnittsaufgabe zur aktuellen Kurseinheit und verwendete dasselbe zusammengesetzte Skript (in den beiden Varianten IS und FS) mit den Aktivitäten Brainstorming, Clustering mit vorgegebenen Clustern und Verfassen eines Essays zur gestellten Frage. 16 Messgrößen: Für jede Gruppe betrachteten wir die Qualität der BrainstormingErgebnisse definiert als Anzahl gefundener sinnvoller Konzepte, die Qualität der Clustering-Ergebnisse definiert als Anzahl sinnvoller Konzepte in richtigen Clustern, die Korrektheit des Essay definiert als Anzahl korrekter Aussagen über Konzepte und deren Relationen sowie die Verständlichkeit des Essays und die Nachvollziehbarkeit des Essays auf einer Nominalskala von 1..5 (sehr gut bis mangelhaft). Für Individuen betrachteten wir die Anzahl richtiger Aussagen im MC Post-Wissenstest. Coding: Die Bewertung jeder Übung wurde durch zwei unabhängige wissenschaftliche Betreuer des Kurses (Hochschullehrer, wissenschaftliche Mitarbeiter) durchgeführt. Referenzrahmen für die Bewertung aller Messgrößen außer Verständlichkeit und Nachvollziehbarkeit war eine Musterlösung. Unterschiede in der Bewertung wurden diskutiert und eine einheitliche Bewertung herbeigeführt. 4.3 Ergebnisse Qualität der Brainstorming-Ergebnisse: Die Bedingungen (IS, FS) unterscheiden sich nicht. Die Gruppen nannten im Mittel 40% der möglichen relevanten Konzepte. Qualität der Clustering-Ergebnisse: Die Bedingungen (IS, FS) unterscheiden sich nicht. Die von den Gruppen konstruierten Cluster wiesen im Mittel 32% der möglichen korrekten Zuordnungen von korrekten Konzepten zu den vorgegebenen Clustertiteln auf. Allerdings basiert dieses Ergebnis auch auf den unvollständigen Konzeptsammlungen aus der Brainstormingphase. Die Gruppen mit dem informalen Skript schneiden von der Richtung her mit M=0.336 eher etwas besser ab als die Gruppen mit formalem Skript mit M=0.309. Korrektheit des Essays: Die Bedingungen (IS, FS) unterscheiden sich nicht. Im Durchschnitt werden ca. 60% der für die Lösung der Querschnittsaufgaben wichtigen Konzepte und Beziehungen korrekt dargestellt. Auch muss berücksichtigt werden, dass die Ergebnisse der vorherigen Phasen die Anzahl der von der jeweiligen Gruppe berücksichtigten Konzepte beeinflusst haben kann. Verständlichkeit des Essays: Die Verständlichkeitswerte müssen mit Vorbehalt interpretiert werden: Die allermeisten Essays wurden mit „sehr gut“ (61 %) oder mit „gut“ (24 %) bewertet, d.h. dass es kaum Varianz gibt und natürlich auch keine annähernde Normalverteilung. Die Bedingungen (IS, FS) unterscheiden sich nicht. Nachvollziehbarkeit des Essays: Die Interpretation ist auch hier nur unter Vorbehalt möglich, da die meisten Nachvollziehbarkeitsratings bei „gut“ (37%) oder bei „sehr gut“ (42%) liegen. Es zeigt sich, dass hier die Gruppen mit formalem Skript (FS) eine bessere Bewertung erhalten als die Gruppen mit informalem Skript. Anzahl richtiger Aussagen im MC-Postwissenstest: Die Bedingungen (IS, FS) unterscheiden sich nicht. Die Teilnehmer erreichen im Durchschnitt etwa 70-75% der möglichen Punkte. 17 4.4 Diskussion der Ergebnisse Anhand der Ergebnisse konnten die Eingangshypothesen nicht bestätigt werden. Für alle Messgrößen gilt, dass Gruppen mit informalem Skript genau so gut abschneiden wie Gruppen mit formalem Skript. Lediglich bei der Nachvollziehbarkeit der Essays scheint das formale Skript einen Vorteil zu bewirken. Ein Lerneffekt über die Zeit ließ sich nicht nachweisen. Nach den vorliegenden Daten erscheint daher die Wirkung des informalen und formalen Skripts in unserer Studie weitgehend äquivalent. Eventuell wurde die positive Wirkung des formalen Skripts (erleichterte Koordination) durch die größere Flexibilität des informalen Skripts (Lerner konnten beliebig von Skript abweichen, das Lernverhalten in den informalen Gruppen konnte ja nicht kontrolliert oder beobachtet werden) ausgeglichen. In [PMM03] verstärkte sich die Wirkung des formalen Skripts mit steigender Gruppengröße. Deswegen könnte vermutet werden, dass sich bei steigender Gruppengröße Wirkungsunterschiede zeigen könnten. Positiv zu vermerken ist das gute Abschneiden beider Bedingungen in den PostWissenstests und bei den Essays. Dies legt nahe, dass die kooperativen Übungen in beiden Bedingungen zum Lernerfolg beitragen. Dies korreliert auch zu den Beobachtungen des Autors während mündlicher Fachprüfungen. Teilnehmer der kooperativen Übungen erbringen im Durchschnitt bessere argumentative Leistungen als die Studierenden, die nicht an den kooperativen Übungen teilnahmen. 5 Zusammenfassung und Diskussion Der hier vorgestellte Ansatz zur Modellierung zusammengesetzter CSCL-Skripte basiert auf der Nutzung gekoppelter endlicher Automaten. Bisher wurden CSCL-Skripte oft fest in experimentellen CSCL-Umgebungen programmiert und waren daher nur aufwändig änderbar. In unserem Ansatz wird die Skriptrepräsentation zur Laufzeit im CURE Server ausgewertet und die Bedienoberflächen für die Benutzer ihrer Rolle gemäß dynamisch erzeugt. Die Benutzer können nur zulässige Aktionen anfordern, die im Server ausgeführt werden und zu einem neuen Zustand des Skriptes führen, was wiederum zur Generierung passender Bedienoberflächen für alle Gruppenmitglieder führt. Die Spezifikation des CSCL-Skripts kann in diesem Ansatz jederzeit geändert werden – Experimentieren mit CSCL-Skripten wird so einfacher und billiger. Aus Informatiksicht können auch andere Formalismen zur Spezifikation eines verteilten Systems eingesetzt werden, z.B. Petri-Netze, die mittels eines geeigneten Interpreters wie z.B. Trellis ausgeführt werden können [FS94]. Ebenso käme die direkte Programmierung der Skripte in einer SkriptingSprache in Frage. Beide Formalismen sind nach unserer Erfahrung aber schwieriger durch Nicht-Informatiker zu benutzen. Daher wären solche Ansätze auf die Informatiklehre beschränkt. Heutige Standards für Lernumgebungen umfassen auch die Spezifikation von Lehrprozessen, siehe z.B. IMS-LD [IMS03] und die dazugehörige Ausführungskomponente CopperCore [CC04]. Allerdings erlauben IMS-LD Skripte nur die relativ grobkörnige Modellierung von asynchronen Prozessen. Für die Beschreibung unterschiedlicher Synchronisationsverhalten und Awarenessanzeige sind zusammengesetzte CSCL-Skripte 18 besser geeignet. Workflowsysteme sind ein anderes Mittel zur Koordination einer Gruppe. Das Flex-eL System [MO00] unterstützt individuelle Lerner bei ihren Lernprozessen – kooperatives Lernen wird nicht unterstützt. In der Feldstudie konnte gezeigt werden, dass sich ein zusammengesetztes CSCL-Skript in der Praxis (vorlesungsbegleitende Übung mit 126 Lernern in 42 Gruppen, 5 Übungen pro Gruppe, 3 phasiges CSCL-Skript) erfolgreich anwenden lässt. Es zeigt sich aber auch, dass für einen effizienten Einsatz eine bessere Unterstützung für logistische Abläufe notwendig ist. So wurde vergleichsweise viel Zeit aufgewendet für die Einrichtung von Gruppenräumen (Erzeugung von Instanzen, Zuweisung von Lernern), Überprüfung des Gruppen-Status, Erinnerungen, Korrekturmanagement und für das zentrale SupportManagement für das technische System. Die Motivation der Studierenden zum Mitmachen bei den kooperativen Übungen ist eine wichtige Voraussetzung für Akzeptanz, die vom Dozenten geleistet werden muss. Positiv wirkten hier der Erwerb von Kooperationskompetenz mit elektronischen Medien und die Übung des argumentativen Diskurses, wie er auch in mündlichen Prüfungen auftritt. Die Teilnehmer gaben durchweg positives Feedback zu den kooperativen Übungen! Weiterführende Arbeiten betreffen die Untersuchung der Wirkung der Bedingungen auf die Prüfungsnoten, die Untersuchung der Wirksamkeit von Designalternativen für die Gestaltung der Bedienoberfläche der Skripte, und die Erweiterung des verwendeten CSCL-Skripts um eine Peer-Review-Phase. Danksagung Folgenden Personen sei für ihre Mitarbeit und Unterstützung gedankt: Hans-Rüdiger Pfister (Design und Auswertung der Studie), Till Schümmer und Sven Laaks (Implementierung und technische Betreuung) sowie Anja Haake und Lihong Ma (Betreuung und Bewertung der Übungen). Literaturverzeichnis [CC04] CopperCore (2004). http://CopperCore.org. [DJ07] Dillenbourg, P., & Jerman, P. Designing integrative scripts. In F. Fischer, I. Kollar, H. Mandl & J. M. Haake (Eds.), Scripting computer-supported collaborative learning. Springer, New York, 2007; S. 275-301. [Fi07] Fischer, F., Kollar, I., Mandl, H., & Haake, J. M. (Eds.). Scripting computer-supported collaborative learning. Springer, New York, 2007. [FS94] Furuta, R., & Stotts, P. D. Interpreted collaboration protocols and their use in groupware prototyping. In Proc. of the 1994 ACM Conference on Computer Supported Cooperative Work (CSCW ‘94). ACM Press, New York, 1994; S. 121-131. [Ha04a] Haake, J. M., Schümmer, T., Haake, A., Bourimi, M., & Landgraf, B. Supporting flexible collaborative distance learning in the CURE platform. In Proc. Hawaii International Conference on System Sciences, HICSS-37, January 5-8. IEEE Press, 2004. [Ha04b] Haake, J. M., Haake, A., Schümmer, T., Bourimi, M., & Landgraf, B. End-User Controlled Group Formation and Access Rights Management in a Shared Workspace Sys- 19 tem. In Proc. ACM CSCW’2004, November 6-10, Chicago, USA. ACM Press, New York, 2004; S. 554-563. [Ha04c] Haake, J. M., Schümmer, T., Bourimi, M., Landgraf, B., Haake, A. CURE – Eine Umgebung für selbstorganisiertes Gruppenlernen. i-com Zeitschrift für interaktive und kooperative Medien, 3(2), S. 20-26, 2004. [HP07] Haake, J. M., & Pfister, H.-R. Flexible scripting in net-based learning groups. In F. Fischer, I. Kollar, H. Mandl & J. M. Haake (Eds.), Scripting computer-supported collaborative learning. Cognitive, computational and educational perspectives. Springer, Berlin, 2007; S. 155-175. [IMS03] IMS Learning Design Information Model. Final Specification, IMS Global Learning Consortium, http://www.imsproject.org/learningdesign/ldv1p0/imsld/_infov1p0.html. [JPT03] Jucks, R., Paechter, M., & Tatar, D. G. Learning and collaboration in online discourses. International Journal of Educational Policy, Research, & Practice, 4, S. 117-146. 2003. [MO00] Marjanovic, O., & Orlowska, M.E. Making flexible learning more glexible. Proc. of IEEE International Workshop on Advanced Learning Technologies IWALT’2000. IEEE Press, 2000. [MW05] Mühlpfordt, M., & Wessner, M. Explicit referencing in chat supports collaborative learning. In T. Koschmann, D. Suthers & T. W. Chan (Eds.), Proceedings of the CSCL- 2005. Mahwah, NJ: Lawerence Erlbaum Ass., 2005; (CD-ROM). [PM02] Pfister, H.-R., & Mühlpfordt, M. Supporting discourse in a synchronous learning environment: The learning protocol approach. In G. Stahl (Ed.), Proceedings of CSCL- 2002. Erlbaum , Hillsdale, NJ, 2002; S. 581-589. [PMM03] Pfister, H.-R., Mühlpfordt, M., & Müller, W. Lernprotokollunterstütztes Lernen - ein Vergleich zwischen unstrukturiertem und systemkontrolliertem diskursivem Lernen im Netz. Zeitschrift für Psychologie, 211, 98-109. 2003. [Pf05] Pfister, H.-R. How to support synchronous net-based learning discourses: Principles and perspectives. In R. Bromme, F. W. Hesse & H. Spada (Eds.), Barriers and biases in computer-mediated knowledge communication - and how they may be overcome. Springer, New York, 2005; S. 39-57. [St06] Stahl, G. Analyzing and designing the group cognition experience. International Journal of Cooperative Information Systems, 15, 157-178. 2006. [We05] Weinberger, A., Ertl, B., Fischer, F., & Mandl, H. Epistemic and social scripts in computer-supported collaborative learning. Instructional Science, 33, 1-30. 2005. 20 E-Learning aus Prozessperspektive Stefan Iske DFG-Graduiertenkolleg „Qualitätsverbesserung im E-Learning durch rückgekoppelte Prozesse“ TU-Darmstadt Alexanderstraße 6 64283 Darmstadt s.iske@apaed.tu-darmstadt.de Abstract: In diesem Artikel wird das Verfahren und das Potenzial der Analyse von E-Learningprozessen mittels explorativ-heuristischer Optimal-Matching Analyse dargestellt. Ziel ist das Identifizieren von Mustern, Regelmäßigkeiten und Strukturen in Navigationsprozessen. E-Learning als Prozess der Interaktion von Lernern mit einer Online-Lernumgebung wird so analysierbar. Auf Grundlage der Levenshtein-Distanz des paarweisen Vergleichs aller Navigationsverläufe können in Verbindung mit Verfahren der Clusteranalyse empirische Navigationsverläufe induktiv typologisiert werden. In methodologischer Perspektive wird das vorgeschlagene Verfahren abgegrenzt von der Analyse aggregierter Logdaten sowie von der auf Markov-Prozessen beruhenden Ereignisanalyse. 1 Einleitung Bei offenen Online-Lernumgebungen handelt es sich aus medialer Sicht um Hypertexte, mit den Hauptkennzeichen der Fragmentierung und der Verknüpfung (vgl. [Ku91]): Ein Gegenstandsbereich wird in Informationseinheiten gegliedert und durch Links untereinander verbunden. Die so entstehende nicht-lineare Netzstruktur ist das Grundmodell von Hypertext (vgl. [BC90]). Der Navigationsprozess als Interaktion eines Nutzers mit einer hypertextuellen OnlineLernumgebung entspricht dem linearen Entfalten eines nicht-linearen Hypertextes. Hypertexte entfalten sich angesichts eines Nutzers nicht von allein, sondern sind auf dessen Aktivitäten angewiesen, auf das aktive Auswählen von Verknüpfungen. Genau auf dieses Auswählen und Entfalten zielt die Kennzeichnung als Pull-Medium. Durch die Auswahl konkreter Verknüpfungen aus einer Vielzahl möglicher Verknüpfungen entsteht ein zeitlich-linearer Nutzungspfad. Aus diesem Grund werden Hypertexte auch als multilinear oder multisequenziell bezeichnet (vgl. [La97]). Beim Lernen in hypertextuellen Lernumgebungen eignen sich Lernende Wissen an, indem sie ausgehend von ihrem zeitlich-linearen Navigationsprozess ein mentales, nichtlineares Modell des Gegenstandsbereichs entwickeln (vgl. [Me06]). Im Kern handelt es 21 sich bei dieser Autodidaktik um ein Übersetzen von Zeitgestalten in Raumgestalten (vgl. [Hö27]). Dabei spielen neben der Zeit- und Ortsunabhängigkeit des E-Learning vor allem Entscheidungen über die Auswahl der Inhalte sowie Entscheidungen über den Lernweg eine besondere Rolle. Aus didaktischer Perspektive wird durch den multisequenziellen Nutzungspfad autodidaktisches Handeln als Strategien und Metaregeln des Entfaltens rekonstruierbar. All dies macht deutlich, dass es sich beim Navigieren in Online-Lernumgebungen um anspruchsvolle und komplexe Tätigkeiten handelt [Is02]. Die Kennzeichnung der Hypertext-Technologie als Pull-Medium mit der Notwendigkeit des Entfaltens ist auch Ausgangspunkt eines relationalen Qualitätsverständnisses des ELearning (vgl. [Eh02]). Dem Lernenden kommt dabei die Rolle eines Koproduzenten zu: Die Online-Lernumgebung liefert beispielsweise den Inhalt und Kommunikationswerkzeuge, der Lernende muss jedoch selbst tätig, selbst aktiv werden. So betont auch Ehlers [Eh02, S. 9] die zentrale Bedeutung der Interaktion für die Konstitution von Qualität: „Qualität entsteht erst dann, wenn der Lernende mit dem Lernarrangement in Interaktion tritt. Erst dann, wenn gelernt wird entsteht auch Lernqualität (Ko-Produktion des Lernerfolges). Ein E-Learning-Lernarrangement hat keine Lernqualität an sich. Es ist lediglich der Rahmen (das Arrangement) mit Hilfe dessen sich der Lernprozess vollzieht.“ Dabei unterscheidet Ehlers [Eh02] verschiedene Qualitätsebenen: die Voraussetzungen (‚Inputqualität’), den Lernprozess (‚Prozessqualität’) und das Ergebnis (‚Outcomequalität’). Insbesondere die in diesem Artikel zur Diskussion stehende Analyse von Navigationsprozessen bezieht sich auf die Relation von Lernendem, Lernumgebung und Lerninhalt. Eine konsequente Qualitätsforschung des E-Learning unter Berücksichtigung der Lernerperspektive muss also neben der ‚Inputqualität’ und der ‚Outcomequalität’ vor allem die beschriebenen Relationen der ‚Prozessqualität' berücksichtigen. Auf welcher methodologischen Grundlage kann E-Learning aus Prozessperspektive analysiert werden? Wie kann die Interaktion als das Entfalten einer Online-Lernumgebung Gegenstand der Analyse werden? 2 Analyse aggregierter und sequenzierter Logdaten In der Regel wird die Interaktion eines Nutzers mit einer Online-Lernumgebung durch serverseitige Logdaten aufgezeichnet. Die Logdaten stellen eine spezifische Art der Dokumentation und Transkription des Navigationsprozesses dar. Durch die Logdaten wird die Abfolge der vom Nutzer aufgerufenen Seiten in eine digitale Textdatei übersetzt, also von im voraus definierten Algorithmen transkribiert (z.B. im ApacheLogfileformat). Es handelt sich dabei um eine formale, automatisierte Protokollierung der Reaktionen des Webservers, die während des Navigationsprozesses automatisch generiert und aufgezeichnet werden, um eine Form passiver Protokollierung. Priemer [Pr04] nennt als Vorteile dieser Protokollierung u.a. die unbemerkte, detailgenaue, objektive und non-reaktive Aufzeichnung der Handlungen des Nutzers in authentischen Nutzungssituationen. Wie lassen sich diese Logdaten nun auswerten? Grundsätzlich kann die Analyse aggregierter Logdaten von der Analyse sequenzierter Logdaten unterschieden werden. 22 Die Analyse aggregierter Logdaten stellt das am weitesten verbreitete Verfahren zur Analyse der Nutzung von Online-Lernumgebungen dar. Viele Internet-Provider stellen ihren Kunden die Analyse der Logdaten in Form aggregierter Nutzungsdaten zur Verfügung. Aggregiert bedeutet in diesem Zusammenhang, dass die in den Logdaten enthaltenen Informationen zusammengefasst werden und darauf aufbauend durchschnittliche Kennzahlen berechnet werden (z.B. durchschnittliche Nutzungsdauer, durchschnittliche Anzahl der besuchten Seiten u.ä.). Im Vordergrund steht dabei die deskriptiv-statistische Analyse der Logdaten mit der grundlegenden Orientierung am Querschnittsdesign der Datenerhebung und -analyse. Die systematische Berücksichtigung sequenzierter Logdaten findet im Bereich des ELearning bisher lediglich in Ansätzen statt. Die grundlegende Analyseeinheit der Sequenzanalyse sind verlaufsbezogene Daten. Diese stellen die Navigationsverläufe von Nutzern in einer Online-Lernumgebung dar: der Verlauf der besuchten Internetseiten wird dabei als Sequenz dokumentiert und als Sequenz analysiert. In den sequenzierten Daten sind also Informationen über den zeitlichen Verlauf enthalten, die bei der Aggregation verloren gehen. Allgemeines Kennzeichen von Verlaufsdaten ist die Orientierung am Längsschnittdesign der Datenerhebung und -analyse, d.h. die Daten werden wiederholt in definierten zeitlichen Intervallen bei gleichen Individuen erhoben. Während Sequenzdaten Analysen des Verlaufs bzw. der Entwicklung von Navigationsprozessen ermöglichen, sind diese Analysen auf der Grundlage aggregierter Daten grundsätzlich nicht möglich (vgl. [IS05]). Sozialwissenschaftliche Forschungen zur Analyse der Internetnutzung basieren bisher auf der Analyse aggregierter Logdaten: Bei der Analyse stehen deskriptive und inferenzstatistische Verfahren im Vordergrund. Bei diesem Forschungsdesign sind jedoch die Prozesse der Nutzung selbst – z.B. der konkret zeitliche Verlauf der Navigation - nicht Gegenstand der Analyse. Aus erziehungswissenschaftlicher Perspektive ist diese Fokussierung auf aggregierte Daten unbefriedigend, da die Kenntnis von Aneignungsprozessen Lernender zum einen Aufklärung über pädagogisch-didaktisches Handeln erwarten lässt und zum anderen die Möglichkeit der empirisch basierten Optimierung der OnlineLernumgebung eröffnet. Wie kann nun der E-Learningprozess anhand sequenzierter Logdaten analysiert werden? Zur Beantwortung dieser Frage werden im folgenden Markov-Ketten und das OptimalMatching Verfahren skizziert. 2.1 Analyse von Navigationssequenzen mittels Markov-Ketten Den zentrale Anwendungsbereich von Markov-Ketten (bzw. -Prozesse) bildet die Analyse der Abfolge von Zuständen durch die Berechnung von Übergangswahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit folgt auf dem Zustand A der Zustand B? Auf den Zustand B der Zustand C? Grundlegende Elemente von Markov-Ketten sind ein Zustandsraum (als nichtleere, endliche Menge) und eine stochastische Matrix, die die Wahrscheinlichkeit enthält, von einem spezifischen Zustand in einem Schritt in einen Folgezustand überzugehen. Ein frühes Beispiel für die Verwendung von Markov-Ketten in der Analyse von Lehr-Lernprozessen stellen Flanders Interaktionsanalyse-Kategorien 23 dar (vgl. [Fl70]): An der darauf aufbauenden stochastischen Matrix ist ablesbar, auf welches Lehrerhandeln mit welcher Wahrscheinlichkeit ein bestimmtes Schülerverhalten folgt. Gegenstand der Analyse sind also dyadische Beziehungen von Lehrerhandeln und Schülerreaktion. Als Markov-Prozesse erster Ordnung werden genau solche Prozesse definiert, bei denen das Auftreten folgender Zustände lediglich vom momentanen Zustand abhängt und nicht von vorangehenden Zuständen beeinflusst wird. Analyseeinheit ist der isolierte Übergang von je zwei Zuständen. Damit wird eine „Gedächtnislosigkeit“ des Prozesses postuliert: die Eintrittswahrscheinlichkeit eines Zustandswechsels, d.h. der Übergangswahrscheinlichkeit eines Markov-Prozesses wird nicht von dessen „Vorgeschichte“ beeinflusst und kann demzufolge unabhängig von den vorangehenden Zuständen prognostiziert werden. Mit anderen Worten: zusätzliche Informationen über die „Vergangenheit“ des Prozesses in Form vorangehender Zustände verbessern nicht die Prognose der folgenden Zustände. Diese Markov-Prozesse erster Ordnung werden durch das Konzept von MarkovProzessen zweiter Ordnung erweitert, die auch als Semi-Markov-Ketten bezeichnet werden: die Erweiterung besteht darin, dass bei Markov-Ketten zweiter Ordnung nicht ausschließlich der momentane Zustand zur Prognose des folgenden verwendet wird, sondern eine begrenzte Anzahl vorangehender Zustände. Das Postulat der „Gedächtnislosigkeit“ des Markov-Prozesses wird damit erweitert zur Berücksichtigung von „Vergangenheit“. Mit dieser Erweiterung wird Prozessen Rechnung getragen, die nicht als „gedächtnislos“ im Hinblick auf den Prozessverlauf oder die Prozesszeit betrachtet werden können. Gemeinsam sind beiden Konzepten jedoch die stochastische Grundlage und die Analyse isolierter Übergänge, auch wenn diese durch Markov-Ketten zweiter Ordnung um eine begrenzte Anzahl vorangehender Zustände erweitert werden. Zusammenfassend kann festgestellt werden, dass das Potenzial der Markov-Ketten in der Analyse von Determinanten von Übergängen sowie in der empirischen Überprüfung entsprechender Modelle und Hypothese besteht. Markov-Prozesse bilden damit die Grundlage der Ereignisdatenanalyse („event history analysis“, vgl. [BR02]). 2.2 Analyse von Navigationssequenzen mittels Optimal-Matching Für explorativ-heuristische Analyse von Prozessen des E-Learning sind Markov-Ketten von begrenztem Nutzen. Prozesse des E-Learning können gerade nicht als „gedächtnislos“ interpretiert und analysiert werden, sondern sind abhängig von der Verweildauer in den betreffenden Zuständen sowie von ihrer „Vorgeschichte“. Ein größeres analytisches Potenzial verspricht daher die Verwendung der Sequenzanalyse mittels OptimalMatching, da diese gerade mit der Analyse vollständiger Sequenzen ein „Prozessgedächtnis“ beinhaltet. Gerade in diesem „Prozessgedächtnis“ zeigen sich ja spezifische Navigationsstrategien und Metaregeln. Im Gegensatz zu dem hypothesengeleitetkonfirmatorischen Vorgehen der Ereignisdatenanalyse stellt die Sequenzdatenanalyse mittels Optimal-Matching ein deskriptives, explorativ-heuristisches Vorgehen dar. 24 Allgemein versteht man unter einer „Sequenz“ eine Abfolge oder Reihenfolge von Elementen. Als Prototyp einer Sequenz in den Naturwissenschaften – insbesondere in der Molekularbiologie – gilt die DNA als Träger des menschlichen Erbgutes. Als Prototyp einer Sequenz in der Soziologie kann der Lebenslauf bezeichnet werden (vgl. [Er01, SW01, Wi01]. Den Prototyp einer Sequenz im Kontext von Online-Lernumgebungen stellt der Prozess der Navigation in einer hypertextuellen Lernumgebung dar. Diese Navigationssequenz basiert auf der zeitlichen Abfolge besuchter Seiten als Elemente der Navigationssequenz. Aufbauend auf den Logdaten als „elektronischen Prozessdaten“ (vgl. [BM00]) können die Navigationsprozesse von Nutzern in einer Lernumgebung als Sequenz rekonstruiert werden. Diese Navigationssequenzen bilden dann den Ausgangspunkt der Sequenzanalyse mittels Optimal-Matching. Ein spezifischer Algorithmus zur Sequenzanalyse ist das Optimal-Matching Verfahren 1, dessen Verwendung im Bereich der Sozialwissenschaften ein relativ junges methodisches Vorgehen darstellt. Übergeordnetes Ziel des Optimal-Matching Verfahrens ist die auf einem Algorithmus beruhenden Analyse einer großen Anzahl komplexer und oftmals sehr langer Sequenzen mit dem Ziel, Muster, Strukturen und Regelmäßigkeiten zu identifizieren. Das Standard- und Referenzwerk der Sequenzanalyse im naturwissenschaftlichen Bereich ist das von David Sankoff und Joseph Kruskal herausgegebene „Time Warps, String Edits, and Macromolecules“ [KS99] aus dem Jahr 1983. Als beispielhafte Anwendungsgebiete der Sequenzanalyse nennen sie u.a. die Analyse der Homologie von Makromolekülen, die Sprecher- oder auch Spracherkennung und den Bereich der technischen Datenübertragung, aus dem auch die grundlegenden Forschungen von Levenshtein [Le66] stammen. Der Transfer dieser Methode auf den sozialwissenschaftlichen Bereich und speziell in den Bereich der Soziologie geht auf Abbott (vgl. [AF86]) zurück.2 In der pädagogisch-didaktischen Forschung und der Analyse von E-Learningprozessen findet die Sequenzanalyse mittels Optimal-Matching bislang keine Verwendung. Den Ausgangspunkt der Sequenzanalyse mittels Optimal-Matching bildet die Frage nach der Bestimmung der Ähnlichkeit von Sequenzen: Wie kann festgestellt werden, ob und wie stark sich Sequenzen ähneln? Mit der Hamming- und der Levenshtein-Distanz werden im Folgenden zwei grundlegend unterschiedliche Antworten skizziert. Das Konzept der Hamming-Distanz [Ha50] stammt aus dem Bereich der elektronischen Datenübertragung und stellt dort ein Verfahren zur Kontrolle von Übertragungsfehlern dar. Die gesendete und die empfangene Datensequenz werden Position für Position hinsichtlich identischer Elemente verglichen. Das Ergebnis dieses Vergleichs ist eine Maßzahl, die als Hamming-Distanz bezeichnet wird. Der Grad der Ähnlichkeit zweier Sequenzen steigt mit der Anzahl identischer Elemente in der gleichen Position. Bei einer maximalen Ähnlichkeit besteht eine Übereinstimmung der Elemente in jeder Position der zu vergleichenden Sequenzen (d.h. die Sequenzen sind identisch); bei einer maxima1 Der Begriff „Optimal-Matching“ wird als Sammelbegriff für Verfahren verwendet, die auf Grundlage der Levenshtein-Distanz und der Operationen Austauschen („substitution“), Einfügen („insertion“) sowie Löschen („deletion“) unter Verwendung iterativer Prozeduren (Algorithmen) die Distanz von Sequenzen bestimmen. Der Begriff der „Sequenzanalyse“ wird verwendet für die übergeordnete Methodologie, der Begriff „OptimalMatching“ für einen konkreten Algorithmus zur deren Umsetzung. 2 Eine softwaretechnische Umsetzung findet der OM-Algorithmus in dem Programm „Transition Data Analysis“ (TDA) von Götz Rohwer und Ulrich Pötter; <http://www.stat.ruhr-uni-bochum.de/tman.html>. 25 len Unähnlichkeit besteht keine Übereinstimmung von Elementen an keiner Position. Die Bestimmung der Hamming-Distanz stößt jedoch dort an Grenzen, wo sie über die Kontrolle von Übertragungsfehlern hinaus in Bereichen angewandt wird, in denen nicht von einer inhärenten Korrespondenz als Entsprechung der Positionen ausgegangen werden kann oder Sequenzen unterschiedlicher Länge miteinander verglichen werden. Für eine Analyse von Prozessen des E-Learning sind daher differenziertere Verfahren des Sequenzvergleichs erforderlich. Den Kern der Optimal-Matching Analyse bildet der paarweise Vergleich aller Sequenzen eines Datensatzes. Die Distanz zweier Sequenzen als Grad der Unähnlichkeit wird dabei bestimmt in Abhängigkeit der Anzahl der Transformationsschritte3 die erforderlich sind, um eine Ausgangssequenz in eine Zielsequenz zu überführen und somit eine Übereinstimmung („alignment“4) herzustellen. Je weniger Operationen benötigt werden, um eine Übereinstimmung herzustellen, umso ähnlicher sind sich die Sequenzen. Die Transformationen beruhen dabei auf den grundlegenden Operationen des Löschens („deletion“), Einfügens („insertion“) und Austauschens („substitution“) von Elementen. Dieses Verfahren wird als „Optimal-Matching“ bezeichnet und beruht auf zwei Prozessen (vgl. [KS99]): Auf der Bestimmung aller möglichen Transformationsoperationen, um eine Quellsequenz in die Zielsequenz zu überführen („alignment analysis“); sowie auf der Ermittlung der geringsten Anzahl der dazu notwendigen Operationen („optimum analysis“). Die geringste Anzahl der erforderlichen Operationen zur Herstellung des „alignments“ dient dann als Maßzahl für den Grad der Unähnlichkeit zwischen Sequenzen und wird als Levenshtein-Distanz bezeichnet [Le66]. Im Folgenden wird die Bestimmung der Levenshtein-Distanz beispielhaft am paarweisen Vergleich dreier Sequenzen verdeutlicht. In Abbildung 1 ist der paarweise Vergleich einer Sequenz 1 mit einer Sequenz 2 dargestellt: Zunächst wird in der Ausgangssequenz das erste Element „A“ gelöscht („deletion“). Danach wird ein Element „A“ eingefügt („insertion“). Es sind also minimal zwei Operationen notwendig, um eine Übereinstimmung der Ausgangs- mit der Zielsequenz herzustellen. In Abbildung 2 ist der paarweise Vergleich der Sequenz 1 mit einer Sequenz 3 dargestellt: An die erste Position der Ausgangssequenz wird das Element „G“ eingefügt („insertion“). Damit verschieben sich alle folgenden Positionen. Es ist also minimal eine Operation notwendig, um eine Übereinstimmung („alignment“) mit der Zielsequenz herzustellen. Im Gegensatz zum Hamming-Algorithmus, der für diesen Fall eine maximale Unähnlichkeit feststellt, ist der Optimal-Matching Algorithmus aufgrund der grundlegenden Operationen in der Lage, Regelmäßigkeiten innerhalb der zu vergleichenden Sequenzen zu identifizieren: in diesem Beispiel sind die Ausgangs- und die Zielsequenz gegeneinander verschoben. In Abbildung 3 ist der paarweise Vergleich der Sequenz 2 mit einer Sequenz 3 dargestellt: In der Ausgangssequenz wird zunächst ein Element „G“ eingefügt („insertion“). Danach wird das Element „B“ gelöscht („deletion“) und ein Element „B“ einfügt („insertion“). 3 In diesem Artikel werden die Begriffe „Transformation“ und „Operation“ synonym verwendet. Diese (Bearbeitungs)Operationen werden auch als „Edit-Operations“ bezeichnet. Die Levenshtein-Distanz wird daher auch als „Edit-Distance“ bezeichnet. 4 Aus diesem Grund wird die Methode des „Optimal Matching“ auch als „Sequence Aligment Method“ bezeichnet. 26 Es sind also minimal drei Operationen notwendig, um eine Übereinstimmung mit der Zielsequenz herzustellen. Das Ergebnis des paarweisen Vergleichs aller Sequenzen des Datensatzes wird in Form einer Distanz-Matrix dokumentiert, in der die Levenshtein-Distanz für jeden paarweisen Sequenzvergleich eingetragen wird.5 Die Levenshtein-Distanzmatrix als Ergebnis der Optimal-Matching Analyse bildet dann den Ausgangspunkt für sowohl explorativheuristische als auch konfirmatorische Forschungsstrategien (vgl. [KS99]). Die Analyse von E-Learningprozessen mittels Optimal-Matching entspricht einer explorativ-heuristischen Forschungsstrategie. In einem ersten Schritt werden Sequenzen unter dem Gesichtspunkt der Distanz verglichen, um in einem zweiten Schritt mit Hilfe von Methoden der Clusteranalyse zu homogenen Gruppen ähnlicher Sequenzen zusammengefasst zu werden. Mit Erzberger [Er01] kann die explorativ-heuristische Sequenzanalyse als fallorientierte Analysestrategie gekennzeichnet werden, bei der Sequenzen als Gesamtverläufe bzw. Verlaufsgeschichten in ihrer Vielfalt und Komplexität zum Gegenstand der Forschung werden. Die „Zusammenschau aller Verläufe läßt dann Ordnung entstehen“ [Er01, S. 36], d.h. in der Gesamtschau einer hinreichend großen Anzahl von Sequenzen werden Muster und Regelmäßigkeiten überhaupt erst erkennbar. Die Optimal-Matching Analyse als explorativ-heuristisches Verfahren ermöglicht es, „typische Muster, die sich aus der Empirie ergeben, theoretisch aber nicht ,vorgedacht’ wurden“ [Ai00, S. 15] zu identifizieren. Muster in empirischen Sequenzen, die theoretisch nicht „vorgedacht“ wurden, können durch eine konfirmatorisch-deduktive Analyse nicht identifiziert werden. In Abbildung 4 wird beispielhaft das Ergebnis der Sequenzanalyse mittels OptimalMatching mit daran anschließender Clusteranalyse dargestellt: die unterschiedlichen Quadrate stehen für unterschiedliche Informationseinheiten; die Abfolge der Informationseinheiten von links nach rechts stellt die Sequenz der besuchten Informationseinheiten dar (als Beschreibung des Navigationsprozesses). Die horizontalen Linien trennen dabei einzelne Cluster ähnlicher Sequenzen. Klammer 1 kennzeichnet ein Cluster ähnlicher Navigationssequenzen. Das für dieses Cluster typische Navigationsmuster ist mit der Ziffer 2 gekennzeichnet. Ziffer 3 markiert eine Sequenz, die sich von dem clustertypischen Navigationsmuster lediglich durch die Informationseinheit an erster Position unterscheidet. Fügt man vor der ersten Position ein Element ein (weiße Informationseinheit), erhält man als Ergebnis das clustertypische Navigationsmuster. Beide Navigationsmuster sind also auf Grundlage des Optimal-Matching Algorithmus als ähnlich einzustufen, da für eine Übereinstimmung lediglich eine Einfügen-Operation notwendig ist. Ziffer 4 markiert Navigationsmuster, die sich vom clustertypischen Navigationsmuster lediglich durch einen Einschub eines Elementes an der zweiten Position der Sequenz unterscheiden (sowie durch ein zusätzliches Element am Ende der Sequenz). Beide Navigationsmuster sind also auf Grundlage des Optimal-Matching Algorithmus als ähnlich einzustufen, da für eine Übereinstimmung lediglich zwei Löschen-Operationen notwendig sind. Ziffer 5 markiert ein Navigationsmuster, das sich vom clustertypischen Naviga5 An dieser Stelle zeigt sich die Rechenintensität des Optimal-Matching Verfahrens, besonders bei einer großen Anzahl sowie langen Sequenzen: Ein Vergleich von 100 Sequenzen beruht auf 4950 paarweisen Sequenzvergleichen (100 * 99 / 2 = 9900 / 2 = 4950), die in die Levenshtein-Distanzmatrix eingetragen werden. 27 tionsmuster lediglich durch ein zusätzliches Element am Ende der Sequenz unterscheidet. Beide Navigationsmuster sind auf Grundlage des Optimal-Matching Algorithmus als ähnlich einzustufen, da für eine Übereinstimmung dieser Sequenzen lediglich eine Löschen-Operation notwendig ist. 3 Ergebnisse und Ausblick Grundlegend ist festzuhalten, dass auf Grundlage des Optimal-Matching Verfahrens eine große Anzahl komplexer und oftmals sehr langer Navigationssequenzen analysiert werden können. In den Navigationssequenzen enthaltene Muster, Strukturen und Regelmäßigkeiten werden identifizierbar. Damit unterscheidet sich die vorgeschlagene Methodologie grundlegend von der qualitativen Analyse einzelner Navigationssequenzen. Der Navigationsverlauf als Sequenz wird zum Ausgangspunkt und zur Analyseeinheit: Die beschriebene Methodologie aus Optimal-Matching Analyse in Kombination mit Verfahren der Clusteranalyse ermöglicht es, Navigationsprozesse in Online-Lernumgebungen anhand sequenzierter Logdaten zu analysieren. Auf dieser Grundlage können auf induktive Weise ähnliche Navigationsprozesse identifiziert und zu Gruppen zusammengefasst werden. Damit kann die vorherrschende Dominanz der Analyse der Resultate von ELearningprozessen aufgebrochen werden (vgl. „Outcomequalität“) und gleichzeitig einem relationalen Qualitätsbegriff sowie dem grundlegenden Charakter eines PullMediums Rechnung getragen werden. Die Berücksichtigung von Prozessen des ELearning ist insbesondere dann notwendig, wenn mit Online-Lernumgebungen die Vermittlung prozeduralen Wissens und tatigkeitsorientierter Kompetenzen angestrebt wird. Dabei zielt die Analyse von E-Learningprozessen mittels Optimal-Matching auf den Kern einer Didaktik als Handlungswissenschaft, die die konkret-empirische Abbildung von Raumgestalten in Zeitgestalten (Didaktik) bzw. die Abbildung von Zeitgestalten in Raumgestalten (Autodidaktik) analysiert und hinsichtlich Adäquatheit und alternativer Möglichkeiten reflektiert (vgl. [Me03, Me06]). Gerade Hypertext als grundlegende Technologie von Online-Lernumgebungen stellt ja einen radikalen medialen Strukturwandel dar, in dem bisherige Prozesse der Abbildung grundlegend zur Disposition stehen. Detailliert wurde die Methodologie und das Potenzial der Sequenzanalyse mittels Optimal-Matching für die Analyse von E-Learningprozessen an anderer Stelle ausgearbeitet, am Beispiel der Analyse der Nutzung einer metadatenbasierten, hypertextuellen OnlineLernumgebung (vgl. [Is07]). Analysiert wurden dabei insgesamt ca. 1600 Sequenzen mit insgesamt ca. 4700 Informationseinheiten. Dabei wurden spezifische Muster, Regelmäßigkeiten und Strukturen in Navigationssequenzen identifiziert, die sowohl in formaler als auch in inhaltlicher Hinsicht als Navigationsstrategien interpretiert werden konnten: Z.B. lineare Navigationsmustern der „Erkundung“ und der „Auseinandersetzung“, sowie nicht-lineare Muster der direkten und gezielte Navigation: Diese können als „erklärungsfokussierte“, „beispielfokussierte“, „aufgabenfokussierte“ und „testfokussierte“ Navigationsstrategien gekennzeichnet werden. Neben linearen und nicht-linearen Navigationsmustern wird auch die Fokussierung des Navigationsprozesses auf spezifische dominierende Typen von Informationseinheiten erkennbar. Darüber hinaus werden auch 28 Navigationsmuster identifizierbar, in denen spezifische Informationseinheiten gerade nicht enthalten sind. Die dargestellte Methodologie der Analyse von E-Learningprozessen leistet einen zentralen Beitrag für die Qualitätsentwicklung von E-Learning unter Prozessperspektive („Prozessqualität“), d.h. hinsichtlich der Relation von Lernendem, Lernumgebung, Lerninhalt. Der Lernende und seine Handlungen werden zum zentralen Gegenstand der Analyse. Damit kommen Fragen der Interaktivität in den Fokus und besonders Fragen des Potenzials von Prozessen der Rückkopplung und des Feedback zur Unterstützung von Online-Lernprozessen. Die Kenntnis der konkreten Navigationsprozesse ist dabei die Voraussetzung für differenzierte Rückmeldungen – personal sowie digital – und bildet die Grundlage für Strategien der Mikro-Adaptation (vgl. [Le92]). Gerade neuere Entwicklungen wie Web 2.0, Social Software und Social Navigation versprechen neuartige und vielfältige Möglichkeiten der Art, des Umfangs und des Zeitpunktes einer lernförderlichen Rückkopplung. Bei Social Software und Social Navigation tritt der kooperative Aspekt des E-Learning in den Vordergrund und geht damit weit über die 1 : 1 Situation eines isolierten Lerners vor einem Computer hinaus: Lernen wird zunehmend als sozialer Prozess verstanden, als Lernen in einer Gruppe und Lernen von einer Gruppe. Insbesondere stellt die Kenntnis konkreter Navigationsprozesse und deren Analyse die Voraussetzung für die Entwicklung differenzierter pädagogisch-didaktischer Empfehlungssysteme als spezifische Form lernförderlicher Rückkopplung dar. Analog zu amazon.de interpretiert ein Empfehlungssystem die Handlungen des Nutzers und gibt auf Grundlage dieser Interpretation Empfehlungen, die für den Nutzer hilfreich sind, d.h. ihn in seinem E-Learningprozess hilfreich unterstützen. Gegenwärtige Empfehlungssysteme auf der Grundlage von Assoziationsanalysen sind vor allem aus dem Bereich des E-Commerce bekannt, z.B. als Warenkorbanalyse . Dabei steht die Analyse von Nutzungsinformationen in Hinblick auf gemeinsame Interesse der Nutzer im Vordergrund. Auf Grundlage dieser Warenkorbanalyse werden Kaufempfehlungen für Nutzer abgeleitet, wie dies z.B. bei amazon.de als dynamisches Empfehlungssystem implementiert ist: „Kunden, die diesen Artikel gekauft haben, kauften auch:“, „Kunden, die diesen Artikel angesehen haben, haben auch angesehen:“, „Unser Vorschlag: Kaufen Sie jetzt diesen Artikel zusammen mit“. Allerdings unterscheiden sich die Aktivitäten eines Käufers von denen eines Lernenden, der Kaufprozess unterscheidet sich vom Lernprozess, das Ergebnis eines Lernprozesses unterscheidet sich vom Ergebnis eines Kaufprozesses. Darüber hinaus bleibt z.B. die Frage offen, ob ein pädagogisch-didaktisches Empfehlungssystem ähnliche Informationen vorschlägt – wie dies z.B. bei amazon.de der Fall ist – oder aber im Sinne einer absichtsvollen Irritation abweichende bzw. konträre Informationen. Grundlage eines solchen pädagogischen Empfehlungssystems ist jedoch in jedem Fall die Analyse und Interpretation der Handlungen des Nutzers, des E-Learningprozesses. Literaturverzeichnis [AF86] Abbott, Andrew; Forrest, John: Optimal Matching Methods for Historical Sequences. Journal of Interdisciplinary History, 1986, 16, 3; S. 471-494. 29 [Ai00] Aisenbrey, Silke: Optimal Matching Analyse: Anwendungen in den Sozialwissenschaften. Leske und Budrich: Opladen, 2000. [BM00] Bergmann, Jörg; Meier, Christoph: Elektronische Prozessdaten und ihre Analyse. In: Flick, U.; Kardorff, E. von; Steinke, I. (Hrsg.): Qualitative Forschung: Ein Handbuch. Reinbek: Rowohlt, 2000; S. 429-437. [BC90] Berners-Lee, Tim; Cailliau, Robert: WorldWideWeb: Proposal for a HyperText Project. <http://www.w3.org/Proposal.html>, 1990. [25.02.2007] [BR02] Blossfeld, Hans-Peter; Rohwer, Götz: Techniques of event history modeling – new approaches to causal analysis. Erlbaum: Mahwah, NJ., 2002, 2. edition. [Eh02] Ehlers, Ulf-Daniel: Qualität beim eLearning. Der Lernende als Grundkategorie der Qualitätssicherung. In (Deutsche Gesellschaft für Erziehungswissenschaft, Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis der Medienbildung. Ausgabe 01/2002. <http://www.medienpaed.com/02-1/ehlers1.pdf>. [25.02.2007] [Er01] Erzberger, Christian: Sequenzmusteranalyse als fallorientierte Analysestrategie. In (Sackmann, R.; Wingens, M., Hrsg.): Strukturen des Lebenslaufs: Übergang – Sequenz – Verlauf. Weinheim: Juventa, 2001; S. 135-162. [Fl70] Flanders, Ned A.: Analyzing teaching behaviour. Addison-Wesley Publishing:. Reading, Mass., 1970. [Ha50] Hamming, R. W.: Error-Detecting and Error-Correcting. Bell System Technical Journal, 1950, 2; S. 147-160. [Hö27] Hönigswald, Richard: Über die Grundlagen der Pädagogik: ein Beitrag zur Frage des pädagogischen Universitäts-Unterrichts. Reinhardt: München, 1927; 2., überarbeitete Auflage. [HBM03]Höök, Kristina; Benyon, David; Munro, Alan J.: Designing Information Spaces: The Social Navigation Approach. Springer: London, 2003. [Is02] Iske, Stefan: Vernetztes Wissen: Hypertext-Strategien im Internet. Bertelsmann: Bielefeld, 2002. [Is07] Iske, Stefan: Navigationsanalyse. Methodologie der Analyse von Prozessen der OnlineNavigation mittels Optimal-Matching. Dissertation, Universität Duisburg-Essen, 2007, in Druck. [IS05] Iske, Stefan; Swertz, Christian: Methodologische Fragen der Verwendung von Bild-, Ton- und Textdaten zur Navigationsanalyse. In: Deutsche Gesellschaft für Erziehungswissenschaft (Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis der Medienbildung. Ausgabe 01/2005. <www.medienpaed.com/04-1/iske_swertz04-1.pdf>. [25.02.2007] [KS99] Sankoff, D.; Kruskal, J. (Hrsg.): Time warps, string edits, and macromolecules: the theory and practice of sequence comparison. Stanford: CSLI., 2. edition. [Ku91] Kuhlen, Rainer: Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank. Springer: Berlin, 1991. [La97] Landow, George P.: Hypertext 2.0: Hypertext - the convergence of contemporary critical theory and technology. Johns Hopkins Univ. Press: Baltimore, 1997. [Le92] Leutner, Detlev: Adaptive Lehrsysteme - instruktionspsychologische Grundlagen und experimentelle Analysen. Weinheim: Psychologie-Verlags-Union, 1992. [Le66] Levenshtein, Vladimir. I.: Binary codes capable of correcting deletions, insertions, and reversals. Cybernetics and Control Theory, 1966, 10, 8; S. 707-710. [Me03] Meder, Norbert Grundlagen zu einer Theorie der Didaktik. In (Schlüter, Anne, Hrsg.): Aktuelles und Querliegendes zur Didaktik und Curriculumentwicklung. Bielefeld: Janus Presse, 2003; S. 34-47. [Me06] Meder, Norbert: Web-Didaktik: eine neue Didaktik webbasierten vernetzten Lernens. Bertelsmann: Bielefeld, 2006. 30 [Pr04] Priemer, Burkhard: Logfile-Analysen: Möglichkeiten und Grenzen ihrer Nutzung bei Untersuchungen zur Mensch-Maschine-Interaktion. In (Deutsche Gesellschaft für Erziehungswissenschaft, Hrsg.): MedienPädagogik – Onlinezeitschrift für Theorie und Praxis der Medienbildung, 2004. <http://www.medienpaed.com/04-1/priemer1.pdf>. [25.02.2007] [SWH01] Sackmann, Reinhold; Wingens, Matthias; Heinz, Walter R. (Hrsg.): Strukturen des Lebenslaufs: Übergang - Sequenz - Verlauf. Weinheim: Juventa-Verlag, 2001. [Wi01] Windzio, Michael: Übergänge und Sequenzen. Der Einfluss von Arbeitslosigkeit auf den weiteren Erwerbsverlauf. In (Sackmann, R.; Wingens, M., Hrsg.): Strukturen des Lebenslaufs: Übergang - Sequenz - Verlauf. Weinheim: Juventa, 2001; S. 163-198. Abbildungen Abbildung 1: Vergleich Sequenz 1 und 2 Abbildung 2: Vergleich Sequenz 1 und 3 Abbildung 3: Vergleich Sequenz 2 und 3 Abbildung 3: Vergleich Sequenz 2 und 3 31 Abbildung 4: Gruppierung ähnlicher Navigationsverläufe mittels Optimal-Matching 32 EDL-Editor: Eine Anwendung zur automatischen Aufbereitung von Vorlesungsvideos Stephan Kopf, Fleming Lampi, Thomas King, Malte Probst, Wolfgang Effelsberg Lehrstuhl für Praktische Informatik IV Universität Mannheim 68159 Mannheim {kopf, lampi, king, effelsberg}@informatik.uni-mannheim.de malte.probst@googlemail.com Abstract: In immer mehr Lehrveranstaltungen werden Vorlesungsmitschnitte den Studierenden als ergänzendes Lehrmaterial zur Verfügung gestellt. Ein wesentlicher Nachteil bei der Erzeugung von Vorlesungsvideos ist der hohe personelle Aufwand, den das Überarbeiten und Schneiden des Rohmaterials verursacht. Dabei sollte das Schneiden der Videos vorlesungsübergreifend erfolgen, da ein Kapitel häufig am folgenden Vorlesungstermin wieder aufgegriffen wird. In diesem Artikel wird die neue Anwendung EDL-Editor (Edit Decision List) vorgestellt, die es ermöglicht, den manuellen Aufwand bei der Erstellung von Vorlesungsvideos zu minimieren. Im Regelfall beschränkt sich die Tätigkeit eines Benutzers auf die Kontrolle der automatisch ermittelten Schnittpositionen in den Videos. Falls der Algorithmus Schnitte an ungeeigneten Stellen vorschlägt und Korrekturbedarf besteht, wird durch die Anwendung gleichzeitig ein effizientes Editieren der Schnittlisten ermöglicht. 1 Einleitung In immer mehr Lehrveranstaltungen an Universitäten werden nicht nur Vorlesungsfolien und Übungsmaterialien den Studierenden zur Verfügung gestellt, sondern auch die Möglichkeit geboten, auf Vorlesungsvideos zuzugreifen. Studierende nutzen zunehmend die digitalen Aufzeichnungen, um sich Inhalte auch außerhalb der Vorlesungszeiten anzueignen. Zusätzlich begrüßen viele Studierende die Möglichkeit, speziell zur Vorbereitung auf Klausuren, einzelne Themen nochmals intensiv mit Hilfe von Vorlesungsmitschnitten verinnerlichen zu können. Das regelmäßige Aufzeichnen von Vorlesungen führt während eines Semesters jedoch zu einem erheblichen personellen Aufwand. Sofern die Vorlesungsfolien als Bildinhalte verwendet werden, welche mit dem Ton des Dozenten unterlegt sind, erfolgt die Digitalisierung – abgesehen vom Start und Stopp der Aufzeichnung – automatisch. Um sowohl thematisch abgeschlossene als auch kurze Lerneinheiten zu erhalten, sollte das Rohmaterial des aufgezeichneten Videos nicht ohne ein Editieren veröffentlicht 33 werden. Daher wird die Vorlesung in einem zweiten Schritt aufbereitet und geschnitten. Bei der Aufbereitung ist insbesondere eine Einteilung in Kapitel erforderlich, damit die Studierenden schneller auf gewünschte Vorlesungen zugreifen können. Da eine Vorlesung im Allgemeinen nicht eine einzelne thematische Einheit behandelt, muss das Rohmaterial korrekt geschnitten und anschließend passend – d. h. ggf. vorlesungsübergreifend – zusammengefügt werden, so dass der Vorlesungsstoff innerhalb eines aufbereiteten Videos eine semantisch zusammenhängende Einheit bildet. Langfristig betrachtet erzeugt dieser Arbeitsschnitt bisher einen hohen personellen Aufwand. Die weiteren Schritte, wie beispielsweise die Kodierung in unterschiedliche Videoformate oder die Veröffentlichung der Vorlesungsvideos im Web lassen sich vollständig automatisiert realisieren [LKE06]. In diesem Artikel stellen wir ein neu entwickeltes Verfahren zum automatischen Schneiden von Vorlesungsvideos vor. Obwohl bestehende Systeme einzelne Schritte bei der Veröffentlichung von Vorlesungsvideos automatisieren [Ha05], existiert kein System, das für unsere Zwecke ohne größere Anpassungen geeignet ist und insbesondere das automatische Erstellen von Schnittlisten und das Schneiden der Vorlesungsvideos übernimmt. Das Authoring-on-the-Fly-System (AOF) ist ein komplexes System zur Aufzeichnung und Übertragung von Lehrveranstaltungen sowie zur Erzeugung multimedialer Lerneinheiten [OL02]. Um eine Synchronisation der multimedialen Dokumente zu erreichen, wurde ein eigenes Format zur Speicherung entwickelt. Ein ähnlicher Ansatz wurde für das Lecturnity-System gewählt [Lec07], welches die Erzeugung von multimedialen Lernanwendungen anhand von PowerPoint-Präsentationen ermöglicht, wobei Animationen oder eingeblendete Videos nicht unterstützt werden. Bei der von uns entwickelten Anwendung soll die Aufzeichnung auf Notebooks mit beliebiger Präsentationssoftware wie beispielsweise PowerPoint, Acrobat Reader oder Open Office Impress möglich sein. Auf dem Präsentationsrechner ist lediglich eine Capture-Anwendung zur Erzeugung eines Videos aus der Audiospur und dem Bildschirminhalt erforderlich. Animationen, Folienübergänge, Videoeinblendungen und Anmerkungen des Dozenten auf den Folien werden erfasst, wobei auch andere Anwendungen wie beispielsweise JAVA-Applets während einer Vorlesung gestartet werden können. Da insbesondere bei gering strukturierten Vorlesungen einzelne Fehler bei der Erkennung von Schnittpositionen nicht ausgeschlossen werden können, wird im Folgenden die von uns entwickelte und intuitiv zu bedienende Benutzeroberfläche des Programms EDL-Editor (Edit Decision List) vorgestellt, die ein manuelles Bearbeiten und Korrigieren der automatisch identifizierten Schnittpositionen effizient ermöglicht. Schnittpositionen im Rohmaterial können einfach verschoben, gelöscht oder hinzugefügt werden. Im nächsten Abschnitt werden zunächst Anforderungen an ein Programm zum automatischen Schneiden von Vorlesungsvideos vorgestellt und die Struktur der entwickelten Anwendung erläutert. Abschnitt 3 geht auf die Funktionalitäten und neuen Algorithmen zur Ermittlung von semantischen Inhalten in Videos ein. Die Anwendung EDL-Editor wird in Abschnitt 4 vorgestellt. Auf Erfahrungen, die wir beim automatischen Schneiden von Vorlesungsvideos gewonnen haben, gehen wir in Abschnitt 5 ein. Abschließend werden die gewonnenen Ergebnisse zusammengefasst und ein Ausblick gegeben. 34 2 Aufbau des Systems EDL-Editor Schon seit mehreren Jahren werden Vorlesungen des Hauptstudiums an unserem Lehrstuhl aufgezeichnet und den Studierenden als Video zur Verfügung gestellt. Obwohl der Ressourcenbedarf recht hoch ist, bieten Videos deutliche Vorteile gegenüber einer Speicherung der Vorlesung in Form von Einzelbildern. Einerseits werden schriftliche Anmerkungen des Dozenten / der Dozentin auf den Folien im Zeitablauf erfasst, andererseits sind Sprache und Vorlesungsfolien synchron. Ein weiterer ganz wesentlicher Vorteil besteht darin, dass keine spezielle Anwendung zur Wiedergabe der Vorlesungen erforderlich ist, da jeder PC und die meisten mobilen Geräte die Wiedergabe von Videos unterstützen. Da innerhalb der Universität und auch bei vielen Studierenden zu Hause breitbandige Internetverbindungen zur Verfügung stehen, führt der erhöhte Speicherbedarf zu keiner wesentlichen Einschränkung bei der Nutzung der Vorlesungsvideos. Zudem stehen zusätzlich Vorlesungsvideos für eine sehr geringe Bandbreite zur Verfügung, für die nur ISDN-Verbindungen erforderlich sind. Um eine Vorlesung aufzuzeichnen, muss der Dozent zu Beginn die Aufzeichnung starten und diese am Ende stoppen. Ab dem Startzeitpunkt werden der Bildschirm des Dozenten und der Ton, der über die Lautsprecher der Vorlesungssaals übertragen wird, als Video komprimiert und gespeichert. In früheren Vorlesungen wurde das Video anschließend manuell geschnitten, um beispielsweise den Vor- oder Nachlauf, der keine Vorlesungsinhalte enthält, zu entfernen. Zudem sollen die Videos kapitelweise im Web veröffentlicht werden, so dass beim Start eines neuen Kapitels innerhalb einer Vorlesung ein Schneiden des Rohmaterials sowie ein Zusammenfügen zweier aufeinander folgender Vorlesungen erforderlich sein kann. Im letzten Schritt, der ebenfalls vollständig automatisch abläuft [LKE06], werden die geschnittenen Videos mit unterschiedlichen Profilen kodiert und im Web den Studierenden zugänglich gemacht. Die Profile unterscheiden sich im Wesentlichen in ihren Bitraten, den Bildauflösungen und den verwendeten Videocodecs, um die Anforderungen unterschiedlicher Endgeräte zu erfüllen. Das manuelle Editieren der aufgezeichneten Videos ist mit einem hohen Zeitaufwand verbunden. Im Folgenden wird unser neues System vorgestellt, das alle Bearbeitungsschritte, die für eine Veröffentlichung von Videos erforderlich sind, automatisch und ohne Benutzerinteraktion durchführen kann. Da Fehler bei der rechnergestützten Aufbereitung von Vorlesungsvideos nie vollständig ausgeschlossen werden können, wird zusätzlich über eine intuitiv zu bedienende Benutzeroberfläche die Möglichkeit gegeben, Korrekturen an den festgelegten Schnittpositionen vorzunehmen. Die Anwendung EDL-Editor stellt zwei grundlegende Funktionalitäten zur Verfügung. Um geeignete Schnittpositionen automatisch in einem Video zu identifizieren, erfolgt in einem ersten Schritt die Analyse des Rohmaterials. Weiterhin wird die Arbeit eines Anwenders durch eine grafische Benutzeroberfläche unterstützt, welche die bereitgestellten Funktionen optisch ansprechend dargestellt und eine schnelle Interaktion ermöglicht. Mehrere zentrale Arbeitsschritte sind bei der automatischen Analyse von Vorlesungsvideos erforderlich. Diese bauen aufeinander auf und können nur in der angegebenen Reihenfolge durchgeführt werden: 35  Eine Erkennung von Folienübergängen wird durch die Suche von harten Schnitten in den Vorlesungsvideos realisiert.  Die Erkennung eines neuen Kapitels erfolgt durch Analyse der Kapitelnummerierung mittels Texterkennung in den Videos.  Unterbrechungen der regulären Vorlesung wie beispielsweise eine Fragerunde oder das Abspielen externer Dokumente (Audio, Video, Animationen) werden durch eine Änderung des Layouts identifiziert.  Anhand der Folienänderungen, Kapitelübergängen und der Zuordnung von Unterbrechungen werden Schnittpositionen in den Rohvideos festgelegt. Dabei müssen auch Vorlesungen an aufeinander folgenden Vorlesungsterminen kombiniert werden, sofern diese dasselbe Thema behandeln.  Der letzte Schritt bei der automatischen Aufbereitung von Vorlesungsvideos umfasst das Schneiden, Zusammenfügen und Exportieren der Videos in vordefinierte Formate. Nach dem Upload der aufbereiteten Videos stehen diese den Studierenden im Web zur Verfügung. 3 Ermittlung semantischer Inhalte in Vorlesungsvideos Damit ein automatischer Schnitt von Vorlesungsvideos möglich ist, müssen wichtige semantische Informationen innerhalb von Vorlesungsvideos automatisch, d. h. ohne Benutzerinteraktionen, identifiziert werden können. Im Folgenden wird auf die vier zentralen Schritte, die beim automatischen Schneiden von Vorlesungsvideos erforderlich sind, näher eingegangen. 3.1 Erkennung von Schnitten in Vorlesungsvideos Ein Vorlesungsvideo wird vom Rechner als ein sequentielles, unstrukturiertes Medium interpretiert. Um weitere Analyseschritte innerhalb eines Videos zu ermöglichen, ist zunächst eine Segmentierung des Mediums erforderlich. Bei einer Kameraeinstellung handelt es sich um eine kontinuierliche Aufnahme; die direkten Übergänge zwischen Kameraeinstellungen werden als harte Schnitte bezeichnet. Bei Vorlesungsvideos, in denen die präsentierten Folien mit der Audiospur des Dozenten unterlegt sind, wird eine Kameraeinstellung durch die Dauer der Einblendung einer Folie charakterisiert. Das menschliche Gehirn kann Übergänge zwischen Kameraeinstellungen ohne große Mühe direkt erkennen. Eine manuelle Segmentierung von Videos ist jedoch mit einem hohen zeitlichen Aufwand verbunden und für ein effizientes Aufbereiten von Vorlesungsvideos ungeeignet. Eine Vielzahl von Algorithmen zur automatischen Erkennung von Schnitten wurden die letzten Jahre entwickelt [KC00, Ne05]. Die zentrale Idee der automatischen Schnitterkennungsverfahren besteht darin, Unterschiede zwischen aufeinander folgenden Bildern 36 eines Videos zu bewerten. Dabei liegt die zentrale Annahme zugrunde, dass Unterschiede innerhalb einer Kameraeinstellung relativ gering sind und ein Schnitt zu einer starken Bildänderung führt. Bildänderungen innerhalb eines Vorlesungsvideos sind auf Folienübergänge, auf eine Unterbrechung der Präsentation oder auf schriftliche Anmerkungen des Dozenten auf den Folien zurückzuführen. Ziel der Schnitterkennung soll es im Folgenden sein, einen Wechsel zu einer anderen Folie oder eine Unterbrechung der Präsentation zu identifizieren. Schriftliche Anmerkungen des Dozenten auf den Folien sollen jedoch nicht als Schnitt identifiziert werden. Um eine mögliche Schnittposition zu erkennen, werden jeweils zwei aufeinander folgende Einzelbilder im Video miteinander verglichen. Übersteigt der Unterschied einen vordefinierten Schwellwert, so wird ein Schnitt zwischen den beiden Bildern angenommen. Bei der Analyse von Vorlesungsvideos kombinieren wir zwei Verfahren, um die Zuverlässigkeit der Schnitterkennung zu erhöhen. Die Summe der absoluten Differenzen der Pixel zweier Bilder liefert zunächst Kandidaten für mögliche Schnitte. In einem zweiten Schritt werden jeweils zwei Bilder in gleichgroße Regionen unterteilt und Histogrammdifferenzen für die entsprechenden Regionen berechnet. Die Region mit der größten Histogrammdifferenz bleibt dabei unberücksichtigt, da angenommen wird, dass schriftliche Anmerkungen des Dozenten in dieser Bildregion durchgeführt wurden. Durch einen Vergleich der übrigen Histogrammdifferenzen mit einem Schwellwert können die korrekten Schnittpositionen in Vorlesungsvideos äußerst zuverlässig identifiziert werden. Die erkannten Schnitte werden für jedes analysierte Vorlesungsvideo als Metadaten gespeichert. Folgende Analyseschritte können so effizient auf die Ergebnisse der Schnitterkennung zurückgreifen, so dass auch bei einer Anpassung von Parametern eine erneute Analyse der Schnitte nicht mehr erforderlich ist. 3.2 Einsatz der Texterkennung zur Identifikation von Kapitelübergängen Nach der Erkennung von Folienübergängen werden in einem zweiten Schritt Textinformationen analysiert und ausgewertet. Dabei wird die Annahme getroffen, dass Kapitelnummern und Foliennummern an fest definierten Bildpositionen innerhalb der Vorlesungsfolien sichtbar sind. Bei den analysierten Vorlesungsvideos sind insbesondere zwei Bildregionen relevant. Die Titelzeile im oberen Bereich des Bildes enthält häufig Kapitelnummern. Weiterhin liefert die Foliennummer, die häufig im unteren Bildbereich eingeblendet ist, die Information, ob ein Folienwechsel in Vorwärtsrichtung oder ob ein Rücksprung auf die vorherige Folie durchgeführt wurde. Die Bildpositionen der Titelzeile und der Foliennummer sind innerhalb der Anwendung frei konfigurierbar und müssen einmalig pro Semester für jede Vorlesung festgelegt werden. Falls keine Textinformationen in den spezifizierten Bildbereichen erkannt werden, so deutet dies auf den Vor- oder Nachlauf des Rohvideos bzw. auf eine Unterbrechung der Präsentation hin. Speziell in Vorlesungsvideos bleiben Texte über einen längeren Zeitraum sichtbar, so dass es ausreicht, Texterkennungsalgorithmen auf nur einem Bild einer Kameraeinstellung anzuwenden. 37 Abbildung 1: Beispiel für vier Kameraeinstellungen innerhalb eines Vorlesungsvideos. Die analysierten Textregionen werden rechts dargestellt. Abbildung 1 zeigt beispielhaft vier Bilder unterschiedlicher Kameraeinstellungen. Die erste Kameraeinstellung wurde vor Beginn der eigentlichen Vorlesung aufgezeichnet und soll nicht Bestandteil des aufbereiteten Videos sein. In den anderen Bildern werden sowohl Kapitelüberschriften als auch Foliennummerierungen erkannt. Beispielhaft werden im rechten Bereich die Bildregionen, die bei der Texterkennung analysiert werden, verdeutlicht. Vor der eigentlichen Texterkennung ist eine Segmentierung der einzelnen Buchstaben erforderlich. Speziell bei Vorlesungsvideos liefert die Segmentierung recht zuverlässige Ergebnisse, da ein hoher Kontrast zwischen den Buchstaben und dem Hintergrund besteht. Um einzelne Segmentierungsfehler zu vermeiden, besteht innerhalb der Anwendung die Möglichkeit, die Text- und Hintergrundfarbe manuell zu spezifizieren. Die Festlegung der Farben ist für jede Vorlesungsreihe nur einmal erforderlich. Wir haben ein neues Segmentierungsverfahren entwickelt, das insbesondere bei geringen Abständen zwischen einzelnen Buchstaben zu sehr zuverlässigen Ergebnissen führt [KHE05]. Dabei werden vor der eigentlichen Segmentierung Trenner zwischen den einzelnen Buchstaben identifiziert, um zu vermeiden, dass zwei Buchstaben kombiniert werden bzw. dass ein Buchstabe unterteilt wird. Zur Bestimmung der Trenner wird innerhalb der Textzeile ein abwärts gerichteter Pfad zwischen zwei Buchstaben gesucht. Von jedem Pixel in der obersten Pixelzeile wird ein Pfad zur untersten Pixelzeile mit den jeweils geringsten Kosten berechnet. Die Kosten des Pfades sind definiert als summierte Pixeldifferenzen zwischen benachbarten Pfadpixeln. Der Pfad mit den geringsten Kosten schneidet nur selten Buchstabenpixel und eignet sich somit gut als Trenner von Buchstaben. Dabei wird der Kürzeste-Pfade-Algorithmus für Graphen von Dijkstra verwendet, um die Trenner zu bestimmen. Jedes Pixel entspricht einem Knoten, der mit drei Nachbarpixeln (links-unten, rechts-unten und unten) verbunden ist. Die Kosten, um von ei- 38 nem Knoten zum nächsten zu gelangen, sind definiert als absolute Helligkeitsdifferenz dieser beiden Pixel. Die eigentliche Texterkennung erfolgt durch ein Pattern-Matching-Verfahren [GS90, TJT96]. Dazu werden die einzelnen segmentierten Buchstaben mit bekannten Buchstaben verglichen und das Zeichen mit der größten Übereinstimmung identifiziert. Als Ergebnis der Texterkennung werden ASCII-Zeichen als Metadaten gespeichert und stehen für die weiteren Analyseschritten zur Verfügung. 3.3 Erkennung von Sequenzen Zur Erkennung von Sequenzen werden redundante Informationen aus den Metadaten entfernt. So ist es beispielsweise für die weitere Bearbeitung eines Vorlesungsvideos nicht erforderlich zu wissen, wie viele Inhaltsfolien auf einen Kapitelanfang folgen. Obwohl die Informationen über Folienanfänge zum Schneiden des Videos nicht benötigt werden, sind sie jedoch für eine schnelle Navigation innerhalb des Videos erforderlich. Zunächst werden iterativ aus der Liste mit allen Kameraeinstellungen gleichartige Einträge entfernt. Innerhalb der analysierten Videos wurden drei Arten von Einträgen definiert: der Anfang eines Kapitels, eine Inhaltsfolie, die jedoch kein neues Kapitel einleitet, sowie unbekannter Inhalt. Unbekannte Vorlesungsinhalte sind beispielsweise eingeblendete Filme oder Animationen. Weiterhin werden regelmäßig interaktive Dienste zur Steigerung der Kommunikation mit den Studierenden während den Vorlesungen eingesetzt [Ko05]. Das Entfernen der doppelten Einträge liefert eine Sequenzliste, anhand derer die endgültigen Schnittpositionen festgelegt werden. Jeder Eintrag wird anhand seiner Vorgängers und Nachfolgers entweder als neues Teilstück identifiziert oder an das vorangegangene Teilstück angehängt. Die Entscheidung erfolgt durch den folgenden regelbasierten Ansatz:  Falls ein neues Kapitel anhand einer höheren Kapitelnummer im Folientitel gefunden wird, so wird ein neuer Abschnitt festgelegt.  Unbekannte Inhalte innerhalb des Vorlesungsvideos werden dem davor liegenden Abschnitt zugeordnet.  Unbekannte Inhalte am Anfang oder Ende eines Videos werden verworfen. Da eine Vorlesung nicht immer einem starren Schema folgt, war es notwendig eine Mehrzahl an Sonderfällen zu berücksichtigen:  In der Praxis tritt es wiederholt auf, dass der Dozent / die Dozentin am Ende eines Kapitels auf die nächste Folie wechselt, obwohl das Thema noch nicht vollständig abgeschlossen ist. Häufig erfolgt dann ein Rücksprung auf das vorherige Themengebiet innerhalb weniger Sekunden. Ein kurzes Verweilen auf einer neuen Folie wird nicht als Kapitelanfang erfasst. 39  Vor dem eigentlichen Beginn einer Vorlesung wurde wiederholt beobachtet, dass der Dozent / die Dozentin den Foliensatz öffnet und im Schnelldurchlauf bis zur eigentlichen Startfolie wechselt. Falls sehr schnelle Folienwechsel zu Beginn einer Vorlesungsaufzeichnung identifiziert werden, so werden diese entfernt. 3.4 Schneiden der Videos Der automatische Schnitt der Vorlesungsvideos erfolgt mit Hilfe des FreewareProgramms VirtualDub [Le05], das ein Unterteilen und Zusammenfügen von Videos ohne erneute Kodierung und dem damit verbundenen Qualitätsverlust ermöglicht. Zunächst werden die ursprünglichen Videos an den identifizierten Schnittpositionen in Videosegmente unterteilt. Falls Kapitelinhalte vorlesungsübergreifend behandelt werden, ist ein Zusammenfügen von einzelnen Videosegmenten erforderlich. Dazu werden alle Videosegmente in lexikographischer Reihenfolge bearbeitet und später aufgezeichnete Dateien, die dasselbe oder ein niedrigeres Kapitel im Vergleich zum aktuellen Videosegment besitzen, werden an die aktuelle Datei angehängt. 4 Ablauf der automatischen Bearbeitung von Vorlesungsvideos Neben den Funktionen zur Analyse von Vorlesungsvideos wurde eine grafische Benutzeroberfläche entwickelt, um die automatisch berechneten Daten effizient verändern zu können. Dies ist erforderlich, da die Analysealgorithmen vereinzelt Schnittpositionen falsch festlegen, die Texterkennung vereinzelt Buchstaben falsch erkennt oder spezielle Abläufe in Vorlesungen auftreten können, die bisher nicht berücksichtigt wurden und manuell korrigiert werden sollten. Weiterhin erleichtert die Benutzeroberfläche die Konfiguration der Anwendung, wie beispielsweise die Definition der Schrift- und Hintergrundfarben, der Position der Textregionen, die Quell- und Zielverzeichnisse, die Parameter für die Schnitterkennungsalgorithmen sowie die Pfade für die externen Hilfsprogramme. Abbildung 2 verdeutlicht den Aufbau der Anwendung. Es können drei Ansichten – Input, Output und Schnittkontrolle –gewählt werden. Unter Input wird der Fortschritt der einzelnen Analyseschritte verdeutlicht, bei denen eine Liste von Quellvideos in geschnittene Teilvideos überführt wird. Mehrere Rohvideos können gleichzeitig ausgewählt werden und der Fortschritt der einzelnen Algorithmen wird für jede Datei angezeigt (vgl. Abbildung 3, unten). Zusätzlich ist es möglich einzelne, alle oder die noch erforderlichen Analyseschritte manuell zu starten. Falls ein Benutzer einen Analyseschritt direkt startet, kann er zusätzlich festlegen, ob vorherige Schritte erneut berechnet werden sollen. Der aktuelle Fortschritt bei der Analyse der aktuellen Datei und der Fortschritt aller ausgewählter Dateien wird zusätzlich angezeigt. Unter der Ansicht Output sind die Funktionalitäten zum Zusammenfügen von Videosegmenten und der Speicherung der überarbeiteten Videos im Zielverzeichnis zusammengefasst. Weiterhin besteht die Möglichkeit, die geschnittenen Videosegmente mit Hilfe eines eingebetteten Windows Media Players zu betrachten. 40 Abbildung 2: Einsatz des EDL-Editors beim automatischen Schneiden von Videos Eine dritte Ansicht ermöglicht ein nachträgliches Korrigieren der automatisch ermittelten Sequenzlisten. Da nicht sichergestellt werden kann, dass Fehlinterpretationen in einzelnen Videosegmenten auftreten, wurde die Möglichkeit der manuellen Korrektur eingefügt. Jede Schnittinformation wird dabei innerhalb einer Textzeile beschrieben und kann editiert werden. Zudem wurde der Windows Media Player erweitert, so dass eine auf Einzelbildern basierte Navigation im Video möglich ist. 5 Erfahrungen bei der automatischen Aufbereitung von Vorlesungsvideos Die Anwendung EDL-Editor wurde mit Hilfe eines Trainingsdatensatzes von sechs aufeinander folgenden Vorlesungen im Fach Computer Networks entwickelt. Die Rohvideos wurden zunächst manuell analysiert und die sinnvollen Schnittpositionen per Hand ermittelt. Anschließend wurde die Programmlogik zur automatischen Festlegung der Sequenzliste spezifiziert. In mehreren Iterationen wurden anschließend die Sonderfälle analysiert und die neuen Verfahren zur automatischen Bestimmung korrekter Schnittpositionen festgelegt. 41 Nach der Fertigstellung der Anwendung erfolgte ein ausführlicher Test der Funktionalität mit einer unbekannten Folge von Vorlesungsvideos aus dem Wintersemester 2006. Im Vergleich zu den Trainingsdaten wurden Vorlesungen des gleichen Dozenten in einem anderen Studienfach (Multimedia Technology) aufbereitet. Die automatische Analyse einer Stunde Vorlesungsvideos benötigt ungefähr 10 Minuten Rechenzeit auf einem aktuellen PC. Besonders erfolgreich ist zu bewerten, dass nur sehr selten ein manueller Eingriff erforderlich war. Auch beim Zusammensetzen der Teilstücke wurden nur selten Fehler beobachtet. Bei den Analysealgorithmen liegt der Anteil der korrekt erkannten Kameraeinstellungen bei nahezu 100 Prozent. Da die Bildqualität und Bildauflösung bei Vorlesungsvideos deutlich unter der Qualität von eingescannten Textdokumenten liegt, treten bei der Texterkennung wesentlich höhere Fehlerraten auf. Dennoch ist die korrekte Zuordnung von Kapitelanfängen in den meisten Fällen möglich. Im Folgenden werden noch einzelne Beobachtungen erläutert und Ursachen für mögliche Fehler vorgestellt, die beim Testen der Anwendung beobachtet wurden. Da EDLEditor eine Korrektur der automatisch ermittelten semantischen Informationen effizient unterstützt, sind die einzelnen Beobachtungen kein echtes Hindernis für den Einsatz von EDL-Editor.  Bei einer Änderung der Bildauflösung des Rohvideos sollten die Programmparameter wie beispielsweise die Positionen der Textregionen umgehend angepasst werden, da sonst der Einsatz von EDL-Editor zu ungewünschten Ergebnissen führt.  Innerhalb des EDL-Editors werden Vorlesungsfolien mit ein- oder zweistufiger Nummerierungsstufe unterstützt. Es wurde bewusst darauf verzichtet, Unterkapitel mit mehr als zwei Nummerierungsstufen zu erkennen, da bei drei Nummerierungsstufen zum Teil sehr kurze geschnittene Ergebnisvideos mit einer Länge von nur wenigen Minuten entstehen.  Bisher wurde die Auswertung der Vorlesungsaufzeichnungen auf die Videospur beschränkt, da sie in fast immer ausreichend genaue Informationen zum Schnitt der Videos liefert. Eine Analyse der Audiospur erfolgt im bisherigen System noch nicht. Speziell am Anfang oder Ende einer Vorlesung könnte die Audiospur wichtige Hinweise zur Schnittposition liefern, indem beispielsweise die Stimme des Dozenten identifiziert wird.  Auch bei einem Vorwärts- und Rückwärtssprung zwischen zwei Kapiteln lässt sich anhand der Bildinhalte nicht sicher ableiten, ob der Dozent gerade das vergangene Kapitel wiederholt oder schon auf das nächste Kapitel eingeht. Fehler können jedoch durch die manuelle Schnittkontrolle ohne großen Aufwand korrigiert werden.  Weiterhin wurde die Annahme getroffen, dass Kapitel mit höheren Nummern nach niedrigeren behandelt werden. Falls der Dozent in der Vorlesung eine andere Reihenfolge wählt, würde das Video fehlerhaft geschnitten und kombiniert. 42  Unbekannte Inhalte einer Vorlesung wie z. B. Videoeinblendungen, Animationen oder interaktive Dienste werden nicht immer zuverlässig dem korrekten Videosegment zugeordnet. Falls beispielsweise ein Video ein neues Kapitel einführt, würde das Videosegment fälschlicherweise dem vorherigen Segment zugeordnet. Auch im Vor- oder Nachlauf einer Videoaufzeichnung werden unbekannte Inhalte nicht korrekt zugeordnet. In diesen Fällen ist jedoch durch die manuelle Änderung eine schnelle Korrektur möglich.  Um eine Verschlechterung der Qualität eines Videos durch erneute Kodierung zu vermeiden, ist ein Schnitt eines Videos nur zu Beginn einer Group of Pictures (GOP) innerhalb des Videostroms zulässig. Abhängig von dem verwendeten Video-Codec ist dadurch eine Verschiebung der korrekten Schnittposition um mehrere Einzelbilder bis zu wenigen Sekunden möglich. Diese Fehler werden beim Betrachten jedoch nicht als störend empfunden. 6 Fazit und Ausblick Obwohl es sich beim Schneiden von Vorlesungsvideos um einen komplexen mehrstufigen Prozess handelt, wird das zentrale Ziel, den manuellen Aufwand zur Aufbereitung und Veröffentlichung von Vorlesungsvideos signifikant zu reduzieren, mit Hilfe des vorgestellten Systems EDL-Editor erreicht. Die von uns entwickelte Anwendung extrahiert in mehreren Schritten Informationen aus den Vorlesungsvideos. Nach der Erkennung von Kameraeinstellungen werden Kapitelgrenzen mit Hilfe von Texterkennungsalgorithmen identifiziert und Regeln abgeleitet, um geeignete Schnittpositionen zu spezifizieren. Falls Fehler bei der automatischen Berechnung auftreten, stellt die Benutzeroberfläche Möglichkeiten zu einer einfachen Korrektur und Anpassung der Schnittpositionen zur Verfügung. Der manuelle Aufwand bei der Erstellung von Vorlesungsvideos lässt sich durch das vorgestellte System erheblich reduzieren. In den meisten Fällen ist lediglich eine kurze Überprüfung der automatisch geschnittenen Vorlesungen erforderlich. Nur in Ausnahmefällen ist eine manuelle Korrektur erforderlich, die mit Hilfe des Benutzerinterface sehr effizient durchgeführt werden kann. Um eine genauere Klassifikation der Vor- und Nachlaufs der Vorlesung zu ermöglichen, ist eine Weiterentwicklung von EDL-Editor geplant, die eine Auswertung charakteristischer Merkmale der Audiospur ermöglicht. Mit den heute existierenden Verfahren zur Analyse von Videos ist ein vollständiges Verständnis eines Vorlesungsvideos nicht möglich. Auch für einen Menschen existieren häufig mehrere vergleichbare Möglichkeiten zum Schneiden von Vorlesungsvideos, so dass es die „perfekte“ Lösung nicht gibt. Wenn ein Benutzer Änderungswünsche an der automatisch getroffenen Auswahl an Schnittpositionen wünscht, kann er diese komfortabel und effizient durchführen. 43 Literaturverzeichnis [GS90] Govindan, V. K. und A. P. Shivaprasad: Character recognition - a review. In: Pattern Recognition, Bd. 23 (7), S. 671–683, July 1990. [Ha05] Hartle, M., H. Bär, Ch. Trompler und R. Rößling: Perspectives for Lecture Videos. 11th International Euro-Par Conference, 901-908, Lisbon, Portugal, 2005. [KC00] Koprinska, I. und S. Carrato: Temporal video segmentation: A survey, Signal Processing: Image Communication, Vol. 16, Issue 5, Pages 477-500, January 2001. [KHE05] Kopf, S., T. Haenselmann und W. Effelsberg: Enhancing Curvature Scale Space Features for Robust Shape Classification, Proc. of IEEE International Conference on Multimedia and Expo (ICME), Amsterdam, The Netherlands, July 2005. [Ko05] Kopf, S., N. Scheele, L. Winschel und W. Effelsberg: Improving Activity and Motivation of Students with Innovative Teaching and Learning Technologies, Methods and Technologies for Learning, Palermo, Italy, April 2005. [LKE06] Lampi, F., S. Kopf und W. Effelsberg: Mediale Aufbereitung von Lehrveranstaltungen und ihre automatische Veröffentlichung - Ein Erfahrungsbericht, Proc. of DeLFI 2006 – Die 4. e-Learning Fachtagung Informatik der Gesellschaft für Informatik, 11-14, Darmstadt, Germany, September 2006. [Lec07] LECTURNITY – das führende Rapid Authoring Tool, http://www.im-c.de/Produkte/ Rapid-Authoring-Tool/, last checked: 06/2007. [Le05] Lee, A.: VirtualDub scripting language reference, v0.7, http://www.virtualdub.org/ docs/vdscript.txt, 2005, last checked: 03/2007. [Ne05] Nesvadba, J. F. Ernst, J. Perhavc, J. Benois-Pineau und L. Primaux: Comparison of shot boundary detectors, IEEE International Conference on Multimedia and Expo (ICME), July 2005. [OL02] Ottmann, T. und T. Lauer: Means and Methods in Automatic Courseware Production: Experience and Technical Challenges. In Proceedings of World Conference on ELearning in Corporate, Government, Healthcare, and Higher Education, 553-560, Chesapeake, VA, 2002. [TJT96] Trier, Ø., A. Jain und T. Taxt: Feature extraction methods for character recognition – a survey. In: Pattern Recognition, Bd. 29 (4), S. 641–662, 1996. 44 Notetaking in University Courses and its Implications for eLearning Systems Jürgen Steimle, Iryna Gurevych, Max Mühlhäuser Telecooperation Group, Department of Computer Science Darmstadt University of Technology {steimle, gurevych, max}@tk.informatik.tu-darmstadt.de Abstract: This paper presents the results of a study on notetaking in university courses and derives implications for the design of electronic notetaking and annotation systems in eLearning. The study focuses on differences between notetaking with a pen and paper or with a laptop and identifies the reasons for preferring the one or the other. Our findings show that notetaking systems should allow handwritten input, as notes on paper are preferred by the majority of students, mainly because they allow unconstrained free-form handwriting and sketches. Moreover, this paper examines context factors which influence notetaking. For this purpose, a context model for notetaking is presented, which distinguishes the four context types of learner, instructor, content and setting. We identified a significant influence of several specific context aspects and therefore conclude that notetaking systems must be adaptable in order to support notetaking in different contexts effectively. 1 Introduction Notetaking plays an important role in learning processes and has been proven to be a factor positively related to students’ academic achievement [POK05]. This supportive effect encompasses both the processes of recording notes (encoding function) and reviewing notes (storage function) [Ki89]. In eLearning, a growing number of tools have been developed which aim to support student notetaking and annotation. Examples of such systems consist of Livenotes [Ka05], DyKnow [Be06], eMargo [Ge05], AOF [LTZ05] and u-Annotate [Ch06]. While some of these systems focus on notetaking during the course itself [Ka05, Be06], other systems aim at notetaking and review after class [Ge05, LTZ05, Ch06]. Most of them include a collaborative functionality and numerous systems allow pen-based input on a Tablet PC in order to simulate the experience of traditional notetaking on paper. Our current project aims to develop a system for collaborative notetaking, which allows students to annotate the course material with several input modalities. The system will allow both typed input on computer keyboards and handwritten input with electronic pens on digital paper, that consists of ordinary paper sheets, on which a specific pattern is printed. This enables electronic pens to identify their position on the paper sheets, to 45 capture the user’s strokes and to transfer them to a computer. Our goal is thus to close the gap between paper, which still plays a central role in learning, and computers, which are of increasing importance and offer unique benefits not provided by pure paper environments. The main contribution of this paper is the presentation of a study on student notetaking in university courses. Notetaking in general and more particularly the use of notetaking and annotation software in learning are not well studied [BP05, BK06]. Therefore, we conducted a quantitative study in order to derive implications for the design of notetaking systems in eLearning. These implications provide a basis for the design of a notetaking system in our ongoing work. Our research was guided by the following main aspects: 1) We evaluated the reasons for the choice of taking notes with a pen and paper or with a laptop. We then assessed the effects of this choice on the notes being taken and on further review and completion activities. 2) Our hypothesis was that notetaking heavily depends on multiple context types. Therefore, we developed a context model for notetaking in university lectures (see below) and evaluated the influence of several specific context aspects. 3) Finally, we assessed note-based collaborative activities. The context model for notetaking in university lectures is presented in Figure 1. It focuses on the communicative situation in which notetaking in lectures takes place. Following Bühler’s organon model of communication [Bü78], we distinguish three central context types (learner - instructor - content) and add the supplemental dimension of the setting surrounding the communicative situation. We then evaluated the influence of several specific aspects of the context types. The learner context type includes preferences and habits, which are personal (and hence on an individual level) or relate to the membership in a social group like gender (supra-individual level). In addition, the influence of two motivational and cognitive factors was assessed, namely the interest in the content and the average grades obtained during previous studies. Moreover, the potential relationship between the ownership of a laptop and the preference for electronic notes was evaluated. In the content type, we analyzed the influence of the course language. The aspect of the instructor’s teaching style was not empirically assessed; however, we found a qualitative indice of an influence. Finally, in the setting context type, the study assessed disciplinespecific aspects as well as differences between the temporal phases of course review and exam preparation. We did not include a context aspect of tools used for notetaking (i.e. pen, keyboard etc.), since these are not part of the context but of the notetaking process itself. Furthermore, the types and aspects presented herein are not exhaustive. In further work, this framework can be extended for additional types and aspects of context. The study on notetaking was based on a questionnaire and was conducted in five university lectures which contained several eLearning elements, such as electronic course material, web discussion forums and lecture recordings. In order to investigate discipline-specific differences, we questioned students from computer science and pedagogy. Overall, 408 respondents participated to the study. The following section will present our method. Section 3 will then detail the results of the study. Finally, Section 4 is dedicated to discussing implications for the design of notetaking systems in eLearning. 46 Learner - Preferences and habits (individual and supra-individual level) - Motivational factors - Cognitive factors - Hardware equipment Setting - Discipline-specific context - Temporal context Instructor (-Teaching style) Content - Language Figure 1: Context types in notetaking and specific aspects assessed in this study. 2 Method The questionnaire contained 22 closed and open questions related to four topics: 1) notetaking behavior: media used for notetaking, (dis)advantages of those media, types of the notes and the language they are written in; 2) collaboration and team work; 3) courserelated information such as the amount of time invested for the course, the personal interest in the topics and the perceived degree of difficulty; 4) personal information about the respondent like sex, field of study, semester and hardware equipment. The questionnaire was handed out at the end of a university semester in five courses. The participation was voluntary and no compensation was given. We chose four computer science courses, which covered several domains and in which students of different years of studies were enrolled. These courses consist of a first-year introductory course to computer science, a second-year algorithm theory course and two different network courses, which are typically attended in the third or fourth year of studies. In order to allow an interdisciplinary comparison, one course in pedagogy was chosen, in which students of different semesters were enrolled (in average, they were in their forth semester with a standard deviation of 2.8 semesters). All courses contained eLearning elements. The computer science courses offered a webbased forum for discussions among the students. Two of these courses were recorded and a video including the slides was offered for download after each class. In all evaluated courses, the instructors used PowerPoint slides, which were made available as downloads before the courses. In the pedagogical course, the instructor additionally provided a pure textual script covering more detailed contents as the slides. Table 1 depicts the number of respondents questioned as well as their gender. In the statistical analysis, we investigated correlations between items which were fivepoint scaled and performed χ2 -tests and t-tests to identify significant group differences. All these tests were based on a level of significance of 95 %. 47 Discipline Computer Science Pedagogy Overall Respondents 316 92 408 Female 13.8 % 78.4 % 28.8 % Male 86.2 % 24.6 % 71.2 % Table 1: Participants of the study. 3 Data Analysis In this section, the results of the study will be presented along different categories. We will first describe the groups of respondents taking notes. Next, we will detail the media used for notetaking and the reasons of this choice, particularly with regard to the difference between notes on paper or on a laptop. We will then turn our attention to the notes themselves and discuss the languages they are written in. Finally, follow-up activities of notetaking and collaborative aspects will be analyzed. 3.1 Respondents Taking Notes The proportion of students taking notes during the course considerably varied between the disciplines. While 93.3 % of the pedagogy students took notes, only 62.3 % of the computer science students did. When asked for the reasons for not taking notes through an open question, the largest group of answers to an open question considers the course slides offered by the instructor to contain sufficient information (N = 16). Eight respondents indicated that taking notes distracted them from listening. A significant difference related to the gender of the respondents was revealed in computer science, but not in pedagogy. While 30.0 % (N = 12) of the female respondents in the computer science courses did not take notes, a significantly larger proportion of 48.4 % (N = 121) of male students did not take notes [χ2 (1, N = 290) = 4.702, p = .04]. When relating these results to the context model, we notice that the decision of taking notes or not seems to depend on the setting and learner contexts, namely on the discipline and on the gender of the respondents. The percentage of students who took notes maximally varied from more than 90 % in the pedagogy course to less than 50 % of male students in computer science. 3.2 Media Used for Notetaking We further asked the students on which media they take their notes (on empty sheets of paper, on printed versions of the course slides, on printed versions of the course scripts, on laptops and/or other media; multiple responses were possible). Moreover, we examined the use of the course material (i.e. PowerPoint slides, handouts etc.) and searched for differences which relate to the use of a pen and paper or a laptop. This aspect is of central 48 importance for the design of eLearning notetaking systems, as an electronic system should be able to support the most frequently used media. Figure 2 below shows the percentage of notetakers on single media or on combinations of several media. Both in computer science and pedagogy, traditional notetaking with a pen and paper clearly outperforms notes on a laptop. In the computer science courses, 77 % of the respondents took their notes exclusively on paper. This group consists of three subgroups of roughly equal percentages which took notes either on empty sheets of paper, on printed course slides or on both of them. 8 % made an exclusive use of a laptop, while 15 % indicated to prefer cross-media notetaking, which combines notes on a laptop with notes on empty sheets of paper or on printed course slides. The context factor of the discipline proved to be an influential factor of the context model, since laptop use differed largely between the disciplines. In the pedagogy course, laptop use was almost not existent. 98 % took their notes exclusively on paper. The two largest groups (about 45 % each) took notes either only on empty sheets of paper or combined them with printed slides or the printed course script. These findings confirm results of other studies on the choice between paper and laptops [OS97, Ob03], which, however, did not assess notetaking during courses but during overall reading processes and moreover constrained the participants to use a specific software for notetaking. Pedagogy Computer Science Laptop + printed slides 7% Laptop + empty sheets of paper 8% Laptop 1% Empty sheets of paper 28% Laptop + empty sheets of paper 1% Printed slides/script 6% Laptop 8% Empty sheets of paper + printed slides/script 45% Printed slides 27% Empty sheets of paper 47% Empty sheets of paper + printed slides 22% Figure 2: Combinations of media used to take notes on. It is worth noting that the percentage of students taking notes on a laptop was small even though 78.6 % (N = 180) of the notetakers possess a laptop. Only 19.6% (N = 35) of the students owning a laptop took notes on this device. The hardware equipment, one of our context factors, does therefore not seem to be relevant. A gender-specific difference was found in the computer science courses, but not in pedagogy. While 77.8 % (N = 42) of female respondents took notes on printed lecture slides, only 56.1 % (N = 69) of male respondents did so [χ2 (1, N = 150) = 4.336, p = .05]. However, we found no significant gender-specific difference in the use of laptops. Comparing different computer science courses, we found that in one course (algorithm theory), the respondents made a significantly higher use of empty sheets of paper (76.4 %, N = 42) than the remaining respondents (52.3 %, N = 58) [χ2 (1, N = 166) = 8.927, 49 p = .004]. In this course, the instructor frequently drew sketches and diagrams on the blackboard which were not contained in the slides. We assume that this specific teaching style combined with little free space on the slides led to the heavy use of paper sheets. Taking a closer look on laptop users, we asked them about the software they took their notes with. Responses fell under two categories of almost equal frequency: Software that allows to annotate the electronic course slides (e.g. Adobe Acrobat) (N = 16) or word processors and text editors (N = 17). Four students indicated to use both annotation and a word processor, three students annotated on a tablet PC and two students employed a specific software for creating mindmaps. These data show that the repartition between annotating printouts and taking notes on blank sheets which we identified for paper notetakers is approximately reflected by notetaking on laptops. The main device for the input of electronic notes is the keyboard, since only few students own a Tablet PC (1.2 %). The prominent position which course material provided by the instructor holds in student notetaking is reflected in the general use of course material as well. Figure 3 depicts the mean frequency of course material use indepentently of notetaking. This chart indicates that the most frequently used media are course slides and the textual script. Mean Frequency 5 very frequently 4 3 4.4 2 3.0 3.3 3.8 3.4 3.0 2.1 never 3.2 3.0 2.3 1 Lecture slides (electronic version) Lecture slides (printed) Textual script Computer Science Textbook Internet Lecture recordings Pedagogy Figure 3: Use of course material (independently of notetaking). Standard deviations are indicated by the error lines. 3.3 Advantages of Different Media Besides assessing the distribution among different notetaking media, we aimed to gain information about the reasons for choosing those media as well as the advantages respondents associated with paper or electronic notes on a laptop. This aspect is of general importance for eLearning systems which aim to transfer activities traditionally relying on paper to a computer. Therefore, students were requested to judge the importance of several advantages of paper and electronic notes on a five-grade scale. In addition, we posed an open question, in which we asked the students to explain why they preferred the specific media they took notes on. 50 The results of the quantitative question are depicted in Figure 4. They show that the freeform flexibility was regarded as the most important advantage of notes on paper. This is followed by the fact that paper can be easily transported. As far as electronic notes are concerned, all proposed advantages were rated almost equally. When investigating differences between the advantages of paper and laptops, we found that long-term archivability was rated significantly more important for laptop than for paper notes [T = −5.935, df = 234, p = .000]. Similarly, good readability of typescript is rated significantly more important than good readability on paper [T = −5.907, df = 230, p = .000]. 5 Mean Importance very important 4 3 4.3 4.0 3.5 2 very unimportant 3.5 3.9 3.9 3.8 3.8 3.3 Paper Laptop 1 Flexibility (e.g. sketches, formulas) Ease of transport Good Long-term Different archivability colors and readability in pens (e.g. comparison textmarker) to a display Electronic Long-term Easy search archivability sharing (e.g. by e-mail) Good readability of typescript Figure 4: Advantages of paper and electronic notes. Students taking notes on paper regarded most advantages of paper as significantly more important than students taking notes on a laptop and vice versa. However, both groups highly rated the flexibility of free-form notes on paper, which thus seems to be of great importance even for laptop notetakers. The responses to the open question indicate some additional important factors. Students taking notes on a laptop valued that notes can be more easily modified (N = 4) and offer a cleaner appearance (N = 2). Two respondents stated to prefer electronic notes because this way, they do not have to print the slides. Two further students noted that a laptop allows them to keep the information in one place. On the other hand, 20 respondents stated that notetaking on paper is easier and faster than notetaking on a laptop. The responses also indicated reasons for preferring annotations on course material or notes on blank sheets of paper. Annotations on printed course slides are regarded as advantageous, since these allow to establish a direct reference to the context by taking the notes on the place they refer to (N = 27). 24 respondents particularly valued that they do not need to write everything down on the slide, but only add additional information of importance. On the contrary, blank sheets of paper are favored because they allow to create an own structure and to note own ideas more individually (N = 12). Moreover, in contrast to course slides, they provide sufficient free space (N = 5). Three students indicated to combine notes on paper and on printed course slides in order to separate their own ideas from additional information given by the instructor. 51 3.4 Language of the Notes A further aspect of our context model is the language in which the notes are taken. This aspect must be considered if an eLearning system includes further analysis of textual notes like handwriting recognition or summarization and recommendation of relevant notes. Even though German stays the most used language, the language in which the course is held largely influences the languages of the notes. The percentage of respondents who indicated to often or very often use the German language varied from 36.7 % (N = 14) in courses held in English to 95.0 % (N = 207) in courses held in German. An important finding was that a significant proportion of students combined notes in two or more languages. This percentage corresponded to 60.2 % of the respondents in computer science and to 26.8 % in pedagogy. 3.5 Review and Completion of Notes Respondents who took notes were asked how frequently they review and complete their notes after class and when preparing the exam. These results allow to estimate in which phases an electronic notetaking system would be used. Mean values are depicted in Figure 5. (Results for exam preparation relate only to the computer science courses, since in the pedagogy course, no final exam took place.) The results show that, in contrast to the wrap-up phase after class, where scores are rather low, students become more active when preparing the exam. The context factor of time thus seems to influence notetaking. Mean Frequency 5 very frequently 4 3 4.2 2 3.4 3.1 2.3 never After Class Exam Preparation 1 Review Completion Review * Completion * (* Computer Science only) Figure 5: Frequencies of follow-up activities for notetaking. No significant differences were found between laptop and paper notetakers. However, taking a closer look on the group which took notes on paper, our data indicate that annotations relate to more frequent follow-up activities than notes on empty sheets of paper: In review after class as well as in review and completion before the final exam, mean frequencies of respondents annotating printed course slides or the course script were .4 to .6 points higher (p < .006) than of students taking notes on blank sheets. 52 3.6 Note-based Collaboration Collaborative notetaking is supported by most eLearning systems for notetaking. They allow either to collaborate by synchronously taking notes on a shared set of documents (e.g. [Ka05, Be06]) or by asynchronously sharing notes in threaded forum-like discussions (e.g. [Ge05, LTZ05]). In order to additionally assess collaborative behavior in university courses, we asked the respondents to indicate their collaborative activities which make use of their notes. 54.4 % (N = 135) of the respondents who took notes during class indicated to use them for collaborative work. The most important point (71.1 % of this group) consisted of using the notes as a basis for group work and discussion with other students. 51.1 % compared their notes for completion with those of others. 45.9 % gave their notes to other students or used those of others, e.g. in case of illness. Collaborative use of notes does not seem to relate to a specific medium on which respondents took their notes. We found a relationship between collaboration and the frequency of note review and completion. Respondents using their notes collaboratively review them more frequently after class (M1 = 3.3 [SD = 1.0, N = 134] vs. M2 = 2.7 [SD = 1.1, N = 92]) [T = −4.142, df = 224, p = .000]. Alike, this group completes them more frequently after class than non-collaborative notetakers (M1 = 2.4 [SD = 1.0, N = 129]; M2 = 1.9 [SD = 1.0, N = 91]) [T = −3.671, df = 218, p = .000]. 4 Implications for Notetaking Systems in eLearning The goal of this study was to derive implications for eLearning and the design of notetaking systems which support students in university courses. These implications will be discussed in this section. Support of handwritten input Our study shows that in university courses, taking notes with a pen and paper is considered to be easier and faster and therefore preferred to a laptop by the vast majority of students. Important factors for the choice of paper consist of the flexibility of free-form notes and the easy transport. For the majority of the respondents, these advantages are not outrivaled by those of electronic notes on a laptop which mainly consist of electronic search, longterm archivability and editing functions. According to the results of this survey, this also seems to apply to computer science students, who are generally more familiar with new technologies. Therefore, our findings indicate that a laptop is not the most adequate device for taking notes in courses. Instead, handwritten input should be supported by an eLearning system. However, no recommendations for the choice between traditional paper and Tablet PCs, which allow handwritten input, can be given, since only 1.2 % of the respondents possess a Tablet PC. 53 Support of both annotations and notes on blank pages This study indicates that a system for notetaking should allow both to annotate course material provided by the instructor and to take unstructured notes in a blank region. Annotations in textual handouts or presentation slides allow a close association with the course by directly referring to the adequate position within the material. Furthermore, students can concentrate on noting important points, since not everything must be noted. On the contrary, unstructured notes in a blank region of the screen or on blank sheets of paper offer the benefit of not constraining students to closely follow the structure provided by the lecturer. Instead, a restructuring can be made and a personal view on the relations between pieces of information can be expressed. These transformation operations have proven to increase the effectiveness of learning processes in other findings [BP05]. In this respect, DyKnow [Be06] offers an appropriate support as students can both annotate the slides provided by the instructor and take unstructured notes in a separate blank frame. Windows Journal supports both modes as well. However, most other current eLearning notetaking systems only support annotations. Provide enough free space for annotations With regard to annotations, several respondents stated that the free space available on the slides for annotations was too small. Instructors should thus provide enough room on paper handouts for annotations. In this respect, electronic systems have the potential to clearly outperform paper-based annotation since they can dynamically adapt free space for annotations on the screen, hide and filter annotations on demand or display them in a separate frame (e.g. [LTZ05]). Support of several languages Furthermore, our results indicate that students tend to combine several languages when taking notes, especially if the course is held in a language other than their native one. Hence, systems for handwritten input which use handwriting recognition techniques must correspond to this more complex situation and offer support for several languages at the same time. A system in which the user must choose one single language to be recognized (e.g. Windows Journal) does not seem appropriate. Support of collaboration According to the results of this survey, a significant proportion of respondents use their notes for collaboration. Hence, collaborative functionality should be included in eLearning systems. This can be especially beneficial in distance learning settings, where a personal exchange of the notes is not possible or more difficult to realize. Adaptability to the specific context Our findings indicate that notetaking in university courses should be studied along several context types (see Figure 1). We showed that in the learner type, both individual preferences and supra-individual factors have a significant effect on notetaking. In addition, 54 influences of the setting, such as discipline-specific and temporal factors, were revealed. However, personal interest in the content and average previous grades of the respondents do not seem to influence the choice of a notetaking medium and the frequency of followup activities or collaboration. In the two remaining context types which concern instructor and content, only a small contribution could be made since both the teaching style and the content of the course are difficult to assess in a questionnaire. Nevertheless, context influence of the language and of the teaching style was revealed as well. In summary, our study showed that notetaking behavior largely depends on a complex multitude of context aspects. Notetaking systems must account for this dependency. Therefore, they must be adaptable in their central functionality (like support for annotations vs. notes on blank pages, input modality, types of the notes and collaborative features) to fit the different user needs and teaching styles in specific context situations. 5 Conclusion The study presented in this paper examined both the differences of paper and electronic notes and the influence of several contextual factors in notetaking. Based on these findings, implications for the design of eLearning notetaking systems were derived. We showed that numerous key characteristics of traditional notetaking with a pen and paper are comparable with those of electronic notes on a laptop. No differences between the two groups were found in the types of notes taken, in the frequency of later review and completion as well as in collaborative activities. Nevertheless, in university courses, most students prefer notetaking on traditional paper to electronic notes on a laptop. This also applies to computer science students. Main reasons for this choice are the easy transport as well as the advantage of easily taking free-form notes on paper. About two thirds of the students who took notes on a laptop simultaneously took notes on paper. This seems to indicate that the support of handwritten free-form notes is a key aspect for a successful introduction of electronic notetaking systems in university courses. Furthermore, a model of context types which influence notetaking was presented and the influence of specific context aspects was proven. Amongst others, the study identified an influence of personal habits, of the discipline in which the students are enrolled and of their gender. An eLearning system for notetaking must comply with this complex multitude of context dependencies. Therefore, it seems indispensable that such systems are highly adaptable to fit diverse user needs and teaching styles in specific context situations. This is even more important as the literature shows that small changes in the system design can have large effects on notetaking processes [BK06]. Future work could make a contribution to refining the context model. A question of great interest consists of evaluating the influence which specific media types (such as text, pictures, diagrams, tables, videos) used in the courses have on notetaking and more specifically on annotations. Furthermore, the dynamics of collaborative notetaking could be taken into account by introducing a fifth context type, the interaction history. Once note- 55 taking systems allow a tightly integrated support of both paper-based and electronic input, future work should also evaluate this combined use. This would lead us a further step forward in understanding how traditional tools can be effectively integrated into electronic systems. Acknowledgments This work was supported by the German Research Foundation as part of the Research Training Group “Feedback-Based Quality Management in eLearning” (DFG-GK-1223). We are grateful to Michael Deneke and Oliver Glindemann for their advice and support. Literaturverzeichnis [Be06] Dave Berque. An evaluation of a broad deployment of DyKnow software to support note taking and interaction using pen-based computers. Journal of Computing Sciences in Colleges, 21:204–216, 2006. [BK06] Aaron Bauer and Kenneth Koedinger. Pasting and Encoding: Note-Taking in Online Courses. In Proc. 6th Int. Conf. on Advanced Learning Technologies (ICALT’06), 2006. [BP05] Francoise Boch and Annie Piolat. Note Taking and Learning: A Summary of Research. The WAC Journal, 16:101–113, September 2005. [Bü78] Karl Bühler. Die Darstellungsfunktion der Sprache. Ullstein, Frankfurt, 1978. [Ch06] M.A. Chatti, T. Sodhi, M. Specht, R. Klamma, and R. Klemke. u-Annotate: An Application for User-Driven Freeform Digital Ink Annotation of E-Learning Content. In Proc. of the 6th Int. Conf. on Advanced Learning Technologies (ICALT’06), 2006. [Ge05] Daniel Geraskov, Sven Göller, Wilfried Rüsse, Werner Sesink, and Thomas Trebing. Transformation einer Vorlesung durch E-Learning-Elemente. Medien-Pädagogik, 02, 2005. [Ki89] Kenneth A. Kiewra. A review of note-taking: The encoding-storage paradigm and beyond. Educational Psychology Review, 1(2):147–172, 1989. [Ka05] Matthew Kam, Jingtao Wang, Alastair Iles, Eric Tse, Jane Chiu, Daniel Glaser, Orna Tarshish, and John Canny. Livenotes: a system for cooperative and augmented notetaking in lectures. In CHI ’05: Proceedings of the SIGCHI conference on Human factors in computing systems, pages 531–540, 2005. [LTZ05] Tobias Lauer, Stephan Trahasch, and Bernd Zupancic. Anchored Discussions of Multimedia Lecture Recordings. In Proceedings of the Frontiers in Education Conference (FIE 2005), 2005. [Ob03] Hartmut Obendorf. Simplifying annotation support for real-world-settings: a comparative study of active reading. In HYPERTEXT ’03: Proceedings of the fourteenth ACM conference on Hypertext and hypermedia, pages 120–121, 2003. [OS97] Kenton O’Hara and Abigail Sellen. A comparison of reading paper and on-line documents. In CHI ’97: Proceedings of the SIGCHI conference on Human factors in computing systems, pages 335–342, 1997. [POK05] Annie Piolat, Thierry Olive, and Ronald T. Kellogg. Cognitive Effort during Note Taking. Applied Cognitive Psychology, 19:291–312, 2005. 56 Freie Bildungsressourcen im didaktischen Kontext Peter Baumgartner, Sabine Zauchner Department für Interaktive Medien und Bildungstechnologien Donau-Universität Krems Dr.-Karl-Dorrek-Straße 30 3500 Krems peter.baumgarter@donau-uni.ac.at sabine.zauchner@donau-uni.ac.at Abstract: Im Beitrag werden einige Gründe für Initiativen zu „Open Educational Resources“ (OER) für den Hochschulsektor zusammengestellt und kritisch beleuchtet. Daran anschließend werden mögliche didaktische Konsequenzen im Zusammenhang mit dieser Bewegung diskutiert. Im dritten Teil des Beitrages werden didaktische Aspekte von Anforderungen an OER Initiativen diskutiert. 1 Aspekte der OpenCourseWare (OCW) Initiative Als das Massachusetts Institute of Technology (MIT) im April 2001 seine OpenCourseWare Initiative [W01] öffentlich bekannt machte, reichten die Reaktionen von Überraschung bis zu Verwirrung: Warum sollte eine solch prestigeträchtige Institution ihre Kursinhalte frei zur Verfügung stellen? Gibt sie damit nicht ihr wesentliches Kapital der Konkurrenz preis? Kritiker/innen wurden nicht müde, die schlechte Umsetzung (tatsächlich bestehen viele Inhalte – vorerst? – bloß aus einem Syllabus, d.h. aus einer Zusammenstellung von Überschriften zu den Kursinhalten) sowie mögliche (kultur-) imperialistische Hintergedanken (die ganze Welt soll mit MIT-Inhalten „sozialisiert“ werden) zu beanstanden. In der Zwischenzeit hat sich die Situation jedoch soweit entwickelt, dass wohl der folgende Spruch zutrifft: „Die Hunde bellen, doch die Karawane zieht weiter“: Schätzungen zufolge, standen mit Herbst 2006 am Hochschulsektor mehr als 2500 Lehrgänge von über 200 Universitäten und Hochschulen alleine aus den USA, China, Japan und Frankreich zur Verfügung [Wi06]. Davon stellte das MIT damals noch den überwiegenden Teil von 1.550 Kursen. In der Zwischenzeit beteiligen sich am 2005 gegründeten OpenCourseWare Consortium [W02] bereits mehr als 120 Universitäten [W03]. In einem Referat auf der Konferenz "Open Educational Resources - Institutional Challenges", an der Universitat Obertate de Catalunya (UOC, Barcelona 22.-24. November 2006), zählte Shigeru Miyagawa, Professor für Linguistik am MIT, 7 Vorteile der OCWInitiative für das MIT auf [W04]: 57 1. Es wird damit weltweit das Image des MIT verbessert. Diese Initiative brachte (und bringt immer noch) dem MIT enormes Echo in der Presse [W05]. 2. Es wird ein gewisser Stolz innerhalb der MIT-Community erzeugt, der insbesondere in der Bindung der Absolventen/innen (Alumni) an das MIT sichtbar wird. 3. Es wird die Kooperation innerhalb der Hochschullehrenden unterstützt, weil Erfahrungen mit diesen Ressourcen innerhalb der Lehre ausgetauscht werden. 4. Es wird die Bildungsmission, der das MIT verpflichtet ist, mit dieser Initiative unterstützt. 5. Die Materialien fungieren als Anschauungsmaterial für die Institute und deren Curricula (Showcase). 6. Die öffentlich zugänglichen Materialien erleichtern das Werben um neue Studierende (Akquise). 7. Die Beteiligung an der Initiative erfordert neue Kompetenzen in der MIT-Faculty und fördert damit Prozesse der Personalentwicklung. Entscheidend für die Einschätzung der OpenCourseWare Initiative für die einzelnen Institutionen aber sind zwei wesentliche Einschränkungen: Obwohl das Material frei zugänglich ist, kann daraus weder eine Beratungsleistung noch eine (Kosten-)Ersparnis oder gar das Recht einer Zertifizierung in Anspruch genommen bzw. abgeleitet werden. Aus unserer Sicht ergeben sich daraus folgende drei weit reichende Konsequenzen:  Individuell Lernende können zwar das Material für selbst gesteuerte Lernvorgänge verwenden, daraus ergibt sich jedoch nicht automatisch ein formal anerkannter ausbildungs- oder karriererelevanter Vorteil. Selbst wenn sie sich in Studiengänge des MIT einschreiben, sind keine reduzierten Gebühren vorgesehen. Das überrascht auch deshalb, weil Ansätze des kompetenzbasierten Lernens – und damit auch die Anerkennung früher erworbener Qualifikationen (Acknowledgement of Prior Learning = APL oder auch Recognition of Prior Learning = RPL) zunehmend an Verbreitung gewinnen.  Lehrende hingegen könnten das frei zugängliche Material – wenn sie es für ihre eigene Zwecke aufbereiten und adaptieren – nutzbringend für eigene Bildungsveranstaltungen verwenden. Leider wird jedoch das angebotene Material für eine solche Wiederverwendung gerade nicht besonders vorbereitet und ist deshalb häufig – vor allem wegen der immanenten Kursstruktur der Materialien – wenig für eine solche Wiederverwendung geeignet.  Eine dritte – unserer Meinung nach bisher viel zu wenig beachtete – Wirkung von OpenCourseWare besteht darin, dass der Bildungsprozess implizit aufgewertet wird. Wenn erst einmal die Inhalte frei zur Verfügung stehen, kann sich die Aufmerksamkeit und damit die Konkurrenz der Bildungsinstitutionen auf die Effizienz des didaktischen Arrangements richten. „Content“ wird dann richtigerweise nur mehr als ein Teil einer umfassenden und ganzheitlich zu betrachtenden Lernumgebung gesehen. 58 Zusammenfassend also zeigt sich, dass die MIT OpenCourseWare Initiative durchaus nicht nur eine „Mogelpackung“ darstellt, sondern für die jeweilige (anbietende) Einrichtung institutionelle Vorteile mit sich bringt. Andererseits wird das Potential dieser globalen Initiative jedoch durch ein Fehlen von Überlegungen zum kompetenzbasierten Lernen, der möglichst hohen Wiederverwendbarkeit von Materialien und einer expliziten Diskussion didaktischer Adaptionen und Implementierungen eingeschränkt. 2 Aspekte von Open Educational Resources (OER) Seit der OCW-Initiative des MIT sind weltweit eine Reihe anderer Initiativen wie Open Access (= freier Zugang zu wissenschaftlichen Zeitschriftenartikeln) und Open Content bzw. Open Educational Resources-Initiativen (OER, dt. „freie Bildungsressourcen“) zu beobachten. OER setzt sich zum Ziel, den Einsatz und die Wiederverwendung von freien Bildungsressourcen weltweit zu fördern und die Nachhaltigkeit dieser Projekte sicherzustellen [z.B. ABH07]. Diese Entwicklungen beziehen sich aber nicht nur auf Hochschulen, denn auch die Anzahl freier Bildungsressourcen, die nicht in Form von universitären Lehrgängen angeboten werden, nimmt kontinuierlich zu [Wi06]. Die Vielzahl unterschiedlicher Initiativen sowie die Diskussion zur begrifflichen Abgrenzung und Schärfung der dabei verwendeten Begriffe zeigt, dass ein allgemeiner Konsens über deren Gehalt und Verwendung, v.a. auch unter Miteinbeziehung einer eigenständigen Europäischen Perspektive, noch aussteht. Besondere Verdienste kommen in diesem Zusammenhang der UNESCO zu, die eine erste Definition vorlegte [Un02], sowie den Bestrebungen des CERI (Centre for Educational Research and Innovation) der OECD [z.B. Hy06]. Es herrscht heute aber weitgehend Einigkeit, dass „freien Bildungsressourcen“ (OER) ein umfassendes Anliegen ist, das sowohl  Lerninhalte,  Software-Werkzeuge, die den Lernprozess unterstützen,  Repositorien von Lernobjekten (Learning Object Repositories, LOR),  als auch Kurse und andere inhaltliche Materialien einschließt. Unterschiedliche Bedeutungen werden auch unter dem Begriff „open“ bzw. „frei“ zusammengefasst. So wird je nach Quelle davon gesprochen, dass für die Nutzer/innen möglichst keine  technischen (z.B. Quellcode, Editoren, APIs),  kostenmäßigen (z.B. Subskriptionsgebühren, Pay-Per-View Gebühren)  oder rechtlichen (z.B. Copyright oder Lizenzeinschränkungen) Einschränkungen gegeben sein sollten [vgl. z.B. Do06, Ba07, Ol07]. 59 Zu Beginn der internationalen Bestrebungen nach freien Bildungsressourcen stand vor allem das humanistisch Ideal der „Bildung für alle“ im Vordergrund (freier Zugang auch für benachteiligte Bevölkerungsschichten, Entwicklungsländer etc.). Aus unserer Sichtweise gilt es jedoch zu betonen, dass nicht nur politische oder philanthropische Aspekte für freie Bildungsressourcen sprechen, sondern auch die Innovationskraft und didaktische Qualität von Bildungsprozessen positiv beeinflusst werden können. Die innovative Entwicklung und Anwendung didaktischer Modelle wird in den Vordergrund gestellt, wenn Inhalte erst frei zur Verfügung gestellt werden und sich der Blickwinkel der Aufmerksamkeit auf die Qualität des Lehrens und Lernens richten kann. Damit wird nämlich die Konkurrenz um die „besseren“ Inhalte auf eine Konkurrenz um innovativere didaktische Formen transformiert. Die Inhalte sind frei verfügbar und damit sozusagen gegeben; es geht nun in der Folge in erster Linie darum wie sie angewendet werden, d.h. in Lehr-/Lernarrangements verwendet bzw. eingebunden werden [Ba07]. Häufig entstanden innovative didaktische Modelle bei der Entwicklung neuer Inhalte – sozusagen als notwendige Komponente einer ganzheitlichen Problemlösung mit sowohl inhaltlichen als auch didaktischen Aspekten. Dadurch wurden aber Inhalte und Didaktik zu stark in der spezifischen Rolle ihrer gegenseitigen Bezugnahme gesehen und quasi mental fest „verdrahtet“. Eine mögliche Wiederverwendbarkeit sowohl der Inhalte als auch des didaktischen Modells wird daher oft nicht sofort gesehen weil sie eine zusätzliche kognitive Operation (Blick mit einem höheren Abstraktionsgrad) erfordert. Das ZurVerfügung-Stellen von Materialien – wie es zum Teil noch bei der OpenCourseWare Initiative der Fall ist – fungiert unter diesen Gesichtspunkt nicht mehr bloß isoliert (humanistisch, philantropisch etc.), sondern wirkt als Katalysator für didaktische Innovationskraft bei der kollaborativen Entwicklung und Nutzung der frei, verfügbaren Ressourcen. Als besonders zentraler Aspekt steht damit die Möglichkeit, Bildungsressourcen für eigene Lehr- und Lernzwecke zu adaptieren, weiter zu entwickeln, wieder zur Verfügung zu stellen und unter den Gesichtspunkten kompetenzbasierter Ausbildung auch als Grundlage für die Zertifizierung der eigenen Bildungsinstitution zu verwenden, im Vordergrund. 3 Herausforderungen für OER Konzepte und Projekte Eine Vielzahl an Publikationen beschäftigt sich derzeit mit der Thematik einer nachhaltigen Verankerung von OER Initiativen mit dem Ziel, Empfehlungen für Entscheidungsträger/innen, Fördergeber/innen, Bildungspolitiker/innen, Projektverantwortliche, Studierende oder Lehrende ableiten, z.B. [Ol07, Do07, ABH07, Al05, Mm07, Hy06]. Inhaltlich werden hier unterschiedliche Finanzierungsmodelle ebenso thematisiert wie Copyrightfragen, technische Voraussetzungen, Produktions- und Contentmodelle oder personelle Ressourcen und Communitybuilding, kaum jedoch stehen didaktische Überlegungen im Zentrum der Diskussion. Aus unserer Sichtweise lassen sich insgesamt sechs Gruppen von Herausforderungen für OER-Initiativen unterscheiden: (1) Zieldefinition, (2) Geschäftsmodell, (3) didaktische Integration, (4) technische Voraussetzungen, (5) Nutzungsrechte und (6) Qualitätssicherung. Wir haben diese sechs Herausforderungen bereits dargestellt [ZB07] wollen wir auf die didaktischen Implikationen all dieser Kriterien – und nicht nur der dritten (didak- 60 tischen) Gruppe – näher eingehen und zeigen, dass diese Herausforderungen für freie Bildungsressourcen in jedem der einzelnen Aspekte implizit auch eine eigenständige didaktische Komponente haben. 3.1 Didaktische Zieldefinition Obwohl für OER Initiativen eine ganze Reihe von unterschiedlichen Zielen genannt werden, die von moralisch-ethischer Verpflichtung des Teilens von Bildungsressourcen über wirtschaftlichen Überlegungen bis hin zur Verbesserung interner Kompetenzen und der Qualität der angebotenen Ressourcen reichen (vgl. z.B. [Hy06, Mm07], wird didaktische Variabilität und didaktische Innovation als explizites Ziel nur selten angeführt. Wären mit den freien Bildungsressourcen didaktische Absichten explizit gekoppelt, dann müsste sich dies in der Gestaltung sowohl der angebotenen Ressourcen als auch im Design der Umgebung, in der sie angeboten werden, niederschlagen. Zwei prinzipielle Zugänge, die sozusagen zwei Pole einer didaktischen Zielstellung darstellen, wären denkbar:  Der Inhalt wird bereits mit einem innovativen didaktischen Setting verknüpft angeboten. Das eigentlich interessante Angebot (die Bildungsressource) ist das didaktische Arrangement, das dementsprechend auch detailliert beschrieben und erläutert gehört.  Obwohl der Inhalt relativ didaktisch neutral angeboten wird, geht es vor allem um den Erfahrungsaustausch in der didaktischen Nutzung: Unter welchen Voraussetzungen, mit welcher Zielgruppe, in welchen räumlichen, zeitlichen und personellen Rahmenbedingungen wurden welche Erfahrungen damit gemacht? Statt einer Feedbackschleife zur Verbesserung des Inhalts (indem z.B. korrigierte, adaptierte, verbesserte etc. Inhalte wieder zur Verfügung gestellt werden) bedarf es systematisch gesammelter Rückmeldungen zum didaktischen Arrangement (inklusive Werkzeuge, die bei der Erstellungen und Auswertung dieser Erfahrungen helfen). 3.2 Didaktisch motiviertes Geschäftsmodell Finanzierungsmodelle, finanzielle Nachhaltigkeit und Anreizsysteme können auch für eine didaktisch motivierte Ökologie von freien Bildungsressourcen entwickelt werden. Wie können die frei zur Verfügung gestellten Ressourcen die didaktische Variabilität erhöhen, die didaktische Qualität verbessern und/oder didaktische Innovationen fördern? Die bisherigen Überlegungen zum Austausch bzw. Wiederverwendung von Inhalten ließe sich recht einfach auf didaktische Modelle umlegen. „Didactic sharing“ klingt vielleicht sprachlich nicht so flott wie „Content sharing“ wäre aber mindestens ebenso wichtig. Ganz abgesehen davon, dass wir Werkzeuge zur Beschreibung, Entwicklung und Implementierung didaktischer Settings brauchen. Werkzeuge, die – anders als bei- 61 spielsweise die Editoren für IMS Learning Design – intuitiv und ohne detaillierte Kenntnisse der darunter liegenden technischen Konzeptionen benutzt werden können. 3.3 Didaktische Integration Die Innovationskraft einer OER Initiative ist in weiten Bereichen davon bestimmt, inwieweit es gelingen kann, OER für variable Anforderungen didaktischer Nutzungskontexte verfügbar zu machen. Es kommt also dem Bereich der Adaptierbarkeit und der Wiederverwendbarkeit von OER auf einer kontextuellen Ebene besondere Bedeutsamkeit zu. Damit steht hier Fragen im Zentrum der Überlegungen, die sich auf die Adaptierbarkeit der Bildungsressourcen für unterschiedliche didaktische Modelle (Ist es möglich OER für unterschiedliche didaktische Modelle nutzbar zu machen? Sind die Ressourcen in didaktischer Hinsicht adaptierbar und wieder verwertbar? Haben Lehrende die Möglichkeit, die Ressourcen an ihre Lehrmethode anzupassen? Haben Lernende die Möglichkeit, die Ressourcen an ihre Bedürfnisse anzupassen? ) und auf eine kooperative Weiterentwicklung der Ressourcen (Sind in Erweiterung eines „Use-Only“-Konzepts kooperative Weiterentwicklungen der Ressourcen möglich? Wie gestaltet sich der Umgang mir adaptierten Inhalten? Wie werden die Ressourcen aktuell gehalten?) beziehen. Aber auch die didaktische Qualität der angebotenen Ressourcen (Sind Lehrziele transparent gemacht? Sind Lernwirksamkeitskontrollen vorgesehen? Werden die eingesetzten Lehrmethoden auf die Lernziele abgestimmt? Werden Einstiegsvoraussetzungen genannt? Wird angegeben, welche Vorkenntnisse vorausgesetzt werden? Wird das Erreichen unterschiedlicher Lehrzielebenen gefördert?) das Angebot von Support- oder Tutoringmodellen und eine curriculare Einbindung der Angebote (Sind Möglichkeiten einer curricularen Einbindung gegeben bzw. geplant? Welcher Bezug besteht zu Prüfungselementen? Sind Anrechnungsmöglichkeiten für formale Qualifikationen gegeben) sind Überlegungen, die im Sinne einer didaktischen Integration angestellt werden müssen. 3.4 Technische Voraussetzungen für didaktische Adaptionen Technische Voraussetzungen für Adaption und Wiederverwendung stellen eine wesentliche weitere Anforderung für OER Projekte dar. Diese Voraussetzungen beziehen sich aber nicht nur – wie dies traditionellerweise gesehen wird – auf Fragen der Interoperabilität und technischen Adaptierbarkeit, Auffindbarkeit und einfachen Nutzung der Ressourcen sondern auch auf die Möglichkeit der didaktischen Adaption der Ressourcen: Fragen, die sich unter diesem Aspekt stellen und durch technische Vorkehrungen gelöst werden müssten, wären beispielsweise:  Was müsste wie und mit welchen Werkzeugen geändert werden, damit die Ressource für eine andere Ziel- oder Altersgruppe einsetzbar wird? 62  Welche Änderungen sind wie und mit welchen Werkzeugen vorzunehmen, damit die Ressource für eine andere Gruppengröße verwendet werden kann?  Welche Änderungen sind wie und mit welchen Werkzeugen vorzunehmen, damit die Ressource auch für andere physikalisch-technische (z.B. räumliche) Ausstattungen verwendet werden kann? Diesen Beispielen für Fragestellungen haftet eine gewisse Künstlichkeit an. Dies hängt aber unserer Meinung nach vor allem damit zusammen, dass wir (fatalerweise) noch gewohnt sind, vor allem in darbietenden bzw. darstellenden Lehrformen zu denken und uns daher die Präsentation von Inhalten bei der Wiederverwendung und Adaption vorstellen. Erarbeitende, problemorientierte, explorative und konstruktive Lehrformen werden leider noch viel zu wenig beachtet. Wenn wir uns beispielsweise ein didaktisches Arrangement vorstellen, das einen spielerischen Zugang zu einer Problematik mittels eines Balls vorsieht, wird deutlich, wie die obigen Anforderungen steigen: Sowohl das Material des zu verwendenden Balls, seine Größe als auch die Raumstruktur bekommen eine enorme Bedeutung. Das gilt nicht nur in der realen (Präsenz-)Situation sondern auch im E-Learning: In diesem Fall wäre beispielsweise die Wahl der Farbe und Größe des Balls, die Art und Schnelligkeit seiner Steuerung, die Komplexität des simulierten Raumes usw. im Zusammenspiel mit der angepeilten Zielgruppe oder der Anzahl der Spieler/innen bei der Entwicklung (bzw. Adaption der Software) von Belang. 3.5 Kommunikation der Intellectual Property Rights (IPR) Es gibt mittlerweile bereits eine Reihe von Lizenzen, die nicht mehr bloß „All Rights Reserved“ (traditionelles Copyright) vorsehen, sondern entweder überhaupt keine Einschränkungen (Public Domain, „No Rights Reserved“) oder aber eine Abstufung spezifischer Rechte beinhalten, sodass sie die Möglichkeiten und Bedingungen der Nutzung eindeutig beschreiben werden. Erst damit ist ein effektiver, leicht nachvollziehbarer, transparenter kontrollierter Austausch von Ressourcen möglich. Besonderes Interesse kommt hier sicherlich der Creative Commons Lizenz zu [W06], die 11 unterschiedliche Variationen vorsieht. Aus unserer Sicht kommt dabei sowohl der Kommunikation und der benutzer/innenfreundliche Umgang mit der verwendeten Lizenzstrategie als auch deren transparente Implementierung große Bedeutung zu. So unterliegt beispielsweise ein Kurs, der aus unterschiedlich lizenzierten Materialien zusammengestellt worden ist, der dabei verwendeten eingeschränktesten Lizenz. Wie kann diese mit einer ungünstigen Lizenz versehende Ressource im Kurs gefunden werden (damit es beispielsweise mit einem Objekt einer freieren Lizenz ausgetauscht werden kann)? Lassen sich die Ressourcen unter bestimmten Nutzungsbedingungen zusammenstellen? Ähnlich wie es unter Creative Commons bereits eine Remix-Lizenz für Audioressourcen gibt, bräuchten wir auch eine Remix-Lizenz für Bildungsressourcen bzw. Lernobjekte. 63 3.6 Qualitätssicherung und Didaktik Die Qualität der im Rahmen einer OER Initiative bzw. eines Projekts angebotenen Bildungsressourcen stellt eine weitere der zentralen Herausforderungen der OER Bewegung dar. Dabei geht es aber nicht nur um Qualitätssicherungsprozesse von inhaltlichen Kriterien wie Korrektheit, Genauigkeit, Vollständigkeit und Aktualität der Inhalte, sondern auch um die Beurteilung der Relevanz der angebotenen Inhalte für einen bestimmten Kontext, d.h. um eine Bewertung der didaktischen Qualität eines Angebotes. Wird die didaktische Güte eines Angebotes aber ebenfalls in die Prozesse der Qualitätssicherung einbezogen, dann ist es mit einer simplen Begutachtung der Inhalte durch Fachexperten/innen nicht getan. Es müssen vielmehr Modelle und Evaluierungsformen entwickelt werden, die ein – auch didaktische Gesichtspunkte berücksichtigendes – Qualitätsmanagement-System favorisieren, das wiederum als Projektsteuerungsinstrument wahrgenommen, kontinuierlich überprüft und adaptiert wird. 4 Zusammenfassung Aus unserer Sicht sind Initiativen für freie Bildungsressourcen Katalysatoren für didaktische Innovation. OER Aktivitäten erfordern nämlich entweder a priori Überlegungen zu einer möglichst kontextfreien Entwicklung von Ressourcen oder aber a posteriori Konzepte, Hinweise und Ideen wie die unter einem spezifischen Gesichtspunkt zusammengestellten Ressourcen auch unter anderen Kontexten von anderen NutzerInnen Verwendung finden können. Damit OER Projekte erfolgreich sind, müssen sie einer Reihe von Anforderungen genügen. Das sind: (1) Eine klare didaktische Zieldefinition, (2) ein überzeugendes auf WinWin-Situationen aufgebautes didaktisch motiviertes Geschäftsmodell, (3) vielfältige Möglichkeiten unterschiedlicher didaktischer Integrationen, (4) technische Möglichkeiten und Hilfestellungen für didaktische Adaptionen, (5) eine verständliche und übersichtliche Kommunikation der Lizenzbedingungen möglichst mit Hinweisen auf alternative Möglichkeiten und (6) den Aufbau eines intrinsisch motivierten Qualitätssicherungsprozesses. Literaturverzeichnis [Al06] Albright, P. (2006). Internet Discussion Forum Open Educational Resources: Open Content for Higher Education: Final Forum Report [online]. http://www.unesco.org/ iiep/eng/focus/opensrc/PDF/OERForumFinalReport.pdf, [30.06.2007]. [ABH07] Atkins, D.E., Brown, J.S., & Hammond, A.L. (2007). A Review of Open Educational Resources (OER) Movement : Achievements, Challenges, and New Opportunities [online]. http://www.oerderves.org/wp-content/uploads/A%20Review%20of%20the%20 Open%20Educational%20Resources%20(OER)%20Movement%20Final.doc, [30.06.2007]. 64 [Ba07] Baumgartner, P. (2007). Medida-Prix – Quo vadis ? Gedanken zur zukünftigen Ausrichtung des mediendidaktischen Hochschulpreises. In Forum Neue Medien (Hrsg.), ELearning. Strategische Implementierungen und Studieneingang (S. 68-81). Graz : Verlag Forum Neue Medien. [Dh06] Dholakia, U.M., (2006). What Makes an Open Education Program Sustainable? The Case of Connexions [online]. http://oer.wsis-edu.org/MALMOE/malmoe-Dholakia.pdf, [30.06.2007] [Do07] Downes, S. (2007). Models for Sustainable Open Educational Resources. Interdisciplinary Journal of Knowledge and Learning Objects, (3). http://scholar.google.com/ scholar?hl=de&lr=&q=cache:LY7BwSPrzpcJ:www.ijklo.org/Volume3/IJKLOv3p029044Downes.pdf+UNESCO+definition+OER, [30.06.2007]. [Hy06] Hylen, J. (2006). Open Educational Resources: Opportunities and Challenges [online]. http://www.oecd.org/document/10/0,2340,en_2649_33723_37351178_1_1_1_1,00.html, [30.06.2007]. [Mm07] MMB Institut für Medien und Kompetenzforschung (2007). Open Educational Resources an internationalen Hochschulen – eine Bestandsaufnahme [online]. www.campusinnovation.de/files/MMB_OpenEdRes_Feb2007.pdf, [30.06.2007]. [Ol07] OLCOS, G. (2007). Open Educational Practices and Resources : OLCOS Roadmap 2012 [online]. http://www.olcos.org/english/roadmap/download/, [30.06.2007]. [Un02] UNESCO (2002). Forum on the Impact of Open Courseware for Higher Education in Developing Countries. Final Report [online]. http://unesdoc.unesco.org/images/0012/ 001285/128515e.pdf , [30.06.2007]. [Wi06] Wiley, D. (2006). On the Sustainability of Open Educational Resource Initiatives in Higher Education [online]. http://opencontent.org/docs/oecd-report-wiley-fall-2006.pdf, [16.06.2007]. [ZB07] Zauchner, S., & Baumgartner, P. (in Druck). Herausforderung OER – Open Educational Resources. In Tagungsband der GMW Tagung 2007 in Hamburg. Münster: Waxmann. Internetadressen [W01] [W02] [W03] [W04] [W05] [W06] http://ocw.mit.edu/OcwWeb/index.htm [30.06.07] http://www.ocwconsortium.org/ [30.06.07] http://www.ocwconsortium.org/about/members.shtml [30.06.07] http://www.peter.baumgartner.name/goodies/aspekte-freier-bildungsressourcen/shigerumiyagawa [30.06.07] http://ocw.mit.edu/OcwWeb/Global/AboutOCW/medicoverage.htm [30.06.07] http://creativecommons.org/ [30.06.07] 65 66 Organisation tutorieller Betreuung beim E-Learning Nadine Ojstersek Lehrstuhl für Mediendidaktik und Wissensmanagement Universität Duisburg-Essen Forsthausweg 2 47057 Duisburg nadine.ojstersek@uni-due.de Abstract: Die Organisation und Gestaltung der Betreuungskomponente ist ein wesentlicher Erfolgsfaktor für das E-Learning. Jedoch wird häufig der hohe Zeit- und Kostenaufwand für die Betreuung und die Bedeutung eines leistungsfähigen Planungs- und Zeitmanagements unterschätzt. Durch das Level Support-Konzept können Lernende optimal unterstützt werden und zugleich wird ein angemessener Arbeitsaufwand für Betreuende gewährleistet. Insbesondere bei stark arbeitsteiligen Betreuungskonzepten ist die Klärung und Transparenz von Abläufen, Zuständigkeiten und Entscheidungskompetenzen erforderlich. Der kombinierte Einsatz einer Lernplattform und eines Content Management Systems kann sowohl die Entwicklung aktiver Learning Communities unterstützen als auch den Austausch und die Zusammenarbeit im Betreuungsteam fördern. 1 Einleitung In Diskussionen über die technischen Möglichkeiten des E-Learning fließen zunehmend pädagogische bzw. fachinhaltliche und -didaktische Aspekte ein. Es wurde erkannt, dass Medien zwar eine unterstützende Funktion beim Lernen übernehmen, jedoch didaktisch aufbereitetes und in technischen Medien zur Verfügung gestelltes Wissen allein keine Garantie für den Erfolg eines Lernangebotes bietet [Sc04]. Insbesondere die personelle Betreuung spielt eine wichtige Rolle für erfolgreiches E-Learning [HB02a]. Darüber hinaus ist die Frage der Effizienz und Effektivität mediengestützten Lernens für alle Entscheidungsträger und solche, die sich mit der Überlegung tragen, neue Medien in Bildungseinrichtungen einzusetzen, von zentraler Bedeutung [Ke01]. Um die Lernenden optimal zu unterstützen und zugleich einen angemessenen Betreuungsaufwand gewährleisten zu können, ist eine sorgfältige Konzeption langfristig tragfähiger Betreuungskonzepte erforderlich. Anhand des weiterbildenden Online-Studienprogrammes Educational Media1 wird das Level Support-Konzept als eine Möglichkeit der effizienten und effektiven Organisation und Gestaltung tutorieller Betreuung veranschaulicht. Darüber hinaus wird die Verknüpfung softwareunterstützter Betreuung mit personeller Unterstützung aufgezeigt. 1 http://online-campus.net (Stand: 30.06.2007) 67 2 Konzept des Level Supports Im Gegensatz zu Präsenzlernangeboten wächst beim E-Learning der Betreuungsaufwand mit steigender Teilnehmerzahl wesentlich steiler an [GSW03]. Insbesondere, wenn die optimale Betreuungsrelation von maximal 1:12 bis 1:15 [Mü01] überschritten wird. Um die Qualität der Betreuung beim E-Learning, auch unter Berücksichtigung eines angemessenen Betreuungsaufwandes, realisieren zu können, bietet das Konzept des Level Supports Anhaltspunkte für die Organisation tutorieller Betreuung. Im Bereich des ITService Managements wird die Implementierung eines Level Supports bereits als eine notwendige Voraussetzung für die zielgerichtete Bearbeitung von Kundenanfragen betrachtet, um qualitativ hochwertige Dienstleistung zu konkurrenzfähigen Preisen anbieten zu können [EK04]. Die Einbeziehung möglichst vielfältiger Kommunikations-wege soll eine schnelle und kompetente Beantwortung von Anfragen, z.B. durch den Einsatz eines Call Center, bieten [BF99]. Dieses Konzept wird zunehmend auch von Bildungsorganisationen übernommen. Als erste und zentrale Anlaufstelle für Lernende [EHF98] [Wo04] stellt es den zentralen Kontaktpunkt zwischen Lernenden (Kunden) und Betreuenden (Kunden-Service) dar. Durch eine zentrale Anlaufstelle kann verhindert werden, dass die Lernenden versuchen, kompetente Betreuungspersonen direkt zu erreichen, da dies bei Erfolglosigkeit unnötige zeitliche Ressourcen strapaziert und dies zu Frustrationen bei den Lernenden und Betreuenden führen kann. Darüber hinaus wird eine kompetente und schnelle Beratung ermöglicht sowie die Notwendigkeit der Weiterleitung an andere Ansprechpersonen reduziert [Wo04]. Aus diesem Grund sollten auch kleine Bildungsanbieter – mit einer geringen Anzahl von Lernenden und geringen finanziellen Mitteln – eine solche zentrale Anlaufstelle anbieten (z.B. Sekretariat) (vgl. Abb. 1). CALL CENTER BETREUENDE LERNENDE LERNENDE LERNENDE Abbildung 1: Kontaktpunkt Call Center Das Hauptziel besteht daher darin, eine schnelle Hilfe für aktuell auftretende Probleme zu bieten, d.h. möglichst viele Fragen bereits bei der ersten Kontaktaufnahme zu beantworten, um auf diese Weise eine geringe Weitergabe von Fragen und Problemmeldungen an nachfolgende Spezialistenteams zu vermeiden [RM98]. 68 Um die auf diese Weise gewonnenen, vielfältigen Informationen über die Lernenden zu dokumentieren, ist eine geeignete Software erforderlich. Nur durch die technischen Möglichkeiten der Informationssammlung und des -austausches kann eine optimale Betreuung gewährleistet werden. Beispielsweise können Gesprächsverläufe dokumentiert und bei erneuten Anfragen des Lernenden bei der Beratung – auch durch andere Betreuende – eingesehen und berücksichtigt werden. Durch die Dokumentation und Analyse von Informationen über die Lernenden wird auf diese Weise eine kompetente und schnelle Beratung ermöglicht, die zu einer hohen Zufriedenheit und Teilnehmerbindung führen kann [Wo04]. Die Organisation der Betreuung kann über ein (One Level-Support) oder mehrere Level (Multiple Level-Support) erfolgen. 2.1 One Level-Support Erfolgt die Organisation der Betreuung als One Level-Support, stellen die Lernenden ihre Anfragen direkt an die, für diese Fragestellung kompetente/n Ansprechpartner/in und erhalten von dieser Person eine Rückmeldung. Zusätzlich zu den Lehrenden werden durch den Einsatz neuer Medien auch im Rahmen traditioneller Lernangebote weitere Personen in das Betreuungsteam integriert, die im Rahmen eines „One Level-Supports“ bei Bedarf von den Lernenden direkt kontaktiert werden (vgl. Abb. 2). Kursbetreuer/in LERNENDE Techniker Sekretariat Abbildung 2: One Level-Support Ob die Betreuung im Rahmen eines One Level-Support oder – wie im nächsten Kapitel beschieben – über mehrere Level erfolgen sollte, ist abhängig von der Betreuungsrelation, den finanziellen und personellen Ressourcen der Bildungsorganisation und der Anzahl der Lernenden. Können kleine Betreuungsorganisationen mit einer geringen Anzahl von Lernenden keine zentrale Anlaufstelle anbieten, müssen bei einem solchen One Level-Konzept alle Beteiligten umfassend informiert sein (z.B. unterstützt durch eine technische Informationsbasis), um möglichst viele Fragen aus unterschiedlichen Bereichen beantworten und somit die Notwendigkeit einer Weiterleitung verhindern zu können. Darüber hinaus wird das Verantwortlichkeitsgeflecht insbesondere bei einer differenzierten Arbeitsteilung leicht unübersichtlich, so dass die Lernenden bei der Suche nach einer kompetenten Ansprechperson unterstützt werden sollten. Die Kentucky Virtual University2 bietet den Lernenden beispielsweise die Möglichkeit, ihr Problem in ein Hilfeformular einzugeben. Die Lernenden erhalten daraufhin eine Telefonnummer 2 Kentucky Virtual University: http://www.kyvu.org (Stand 26.03.2007) 69 der entsprechenden Ansprechperson [HM03]. Weitere Unterstützungsmöglichkeiten werden in Kapitel 2.4 und Kapitel 3.2 erläutert. 2.2 Multiple Level-Support Das Konzept des Two Level-Supports [AKT02] und Three Level-Supports [Wi01] wird zunehmend auf den Bereich E-Learning übertragen. Eine Betreuung über mehrere Level hinweg ist insbesondere geeignet, um eine große Anzahl von Lernenden effektiv und effizient zu betreuen. In Anlehnung an ein Call Center erfolgt eine Bearbeitung von Anfragen seitens der Lernenden über mehrere Level hinweg (vgl. Abb. 3). FRONT OFFICE LERNENDE BACK OFFICE Experte/Expertin A Call Center Experte/Expertin B Experte/Expertin C Abbildung 3: Front Office- und Back Office-Bereiche [Oj07] Als „Front Office“ wird der Bereich bezeichnet, der als erste zentrale Anlaufstelle von eingehenden Anfragen erreicht wird. Hier stehen Ansprechpartner/innen zur Verfügung, die über die erforderlichen Kenntnisse verfügen, um eine möglichst große Anzahl von eingehenden Anfragen bereits hier abschließend zu bearbeiten oder diese ggf. gezielt weiterzuleiten [BF99]. Da die Lernenden beim E-Learning gerade zu Beginn des Lernangebotes viele Anfragen stellen, können die Betreuenden zumindest in dieser Kernphasen durch beispielsweise fortgeschrittene Studierende von der Beantwortung einfacher technischer und organisatorischer Anfragen entlastet werden. In den „Back OfficeBereich“ werden die Anfragen an Expert/inn/en weitergeleitet, für die im Front Office kein ausreichender Service gewährleistet werden konnte. Der Vorteil für die Lernenden bei einem Multiple Level-Konzept besteht darin, dass ‚Universalansprechpersonen‘ im First Level-Support für alle Fragen zeitnah zur Verfügung stehen. Darüber hinaus wird den Lernenden abgenommen, die kompetente Ansprechperson für ihr Anliegen selber herauszufinden. Sollte der First Level-Support den Lernenden nicht weiterhelfen können, wird die Anfrage an eine kompetente Ansprechperson im Second Level-Support weitergeleitet. Für die Betreuenden besteht der Vorteil dieses Konzeptes darin, dass sie durch das Filtern von einfachen organisatorischen oder technischen Anfragen deutlich entlastet werden [AKT02]. Bei einem Three Level-Support wird das „First Level“ (Front Office) und das „Second Level“ (Back Office-Bereich) durch das „Third Level“ ergänzt. Dieser dritte Bereich um-fasst beispielsweise die Dienstleistung des Herstellers oder externe Spezialist/inn/en. Wilbers [Wi01] veranschaulicht einen möglichen Three Level-Ablauf der Betreuung beim E-Learning im universitären Bereich. Im Level 1 erfolgt die sofortige Bearbeitung einfacher Anfragen durch beispielsweise eine/n Mitlerner/in oder studentische/n Tu- 70 tor/in. Komplexere Anfragen werden an höher qualifizierte Mitarbeiter/innen (z.B. wissenschaftliche Mitarbeiter/innen) im Level 2 weitergeleitet. An das Level 3 erfolgt eine Weiterleitung von Anfragen an die Entwicklungsabteilung, Professor/inn/en, (externe) Expert/inn/en oder Techniker/innen. Die Voraussetzung für eine optimale Zusammenarbeit zwischen den verschiedenen Level besteht in klaren Strukturen hinsichtlich der Aufgaben und Verantwortlichkeiten eines jeden Teammitgliedes, um die Weiterleitung der Anfragen aus dem Front Office an die korrekte, zuständige Person im Back Office zu gewährleisten. Für den Three LevelAblauf der tutoriellen Betreuung besteht bei Einsatz weniger qualifizierter Ansprechpartner/innen im ersten Level vor allem die Gefahr, dass Fragen nicht kompetent beantwortet werden [BF99]. Lösungsmöglichkeiten werden in Kapitel 2.4 und Kapitel 3.2 erläutert. 2.3 Lerngruppen- und Fachtutor/inn/en Wird in einem Betreuungskonzept die Trennung zwischen Lerngruppentutor/inn/en und Fachtutor/inn/en umgesetzt, fungieren die Lerngruppentutor/inn/en als First LevelSupport und die Fachtutor/inn/en als Second Level-Support (vgl. Abb. 4). FIRST LEVEL-SUPPORT SECOND LEVELSUPPORT Lerngruppentutor/in LERNENDE Fachtutor/in Sekretariat/Verwaltung Technischer Support Abbildung 4: Two Level-Support [Oj07] Nach Sautner und Sautner [SS04] hat sich insbesondere bei zeitlich umfangreichen Bildungsangeboten und bei Lernangeboten mit konstanten Lerngruppen bewährt, die Bereiche der fachlichen Unterstützung und der Lerngruppenbetreuung voneinander zu trennen (vgl. Abb. 5). Im Folgenden wird anhand des Studienprogrammes Educational Media veranschaulicht, wie durch eine Trennung der Aufgabenbereiche die personellen Ressourcen im Betreuungsteam optimal genutzt werden können. LERNGRUPPENTUTOR/IN FACHTUTOR/IN Moderation von Lerngruppentreffen Klärung organisatorischer Fragen Motivation „Organisatorische/r Vermittler/in“ Produktion von Lernmaterial Fragenbeantwortung/Feedbacks Vorträge/Workshops Prüfungen/Leistungsbeurteilung Abbildung 5: Trennung Lerngruppentutor/in und Fachtutor/in [Oj07] 71 Ein/e Lerngruppentutor/in begleitet ihre bzw. seine Lerngruppe über den gesamten Verlauf des Lernangebotes und je nach aktuellem Themengebiet bzw. Modul, stoßen die entsprechenden Fachtutor/inn/en als Ansprechpartner/innen hinzu. Die Begleitung durch Fachtutor/inn/en erfolgt im Rahmen dieses Betreuungskonzeptes durch die Aufbereitung und inhaltliche Betreuung der Kurse bzw. Lernmaterialien. Lerngruppentutor/inn/en stehen jedoch im direkten Diskurs mit den Lernenden und benötigen daher auch ein gewisses Fachwissen [Ar04]. Nach Sautner und Sautner [SS04] vereint sich idealerweise die Rolle von Lerngruppentutor/inn/en und die Rolle von inhaltlichen Expert/inn/en in einer Person. Ein solches Betreuungskonzept eignet sich insbesondere, wenn Lernende in temporären Lerngruppen ein Lernangebot durchlaufen und sich themen- bzw. modulabhängig im Verlauf des Lernangebotes mehrfach neu zusammensetzen und dementsprechend eine temporäre Lerngruppenbetreuung ausreicht. Die Arbeitsteilung in einem Betreuungsteam macht ein gut organisiertes Personaleinsatzmanagement erforderlich [EHF98]. Im folgenden Kapitel wird die zentrale Schnittstellenfunktion beschrieben, die von Online-Tutor/inn/en eingenommen wird und dargestellt, wie diese durch den Aufbau eines effektiven Informationsmanagements unterstützt werden kann. 2.4 Technologische Unterstützung und Klärung der Verantwortlichkeiten Für ein erfolgreiches Betreuungskonzept ist ebenso wie bei einer Call CenterImplementierung die Entwicklung wirkungsvoller Prozesse und Verfahren, die Nutzung geeigneter Technologien sowie die Koordination und Zusammenführung der unterschiedlichen Aufgaben erforderlich [EHF98]. Lerngruppentutor/inn/en nehmen im Rahmen eines solchen Betreuungsteams eine zentrale Schnittstellenfunktionen ein [AKT02]. Als unmittelbare Ansprechpartner/innen für die Lernenden fungieren sie als ‚Brücke‘ bzw. ‚organisatorische Vermittler‘ zwischen den Lernenden, den Autor/inn/en, technischen Expert/inn/en und dem Bildungsträger. LERNGRUPPENTUTOR/IN LERNENDE Abbildung 6: Lerngruppentutor/in als Brücke 72 EXPERT/INN/EN, AUTOR/INN/EN ETC. LERNENDE LERNENDE Arnold et al. [Ar04] weisen darauf hin, dass die Betreuenden klare Vorstellungen über ihre Rollen, Funktionen und Aufgaben sowie eine klare Verortung innerhalb des Verantwortungsgeflechtes benötigen. Durch klare Strukturen und die Klärung von Zuständigkeiten und Entscheidungskompetenzen können die personellen Ressourcen effizient genutzt werden. Die Zuständigkeitsbereiche sind sowohl gegenüber den Lernenden, als auch innerhalb des Betreuungsteams transparent zu machen. Die Transparenz der Zuständigkeitsbereiche und die erforderliche enge Abstimmung im Betreuungsteam [HB02b] erfordert eine ausreichende Versorgung mit relevanten Informationen (z.B. über die Struktur der Organisation und des Bildungsangebotes, Verantwortungsbereiche aller Mitarbeiter/innen, Ansprechpartner/innen für Online-Tutor/inn/en und Lernende sowie über Kurse, Module und Gestaltungsspielräume) [Ar04]. Zur Qualitätssicherung des Lernangebotes – insbesondere wenn die Mitglieder eines Betreuungsteams nicht an einem Ort tätig sind – ist ein transparenter Informations-fluss zu gewährleisten, um einen gemeinsamen Austausch über Ideen zur Modul-verbesserung und die Klärung allgemeiner Fragen zu ermöglichen [Ar04]. Dies kann durch den Aufbau eines effektiven Informations- bzw. Wissensmanagements ermöglicht werden, beispielsweise durch die Nutzung einer speziellen Software, die den Aufbau von Wissensdatenbanken unterstützt. In einem Datenpool werden u.a. technische Problemlösungen gesammelt, auf die bei Bedarf direkt zugegriffen werden kann. Obwohl der Aufbau einer solchen Wissensdatenbank und eines effektiven Informations-managements mit einem erheblichen Aufwand verbunden ist, bietet die konsequente Umsetzung eine Reihe von Vorteilen für die Organisation (z.B. eine steigende Sofort-lösungsquote, geringere Einarbeitungs- und Schulungszeiten der Mitarbeiter/innen, eine sichere Archivierung von Informationen, eine höhere Effizienz beim Informations-austausch und eine höhere Flexibilität sowie letztendlich auf diese Weise Kosten-einsparungen) (vgl. Kapitel 2.4 und Kapitel 3.2). 3 Studienprogramm Educational Media Im Folgenden wird das Konzept des Level Supports anhand des viersemestrigen, berufsbegleitenden Online-Weiterbildungsstudiums Educational Media3 der Universität Duisburg-Essen veranschaulicht. 3.1 Betreuungskonzept Das Studium startet mit einer Präsenzveranstaltung, um den Lernenden insbesondere eine technische Einführung zu geben und um die Lerngruppenbildung zu unterstützen. Die Lerngruppen bestehen aus ca. sechs Personen und werden das gesamte Studium über von einem bzw. einer Lerngruppentutor/in begleitet. Nach der Präsenzveranstaltung folgt die erste Onlinephase, in der den Studierenden in einem dreiwöchigen Rhythmus Studienmaterialien (Studienbriefe, Einzel- und Gruppenaufgaben etc.) auf einer Lernplattform zur Verfügung gestellt werden. Jedes Semester schließt mit einer Präsenzveranstaltung ab, um Prüfungen abzulegen, Projekte zu präsentieren und um den Aus3 http://www.online-campus.net (Stand 24.03.2007) 73 tausch in den Lerngruppen zu fördern. Um die persönliche Beziehung zwischen den Online-Tutor/inn/en und den Lernenden sowie zwischen den Lernenden zu vertiefen, finden darüber hinaus gemeinsame Abendessen und Exkursionen statt. Zum Studienabschluss erfolgt im Rahmen einer Abschlussveranstaltung die Verleihung der MasterUrkunden. Anschließend werden die Absolvent/inn/en in ein Alumni-Netzwerk aufgenommen. Um das Gruppengefühl zu stärken und personale Präsenz herzustellen, ist die Kommunikation zwischen Online-Tutor/inn/en und Lernenden von besonderer Bedeutung [NNK04]. Es finden daher alle drei Wochen virtuelle, synchrone Lerngruppentreffen statt, bei denen auch der/die Lerngruppentutor/in anwesend ist. Im Vordergrund steht hierbei nicht nur der fachliche Austausch, sondern auch die Koordination der Gruppenaufgabenbearbeitung, die Klärung organisatorischer Fragen und informelle Gespräche. Da die virtuellen Lerngruppentreffen überwiegend in den Abendstunden und die Präsenzveranstaltungen am Wochenende stattfinden, kann ein/e Lerngruppen-Tutor/in aus terminlichen Koordinationsgründen nur die Betreuung einer begrenzten Anzahl von Lerngruppen übernehmen. Daher bietet es sich an, durch die fachliche Betreuung eines Themengebietes das Aufgabenspektrum eines Lerngruppen-tutors bzw. einer Lerngruppentutorin zu ergänzen. Im Rahmen des Studienprogramms wird das „split role model“ [KNG04] umgesetzt, d.h. es erfolgt eine Trennung zwischen Lerngruppen- und Fachtutor/inn/en (vgl. Kapitel 2.3). Jedes Modul wird von Fachtutor/inn/en und die Lerngruppen von Lerngruppentutor/inn/en betreut. Die fachbezogene Betreuung unterstützt insbesondere die Auseinandersetzung der Lernenden mit den Lernmaterialien und die person- bzw. gruppenbezogene Betreuung schafft u.a. eine lernförderliche Atmosphäre in den Lerngruppen [NNK04]. Abbildung 7 veranschaulicht die arbeitsteilige Organisation und das Beziehungsgeflecht zweier Online-Tutor/inn/en. Zwischen allen Beteiligten findet ein intensiver kommunikativer Austausch statt. Fachtutor/in Kurs A Fachtutor/in Kurs B OnlineTutor/in A Lerngruppe A Lerngruppe B OnlineTutor/in B Lerngruppentutor/in A Abbildung 7: Kommunikationsprozesse zwischen Studierenden und Tutor/inn/en [Oj07] Bei diesem Betreuungskonzept wird ein Two Level-Support umgesetzt, bei dem sowohl die Lerngruppentutor/inn/en, Fachtutor/inn/en als auch das Sekretariat den First LevelSupport übernehmen. Die Fachtutor/inn/en stehen für inhaltliche Anfragen zur Verfügung und leiten u.U. Anregungen und Kritik an die Autor/inn/en der Studien-materialien weiter. Organisatorische Anfragen werden an die Lerngruppentutor/inn/en oder an das Sekretariat gestellt. Einige Anfragen erfordern darüber hinaus eine Rücksprache mit der Studienprogrammleitung. Die Beantwortung technischer Anfragen übernehmen die 74 Lerngruppentutor/inn/en. Diese werden nur dann an den technischen Support übermittelt, falls eine abschließende Beantwortung nicht möglich war. Die Betreuung durch die Online-Tutor/inn/en erfolgt im Rahmen der üblichen Bürozeiten und zusätzlich am Abend (z.B. virtuelle Treffen) oder an Wochenenden (Präsenzveranstaltungen). Ermöglicht wird diese umfangreiche Betreuung durch eine arbeitsteilige Organisation, einen flexiblen Arbeitszeitrahmen sowie durch einen transparenten Informationsfluss. Die Mehrheit der Studierenden des Online-Studienprogramms empfinden laut einer Studierendenbefragung [Oj07] die Betreuung als sehr wichtig4, die Rollenaufteilung beim diesem Studienprogramm als gut nachvollziehbar5 und sind mit der Betreuung zufrieden 6. Die Frage, ob sich die Lernenden im Laufe des Lernangebotes einen Wechsel des bzw. der Lerngruppen-tutors/in gewünscht haben, wird von allen Befragten verneint. Die Gegenfrage, ob die Lernenden lieber eine/n Online-Tutor/in hätten, der/die sowohl für die fachliche Betreuung sowie auch für die Betreuung der Lerngruppe verantwortlich ist zeigt, dass dies überwiegend nicht der Fall ist7. Die Ergebnisse weisen darauf hin, dass das Betreuungskonzept im Rahmen eines Two Level-Supports bei diesem Online-Studien-programm erfolgreich umgesetzt wird. Durch den Two LevelSupport kann das häufig unterschätzte Betreuungsproblem gelöst werden, dass Anfragen von Lernenden und Studieninteressierten nicht ausreichend schnell und kompetent beantwortet werden. Das Multiple Level-Konzept hat den Vorteil, dass die Lerngruppentutor/inn/en über ein großes Überblickswissen verfügen und den Lernenden als erste Ansprechpartner/innen zur Verfügung stehen sowie die meisten Anfragen umgehend beantwortet können oder die Lernenden an eine kompetente Ansprechperson weiterleiten. Darüber hinaus werden die Fachtutor/inn/en von der Beantwortung einfacher technischer und organisatorischer Anfragen entlastet. LERNENDE FIRST LEVEL-SUPPORT Lerngruppentutor/in Sekretariat/Verwaltung Fachtutor/in SECOND LEVEL-SUPPORT Autor/inn/en Technischer Support Studienprogrammleitung Abbildung 8: Two Level-Support im Studienprogramm Educational Media 3.2 Lernumgebung Im Rahmen des Online-Studienprogramms Educational Media ermöglicht die Kombination einer Lernplattform und eines Content Management Systems einen transparenten Informationsfluss unter den Lernenden, Betreuenden sowie auch zwischen den Lernen4 sehr wichtig (61,5%) bzw. überwiegend wichtig (38,5%) vollkommen (38,5%), überwiegend (23,1%), etwas (23,1%) bzw. kaum (15,4%) nachvollziehbar (n=13) 6 sehr zufrieden (76,9%) bzw. zufrieden (23,1%) mit der Betreuung durch die Lerngruppentutor/inn/en. Mit der Betreuung durch die Fachtutor/inn/en sind 69,2% der Befragten sehr zufrieden und 30,8% zufrieden (n=13) 7 61,5% der Befragten überhaupt nicht, kaum (7,7%) bzw. nur etwas (15,4%) zutrifft. Nur für einen Befragten (7,7%) trifft dies überwiegend und für einen Befragten (7,7%) vollkommen zu. (n=13) 5 75 den und Betreuenden (vgl. Kapitel 2.4). Auf diese Weise wird der Lernprozess der Studierenden gefördert und die Online-Tutor/inn/en bei der Organisation der Betreuung unterstützt. Die Lernplattform Online-Campus8 bietet den Studierenden eine personalisierbare Umgebung. Neben Lernmaterialen, dem aktuellen Lernstand sowie vielfältigen Kommunikations- und Kooperationswerkzeugen (z.B. Forum, Chat) lassen sich darüber hinaus externe Werkzeuge und Informationsquellen (z.B. Blogs, Wikis, Newsfeeds, Podcasts) integrieren. Diese können auf einer individuell konfigurierbaren Startseite ausgewählt und eingestellt werden. Auf diese Weise wird ein intensiver Austausch, sowohl zwischen den Lernenden als auch mit den Betreuenden, unterstützt. Im Rahmen von Einzel- und Gruppenaufgaben arbeiten die Lernenden beispielsweise alleine oder gemeinsam in Lerngruppen an Materialien und produzieren Inhalte. Die Wahl eines Werkzeugs zu Lösung der Aufgaben steht den Studierenden in der Regel frei. Die Lernenden werden jedoch dabei unterstützt, verschiedene Bearbeitungsmöglichkeiten einer Lernaufgabe und Tools sowie ihre Möglichkeiten und Grenzen kennen zu lernen und zu reflektieren. Die Entscheidung, welches Tool sie letztendlich nutzen möchten und welche Vorgehensweise bei der Aufgabenlösung sie wählen, obliegt letztendlich den Lernenden. Dies kann für ein- und dieselbe Aufgabe von einer Lerngruppe ein Blogeintrag und von einer anderen Lerngruppe ein Wikibeitrag sein. Darüber hinaus bietet das persönliche Profil im Online-Campus den Lernenden umfangreiche Möglichkeiten, die Eindrucksbildung zu unterstützen. Die Lernenden und OnlineTutor/inn/en stellen sich hier mit ihrem Foto sowie mit ihren beruflichen und persönlichen Angaben vor. Zusätzlich können vielfältige Kontaktinformationen eingebunden werden (z.B. ICQ-Nummer, Skype-Name, eigene Homepage). Zur weiteren Unterstützung der Studierenden und als zentrales Werkzeug im Rahmen des Betreuungsteams wird darüber hinaus ein Content Management System (CMS) (Drupal) eingesetzt. Durch ein differenziertes Rollen- und Rechtesystem wird die Grundidee, dass sich alle Nutzer/innen mit eigenen Beiträgen, Kommentaren oder Blogeinträgen etc. aktiv an einer Website beteiligen können, umgesetzt. Statt lediglich Kommunikations-möglichkeiten und Content für Lernende bereit zu stellen wird von einem didaktischen Ansatz ausgegangen, der individuelle und soziale Lernaktivitäten fokussiert.9 Neben der Bereitstellung eines umfangreichen Informationspaketes (z.B. Übersicht der Studieninhalte und Ansprechpartner) bietet ein CMS u.a. die Möglichkeit für die Organisation von Terminen, Bildern und Anmeldungen 10. So werden beispielsweise nach jeder Präsenzveranstaltung von den Online-Tutor/inn/en und Studierenden Bilder eingestellt und ausgetauscht. Darüber hinaus dient das CMS als Evaluationstool und zur Teilnehmerverwaltung. Neben regelmäßig durchgeführten Befragungen werden hier alle Studierendeninformationen dokumentiert (vgl. Kapitel 2.4). Ebenso wie die Lernenden können auch die Online-Tutor/inn/en gemeinsam Inhalte erstellen und editieren. Diese Möglichkeit wird im Rahmen des Betreuungsteams häufig genutzt, um auch virtuell gemeinsam Ideen und Materialien zu entwickeln. Die Inhalte werden als RSS-Feed exportiert bzw. importiert sowie Nachrichten aus externen Blogs und Links auf persönliche (externe) Internet-Tools (z.B. die persönliche Website, Flickr, Furl) eingebunden. Darüber hinaus werden Neuigkeiten zum Thema E-Learning von externen Sites integriert und gesam8 9 http://online-campus.net (Stand 24.03.2007) http://mediendidaktik.uni-duisburg-essen.de/drupalms (Stand 24.03.2007) http://mediendidaktik.uni-duisburg-essen.de/node/3566 (Stand 24.03.2007) 10 76 melt.11 Auf diese Weise unterstützt ein Content Management System einerseits die Entwicklung aktiver Learning Communities, andererseits wird der Austausch und die Zusammenarbeit im Betreuungsteam durch die Möglichkeit u.a. der gemeinsamen Erstellung von Leitfäden für (externe/neue) Online-Tutor/inn/en, des Austauschs von Bookmark-Liste, Terminen und Bildern gefördert. Die Webseite wird zunehmend zu einem Ort des sozialen Austausches, zwingt jedoch die Lernenden und Betreuenden nicht, diesen Ort als Zentralstelle für alle ihre Informationen anzuerkennen. Stattdessen holt sich das System die Informationen von verschiedenen Orten und führt sie an einem zentralen Ort zusammen [Ke06]. 4 Fazit Im Rahmen eines Betreuungskonzeptes sollten vielfältige Möglichkeiten für eine indirekte Betreuung (z.B. Informationsangebote und Selbsteinschätzungstests, technische Hotline) als auch für eine direkte, persönliche Betreuung durch die aktive Kontaktaufnahme und Interaktion mit den Lernenden mittels einer großen Bandbreite an Kommunikationsmöglichkeiten (Foren, Instant-Massaging etc.) berücksichtigt werden. Die Angemessenheit einer direkten oder indirekten Betreuung ist einerseits abhängig vom Lernszenario und andererseits von den Bedürfnissen der Lernenden. Bei anspruchsvollen, komplexen und zeitlich lang angelegten Lernangeboten ist eine aktive und direkte Unterstützung der Lernenden von großer Bedeutung [Ar04]. Lernende wünschen sich eine zentrale Anlaufstelle und eine schnelle Beantwortung ihrer Anfragen. Das Konzept des Level Support bietet eine Möglichkeit der effizienten und effektiven Organisation und Gestaltung tutorieller Betreuung. Insbesondere bei stark arbeitsteiligen Betreuungskonzepten, bei denen die Betreuung über verschiedene Level erfolgt, können die personellen Ressourcen durch klare Strukturen und die Klärung und Transparenz von Zuständigkeiten und Entscheidungskompetenzen effizient genutzt werden. Sowohl für die Versorgung mit relevanten Informationen innerhalb des Betreuungsteam als auch für die Gestaltung einer bedarfsgerechten Betreuung der Lernenden bietet die Kombination einer Lernplattform mit einem Content Management System vielfältige Möglichkeiten. Literaturverzeichnis [AKT02] Arnold, P.; Kilian, L. & Thillosen, A.: So lonely!?! – Online-Betreuung als kritische Erfolgsbedingung beim telematischen Studieren. Ergebnisse einer Befragung von Studierenden und Mentoren in der Virtuellen Fachhochschule für Technik, Informatik und Wirtschaft (VFH). In G. Bachmann; O. Haefeli & M. Kindt (Hrsg.), Campus 2002: Die Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band 18, S. 334–344). Waxmann, Münster, 2002. [Ar04] Arnold, P.; Kilian, L.; Thillosen, A. & Zimmer, G.: E-Learning. Handbuch für Hochschulen und Bildungszentren. Didaktik, Organisation, Qualität. BW Bildung und Wissen, Nürnberg, 2004. [BF99] Böse, B. & Flieger, E.: Call Center. Mittelpunkt der Kundenkommunikation. Vieweg & Sohn, Braunschweig, Wiesbaden, 1999. 11 www.medida.info (Stand 24.03.2007) 77 [EHF98] Evanson, A.; Harker, P. T. & Frei, F. X.: Effective call center management: Evidence from financial services. 1998. Verfügbar unter: http://www.hbs.edu/research/facpubs/wo rkingpapers/papers2/9899/99-110.pdf [02.02.2006] [EK04] Ellis, A. & Kauferstein, M.: Dienstleistungsmanagement. Erfolgreicher Einsatz von prozessorientiertem Service Level Management. Springer, Berlin, Heidelberg, New York, 2004. [GSW03]Gierke, C.; Schlieszeit, J. & Windschiegl, H.: Vom Trainer zum E-Trainer. Neue Chancen für den Trainer von morgen. Offenbach: Gabai, 2003. [HB02a] Herrmann, M. & Barz, H.: Online-Lehrbuch Jugendforschung. In G. Bachmann; O. Haefeli & M. Kindt (Hrsg.), Campus 2002. Die Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band 18, S. 402–407). Waxmann, Münster, 2002. [HB02b] Hinze, U. & Blakowski, G.: Anforderungen an die Betreuung im Online Lernen: Ergebnisse einer qualitativen Inhaltsanalyse im Rahmen der VFH. In G. Bachmann; O. Haefeli & M. Kindt (Hrsg.), Campus 2002. Die Virtuelle Hochschule in der Konsolidierungsphase (Medien in der Wissenschaft, Band 18, S. 323–333). Waxmann, Münster, 2002. [HM03] Hitch, L. P. & MacBrayne, P.: A Model for Effectively Supporting e-Learning. The Technology Source. Archives at the University of North Carolina, 2003.Verfügbar unter: http://technologysource.org/article/model_for_effectively_supporting_elearning [02.02.2006] [Ke01] Kerres, M.: Multimediale und telemediale Lernumgebungen. Konzeption und Entwicklung. München: Oldenbourg, 2001. [Ke06] Kerres, M.: Web 2.0 und seine Implikationen für E-Learning, deutsche Fassung von: Web 2.0 and its implications to E-Learning, presented at Microlearning Conference, Innsbruck, 9 June 2006, retrieved from http://mediendidaktik.de [KNG04]Kerres, M.; Nübel, I. & Grabe, W.: Gestaltung der Online-Betreuung für E-Learning. In D. Euler & S. Seufert (Hrsg.), E-Learning in Hochschulen und Bildungszentren (S. 335– 349). München: Oldenbourg, 2004. [Mü01] Müskens, I.: Selbstverständnis, Aufgaben und Funktionen von Tutoren in OnlineLernumgebungen. In Arbeitskreis Universitäre Erwachsenenbildung (Hrsg.), Hochschule und Weiterbildung (S. 29-34). Hamburg: AUE Informationsdienst, 2001. [NNK04]Nübel, I.; Nattland, A. & Kerres, M.: Das Studienprogramm Educational Media: Qualifizierung für E-Learning-Experten an Hochschulen. In C. Bremer & K. E. Kohl (Hrsg.), ELearning-Strategien und E-Learning-Kompetenzen an Hochschulen („Blickpunkt Hochschuldidaktik“, S. 411–21). Bertelsmann, Bielefeld, 2004. [Oj07] Ojstersek, N.: Betreuungskonzepte beim Blended Learning. Gestaltung und Organisation tutorieller Betreuung. Waxmann, Münster, 2007. [RM98] Reinmann-Rothmeier, G. & Mandl, H.: Wissensvermittlung. Ansätze zur Förderung des Wissenserwerbs. In F. Klix & H. Spada (Hrsg.), Enzyklopädie der Psychologie, Wissenspsychologie, Band 6 (S. 457–500). Hogrefe, Göttingen, 1998. [Sc04] Schlottau, W.: Fragen der Didaktik virtueller Lernprozesse. In K. Hensge & P. Ulmer (Hrsg.), Kommunizieren und Lernen in virtuellen Gemeinschaften. Neue Wege der Qualifizierung des Bildungspersonals (S. 92–117). Bertelsmann, Bielefeld, 2004. [SS04] Sautner, A.M. & Sautner, W.: Blended Learning: Effiziente Integration von E-Learning und Präsenztraining. Leuchterhand, München, 2004. [Wi01] Wilbers, K.: E-Learning didaktisch gestalten. In A. Hohenstein & K. Wilbers (Hrsg.), Handbuch E-Learning. Fachverlag Deutscher Wirtschaftsdienst, Köln, 2001. [Wo04] Woudstra, A.; Huber, C. & Michalczuk, K.: Call Centers in Distance Education (Chapter 12). Theory and Practice of Online Learning. Althabasca University, 2004. Verfügbar unter: http://cde.athabascau.ca/onlinebook/ch12.html [18.03.2006] 78 Ein generisches Konzept zur Realisierung von Self-Assessments zur Studienwahl und Selbsteinschätzung der Studierfähigkeit Ashraf Abu Baker1, Alexander Tillmann2 1 2 Institut für Graphische Datenverarbeitung, Kompetenzzentrum für Neue Medien in der Lehre Johann Wolfgang Goethe-Universität Frankfurt Robert-Mayer-Str. 10 60325 Frankfurt am Main 1 baker@gdv.cs.uni-frankfurt.de 2 a.tillmann@em.uni-frankfurt.de Abstract: Für eine geeignete Studienwahl ist eine gute Passung zwischen den Studieninteressen und der Studierfähigkeit von angehenden Studierenden auf der einen Seite und den Anforderungen der Studiengänge auf der anderen Seite von besonderer Bedeutung. Sie kann dazu beitragen, Studienabbruchquoten zu senken und die Studienzufriedenheit zu heben. An der Johann Wolfgang GoetheUniversität wurde im Rahmen des Projektes „megadigitale“ ein Self-AssessmentInstrumentarium entwickelt und in die Studienberatung der Studiengänge Informatik und Psychologie integriert. Es wird das neuartige, flexible und erweiterbare Konzept zum Aufbau und Ablauf eines Self-Assessments beschrieben und seine Umsetzung in der Informatik vorgestellt. 1 Einleitung Die Wahl des Studienfaches wird bei vielen Studierenden neben inhaltlich-fachlichen Entscheidungskriterien von zahlreichen anderen Faktoren beeinflusst, wie z.B. den angenommenen Berufchancen, dem Ruf bzw. Ansehen einer Fachdisziplin oder dem Studienort. Neigungen und Fähigkeiten der Studierenden treten bei der Wahl eines Studienganges nicht selten in den Hintergrund. Aufgrund fehlender Kenntnisse und Fehleinschätzungen liegen die Erwartungen der Studierenden häufig mit den tatsächlichen Studieninhalten und Anforderungen weit auseinander. Die von den Hochschulen kurz vor Semesterbeginn angebotenen Orientierungsveranstaltungen richten sich im Wesentlichen an Studierende, die sich bereits für ein bestimmtes Studium entschieden haben. Mangelnde Kenntnis der persönlichen Stärken, unrealistische Einschätzungen bezüglich der eigenen Leistungsfähigkeit und Kompetenzen und falsche Vorstellungen von den Studieninhalten sind in vielen Fällen die Ursachen für Fehlentscheidungen bei der Wahl eines Studiengangs. 79 Self-Assessments (Selbsteinschätzungstests) zur Studienwahl sind darauf ausgerichtet, eine bessere Passung zwischen den Studieninteressen und der Studierfähigkeit von angehenden Studierenden und den Anforderungen eines Studienganges zu erzielen. Dabei werden unterschiedliche Personenmerkmale nach eignungsdiagnostischen Kriterien im Hinblick auf die gegebenen Anforderungen überprüft. Anschließend wird die Qualität des Bearbeitungsergebnisses dem jeweiligen Kandidaten rückgemeldet. Die SelfAssessment-Tests werden eigenständig durchgeführt und die Ergebnisse sollten ausschließlich den Teilnehmern selbst zugänglich sein. Sie dienen der persönlichen Weiterentwicklung der Studienkandidaten und stellen damit einen Baustein zur Unterstützung einer willentlichen Entscheidung für oder gegen ein Studienfach dar. Ein derartiges Studienberatungsangebot zur Erkundung der eigenen Stärken und Schwächen hinsichtlich der Anforderungen des Studienfachs lässt in der Folge einen höheren Anteil an geeigneten Bewerbern für einen bestimmten Studienplatz und eine Steigerung der Studienzufriedenheit erwarten, so dass letztlich auch eine Senkung der Studienabbruchquoten, die vor allem bei naturwissenschaftlichen Studiengängen und der Informatik besonders hoch liegen, erhofft werden kann. Mit Hilfe eines Self-Assessments können Studieninteressierte ihre Erwartungen mit den Inhalten der jeweiligen Studiengänge vergleichen und Hinweise auf die von Seiten der Universität erwartete Leistungsbereitschaft und geforderte kognitive Fähigkeiten bekommen. Eine durchdachte und wohl begründete Wahl der potentiellen Studienplatzbewerber, welche sich neben der erhofften Reduzierung an Studienabbrüchen auch in einer kürzeren Studiendauer niederschlagen sollte, nutzt somit ökonomisch sowohl der Universität als auch dem Bewerber. Anhand der Rückmeldung des Self-Assessments werden Wissenslücken aufgedeckt, so dass eine gezielte Vorbereitung auf das Studium möglich wird. Auf diese Weise kann es zu einem homogeneren Kenntnisstand bei den Studierenden im ersten Semester kommen und einem „Erstsemesterschock“ entgegengewirkt werden. So kann es durch das Beratungsangebot zu einer direkten Verbesserung der Lehrsituation kommen. Im Folgenden wird ein generisches Konzept zur Erstellung eines Self-Assessments vorgestellt und beispielhaft dessen Umsetzung und Implementierung für den Studiengang Informatik an der Johann Wolfgang Goethe-Universität aufgezeigt. Ein vergleichbares Instrumentarium wird für Studieninteressierte bundesweit bisher erst an sehr wenigen Universitäten angeboten. 2 Das Konzept Im Rahmen des E-Learning Projektes „megadigitale“ (www.megadigitale.de) wurde an der J.W. Goethe-Universität im Fachbereich Informatik und Mathematik in Zusammenarbeit mit dem Fachbereich Psychologie ein generisches Konzept zur Realisierung von fachunabhängigen Selbsteinschätzungstests entwickelt, die als Studienberatungsangebot über das Internet zugänglich gemacht werden können. Generisch bedeutet in diesem Zusammenhang, dass das Konzept so allgemeingültig ist, dass es unterschiedlichen Anforderungen genügt und sich damit an jedem Fachbereich und jeder Hochschule in beliebiger Sprache umsetzen lässt. Der allgemeingültige Anspruch bringt einige Anforderungen an das Konzept mit sich. Entsprechend der fachübergreifenden Einsetzbarkeit soll das Konzept die Verwendung beliebiger Aufgabentypen wie z.B. Multiple-/Single- 80 Choice, Short-Answer-Aufgaben („Lückentext“), Ja-Nein-Fragen, figurale Matrizenaufgaben, Hot-Spots, usw. ermöglichen und sich nicht auf bestimmte Aufgabentypen beschränken, um unterschiedliche fachspezifische Aufgabenformen realisieren zu können. Dabei soll das Konzept derart flexibel sein, dass einerseits eine Erweiterung und Umgestaltung von einzelnen Aufgaben und andererseits das Einfügen, Entfernen und Modifizieren von ganzen Testeinheiten mit minimalem Änderungsaufwand möglich ist. Die erfassten Daten und Testergebnisse sollen unmittelbar im Anschluss an die Bearbeitung eine aussagekräftige Beurteilung der Studierfähigkeit der Benutzer sowie die Abbildung und den Vergleich der Ergebnisse anhand einer Profilbildung zulassen. Die Auswertung der Tests muss daher automatisiert ausgeführt werden. Um die Durchschnittswerte nicht zu verfälschen, sollten nicht ernsthaft durchgeführte Tests abgefangen werden. Das Self-Assessment soll darüber hinaus die Anonymität der Nutzer wahren, um eine unbefangene, „angstfreie“ Selbsteinschätzung zu gewährleisten. Teilnehmende sind daher für das System anonyme Benutzer, die nur als solche identifiziert werden können. In der anonymisierten Form liegen die Ergebnisse den Entwicklern zur Studienangebotsplanung und zum Zwecke der Evaluation vor. Die Daten bieten sowohl wichtige Hinweise über Vorkenntnisse und Leistungsniveau der Studienanfänger als auch – nach Vergleich der Daten der Selbsteinschätzungstests mit Studienerfolgsdaten (Klausur- und Prüfungsergebnisse) – über die Eignung des Self-Assessments zur Studienberatung selbst [MJF06]. 2.1 Aufbau Konzeptgemäß besteht ein Self-Assessment aus einem organisatorischen Teil, einem inhaltlichen Teil und einem Auswertungsteil. Der organisatorische Teil umfasst die Start-, Beschreibungs-, Registrierungs- und Zugangsseiten sowie das Passwortmanagement. Die einzelnen Bearbeitungsbereiche werden im organisatorischen Teil vorgestellt und ihre Bedeutung im Studiengang ersichtlich gemacht. Der Aufbau des inhaltlichen Teils folgt einem bottom-up-Ansatz (siehe Abb. 1). Mehrere logisch zusammenhängende Aufgaben werden dabei zu einer Testeinheit, einem so genannten Block, zusammengefasst. Mehrere Blöcke bilden gemeinsam ein Test-Modul. Ein Assessment kann dabei aus beliebig vielen Modulen bestehen, die Fragen zu unterschiedlichen Themenbereichen umfassen. Die Aufgaben können nach kognitiven und nicht kognitiven Aufgaben unterschieden werden [MK07]. Der kognitive Teil umfasst z.B. Aufgaben zur Logik, zur Mathematik, zum algorithmischen Denken oder zum Textverständnis. Zu den nicht kognitiven Aufgabenbereichen „Studienverhalten und –motivation“ gehören unter anderem die Dimensionen Entscheidungsfähigkeit, Erfolgsorientierung, Zielgerichtetheit, Leistungsdenken, Anspruchsniveau, Lernbereitschaft, Arbeitshaltung und Lerntechniken. Während die fachbereichsspezifischen Fragestellungen mit den kognitiven Aufgaben von den jeweiligen Fachvertretern entwickelt werden müssen, können die von den Psy- 81 Abbildung 1: Bottom-up Ansatz des flexiblen und erweiterbaren Self-Assessment-Konzeptes chologen entwickelten nicht-kognitiven Aufgaben zu den Bereichen „Studienverhalten und Studienmotivation“ fachbereichsübergreifend übernommen werden. Der Auswertungsteil fasst die Ergebnisse für unterschiedliche Aufgabendimensionen in einem individuellen Profil zusammen, welches mit Durchschnittswerten und Expertenwerten verglichen werden kann. Dazu werden drei Profile erstellt und graphisch in Profillinien nebeneinander dargestellt. 2.2 Ablauf des Self-Assessments Zur Durchführung des Self-Assessments ist eine anonyme Registrierung erforderlich. Studierende erstellen dazu ein Pseudonym. Nach der Registrierung wird ein Aktivierungslink an die vom Teilnehmer eingetragene E-Mail-Adresse gesendet. Mit Hilfe des Links wird der persönliche Self-Assessment-Zugang aktiviert. Die Bearbeitung der Module kann sowohl im online- als auch im offline-Betrieb durchgeführt werden. Zur Bearbeitung des Self-Assessments im offline-Modus können die Aufgaben vom WebServer heruntergeladen und anschließend zur Auswertung zurück zum Server übertragen werden. Erst wenn alle Module vollständig bearbeitet wurden, wird eine individuelle Auswertung erstellt und die Durchschnittsstatistik aller Ergebnisse aktualisiert. Nicht ernsthaft durchgeführte Tests werden durch automatisierte Auswertungen der aufgezeichneten Nutzerdaten abgefangen und fließen nicht in die Gesamtwertung ein. Die Navigation innerhalb der Inhaltsmodule ist besonders übersichtlich gestaltet, um eine bestmögliche Orientierung zu gewährleisten (Abb. 2) und die Assessment-Teilnehmer möglichst wenig von den Aufgaben abzulenken. Abbildung 2: Navigationsleiste mit Kennzeichnung der aktuellen Position Die Reihenfolge, in der die Module bearbeitet werden sollen, kann von den Autoren festgelegt werden. Bauen Aufgaben verschiedener Module aufeinander auf, stellt diese 82 Option eine wichtige Funktion zur Testkonstruktion dar. Ist es vorgesehen eine beliebige Bearbeitungsreihenfolge zuzulassen, so ist dies ebenfalls möglich. Timer erlauben eine maximale Bearbeitungszeit für die einzelnen Aufgaben vorzugeben und zeitbeschränkte Pausen einzuplanen. Die Timer laufen unabhängig davon, ob die Bearbeitung im Online- bzw. Offline-Betrieb erfolgt. Die Anzeige des Bearbeitungsstandes gibt einen Überblick über den Bearbeitungsfortschritt und ermöglicht eine zeitliche Orientierung innerhalb eines Moduls (Abb. 3). Abbildung 3: Beispiel des Timers zur Anzeige der verbleibenden Bearbeitungszeit der aktuellen Aufgabe oder der zeitbeschränkten Pausen. Rechts daneben wird zur Gesamtübersicht der Bearbeitungsstand innerhalb des aktuellen Moduls angezeigt. Module, die während der Bearbeitung abgebrochen wurden, können fortgesetzt werden. Beim erneuten Aufruf des Moduls wird der Benutzer genau an die Stelle des SelfAssessments zurückversetzt, an der er die Bearbeitung unterbrochen hat. Dies gewährleistet, dass eine Aufgabe innerhalb eines Moduls nur einmal bearbeitet wird, was für die Evaluation des Self-Assessment-Instrumentariums selbst und die Einschätzung der Vorkenntnisse von Studienanfängern von großer Bedeutung ist. Die Nutzer werden nach einem Abbruch durch eine im System integrierte tutorielle Unterstützung angeleitet (Abb. 4). Eine erneute Bearbeitung eines Moduls ist nach dem Abschluss des ersten Durchgangs möglich, wird aber als solche in der Datenbank gekennzeichnet und nicht ausgewertet. Das Konzept erlaubt des Weiteren die Bearbeitung eines Moduls pro Benutzer auf eine bestimmte Anzahl zu beschränken oder beliebig viele Wiederholungen zuzulassen. 2.3 Technische Umsetzung Das neuartige, flexible und erweiterbare Konzept, auf dem die Realisierung des SelfAssessments beruht, erfolgte aus technischer Sicht unter Einsatz moderner plattformunabhängiger Web-Technologien auf der Basis einer modernen Client-Server-Architektur und bietet den Interessenten zahlreiche Möglichkeiten, den Test von jedem Rechner und zu jedem Zeitpunkt auf benutzerfreundliche Art und Weise durchzuführen. Der Zugriff ist mit herkömmlichen Browsern über das Internet möglich, wobei die Anonymität der Benutzer gewahrt wird und keinerlei Rückschlüsse auf die Identität der Person möglich sind. Alle zwischen dem Client und Server ausgetauschten Daten werden verschlüsselt übertragen. Sensible Daten wie zum Beispiel Passwörter werden im HashFormat gespeichert. 83 Abbildung 4: Hinweis der integrierten tutoriellen Unterstützung bei Wiederaufnahme eines abgebrochenen Moduls Die Entwicklung der graphischen Benutzeroberfläche wurde von Designern unter dem Einsatz von Abobe-Flash und diversen Web-Tools vorgenommen. Auf der Serverseite und zur Kommunikation zwischen Client und Server wurden Web-Technologien wie JavaScript, ActionScript, PHP und MySQL eingesetzt. Ein Modul ist als ein AdobeFlash-Film (swf Datei) realisiert und kommuniziert mit der MySQL-Datenbank über eine PHP-Schnittstelle. Die Registrierung zum Self-Assessment erfolgt über PHPSkripte. Die Plattformunabhängigkeit gewährleistet die Portierbarkeit des Self-Assessments und seinen Einsatz auf verschiedenen Betriebssystemen. Während der Entwicklung wurde die Anforderung nach Übertragbarkeit des Self-Assessments auf die verschiedenen Fachbereiche immer im Auge behalten. So wurden für die einzelnen Module Templates entwickelt, die die Erstellung neuer Module mit minimalem technischem Aufwand ermöglichen. Außer einem gängigen Webbrowser, für den der kostenlose Adobe-Flashplayer als Plugin installiert ist, benötigt der Anwender keine weitere Software zur Durchführung des Self-Assessments. Zur Auswertung der aufgenommenen Nutzerdaten wurde ein Verfahren implementiert, welches anhand der Gesamtbearbeitungszeit eines Moduls und den erzielten Ergebnissen der einzelnen Testblöcke die Erkennung von Probeläufen und nicht ernsthaft durchgeführten Tests ermöglicht. Die Ergebnisse solcher Bearbeitungen werden verworfen. Dies unterstützt die Erstellung unverfälschter Statistiken und Auswertungen zur Evaluation und Qualitätssicherung der Testeinheiten. 84 3 Beispielhafte Erstellung eines Online-Self-Assessments für den Studiengang Informatik Statistiken der Prüfungsämter zeigen, dass im Bundesdurchschnitt lediglich 35 % der Anfänger des Studiums Informatik erfolgreich abschließen. Neben den Studienabbrechern kristallisiert sich an der Universität in Frankfurt im Studiengang Informatik eine Gruppe von Langzeitstudierenden heraus. Regelmäßig durchgeführte Lehrveranstaltungsevaluationen zeigen, dass diese Studierenden häufig erst nach einigen Semestern feststellen, dass sie sich für einen falschen Studiengang entschlossen haben und das gewählte Studienfach ihren Neigungen oder Fähigkeiten weniger entspricht als zuvor vermutet [Hu07]. Einige versuchen das Studium dann dennoch - häufig mit viel Mühe abzuschließen und erzielen nach etlichen Studiensemestern überwiegend schwache Leistungen. Die hohen Abbruchquoten und zum Teil sehr langen Studienzeiten im Informatikstudium erfordern vor dem Hintergrund beschränkter Ressourcen dringend geeignete Maßnahmen zur Verbesserung der Situation. Wenn man von einer in der Regel allgemein gehaltenen Studienberatung absieht, stehen im Studiengang Informatik der J.W. GoetheUniversität bisher kaum Instrumente zur Verfügung, die den/die Studienplatzbewerber/in bereits vor einer Zulassung mit den tatsächlichen Inhalten und Anforderungen des Studienganges vor Ort konfrontieren. Mit der Platzierung des Online-Self-AssessmentInstrumentariums auf der Internetpräsenz des Studienganges verbindet sich die Hoffnung, dass es in einer ersten Stufe in dem Auswahlprozess von Studiengang und Studienort zu einer Selbstselektion der potentiellen Studienplatzbewerber kommt. Bei denjenigen, die das Studium vor Ort dann tatsächlich aufnehmen, sollte man in der Regel von einer besseren Passung ausgehen, was sich wiederum in einer geringeren Studienabbruchquote und kürzeren Studiendauer niederschlagen dürfte. Die daraus frei werdenden Ressourcen sollten sich unmittelbar in einer Qualitätsverbesserung des Studiums niederschlagen und Freiräume für innovative Unterrichtskonzepte schaffen. 3.1 Zielgruppe Als Zielgruppe des Self-Assessments gelten zunächst sämtliche Studieninteressierte am Studiengang Informatik an der J.W. Goethe-Universität. Es bewerben sich jedes Semester ca. 400 Studieninteressierte, von denen dann ca. 150 als Studierende im Studiengang Informatik aufgenommen werden. Das generische Konzept beschränkt sich jedoch nicht auf einen bestimmten Fachbereich, sondern kann in allen Fachbereichen der Universität oder vergleichbaren Institutionen in das Studienberatungsangebot integriert werden. So wird das für die Bedürfnisse der Psychologie entwickelte Self-Assessment im kooperierenden Fachbereich Psychologie und Sportwissenschaften ebenfalls seit dem Wintersemester 2006/07 erfolgreich eingesetzt. 85 3.2 Inhalte der Aufgabenmodule Auf Grundlage von Anforderungsanalysen wurden solche Fähigkeiten und Fertigkeiten in das Instrumentarium aufgenommen, die sich in verschiedenen Untersuchungen [Hu07, JMM06] als studienrelevant erwiesen. Für das Studienfach Informatik handelt es sich dabei um die Studienmotivation, das Interesse an Inhalten des Informatikstudiums, das deutsche und englische Textverständnis, mathematische Kompetenzen, das algorithmische, abstrakte, analytische und logische Denken. Die Anforderungen an InformatikStudierende an Universitäten sind durch die Empfehlungen des Fakultätentages Informatik im Übrigen an jeder Universität nahezu gleich. Dem Studieninteressenten wird durch die Bearbeitung von Aufgaben und die Exploration eigener Motive vor Augen geführt, welche Anforderungen während des Studiums an ihn gestellt werden. Gleichzeitig kann er sich anhand des grafisch zurückgemeldeten individuellen Profils mit den „typischen“ Studierenden, aber auch ausgewiesenen Experten vor Ort vergleichen, d. h. seine Schwächen, aber auch seine Stärken einschätzen. Die einzelnen Aufgabenmodule setzen sich aus den folgenden thematischen Blöcken zusammen.  Modul 1: Aufgaben zur Logik und Mathematik sowie Motivationsaufgaben (ca. 90 min Bearbeitungszeit)  Modul 2: Aufgaben zum algorithmischen Denken sowie Textverständnis (ca. 60 min Bearbeitungszeit)  Modul 3: Figurale Matrizenaufgaben und Interessensfragen (ca. 60 min Bearbeitungszeit) Im Folgenden werden einzelne Testblöcke vorgestellt. Anhand von Beispielen wird dabei die Umsetzung verschiedener Aufgaben unterschiedlicher Themenbereiche aufgezeigt. Aufgaben zur Logik prüfen elementares logisches Denken [Xi98] und damit eine der Grundvoraussetzungen des Informatikstudiums (Abb. 5). Die Aufgaben in dem Abschnitt Mathematik prüfen grundlegende mathematische Kenntnisse [GKP94], wie sie laut Lehrplan in Hessen in der Mittelstufe in den Gymnasien vermittelt werden. Eines der wichtigsten Konzepte der Informatik ist der Algorithmus als eine schematische Handlungsvorschrift [Co01]. In dem Testblock zu diesem Thema wird das so genannte algorithmische Denken geprüft, wobei die Studierenden sowohl Sequenzen als auch Wiederholungen von Handlungen als logisches Ausdrucksmittel benutzen sollen (Abb. 6). Die Fähigkeit wissenschaftliche Texte in deutscher und englischer Sprache zu erschließen, ist eine der wichtigsten Studienvoraussetzungen. In den Testblöcken werden sprach- 86 Abbildung 5: Beispiel einer Aufgabe zum logischen Denken Abbildung 6: Beispielaufgabe zum algorithmischen Denken liche Kompetenzen geprüft, indem kurze Abschnitte wissenschaftlicher Texte vorgegeben und dazugehörende Verständnisfragen gestellt werden. Matrizenaufgaben zählen zu den etablierten Verfahren zur Erfassung des schlussfolgernden Denkens. Die Fähigkeit zum logischen Schlussfolgern wird dabei auf einem sprachfreien Weg untersucht, unabhängig von der Vorbildung und dem kulturellen Hintergrund (Abb. 7). Das schlussfolgernde Denken umfasst Phänomene des induktiven und dedukti- 87 ven Denkens – beides Eigenschaften, die Grundvoraussetzungen für jedes Studium darstellen. Personen mit hohen Punktwerten in diesem Testabschnitt fällt es leicht, logische Zusammenhänge zu erkennen und Regeln aus den Beobachtungen abzuleiten. Dies ermöglicht eine gute Strukturierung und eine leichtere Bewältigung des zu lernenden Stoffes sowie das Lösen von neuartigen Problemen. Personen mit niedrigen Punktwerten haben größere Mühe, Gemeinsamkeiten und Unterschieden in dem zu erlernenden Stoff zu identifizieren und optimale Problemlösungen zu finden. Um ein Studium erfolgreich zu bewältigen, müssen sie unter Umständen viel mehr Zeit und Energie als andere in den zu erlernenden Stoff investieren [JMM06]. Abbildung 7: Beispiel einer figuralen Matrizenaufgabe In den Self-Assessment Abschnitten zur Studienmotivation, zum Studierverhalten und Studieninteresse bewerten die Benutzer verschiedene Aussagen, mit denen sie sich selbst charakterisieren (z.B. „Wenn ich etwas plane, dann hängt es nur von mir ab, ob der Plan auch Wirklichkeit wird.“ oder „Ich suche mir lieber erreichbare Ziele, bevor ich befürchten muss, zu versagen.“). In welchem Ausmaß die Aussagen nach Selbsteinschätzung zutreffen, kann auf einer Likert-Skala von 0 („trifft überhaupt nicht zu“) bis 5 („trifft vollkommen zu“) angegeben werden. 3.3 Auswertung Nach vollständiger Bearbeitung des Self-Assessments erhalten die Teilnehmer eine Rückmeldung über die in den einzelnen Arbeitsbereichen erzielten Werte sowie – zum normativen Vergleich - ein an Studierenden des Studienganges erhobenes mittleres Profil, bzw. ein an ‚Experten’ erhobenes Profil, welches die Testergebnisse von Professoren und wissenschaftlichen Mitarbeitern des Fachbereiches visualisiert (Abb. 8). Abbildung 8: Beispiel einer Auswertung 88 Die einzelnen Bearbeitungsbereiche werden inhaltlich vorgestellt und ihre Bedeutung im Studiengang ersichtlich gemacht. Anhand der erzielten Ergebnisse können Studierende eigene Schwächen identifizieren und sich gegebenenfalls gezielt auf das Studium vorbereiten (z.B. im Bereich Mathematik). Mögliche Konsequenzen bei hohen bzw. niedrigen Punktwerten werden aufgezeigt, so dass die Erläuterungen zur Einschätzung der eigenen Leistungsfähigkeit und Leistungsbereitschaft dienen und das Self-Assessment somit eine wichtige Ergänzung zur herkömmlichen Studienberatung darstellt. Eine abschließende Beurteilung der Studierfähigkeit liefert das Self-Assessment bewusst nicht, macht jedoch auf potentielle Problembereiche aufmerksam. Die Entscheidung ein Informatikstudium aufzunehmen liegt nach wie vor bei den Studieninteressierten selbst. 4 Ausblick Zurzeit sind über 150 Studieninteressierte (mit knapp 30.000 Datensätzen) in der Datenbank des Self-Assessments der Informatik registriert. Es ist geplant, das „typische Studierendenprofil“, welches zur Referenz aus den Mittelwerten der einzelnen Testblöcke zusammengestellt wird, regelmäßig zu evaluieren. Mit Hilfe eines von den Studierenden bei der Registrierung selbst erstellten Pseudonyms werden die Daten des SelfAssessments mit den Prüfungsdaten, für die bei Klausuren und Abschlussprüfungen ebenfalls das Pseudonym abgefragt wird, abgeglichen. Die Auswertung dieser für mehrere Jahrgänge geplanten Studie ist im Semesterturnus vorgesehen, so dass eine nachhaltige und dynamische Anpassung des Instrumentariums gewährleistet ist. Das Self-Assessment kann unter der folgenden Web-Adresse aufgerufen und bearbeitet werden: https://www.gdv.informatik.uni-frankfurt.de/self-assessment/Informatik/ Ein direkter Zugang zu einer Beispielauswertung ist mit Hilfe des Benutzernamens „demo“ und des Passwortes „auswertung“ möglich. Literaturverzeichnis [Co01] Cormen, T., Leiserson, C., Rivest, R., Stein, C.: Introduction to Algorithms, New York, 2001. [GKP94] Graham, R. L., Knuth, D. E., Patashnik, O.: Concrete mathematics, 1994. [Hu07] Humoud, S.: Verbesserung der Studienbedingungen durch eLearning in der Informatik. 2007. (unveröffentlichte Diplomarbeit). [JMM06] Jonkisz, E., Moosbrugger, H. & Mildner, D.: Die "Frankfurt Study" zur Vorhersage des Studienerfolges. In (Gula, B., Alexandrowicz, R., Strauß, S., Brunner, E., JenullSchiefer, B., Vitouch, O. Hrsg.): Perspektiven Psychologischer Forschung in Österreich. Wien, PABST, 2006. [MJF06] Moosbrugger, H., Jonkisz, E. & Fucks, S.: Studierendenauswahl durch die Hochschulen - Ansätze zur Prognostizierbarkeit des Studienerfolgs am Beispiel des Studiengangs Psychologie. Report Psychologie, 3, 2006; S 114-123. [MK07] Moosbrugger, H. & Kelava, A. (Hrsg.): Testtheorie und Fragebogenkonstruktion. Berlin, Heidelberg: Springer. Manuskript in Vorbereitung. 2007. [Xi98] Xilinx: The Programmable Logic Data Book, 1998. 89 90 Bessere Schulnoten mit MatES, dem e-Bibliothekardienst für den Mathematikunterricht Serge Linckels, Carole Dording, Christoph Meinel Hasso-Plattner-Institut (HPI) für Softwaresystemtechnik GmbH Postfach 900460, D-14440 Potsdam {linckels,dording,meinel}@hpi.uni-potsdam.de Abstract: In diesem Papier stellen wir die Ergebnisse eines Experiments mit unserem e-Bibliothekarsystem „MatES“ vor, einem e-Learning Werkzeug zum Erlernen des Bruchrechnens in der Mathematik. MatES ermöglicht den Schülern, durch das Eingeben vollständiger Fragesätze semantisch korrekte und relevante multimediale Antworten zu bekommen. Eine Schulklasse von 22 Schülern nahm an diesem fünf Wochen dauernden Experiment teil. Die Schüler arbeiteten autonom, stellten Fragen an MatES und lernten durch praktische Übungen. Die Multimedia-Erklärungen, die MatES lieferte, ermöglichten es den Schülern ihr Wissen zu erweitern und ihre Übungen zu lösen. Die Schüler erlebten MatES als hilfreiches, unterstützendes Werkzeug beim Mathematiklernen. Während sie MatES benutzten, konnten wir relevante Verbesserungen ihrer schulischen Leistungen messen, indem wir die Resultate mit ihren früheren Ergebnissen verglichen. Eine der Hauptursachen dieser hervorragenden Resultate ist möglicherweise die höhere Motivation der Schüler, da sie sich beim Lernen mehr Mühe gaben, um sich neues Wissen anzueignen. Die Schüler haben auch festgestellt, dass MatES besser erklärt und dass sie die Inhalte viel leichter verstehen. 1 Das e-Learning Tool MatES Es ist allgemein bekannt, dass Schüler besser in der Lage sind, sich neues Wissen anzueignen, zu beherrschen, zu behalten und zu verallgemeinern, wenn sie aktiv am Lernprozess beteiligt sind [Yo98]. Lehrer, die e-Learning Werkzeuge in ihrer Klasse eingesetzt haben, berichten, dass sie ihren Unterrichtsstil geändert haben, um den Schülern eine größere Autonomie beim Lernen zu ermöglichen [Ow97]. Sie wechselten ihren Unterrichtsstil von einem didaktischen Frage-Antwort-Unterricht hin zu einem stärker selbstgesteuerten Lernen. Ein Computer-Tool kann nicht besser erklären als ein Lehrer, aber es kann die Information anders darstellen, vielleicht anschaulicher und konkreter als ein Lehrer. Im Vergleich zu früheren Generationen brauchen die Schüler heutzutage eher einen Anschauungsunterricht, weil unsere Welt reich an visuellen Stimuli ist [Ow97]. 91 Wir arbeiten an einem e-Bibliothekardienst, der den Schülern beim Finden von pertinenten Lerninhalten helfen soll, so wie es ein richtiger Bibliothekar tun würde. Dies soll auf eine sehr einfache Art und Weise möglich sein, nämlich durch das Stellen von Fragen in natürlicher Sprache. Der e-Bibliothekar antwortet nicht unbedingt auf die Frage, aber er kann das am besten passende Dokument zur gestellten Frage finden und aus seiner multimedialen Wissensdatenbank auswählen. Der Schüler kann die gesuchte Antwort in diesem Dokument ohne Schwierigkeiten entdecken. MatES (Mathematics Expert System) [LM07] ist eine prototypische Implementierung unseres e-Bibliothekarservices zum Thema Bruchrechnen in der Mathematik. Es besteht aus einem grafischen Benutzerinterface, einer semantischen Suchmaschine und einer multimedialen Wissensdatenbank. Die Wissensdatenbank besteht zurzeit aus 115 Clips, die das Thema Bruchrechnen ausreichend abdecken, d.h. alle Lerninhalte, die in der Sekundarstufe unterrichtet werden, sind enthalten. Die Clips wurden hauptsächlich mit Schülern aufgenommen. Wir benutzten tele-TASK (http://www.tele-task.de), um die Clips zu erstellen. Die Effizienz dieses Werkzeugs wurde durch Benchmarktests überprüft. Die Testmenge bestand aus 229 verschiedenen Fragen. In 97% der Fälle gab MatES die richtige Antwort auf die gestellte Frage. In 50% der Fälle lieferte MatES sogar nur eine einzige Antwort, welche genau die Richtige war. 2 2.1 Beschreibung des Experiments Allgemeines Unser Ziel war es, die Vorteile unseres e-Bibliothekardienstes in einer normalen Unterrichtsumgebung zu erproben und festzustellen, inwiefern dieses Werkzeug eine Auswirkung auf die schulischen Leistungen der Schüler hatte. An dem Experiment nahmen 22 Schüler zwischen 12 und 14 Jahren (siebte Klasse), aus dem Lycée Technique EschAlzette (LTE), einem technischen Gymnasium in Luxemburg, teil. Dieses Experiment dauerte 5 Wochen (vom 13. Februar bis zum 16. März 2006). Dies ist die normale Zeitspanne, die dem Mathematiklehrer einer siebten Klasse laut Lehrplan für die Behandlung des Bruchrechnens zur Verfügung steht. Jede Unterrichtsstunde fand in einem Computersaal statt. 2.2 Aufteilung der Schüler in drei Gruppen Im ersten Trimester des Schuljahrs (vom 18. September 2005 bis zum 12. Februar 2006), stand Geometrie auf dem Programm (Volumenrechnen, Flächenrechnen usw.). Jeder Schüler besaß schon einige Grundkenntnisse im Bruchrechnen, da dieses Thema bereits kurz in den drei letzten Schuljahren behandelt wurde. Vor Beginn des Experiments führten wir einen unangekündigten Vortest durch, um die aktuellen Kenntnisse der Schüler über das Bruchrechnen zu messen. 92 Die Schüler wurden gemäß ihrer Ergebnisse im Vortest und ihren Resultaten in der Geometrieprüfung (erstes Trimester) in drei Gruppen aufgeteilt: schwache (8 Schüler), mittelmäßige (6 Schüler) und starke (8 Schüler). Diese Einteilung half uns bei der Auswertung unseres Experiments auf drei verschiedenen Kompetenz-Ebenen. Wir nahmen an, dass normalerweise schwache Schüler auch Schwierigkeiten im Bruchrechnen haben und gute Schüler auch gut im Bruchrechnen sind. Wir untersuchten, inwiefern das Benutzen von MatES die Zusammensetzung dieser drei Gruppen verändern würde. Es konnte festgestellt werden, dass es keine Verbindung zwischen dem Vortest und den Resultaten der Geometrieprüfungen gibt. Einige gute Schüler schnitten auch gut im Vortest ab, andere schlecht. Ähnliches war bei den schlechten Schülern zu beobachten. Dies zeigt uns, dass die Grundkenntnisse der Schüler im Bruchrechnen heterogen waren. 2.3 Der Ablauf der Unterrichtsstunden In unserem Experiment ließen wir die Schüler in die Rolle eines Entdeckers schlüpfen, der neues Wissen auf eine autonome Art und Weise entdecken und sich aneignen soll, indem er MatES als eine Art virtuellen Privatlehrer benutzt. In der ersten Stunde lernten die Schüler, wie man MatES richtig einsetzt. In praktischen Übungen benutzten die Schüler MatES, um sich ein Grundvokabular über das Bruchrechnen anzueignen. Die Lehrerin gab den Schülern einen Satz mit Lückentext vor. Zum Beispiel: „Wir müssen das Bruchrechnen lernen, weil Brüche stellen … dar.“ Die Schüler mussten dann eine Frage bilden und den Satz ergänzen, indem sie sich den passenden Clip anschauten. Zum Beispiel: „Warum müssen wir das Bruchrechnen lernen?“ oder „Was stellt ein Bruch dar?“. Während des Experiments war der Verlauf der Unterrichtsstunden stets der gleiche. Am Anfang jeder Stunde bekamen die Schüler ein Übungsblatt. Als Erstes mussten sie herausfinden, auf welches Wissen sie aufbauen konnten und welches sie sich noch aneignen mussten, um diese Übungen zu lösen. Danach mussten sie Fragen an MatES stellen und sich die passenden Clips anschauen, um ihr Wissen zu vervollständigen. Die Lehrerin war immer anwesend und half den Schülern, welche eine Erklärung nicht verstanden. Auch Schüler, die noch Schwierigkeiten hatten eine Übung zu lösen, erhielten von der Lehrerin Unterstützung. Verschiedene Übungen wurden kurz in der gesamten Klasse besprochen, um potenzielle allgemeine Fehler oder Missverständnisse zu vermeiden. 2.4 Die Prüfungsstunde Über das Bruchrechnen wurden zwei Klassenarbeiten geschrieben. Jede Prüfung dauerte zwei Stunden und bestand aus zwei Teilen. Der erste Teil (eine Stunde) war eine klassische Prüfung (für 30 Punkte) und der zweite Teil war eher eine praktische Prüfung (die auch mit 30 Punkten bewertet wurde). Während der erste Teil in einem normalen Klassenzimmer unter klassischen Bedingungen stattfand (ohne Bücher, ohne Notizen, ohne Taschenrechner usw.) wechselten die Schüler für den zweiten Teil in den Computerraum. Die Übungen für den ersten Prüfungsteil beruhten auf dem Wissen, das sich die 93 Schüler auf eine autonome Art und Weise während der letzten Stunden angeeignet hatten. Nach einer Stunde erfolgte der Wechsel der Schüler für den zweiten Teil der Klassenarbeit in den Computerraum. Jeder Schüler arbeitete einzeln an einem Rechner mit MatES. Im Gegensatz zum ersten Teil der Prüfung beruhten diese Übungen auf einem unbekannten Stoff im Bereich des Bruchrechnens (zum Beispiel „Was ist ein echter Bruch?“). Hier durften die Schüler MatES einsetzen. 3 3.1 Die allgemeinen Ergebnisse Die Ergebnisse der Schüler Es gab einige interessante Unterschiede zwischen den zwei Teilen der Prüfung – dem theoretischen und dem praktischen Teil. Diese Unterschiede waren in der ersten Prüfung weniger relevant als in der zweiten Prüfung. Die Ergebnisse des praktischen Teils waren im Allgemeinen besser als die des theoretischen. Eine mögliche Erklärung ist, dass im ersten Teil das theoretische Wissen über das Bruchrechnen geprüft wurde und die Schüler unterschiedlich gut auf diese Prüfung vorbereitet waren. Da der zweite Teil aus unbekanntem Stoff bestand, konnten auch die Schüler, die nicht so gut auf die Klassenarbeit vorbereitet waren, trotzdem eine gute Note erzielen, weil sie die Möglichkeit hatten, Fragen an MatES zu stellen. Relevanter ist der Vergleich zwischen den Resultaten in Geometrie und denen im Bruchrechnen (Bild 1). Erstens waren die allgemeinen Resultate im Bruchrechnen besser (Durchschnittsnote der Klasse 32/60) als in der Geometrie (Durchschnittsnote der Klasse 29/60), was einer durchschnittlichen Verbesserung von 5% entspricht. Diese Zahl wurde mit einem T-Test für Mittelwerte (2 unabhängige Stichproben) bestätigt. 11 Schüler hatten bessere Resultate im Bruchrechnen als in der Geometrie (sie befinden sich auf der Grafik oberhalb der Identitätsfunktion). 9 von ihnen machten sehr große Fortschritte (wenigstens 6 Punkte bei einem Maximum von 60 Punkten in einer Klassenarbeit). Ein Schüler verbesserte sich sogar um 21 Punkte. 8 Schüler verschlechterten sich, bei 3 Schülern gingen die Resultate sogar um mehr als 6 Punkte zurück. 3 Schüler blieben konstant. Zweitens änderte sich die Zusammensetzung der Gruppen (Tabelle 1). 7 Schüler verbesserten sich in eine höhere Gruppe, ein Schüler verbesserte sich sogar um 2 Gruppen (von Gruppe „Schwache“ in Gruppe „Starke“). 3 Schüler bewegten sich in eine niedrigere Gruppe, davon einer aus der Gruppe „Starke“ in die Gruppe „Mittelmäßige“ und ein Schüler aus der Gruppe „Starke“ in die Gruppe „Schwache“. 12 Schüler blieben in der gleichen Gruppe: 5 in der Gruppe „Schwache“, 2 in der Gruppe „Mittelmäßige“ und 5 in der Gruppe „Starke“. 94 50 Simon Nancy Schulresultat über Bruchrechnen 45 Mandy D. Mandy R. 40 Glenn India Max Cynthia David Eric Vicky 35 Sandrine Tiziana Nuno 30 Claudio Christophe Simao 25 Stéphanie Gwenda Kevin 20 Priscilla 15 Cyril 10 5 0 0 5 10 15 20 25 30 35 40 45 50 Schulresultate über Geometrie Abbildung 1: Durchschnitt der Prüfungen über Geometrie (x-Achse) und über Bruchrechnen (y-Achse). Gruppe Schwache Mittelmäßige Starke Vor dem Experiment 8 Schüler (36,4%) 6 Schüler (27,3%) 8 Schüler (36,4%) Nach dem Experiment 6 Schüler [+3 / -1] (27,3%) 6 Schüler (27,3%) 10 Schüler (45,5%) Tabelle 1: Zusammensetzung der Gruppen vor und nach dem Experiment Drittens stellten wir fest, dass vor dem Experiment das Wissen der Klasse im Allgemeinen sehr heterogen war. Nach dem Experiment mit MatES wurden ihre Kenntnisse homogener. Der Unterschied zwischen den leistungsstärkeren und den schwächeren Schülern war weniger bedeutsam. 3.2 Eindrücke der Schüler Diese Auswertung basiert auf einer schriftlichen Umfrage (am Ende der ersten Woche des Experiments), auf wöchentlichen Gesprächen mit den Schülern und vor allem auf einem individuellen Interview mit jedem Schüler (am Ende der fünften Woche). 3.2.1 Kommentare zu dieser Art des Lernens Die große Mehrheit der Schüler (18 von 22) glaubte, dass ihre Schulresultate mit MatES besser werden könnten. Wir fragten die Schüler, ob sie MatES auch zu Hause benutzen würden, falls sie einen eigenen Computer hätten. Hier antworteten 11 Schüler (50%) „sicher“, die anderen 11 95 Schüler antworteten „ziemlich sicher“. Es antwortete aber niemand „nein“ oder „eher nein“. Es konnte keine Abhängigkeit in den Antworten auf die Frage „ob sie sich vorstellen könnten, ohne einen Lehrer zu lernen“ gefunden werden. 4 Schüler (18,1%) sind überzeugt, dass sie dies könnten, 10 Schüler (45,5%) sagten, dass sie irgendwie einen Lehrer brauchen und 8 Schüler (36,4%) antworteten, dass sie immer einen Lehrer brauchen. Zum Schluss wurden sie gefragt, ob es ihnen Spaß gemacht habe mit MatES zu arbeiten. Hier sagten 11 Schüler (50%) „ja“, 9 Schüler (40,9%) antworteten „ja, sehr gerne“ und 2 Schüler (9,1%) sagten „irgendwie ja“. Kein Schüler arbeitete nicht gern mit MatES. 3.2.2 Kommentare bezüglich MatES Im Allgemeinen gab MatES nur sehr wenige Antworten auf eine eingegebene Frage, normalerweise nur eine, selten mehr als 3. Wir fragten die Meinung der Schüler zur Anzahl der Antworten. Kein Schüler fand, dass MatES zu wenige Antworten gab, 1 Schüler fand, dass MatES zu viele Antworten gab und 21 (von 22 Schülern) sagten, dass die Anzahl der Antworten angemessen war. Wir fragten die Schüler, ob sie die Erklärungen auf ihre Frage in den Antworten von MatES gefunden haben. Keiner sagte „nie“ oder „selten“, ein Schüler (4,6%) sagte „in der Hälfte der Fälle“, 16 Schüler (72,7%) sagten „fast immer“ und 5 Schüler (22,7%) antworteten „immer“. Eine wichtige Frage betraf die Pflicht, ganze Fragen eingeben zu müssen. Kein Schüler äußerte, dass dies schwierig war, 7 Schüler (31,8%) antworteten, dass sie einverstanden waren ganze Fragen einzugeben, aber dass sie es nicht gerne machten, und 15 Schüler (68,2%) antworteten, dass es kein Problem für sie war. 3.3 Analyse der Logdateien Die Logdateien zeigten, dass so gut wie alle Fragen korrekt formuliert wurden. Nur sehr wenige „unangemessene“ Fragen, die neben dem Thema lagen, wurden absichtlich eingeben. Im Durchschnitt stellte jeder Schüler 8,5 Fragen pro Unterrichtseinheit (50 Minuten). In Unterrichtseinheiten mit geringen Fragen wurden im Durchschnitt 4 Fragen eingeben; 17 Fragen wurden in Unterrichtseinheiten mit einer hohen Anzahl an Fragen eingegeben. Es gab keinen Unterschied bezüglich der Anzahl der Fragen zwischen normalen Unterrichtseinheiten und einer Prüfungsstunde. Es gab auch keinen Schüler, der außergewöhnlich viele oder außergewöhnlich wenige Fragen eingab. Schwache und starke Schüler gaben in etwa gleich viele Fragen ein, unabhängig davon, ob es sich um eine normale Unterrichtseinheit oder eine Prüfungsstunde handelte. 96 3.4 Allgemeine Beobachtungen Die Tatsache, dass sie dabei ganze Fragen eingeben sollten, war am Anfang ein Problem. Zuerst schien das Eintippen von so vielen Wörtern eine Plage für die meisten Schüler zu sein, da die meisten Schüler gewohnt sind, nur Stichwörter in Suchmaschinen einzugeben (z.B. bei Google). Außerdem hatten sie in ihrer Ausbildung bis jetzt noch nicht gelernt, wie man Fragen richtig formuliert. Nach der zweiten Woche hatten sich jedoch alle Schüler an diese Art der Formulierung der Fragen gewöhnt. Auch das Eingeben von ganzen Fragen wurde allgemein akzeptiert. Wir bemerkten, dass die meisten Schüler sehr schnell beim Eintippen ihrer Fragen waren. Es schien, dass sie bereits Erfahrung mit der Texteingabe am Computer hatten (möglicherweise durch das Chatten im Internet). Im weiteren Verlauf des Experiments steigerte sich die Begeisterung der Schüler, Mathematik auf diese Weise zu lernen. Wir bemerkten, dass Schüler sich verschiedene Eigenschaften der Clips einprägten, z.B. ein Vortragender, der ein bestimmtes Wort schlecht ausspricht, eine schöne Illustration innerhalb eines Clips oder ein Sprecher, der etwas sehr gut erklärt. Es war interessant festzustellen, dass solche Eigenschaften sehr hilfreich für die Schüler waren. Wir waren von der sehr positiven Atmosphäre im Klassenzimmer beeindruckt. Jeder Schüler war mit seiner eigenen Übung beschäftigt und konnte in seinem eigenen Rhythmus arbeiten. Einige waren sehr schnell, andere langsamer. Alle Schüler benutzten Kopfhörer. Es war angenehm ruhig im Raum. Es war den Schülern erlaubt, untereinander zu kommunizieren (die beiden Prüfungsstunden ausgeschlossen). Die meisten Gespräche glichen diesen Äußerungen: „Welchen Clip hast du für diese Übung gefunden?“, „Hast du eine Antwort für diese Frage gefunden?“, „Bist du bereits mit der Übung fertig?“ usw. Am Ende der fünften Woche waren die Schüler traurig, dass das Experiment vorbei war und dass sie zu einer „klassischen“ Art des Lernens zurückkehren mussten. Einige Schüler baten um eine Kopie von MatES, um das Werkzeug auch zu Hause benutzen zu können. 4 Diskussion In diesem Abschnitt analysieren wir die Daten aus dem Experiment (Abschnitt 3) und versuchen festzustellen, ob die besseren Schulresultate auf das Benutzen von MatES zurückzuführen sind oder ob es andere Gründe gibt. 4.1 Andere Gründe als MatES War der Unterrichtsstoff „Bruchrechnen“ für Schüler leichter als „Geometrie“? Verschiedene Lehrer bestätigten uns, dass beide Unterrichtsthemen, so wie sie unterrichtet werden, einen ähnlichen Schwierigkeitsgrad aufweisen. 97 Hatten die Schüler bereits Vorwissen über Bruchrechnen? Alle Schüler hatten bereits ein Grundwissen über Bruchrechnen, jedoch auch über Geometrie. Beide Themen wurden bereits – sehr oberflächlich – in vergangenen Schuljahren behandelt. Waren die Klassenarbeiten über Bruchrechnen einfacher als die über Geometrie? Die Prüfungen über Bruchrechnen waren ähnlich schwierig, ja sogar den Schwierigkeitsgrad betreffend identisch mit denen anderer Klassen oder mit denen aus vergangenen Jahren. Weiterhin wurden alle Klassenarbeiten (über Geometrie und Bruchrechnen) von zwei Lehrern korrigiert. 4.2 Besseres Verstehen Haben die Erklärungen von MatES den Schülern geholfen, den Unterrichtsstoff besser zu verstehen, als die Erklärungen aus klassischen Quellen (z.B. aus Büchern, durch Informationen an der Tafel, oder durch mündliche Erklärungen vom Lehrer)? Neun Schüler waren der Meinung, dass die Erklärungen von MatES sehr gut wären und drei Schüler meinten, dass MatES sehr viel Wissen hätte. Fast alle Schüler (21 aus 22) waren der Meinung, dass sie die richtigen Informationen von MatES erhielten und 18 sagten, dass sie in der Tat mit MatES besser lernten. Hier sind einige Erklärungen:  Die semantische Suchmaschine ermöglichte es den Schülern schnell, gute Antworten zu finden. In anderen Worten, sie mussten nicht warten bis der Lehrer ihnen zur Verfügung stand, um ihre Fragen zu stellen.  Die Antworten von MatES sind sehr präzise und kurz, im Gegensatz zu Büchern oder langen Antworten des Lehrers.  Die Erklärungen sind einfach und klar.  Der Schüler kann durch den Clip navigieren und zu jedem beliebigen Augenblick anhalten oder sich den Clip mehrere Male ansehen.  Die Information wird in einer attraktiveren Form angezeigt als die in einem Buch oder an der Tafel. Zum Beispiel konnten sich Schüler an eine bestimmte Information erinnern, weil sie sich an eine bestimmte Eigenschaft im Clip erinnerten.  Der multimediale Aspekt aktiviert mehr Sinne. Die Schüler hören, lesen und sehen die gleiche Information.  Illustrationen und Animationen werden benutzt, um ein bestimmtes Thema zu erklären. Dies ist aussagekräftiger als reine verbale Kommunikation [MG90].  Die Videosequenzen zeigen den Vortragenden an der Tafel. Dies ist die klassische Sicht eines Schülers im Klassenzimmer und soll eine Art virtuelle KlassenzimmerAtmosphäre erzeugen. Es soll dem Schüler ständig vor Augen gehalten werden, dass MatES kein Spiel ist, sondern ernste Arbeit.  Die Bewegungen am Bildschirm sollen den Schüler dazu veranlassen, sich auf das zu konzentrieren, was er selbst tut und was der Präsentator erklärt. 98  Die Vortragenden sind Schüler. Manche Schüler nehmen eher Erklärungen von ihresgleichen an als von Erwachsenen.  Die Schüler eigneten sich schnell ein spezifisches Fachvokabular über Bruchrechnen an. Wenn ein unbekannter Ausdruck verwendet wurde, dann konnten sie MatES bitten, diesen zu erklären. 4.3 Höhere Motivation Jeder Lehrer weiß, wie angenehm es ist, in einer Klasse mit motivierten Schülern zu unterrichten. Fleißige Schüler haben gewöhnlich gute Noten, weil sie gewillt sind, mehr Zeit und Energie in das Lernen zu investieren. Jedoch sind nicht alle Schüler von Natur aus zum Lernen motiviert. Daher ist es auch die Pflicht eines Lehrers, die Schüler von der Wichtigkeit seines Unterrichtsstoffs zu überzeugen und sie zu motivieren. Generell kann die höhere Motivation der Schüler auf den Einsatz von MatES zurückgeführt werden, da weder Geometrie noch Bruchrechnen de facto motivierend für Schüler sind. Möglicherweise haben Schüler eine kleine Vorliebe für Geometrie, weil sie hier z.B. Hilfsmittel (Zirkel, Lineal usw.) benutzen können und Zeichnungen erstellen können. Das Bruchrechnen beschränkt sich aber rein auf Berechnungen. Trotzdem haben 20 Schüler (90,9%) ausgesagt, dass das Arbeiten mit MatES ihnen Spaß gemacht hat. Wir hörten sogar Aussagen wie: „Damit [mit MatES] macht sogar Mathematik Spaß“. Hier sind einige Gründe, warum MatES die Motivation der Schüler erhöht:  Der Gebrauch von neuen Technologien ist allgemein motivierend für Schüler.  Alles, was sich vom normalen Unterricht unterscheidet, ist, zumindest am Anfang, motivierend. So haben zum Beispiel alle Unterrichtseinheiten in einem Computerraum stattgefunden und es wurde ein Computerprogramm im Mathematikunterricht eingesetzt, was alles ziemlich ungewöhnlich aus der Sicht des Schülers ist.  Die Erklärungen sind als multimediale Clips in einer attraktiveren Form dargestellt (siehe Abschnitt 4.2).  Der Schüler hat das Gefühl, dass er den Unterrichtsablauf selbst steuert. Es gibt keinen Lehrer, der ihm vorschreibt, was er als Nächstes tun soll.  Der Schüler ist ständig aktiv in seinem Lernprozess. Er kann ständig etwas tun und sich selbst, gezielt neues Wissen aneignen.  Im traditionellen Unterricht sind schwächere Schüler oft frustriert, weil sie sowieso nicht an die Leistungen der besseren Schüler herankommen. Das Arbeiten mit MatES erlaubt es aber jedem Schüler, in seinem eigenen Rhythmus und mit seinen Möglichkeiten zu arbeiten, ohne jemals verspottet zu werden.  Der Schüler kann diese Art von Unterricht als eine Art Abenteuer ansehen, in dem er die Rolle des Entdeckers spielt und neues Wissen erkundet. 99  Der Schüler versteht den Lernstoff besser (Abschnitt 4.2) und hat keinen Grund zu verzagen oder sogar aufzugeben. Im Gegenteil, er merkt, dass Mathematik eigentlich nicht so kompliziert ist und dass auch er das Ziel erreichen kann. 4.4 Mehr Engagement In unserem Experiment mussten die Schüler wesentlich mehr arbeiten. Dieser größere Einsatz könnte die besseren Resultate erklären. Zuerst verbrachte jeder Schüler viel mehr Zeit mit Übungen, da es ja keine „theoretischen“ Unterrichtseinheiten gab. Somit hatte jeder mehr Zeit seine Schwächen herauszufinden, sein Wissen zu erweitern und es durch Übungen zu testen. Zweitens war es jedem klar, dass man ein gewisses theoretisches Grundwissen haben muss, um die Übungen zu lösen. Daher war im Interesse eines jeden, sich diese Theorie so schnell wie möglich anzueignen, um die Übungen zu lösen. Drittens wussten die Schüler, dass alle Übungen zu Hause fertig zu machen waren. Es war somit ein Vorteil für jeden, so viel wie möglich in der Schule zu erledigen, um weniger Hausaufgaben zu haben. Viertens hatten schwächere Schüler mehr Hausaufgaben, da sie in der Schule langsamer beim Lösen ihrer Übungen waren. Diese zusätzlichen Hausaufgaben und das somit notwenige Engagement könnten ihnen geholfen haben, sich zu verbessern. 4.5 Eine andere Pädagogik Im klassischen Mathematikunterricht erhält der Schüler Informationen vom Lehrer, die er verstehen und behalten muss. Das Volumen an Informationen sowie die Geschwindigkeit mit welcher sie beim Schüler ankommen, könnte schwache Schüler überfordern [Wi01]. Des Weiteren ist die Unterrichtseinheit wenig effektiv, wenn Schüler nicht von der Wichtigkeit der Informationen und der Übung überzeugt sind. In unserem Experiment benutzen wir eine vollständig andere pädagogische Vorgehensweise, welche autonomes und exploratives Lernen fördert. Der Schüler ist aktiv in seinen Lernprozess eingebunden und kann diesen selbst steuern. Mit MatES erhält der Schüler nur dann Informationen, wenn er sich selbst darum bemüht. Somit steuert der Schüler seinen Lernprozess und entscheidet selbst, was er sich ansehen möchte, in welchem Rhythmus er arbeiten will, wie oft er sich die gleiche Information ansehen will usw. Der Schüler ist nicht vom Lehrer oder von anderen Mitschülern abhängig. Somit kann ein schwacher Schüler in seinem eigenen, für ihn angemessenen Rhythmus arbeiten. Jeder Schüler kann sich die gleichen Konzepte wie der Rest der Klasse aneignen. Stärkere Schüler können schneller vorankommen und anspruchsvollere Übungen machen. Sie brauchen nicht ruhig und inaktiv zu verweilen, während der Lehrer schwächeren Schülern etwas erklärt. Wir möchten aber auch anmerken, dass MatES das Auswendiglernen nicht fördert. Wir beobachteten, dass einige schwächere Schüler akzeptable Resultate in den vorherigen Schuljahren hatten, weil sie auswendig lernen konnten. Solche Schüler hatten schlechtere Resultate mit MatES. Auswendiglernen ist eine Strategie, die verschiedene Schüler anwenden, die jedoch im Vergleich zum „intelligenten Lernen“ nicht sehr effektiv ist. 100 4.6 Schulresultate Die Daten aus unserem Experiment belegen, dass die Schüler, als sie MatES benutzten, bessere Schulresultate erzielten. Es kann jedoch nicht bewiesen werden, dass der Einsatz von MatES diese Leistungssteigerung als direkte Konsequenz nach sich zöge. Tatsache ist, dass das Arbeiten mit MatES für die Schüler wesentlich motivierender war als der Frontalunterricht, was wiederum eine positive Auswirkung auf das Lernen und das Verstehen hatte. Daher trägt MatES indirekt zur Steigerung der schulischen Leistung der Schüler bei. Eine offene Frage bleibt, wie lange der Einsatz von MatES die Schüler motivieren kann. Heutzutage verlieren Schüler schnell das Interesse, an dem was sie tun und an Dingen, die sie noch vor kurzem interessant fanden. Wenn auch die Schüler in unserem Experiment während 5 Wochen von MatES begeistert waren, so kann dieses Werkzeug nach weiteren 5 Wochen vielleicht genau so langweilig werden wie ein normales Schulbuch. Wir lernten, dass Schüler ein Computerprogramm nur dann richtig und erfolgreich einsetzen, wenn sie von dessen Vorteilen überzeugt sind und wenn sie es richtig bedienen können. Der Erfolg unseres Experiments ist auch teilweise auf die Tatsache zurückzuführen, dass die Schüler während des ganzen Ablaufs ständig betreut wurden, was eine Bedingung für den erfolgreichen Einsatz von Computerprogrammen im Unterricht ist [Ma03, Fi99, NSR99]. Somit reduzierte MatES keinesfalls das Arbeitsvolumen für den Lehrer. Es ist klar, dass Schüler mehr Betreuung beanspruchen und mehr Fragen stellen, wenn sie im Lernprozess aktiv werden. Weiterhin sind Lehrer im klassischen Unterricht in erster Linie verantwortlich für die Organisation und die Übermittlung von Lerninhalten. Ihre Pflicht verändert und erweitert sich jedoch schnell, wenn e-Learning Technologien eingesetzt werden. Lehrer erhalten dann zusätzliche Aufgaben wie z.B. die eines ITExperten oder eines System-Administrators. Die Qualität der semantischen Suchmaschine ist ein wesentlicher Faktor für den Erfolg von MatES. Wir wissen, dass Schüler es generell verabscheuen, auf eine Anfrage viele Resultate zu bekommen, denn sie möchten normalerweise eine verständliche, eindeutige Antwort haben. Sie werden sich die Suchresultate nicht einmal alle ansehen [Fi99]. Schüler haben klare Vorstellungen über das erwartete Suchresultat. 5 Schlussfolgerung In dieser Arbeit zeigten wir, dass e-Learning die schulischen Leistungen verbessern kann. Mit unserem e-Bibliothekardienst MatES ist der Schüler aktiv in seinem Lernprozess und spielt die Rolle eines Entdeckers. Durch höhere Motivation ist der Schüler gewillt, mehr Zeit und Aufwand in das Lernen zu investieren. Weiterhin helfen die einfachen multimedialen Antworten von MatES, dem Schüler ein bestimmtes Thema besser zu verstehen, ohne Hilfe des Lehrers. Dies ist besonders hilfreich für schüchterne und schwache Schüler sowie für fremdsprachige Schüler, die sich nur schlecht ausdrücken 101 können. Außerdem kann Grundwissen aus vergangenen Schuljahren mittels eines solchen Werkzeugs autonom wieder aufgefrischt werden. Unser e-Bibliothekarsystem kann in verschiedenen Situationen eingesetzt werden. In unserem Experiment benutzten wir MatES, um ein neues Thema auf eine autonome und explorative Weise einzuführen. Aber es kann auch in einem Blended Learning Aspekt eingesetzt werden, wo der Lehrer entscheidet, in welcher Unterrichtseinheit es am besten geeignet ist. Es kann auch beim Distance Learning verwendet werden, wo der Schüler (oder eine berufstätige Person) von zu Hause aus lernen kann. Ein weiterer interessanter Aspekt betrifft das kollaborative Lernen. Schüler können in Gruppen arbeiten, Informationen sammeln und diese später diskutieren. Literaturverzeichnis [Fi99] [LM07] [Ma03] [MG90] [NSR99] [Ow97] [Wi01] [Yo98] 102 R. Fidel, R. et al. A visit to the information mall: Web searching behavior of high school students. Journal of the American Society for Information Science, 50(1):24-37, 1999. S. Linckels and C. Meinel. Resolving Ambiguities in the Semantic Interpretation of Natural Language Questions, In Intelligent Data Engineering and Automated Learning (IDEAL), LNCS 4224, 612-19, 2006. P. Martin. Web Intelligence, chapter Knowledge Representation, Sharing and Retrieval on the Web, pages 263{297. Springer-Verlag, Jan 2003. R. E. Mayer and J. K. Gallini. When is an illustration worth ten thousand words? Journal of Educational Psychology, 82(4):715-726, Dec 1990. R. Navarro-Prieto, M. Scaife, and Y. Rogers. Cognitive strategies in web searching. In 5. Conference on Human Factors & the Web, http://zing.ncsl.nist.gov/hfweb, 1999. R. D. Owston. The world wide web: A technology to enhance teaching and learning? Educational Researcher, 26(2):27-33, march 1997. W. M. Williams, F. Markle, R. J. Sternberg, and M. Brigockas. Educational Psychology. Allyn & Bacon, 2001. C. Youngblut. Educational uses of virtual reality technology. Technical Report IDA Document D-2128, Defense Advanced Research Projects Agency, http://www.hitl.washington.edu/scivw/youngblut-edvr/D2128.pdf, Jan 1998. Flexibilisierung der Lehr- und Lernszenarien von Business-Fallstudien durch CaseML Katharina Reinecke, Hülya Topcuoglu, Stefanie Hauske und Abraham Bernstein Institut für Informatik, Universität Zürich, Binzmühlestr. 14, CH-8050 Zürich, Schweiz {reinecke, topcu, hauske, bernstein}@ifi.uzh.ch Abstract: In diesem Paper wird eine Auszeichnungssprache für multimediale und modularisierte Fallstudien, die in der Wirtschaftsinformatik-Lehre eingesetzt werden, vorgestellt. Während die meisten Fallstudien für eine spezifische Lehr-Lernsituation geschrieben sind, sollen die Fallstudien, wie sie hier beschrieben werden, flexibel und modular für verschiedene Aufgabenstellungen und in unterschiedlichen Lehr-LernSzenarien einsetzbar sein. Hierfür ist eine flexible Darstellung der Fallstudien notwendig; sie kann durch die von uns entwickelte Auszeichnungssprache CaseML sichergestellt werden. 1 Einleitung Lehren und Lernen mit Fallstudien ist eine effiziente Methode, um höhere Lernziele, wie effiziente Problemlösung und Entscheidungsfindung, zu erreichen. Werden Fallstudien multimedial und modular strukturiert in einer E-Learning-Umgebung angeboten, erhalten Lernende darüber hinaus auch eine wirklichkeitsgetreuere Darstellung des Wirtschaftsumfelds, etwa durch Videoeinspielungen oder Simulationen. Zudem kann die Anzahl von Lehr- und Lernszenarien durch die multiple und flexible Verwendung des Fallstudienmaterials gesteigert werden. Im Rahmen des CasIS-Projekts1 sind in Zusammenarbeit mit verschiedenen Unternehmen vier reale Fallstudien nach der Harvard-Business-School-Methode [Ro01] entstanden. Im Vorfeld der Fallstudienerstellung wurden Anforderungen an die Fallstudien zusammengestellt, die sich einerseits aus den Projektzielen (s.u.) ergaben und die andererseits der Forderung aller Projektpartner nach einer möglichst flexiblen und modularisierten Verwendung der Fallstudien Rechnung tragen sollten. Insgesamt wurden folgende sechs Anforderungen an die Fallstudien formuliert: • Unterschiedliche Sichten auf die Fallstudie für Lehrende und Lernende • Flexible Verwendung der Fallstudien in zahlreichen Lehr- und Lernszenarien 1 ”Cases in Information Systems”, ein Projekt des Swiss Virtual Campus 103 • Unterstützung unterschiedlicher Aufgabenstellungen • Wirklichkeitsgetreue Fallstudien durch die Verwendung von Multimedia • Unterschiedliche Ausgabeformate • Plattformunabhängigkeit Die Umsetzung dieser Anforderungen erfolgte mit Hilfe einer Auszeichnungssprache. CaseML ist der erste Versuch, eine Fallstudie strukturiert zu beschreiben und deren Inhalt zugleich zu modularisieren. Fallstudieninhalte können so für verschiedene Aufgabenstellungen adaptiert oder in unterschiedlichen Lehr- und Lernszenarien eingesetzt werden. Die Auszeichnungssprache CaseML erlaubt dadurch einen vielfältigen Einsatz von Fallstudien und ist gleichzeitig offen für die Erweiterung durch weitere Anforderungen, wie etwa dem Hinzufügen von Adaptivität. Das Paper ist folgendermassen aufgebaut: Nach einem kurzen Überblick über das Projekt CasIS beschreiben wir die grundlegenden Anforderungen, die oben bereits kurz aufgelistet sind, im Detail. Danach untersuchen wir bestehende Auszeichnungssprachen hinsichtlich ihrer Relevanz für unser Projekt. Die Auszeichnungssprache CaseML wird im Hauptteil des Papers vorgestellt. Hier konzentrieren wir uns darauf, zu beschreiben, wie in CaseML die Projektanforderungen berücksichtigt und umgesetzt worden sind. Der Hauptteil endet mit der Diskussion der Vorteile von CaseML. Das Paper schliesst mit einer Zusammenfassung und einem Ausblick auf zukünftige Arbeitsschritte. 2 Projektübersicht und -anforderungen Unser E-Learning-Projekt CasIS ist ein Verbundprojekt von vier Schweizer Hochschulen und wird im Rahmen des Virtuellen Campus Schweiz von Januar 2006 bis Dezember 2007 gefördert. Während der zweijährigen Projektlaufzeit werden in unserem Projekt E-Learning-Module speziell für den Fallstudienunterricht entwickelt, die anschliessend von allen Projektpartnern in ihren Lehrveranstaltungen zur Wirtschaftsinformatik auf Bachelor- und Masterstufe langfristig eingesetzt werden. Die Adressierung einer sehr heterogenen Zielgruppe, wie sie Studierende in Rasterprogrammen im Allgemeinen darstellen, und die Erreichung höherer Lehr- und Lernziele bilden dabei die übergeordneten Projektziele. Die Heterogenität der Zielgruppe wird durch die vorhergehende akademische Ausbildung und die Berufserfahrung bestimmt, welche in ein breit variierendes Vorwissen und ein weites Spektrum unterschiedlicher Kompetenzen münden. In Lehrveranstaltungen der Wirtschaftsinformatik auf Masterebene sollen im Regelfall höhere Lehr- und Lernziele wie etwa die Anwendung von Wissen oder die Analyse und Bewertung von Daten und Informationen erreicht werden. Fallstudien (Case Studies) sind hier eine sehr geeignete Methode, mit deren Hilfe in erster Linie das Lösen von Problemen und das Fällen von Entscheidungen eingeübt werden. Bei Fallstudien, die sich auf 104 wirkliche Ereignisse in Unternehmen beziehen – so genannte real case studies“ – werden ” Lernende in die Position eines Problemlösers oder Entscheiders versetzt und können so den Umgang mit komplexen Problemen und das Treffen wohlfundierter Entscheidungen besonders wirklichkeitsnah trainieren. Die im Rahmen des Projekts entstehenden Produkte werden multimedial, insbesondere mit Videos und Simulationen, aufbereitet und online präsentiert. So sind sie wirklichkeitsnäher und somit für den Lernenden attraktiver und motivierender. Insgesamt umfasst das Projekt folgende vier E-Learning-Komponenten, die insbesondere den heterogenen Wissensstand der Zielgruppe berücksichtigen: • Online-Einstiegstest: Mit Hilfe eines online verfügbaren Einstiegstest können Lernende einschätzen, ob ihr Wissen über grundlegende Fakten, Methoden und Modelle (deklaratives Wissen) ausreicht, um die Fallstudien erfolgreich zu bearbeiten oder ob Wissenslücken bestehen. Darüber hinaus erhalten die Lernenden Hinweise auf verfügbare und relevante Lernmaterialien. • Online-Vorbereitungsmodule: Lernende können fehlendes deklaratives Wissen durch die Bearbeitung der Online-Vorbereitungsmodule erwerben. Diese Module sind als multimediale Selbstlernmodule verfügbar und decken ein breites Spektrum an wirtschaftsinformatikrelevanten Themen ab. • Toolbox: Die Toolbox umfasst eine Sammlung relevanter Methoden und Werkzeuge zu Themen wie Analyse und Problemlösung, welche Lernende für die Bearbeitung einer Fallstudie benötigen. • Reale Fallstudien: Die notwendigen Daten und Informationen eines spezifischen Falls werden dem Lernenden in Form einer multimedialen Online-Fallstudie präsentiert. Vier Fallstudien sind in Zusammenarbeit mit Unternehmen zu aktuellen Themen der Wirtschaftsinformatik entstanden. Basierend auf den Ergebnissen des Online-Einstiegstest, erhält der Lernende einen Vorschlag, wie er seinen Lernpfad durch die Online-Vorbereitungsmodule gestalten kann. Die Bearbeitung der Online-Vorbereitungsmodule soll sicherstellen, dass der Lernende über das notwendige Wissen verfügt und dass alle Lernenden über einen ähnlichen Wissensstand verfügen. Die eigentliche Fallstudienarbeit basiert auf den realen Fallstudienmodulen und wird durch die Toolbox ergänzt. 2.1 Anforderungen an den Einsatz von Fallstudien Im Nachfolgenden werden die Anforderungen an den Einsatz von Fallstudien beschrieben, die sich aus den Zielen des E-Learning-Projekts ableiten lassen. Wie bereits zuvor beschrieben, geht es hierbei vor allem darum, höhere Lernziele zu erreichen und Fallstudien flexibel und modularisiert einsetzen zu können. Harvard-Business-Fallstudien: Eine Harvard-Business-Fallstudie ist die Veranschaulichung einer realen Wirtschaftssituation. Der Fall beschreibt eine Person in einer Orga- 105 nisation, die in eine Entscheidung, ein Problem oder eine Aufgabe involviert ist. Durch den Einsatz von Fallstudien in der Lehre sollen Lernende die Rolle des Entscheidungsträgers einnehmen und ihr Wissen anwenden sowie Daten und Informationen analysieren oder evaluieren. Diese Ziele führten zu der Entscheidung für die Entwicklung von fachgebundenen und entscheidungsorientierten Fallstudien nach dem Harvard-BusinessFallstudienstandard. Verschiedene Sichten für Lehrende und Lernende: In herkömmlichen Lernumgebungen haben Lehrende meist Zugriff auf zusätzliche Materialien, die ihnen als Lehrhilfen dienen. Analog hierzu erfordert die webbasierte Arbeit mit Fallstudien zwei getrennte Sichten für den Bereich des Lernenden auf der einen Seite, und für ergänzende Informationen und Lehrnotizen für den Lehrenden auf der anderen. Eine wichtige Anforderung an die Abbildung von Fallstudien ist daher, dass den Lehrenden der frei wählbare Zugriff auf alle Materialien gewährt wird. Gleichzeitig muss sichergestellt werden, dass Lernende auf diese Lehrnotizen und -materialien nicht zugreifen können. Unterstützung verschiedener Aufgabenstellungen: Eine einzige Fallstudie soll verschiedene Aufgabenstellungen umfassen, welche in den meisten Fällen nur bestimmte Teile der Fallstudie für eine erfolgreiche Bearbeitung voraussetzen. Einige Textteile oder Multimedia-Elemente können dagegen für die jeweilige Aufgabe nicht relevant und folglich überflüssig sein. Sollen für eine Fallstudie verschiedene Aufgaben zur Verfügung stehen, müssen daher der jeweiligen Aufgabe die relevanten Teile zugewiesen werden können. Nach Auswahl einer bestimmten Aufgabe muss zudem sichergestellt sein, dass lediglich die dazugehörigen Teile der Fallstudie für den Lernenden sichtbar sind. Flexible Lehr- und Lernszenarien: Fallstudien sollen in verschiedenster Weise eingesetzt werden, wie zum Beispiel in einer 90-minütigen Vorlesung oder über einen Zeitraum von vier Wochen. Die Abbildung der Fallstudie muss daher eine hohe Anpassungsfähigkeit aufweisen und den Vorlieben des Lehrenden gerecht werden. Steigerung der Realität: Fallstudien leben von einer möglichst realen Beschreibung eines Falls. Deshalb ist eines unserer Projektziele die Entwicklung von webbasierten multimedialen Fallstudien, in denen zum Beispiel ein Video den Manager einer Organisation bei der Erklärung des Wirtschaftsproblems präsentiert oder ein Diagramm Datensätze visualisiert. Verschiedene Ausgabeformate: Das Ziel des Projektes ist die Darstellung der Fallstudien in einer webbasierten Lernumgebung, welche eine einfache Verknüpfung sämtlicher im Projekt entwickelter Produkte, neben den Fallstudien also Eingangstest, Vorbereitungsmodule und Toolbox, in einfacher Weise erlaubt. In vorherigen E-Learning-Projekten wurde jedoch die Erfahrung gemacht, dass Lernende die Möglichkeit einer Druckversion sehr schätzen. Neben der webbasierten Lernumgebung soll daher auch eine textbasierte OfflineVersion zur Verfügung gestellt werden. Plattformunabhängigkeit: Im Rahmen des Projekts werden von den Projektpartnern verschiedene Learning-Management-Systeme (LMS) eingesetzt, wie zum Beispiel OLAT, WebCT Vista oder Moodle. Daher müssen alle Fallstudien unabhängig von einer speziellen E-Learning-Plattform erstellt werden, so dass ihre Wiederverwendbarkeit gesichert ist. 106 3 Relevante Forschungsergebnisse Da die Realisierungsmöglichkeiten durch die Komplexität und Vielfalt der Anforderungen stark eingeschränkt wurde, ist die Evaluation relevanter Forschung auf existierende Auszeichnungssprachen beschränkt worden. Eine Auszeichnungssprache kann entweder sehr allgemein sein und damit domänenspezifisches Wissen zu Gunsten eines grösseren Anwendungsbereiches auslassen oder sie kann sehr spezifisch und nur in einem begrenzten Bereich einsetzbar sein. Die hier dargestellte Arbeit greift zum Teil auf XML-Entwicklungen im E-Learning-Bereich zurück. Hierbei ist vor allem zu erwähnen, dass CaseML auf der Auszeichnungssprache eLML (eLesson Markup Language) für deklaratives Wissen basiert. Die Abbildung von Fallstudien in eLML ist allerdings durch die streng vorbestimmte Struktur von eLML sehr begrenzt [HNH05]. Weitere Einschränkungen, wie die nicht realisierbare Inhaltsmodularisierung oder das Fehlen von Domänenwissen, führten zu der Entscheidung, dass eLML den Anforderungen für den Einsatz von Fallstudien nicht gerecht werden kann. Eine weitere mögliche Auszeichnungssprache ist die von Stübing [St03] für die Abbildung von IT-Fallstudien, die es erlaubt, vorhandene Lernressourcen zu referenzieren und damit in den Lernprozess einzubinden. Die vorgeschriebene hierarchische Strukturierung des Inhalts erlaubt jedoch keine flexible und modular aufgebaute Abbildung von Fallstudien. Neben Anregungen zur Umsetzung von beiden Ansätzen, haben wir speziell den strukturellen Aufbau der Präsentationselemente, wie zum Beispiel Tabellen und Listen, von eLML übernehmen können. 4 CaseML Der Entwicklungsprozess der Auszeichnungssprache CaseML umfasste nicht nur eine erste Analyse der Anforderungen und die Überprüfung der Eignung bestehender Auszeichnungssprachen, sondern auch eine sorgfältige Prüfung der Implementationsmöglichkeiten. Im Folgenden wird daher auf die Umsetzung der Anforderungen in CaseML eingegangen. Anschliessend wird der Prozess der Fallstudiengenerierung von der Erstellung bis hin zur Transformation beschrieben, bevor die Vorteile von CaseML zusammengefasst werden. 4.1 Anforderungen und ihre Umsetzung in CaseML Nachfolgend wird die von den generellen Anforderungen an Fallstudien abgeleitete Umsetzung in CaseML beschrieben. Harvard-Business-Fallstudien: Für die Entwicklung unserer Fallstudien haben wir die Vorgehensweise von Leenders et al. [ELM01] gewählt. Sie schlagen vor, den Fallstudientext wie einen auf der Spitze stehenden Kegel zu strukturieren, was einem Fokussierungsprozess entspricht. Gemäß diesem Framework sollte eine Fallstudie immer mit der Einleitung beginnen, gefolgt vom Firmenhintergrund, dem Wirkungsbereich, der Problem- 107 stellung oder Entscheidung, sowie den Alternativen und sollte mit einer Zusammenfassung enden. Die Fallstudie wird durch Anhänge und Appendizes, die weitere Materialien, die die Lernenden für die Bearbeitung der Fallstudie benötigen, und einem Glossar vervollständigt. CaseML ist, wie in Abbildung 1 dargestellt, gemäss diesem Framework strukturiert. Vom Wurzelelement caseStudy“ wird das Schema in die Elemente case“, welches den Text ” ” der Fallstudie repräsentiert und das Framework realisiert, teachingNotes“, welches dem ” Dozenten Informationen zur Vorbereitung seines Unterrichts bereitstellt, und task“, das ” verschiedene Aufgaben für die Lernenden enthält, unterteilt. Das Element case“ besteht aus einer Abfolge der Elemente introduction“, mainPart“, ” ” ” conclusion“, exhibits“, appendixes“, glossary“, endnotes“ und metadata“. ” ” ” ” ” ” Abbildung 1: Ausschnitt aus der graphischen Darstellung des XML-Schemas, das die oberen Ebenen von CaseML zeigt Das Element introduction“ präsentiert eine Zusammenfassung des Sachverhalts, identi” fiziert Namen und Ort der Organisation und bietet zum Beispiel Informationen über den Entscheidungsträger, das Problem oder den Zeitrahmen. Um all diese Informationen erfassen zu können, bietet CaseML optionale Elemente, welche dem Fallstudienautor dabei helfen, diese Informationen zu berücksichtigen. Das Beispiel 2 zeigt, wie eine Einleitung in CaseML geschrieben werden kann. Der Hauptteil der Fallstudie wird durch das Element mainPart“ abgebildet, welches un” ter anderem die Elemente companyBackground“, specificArea“, specificProblem“ und ” ” ” alternatives“ enthält, um die Informationen über den Organisationshintergrund und des” sen Industrie, den Bereich, in dem der Entscheidungsträger arbeitet, das zu behandelnde 108 Problem oder die Entscheidung und ihre mögliche Alternativen, abzubilden. Zusätzlich stellt das Schema weitere semantische Elemente, wie zum Beispiel organizationHistory“, ” industry“, majorProduct“, staffing“ oder requirement“, bereit. ” ” ” ” Das Element conclusion“ bringt den Leser wieder zurück zur Einleitung und greift die ” Fristen auf, die durch den Fall vorgegeben sind. Deshalb können innerhalb dieses Elements andere Elemente, wie zum Beispiel deadline“, nextMeeting“ oder customerExpectati” ” ” ons“, benutzt werden. Abbildung 2: Ausschnitt eines CaseML-Dokuments Verschiedene Sichten für Lehrende und Lernende: Die zwei verschiedenen Sichten für Lehrende und Lernende sind in der obersten Ebene der CaseML-Hierarchie verankert. Wie in Abbildung 1 zu sehen ist, wurde das Wurzelelement caseStudy“ in drei zusätzliche ” Elemente case“, teachingNotes“ und tasks“ unterteilt. Dementsprechend präsentiert die ” ” ” erste Ebene sowohl die Perspektive der Lehrenden als auch die der Lernenden: Der Inhalt des Elements case“ ist für beide sichtbar, während das optionale Element teachingNotes“ ” ” nur Informationen für Lehrende enthält. Unterstützung verschiedener Aufgabenstellungen: Eine weitere Anforderung an die Auszeichnungssprache ist die passende Inhaltsdarstellung für verschiedene Aufgaben. Diesbezüglich konnte nur die Modularisierung des Inhalts in Betracht gezogen werden, um Raum für inhaltliche Anpassungen zu schaffen. Wie zuvor beschrieben, wurde jedem Modul ein Element task“ und ein Element content“ zugewiesen. Das Aufgabenelement ” ” task“ ist dabei vom Typ Integer und kann beliebig oft eingesetzt werden. Eine Restrikti” on wird lediglich dadurch vorgegeben, dass jedem Modul mindestens eine Aufgabe, also ein task“-Element, zugewiesen werden muss. Ein Beispielmodul der XML-Datei würde ” demnach zusammengesetzt sein, wie in Abbildung 2 zu sehen ist. Nach diesem Ausschnitt gehört der Modulinhalt sowie alle untergeordneten Elemente, wie zum Beispiel paragraph“, zu Aufgabe 1 und Aufgabe 2. Die Verbindung zu der zu” gehörigen Aufgabe, die in dem Element task“ definiert wurde, konnte durch eine Attri” 109 butsdefinition hergestellt werden. Entsprechend enthält tasks“ die Attribute title“ und ” ” taskID“. ” Flexible Lehr- und Lernszenarien: Durch die Modularisierung ist eine Anpassung der Fallstudie an eine beliebige Zeitspanne innerhalb verschiedener Lehr- und Lernszenarien möglich. Hierfür dient das Element module“, welches die Angabe zugehöriger Aufga” ben und den entsprechenden Inhalt des Moduls bedingt. Der Inhalt kann aus Textparagraphen oder Multimedia-Elementen zusammengesetzt sein, die zudem von Listen, Tabellen oder anderen Darstellungsumgebungen umfasst werden können. Der Umfang der Fallstudie kann durch den Lehrenden beeinflusst werden, indem dieser eine bestimmte Aufgabe auswählt, die die Darstellung der zugehörigen Module auslöst. Weiterhin bietet CaseML die Option, semantische Elemente innerhalb des Elements teachingNotes“ zu ” spezifizieren. So können beispielsweise mit Hilfe des semantischen Elements timePlan“ ” Vorschläge zum Einsatz der Fallstudie hinsichtlich verschiedener Lehr- und Lernszenarien gemacht werden. Dadurch werden sowohl dem Autor, der die Informationen innerhalb des Elements teachingNotes“ definiert, als auch dem Lehrenden vielfältige Möglichkeiten ” gegeben, den Umfang der Fallstudie festzulegen. Steigerung der Realität: Eines der Hauptziele dieses Projekts ist die Entwicklung von webbasierten Fallstudien, die mit multimedialen Materialien angereichert sind. Mit dem Element multimedia“ stellt CaseML eine einfache Integrationsmöglichkeit für Vi” deoclips, Flash-Animationen, Java Applets und Bilder bereit. Weiterhin ist es möglich, XML-Standards, wie zum Beispiel mathML, SVG oder x3d, mit Hilfe dieses Elements einzubinden. Verschiedene Ausgabeformate: Jede Fallstudie wird in einem einzelnen XML-Dokument gespeichert und kann in verschiedene Ausgabeformate umgewandelt werden. Hierfür wurden die Stylesheets zur Transformation der Fallstudien in HTML für die Online-Version und in LaTeX für die Druckversion implementiert. Die Umwandlung in das jeweilige Ausgabeformat erfolgt folgendermassen: • Online-Version: Das Stylesheet für die Online-Transformation erzeugt XHTMLCode. Dem Prinzip der Trennung von Inhalt und Darstellung folgend, werden alle Layout- und Style-Definitionen in einer separaten CSS (Cascading Style Sheet)Datei definiert. Daher kann das Aussehen der generierten HTML-Seiten sehr einfach durch die Anpassung der entsprechenden Definitionen in der CSS-Datei geändert werden. Der Screenshot in Abbildung 3 zeigt das Resultat der Online-Transformation einer Fallstudie. • Druckversion: Das Stylesheet für die Druckversion erzeugt LaTeX-Code, welcher mit Hilfe der LaTeX-Distribution in ein PDF-Dokument umgewandelt werden kann. Eine andere Möglichkeit, ein PDF zu erzeugen, wäre der Einsatz von XSL-FO (XSL-Formatting Objects) gewesen. Da sich nicht alle Projektpartner mit XML und dessen Transformationstechniken auskennen, wurde die Entscheidung für LaTeX getroffen. Man kann jedoch mit Hilfe der generierte LaTeX-Datei relativ einfach individuelle Änderungen an der Fallstudie vor der Umwandlung in PDF vornehmen, wie zum Beispiel die Angabe des entsprechenden Kurses und des Dozenten auf der Titelseite. 110 Abbildung 3: Eine Fallstudie in der Online-Version Plattformunabhängigkeit: Die Bedeutung der Plattformunabhängigkeit wurde bereits in den Anforderungen hervorgehoben, um den Einsatz der Fallstudien in verschiedenen Lernplattformen zu gewährleisten. Heutzutage unterstützen die meisten Lernplattformen Standards wie IMS Content Packaging [IMS04] und Sharable Content Object Reference Model [SCO04] zum Import von Online-Materalien in die Lernplattform. Aus diesem Grund wurden Verpackungsskripte implementiert, die CaseML-Fallstudien in die OnlineVersion für beide Standards transformieren. 4.2 CaseML im praktischen Einsatz Die im vorherigen Abschnitt vorgestellte Umsetzung der Anforderungen in CaseML ermöglicht eine nahtlose Generierung der Fallstudien von der schriftlichen Version bis hin zum Online-Einsatz. Getestet wurde dies bereits an vier verschiedenen Fallstudien, die im Projekt geschrieben wurden. Besonders deutlich wurde hierbei, dass sich die verschiedenen Autoren zwar an der Struktur einer Harvard-Business-Fallstudie orientierten, diese aber an das von ihnen gewünschte Lehr- und Lernszenario anpassten. Dadurch entstanden deutlich abweichende Strukturen: Die Fallstudie über die Einführung eines Intranets bei den Leipziger Verkehrsbetrieben führt den Lerner beispielsweise von dem Problem über verschiedene Lösungsideen bis hin zur Umsetzung einer gewählten Strategie. Im Schlusskapitel bekommt der Lernende zusätzlich einen Überblick über Benutzererfahrungen nach der Einführung. In einer weiteren Fallstudie über die Umstellung des Wertschriftenabwicklungssystems bei der Zürcher Kantonalbank werden dem Lernenden dagegen lediglich das Problem, die Strategiekriterien und verschiedene Offerten genannt; die Lösung des Problems durch Auswahl einer geeigneten Offerte anhand der Strategiekriterien wird 111 bewusst offen gelassen und bietet Raum für zahlreiche Aufgabenstellungen. Beide Fallstudien gleichen sich also insofern, dass sie Firmenhintergrund, Probleme und Strategien aufführen, wie es die Struktur von Harvard-Business-Fallstudien vorsieht. Das Ende der Fallstudien unterscheidet sich jedoch gravierend, ebenso wie die Lehr- und Lernstrategien, die damit verfolgt werden. Unsere Erfahrungen bei der Umsetzung der Fallstudien in CaseML hat gezeigt, dass die Auszeichnungssprache diese Unterschiede problemlos abbilden kann. Alle vier Fallstudien werden in sehr unterschiedlichen Lehr- und Lernszenarien eingesetzt, wobei sogar eine einzelne Fallstudie mit Hilfe der Modularisierungsmöglichkeit in CaseML über einen kürzeren oder längeren Zeitraum angewendet werden kann. Hierfür musste für jedes Modul in der XML-Datei eine Aufgabenzugehörigkeit angegeben werden. Die flexible Struktur von CaseML erlaubte dabei eine einfache und schnelle Umsetzung in die verschiedenen tags“. Textteile und Multimedia wurden mit semantischer Information annotiert, um ein ” späteres Suchen nach bestimmten Kriterien zu ermöglichen. Zwei verschiedene Stylesheets erlaubten anschliessend eine automatische, den Aufgaben angepasste Transformation in das LaTeX-Format zur weiteren Umwandlung in eine PDF-Datei und in HTMLSeiten, die später automatisch in Content Packages verpackt wurden. Diese ermöglichten anschliessend eine Online-Version der Fallstudie: Für jede in der XML-Datei definierten Aufgabe wurde automatisch jeweils eine Version für den Lehrenden und eine für den Studierenden generiert. Die verschiedenen Content Packages wurden anschliessend manuell ausgewählt und in der Lernplattform OLAT2 eingesetzt. Zusätzlich wird gerade an einem in verschiedene Lernplattformen integrierbaren Fallstudien-Portal gearbeitet, dass durch Auswahl der gewünschten Aufgabe automatisch eine Lehrenden- oder eine Studierenden-Version, je nach Identifikation durch die jeweilige Lernplattform, lädt. Hier wird schliesslich der Projekt-Prozess im vollen Umfang abgebildet werden können: Das Portal ermöglicht die Verbindung von Eingangstest, Vorbereitungsmodulen, Fallstudien und der Toolbox und bietet eine Führungshilfe für die Bearbeitung von Fallstudien. 4.3 Die Vorteile von CaseML im Überblick Wie unser Einsatz von CaseML gezeigt hat, unterscheidet sich die Auszeichnungssprache besonders durch die Möglichkeit der flexiblen Inhaltsmodularisierung von bereits implementierten Auszeichnungssprachen. Die Fallstudie kann durch das Zuweisen verschiedener Module zu den dazugehörigen Aufgaben (siehe Anforderung 4) individuell angepasst werden, so dass dem Lernenden nur relevante Teile präsentiert werden. Durch diese Anpassungen kann daher der Umfang einer Fallstudie erheblich reduziert werden. Es kann von verschiedensten Lehrszenarien Gebrauch gemacht und der Schwierigkeitsgrad an die Lernenden angepasst werden, indem nur relevante Informationen angezeigt werden oder aber dem Lernenden die Auswahl der Relevanz selbst überlassen wird. Dies bedeutet auch, dass ein und dieselbe Fallstudie sowohl in einer einzigen Lehrstunde als auch über einen Zeitraum von vier Wochen eingesetzt werden kann. Vorschläge und Anregungen für verschiedene Formen des Einsatzes findet der Lehrende in den Teaching Notes, die eine mit dem Inhalt der Fallstudie verbundene Einheit bilden. 2 http://www.olat.unizh.ch 112 Ein hilfreicher Vorteil von CaseML ist weiterhin das Domänenwissen, das eine Erweiterung der Funktionalität erlaubt. So ist es zum Beispiel möglich, semantische Informationen auszulesen und das Vorkommen eines bestimmten Details in der gesamten Fallstudie aufzulisten. Zusätzlich geben die fakultativ einsetzbaren semantischen Informationen Aufschluss über den Inhalt einer Fallstudie. Dem Autor bieten sich also flexible Anpassungsmöglichkeiten des Fallstudieninhalts für verschiedene Anforderungen und Szenarien; trotzdem gewährleistet CaseML eine Art Gliederungsanleitung, die sich an der Struktur einer Harvard-Business-Fallstudie orientiert. Aus technischer Sicht betrachtet bietet CaseML durch die Transformationsmöglichkeit in verschiedene Ausgabeformate, wie zum Beispiel HTML, Latex und PDF, einen weiteren Vorteil für den modifizierbaren Einsatz von Fallstudien. Zusätzlich wird der Export in jedes LMS-unterstütztendes Content Package gewährleistet, was der Sprache das Potenzial gibt, an zahlreichen Schulen und Universitäten in der jeweils gewohnten Lernumgebung eingesetzt zu werden. 5 Zusammenfassung und Ausblick Nach einer kurzen Einführung in unser E-Learning-Projekt, wurde in diesem Paper speziell auf die Projektanforderungen an den Einsatz von webbasierten Fallstudien eingegangen. Durch die besondere Eignung von XML für die Erfüllung dieser Anforderungen, wurden anschliessend verschiedene XML-Entwicklungen im Bereich des E-Learning mit ihren Vor- und Nachteilen vorgestellt. Deren Nachteile, wie die streng vorgegebene Struktur und eine nur geringe Anpassungsfähigkeit an verschiedene Lehr- und Lernszenarien für bestimmte Anwendungsgebiete, führten zu der Entwicklung der Auszeichnungssprache CaseML, die daraufhin vorgestellt wurde. Die hochflexible Sprache wurde speziell nach den aufgeführten Anforderungen entwickelt und bietet unter anderem die Möglichkeit der Inhaltsmodularisierung zur Unterstützung verschiedener Aufgabenstellungen einer Fallstudie, sowie das Potenzial, semantische Elemente mit Domänenwissen zu annotieren. Weiterhin können mit CaseML beschriebene Fallstudien in verschiedene Ausgabeformate transformiert werden, um den Einsatz in verschiedensten Lernplattformen zu ermöglichen. Der Vorteil des Domänenwissens ist gleichzeitig eine unvermeidbare Einschränkung von CaseML, da sich die semantischen Tags insbesondere auf Business-Fallstudien beziehen. Soll eine Fallstudie ausserhalb dieses Bereichs geschrieben werden, können die optionalen Elemente jedoch weggelassen oder nur eine passende Teilmenge eingesetzt werden. Im Rahmen der Entwicklung eines webbasierten Fallstudienportals, welches sowohl in verschiedene Lernumgebungen integriert, als auch als externe Applikation einsetzbar sein wird, arbeiten wir im Moment auch an der Implementierung der Auslesefunktionalitäten für die semantischen Informationen. Ein mögliches Szenario ist hierbei, dass Lernende nach allen Vorkommnissen eines bestimmten Details suchen können, zum Beispiel um Informationen über Geschäftseinheiten oder über die strategische Zielsetzung der beschriebenen Firma zu bekommen. Eine nächste Erweiterung von CaseML wird ausserdem die Beschreibung von Methoden und Werkzeugen für die Toolbox sein. Die mit Hilfe von 113 CaseML generierten Fallstudien werden erstmals im Sommersemester 2007 von Projektteilnehmern in verschiedenen Lernplattformen eingesetzt. Literaturverzeichnis [IMS04] IMS. Content Packaging Specification, 2004. http://www.imsglobal.org/content/packaging [HNH05] B. Hebel, M. Niederhuber, H. Heinimann. e-Learning basierte Fallstudien zur akademischen Ausbildung in der Geoinformatik: Methodisches Konzept, Umsetzung und Erfahrungen. In Proceedings of DeLFI 2005: 3. Deutsche e-Learning Fachtagung Informatik, Rostock, 2005. [ELM01] J. A. Erskine, M. R. Leenders, L. A. Mauffette-Leenders. Writing Cases. Western Ontario, Ivey, 2001. [Ro01] M. J. Roberts. Developing a Teaching Case (Abridged), 2001. Harvard Business School Case No. 9-901-055. [SCO04] SCORM. Sharable Content Object Reference Model, 2004. http://www.adlnet.gov/scorm/index.cfm. [St03] M. Stuebing. Metadaten-gestuetzte Integration von Fallstudien in IT-gestuetzte Lehre, 2003. Diplomarbeit, Technische Universität Berlin. 114 Content-Migration beim Wechsel zwischen verschiedenen Systemkategorien zur Content-Erstellung und -Pflege Angela Frankfurth, Jörg Schellhase Fachgebiet Wirtschaftsinformatik Universität Kassel Nora-Platiel-Straße 4 34127 Kassel frankfurth@wirtschaft.uni-kassel.de schellhase@wirtschaft.uni-kassel.de Abstract: Es existieren unterschiedliche Systemkategorien zur Erstellung und Pflege von Content, die jeweils unterschiedliche Vor- und Nachteile aufweisen. Bei der Entscheidung für ein System begibt sich der Content-Entwickler (und -Nutzer) in mehr oder weniger große Abhängigkeiten, die für ihn nachteilig sein können. Insbesondere erscheinen zwei Probleme als besonders schwerwiegend: die grundsätzliche technische Nachhaltigkeit und die Migration. Der Beitrag stellt diese Probleme für verschiedene Systemkategorien dar. 1 Einleitung Die Content-Erstellung ist komplex sowie intellektuell, personell und damit finanziell aufwändig. Dennoch sind Content-Anpassungen von Zeit zu Zeit aufgrund veränderter sachlicher Inhalte (inhaltliche Wartung) sowie aufgrund der Technologiedynamik1 (technische Wartung) erforderlich. Größere Herausforderungen sind mit ContentMigrationen verbunden, die bei Systemwechseln notwendig werden. Die ContentMigration ist keine spezifische eLearning-Fragestellung, dennoch hat sie für das eLearning an Hochschulen eine große Bedeutung. Dies gilt besonders vor dem Hintergrund der technologischen Entwicklungen sowie der sich derzeit entwickelnden eLearningStrategien, die u.a. auch die Vermarktung von Content zur Refinanzierung zum Ziel haben. Hochschulen sind auf dem kommerziellen Content-Markt potentielle ContentProduzenten und -Anbieter, die jedoch über eine sehr heterogene Infrastruktur (auch bei der Content-Produktion) sowie nur über geringe finanzielle Mittel verfügen. Vor diesem Hintergrund betrachtet der Beitrag verschiedene Systemkategorien und die Besonderheiten der Migration zwischen den einzelnen Kategorien. 1 Zu nennen sind hier beispielsweise sich ändernde (Web-)Datenformate, die Weiterentwicklung von Browsern, die Entwicklung und Verwendung von Standards sowie die Verteilung von Informationen über unterschiedliche Kanäle wie Printversionen oder mobile Endgeräte [Br01]. 115 2 Systemkategorien zur Erstellung und Pflege von eLearningContent Im Fokus stehen Erstellung und Pflege von Inhalten zwecks Web-basierter Präsentation. Die meisten Learning Management Systeme (LMS) stellen lediglich einen Rahmen für die Verwaltung Web-basierter Kurse bereit. Die Methoden zur Aufbereitung von Inhalten für die Web-basierte Präsentation werden den jeweiligen Kursanbietern überlassen. Es gibt führende Anbieter für Software zur Produktion multimedialer Elemente (Animationen, Videos, Ton), auf deren Produkte für die Erstellung multimedialer Einheiten zurückgegriffen werden kann. Anders sieht dies in Bezug auf die Web-basierte Inhaltsaufbereitung aus. Zum einen kann eine Vielzahl von Systemkategorien (z.B. CMS, LCMS, WYSIWYG-HTML-Editoren, eLearning-spezifische Autorensysteme, WikiSysteme, Live-Recording-Systeme) zum Einsatz kommen; zum anderen haben sich in Bezug auf die Aufbereitung von eLearning-Inhalten, mit Ausnahme der Kategorie LiveRecording-Systeme, aus vielfältigen Gründen keine bestimmten Systeme nennenswert durchsetzen können. Es gibt viele Möglichkeiten der Web-basierten Aufbereitung von eLearning-Inhalten, die zudem als ein wesentliches Differenzierungsmerkmal genutzt werden. Auch HTML-Editoren können für die Content-Erstellung eingesetzt werden. Diese erlauben jedoch i. d. R. nur die Erstellung von statischem Content [DV05] und erfordern HTML-Kenntnisse. Im Folgenden werden verschiedene Systemkategorien, die zur Erstellung und Pflege von e-Learning-Content eingesetzt werden, kurz erläutert. 2.1 Content Management Systeme Content Management Systeme (CMS) sollen die einfache und effiziente Erstellung, Aktualisierung und Verwaltung von (eLearning-)Content ermöglichen und beinhalten zu diesem Zweck i.d.R. einfach zu bedienende Autorenumgebungen [DV05; BHM04, 4; Br04]. Reine CMS sind sehr stark prozess- und produktionsorientiert [Ba05, 127], was sich besonders in den Rollenkonzepten zeigt. Funktionalitäten Web-basierter CMS sind „die Beschaffung und Erstellung, das Management, die Präsentation und Publikation von Inhalten sowie das workflowbasierte Verarbeiten, Verteilen und Wiederverwenden von Inhalten“ [BHM04, 4]. Weiterhin sollen sie den einfachen Import externer Materialien ermöglichen [DV05]. Durch den Einsatz von CMS kann zu jeder Zeit ein konsistenter Zustand einer Web-Seite erreicht werden. Weiterhin kann eine gewisse Flexibilität erreicht werden, die jedoch mit einem erheblichen Aufwand für notwendige Anpassungen verbunden sein kann. Die Implementierung eines CMS ist jedoch zeitaufwendig und erfordert erhebliches technisches Know-how. [Br04] Obwohl XML bereits in vielen CMS implementiert wurde, existiert kein abgestimmtes Vokabular (Schema) zwischen den Anbietern. Dies führt zur proprietären Speicherung von Content und begrenzt so den Wert, den XML für das Erreichen von Interoperabilität haben kann. [Ro05, 2] Es existiert eine Anzahl sehr spezifischer Interoperabilitätsstandards. Keiner der derzeit implementierten Standards deckt jedoch alle Möglichkeiten eines CMS ab. Die Folge ist, dass CMS-Produkte oft proprietäre Technologien nutzen, um Content zu strukturieren und zu speichern. Selbst wenn XML eingesetzt wird, be- 116 wirkt das Fehlen eines gemeinsamen Vokabulars zwischen den Produkten, dass die Kommunikation zwischen ihnen sowie die Migration von einem System zu einem anderen System sehr schwierig sind. Der sich schnell entwickelnde Markt hemmt zudem die Kooperation zwischen Herstellern. [Ro05, 4] CMS werden bereits vielfach an Hochschulen eingesetzt (z.B. Typo3, Plone), jedoch überwiegend im Bereich der Erstellung von Webseiten, selten auch für die Erstellung und Pflege von eLearning-Content. 2.2 Learning Content Management Systeme Learning Content Management Systeme (LCMS) kombinieren Autorentools mit Tools für die Speicherung und das Wiederauffinden von Lernobjekten. Sie treten in unterschiedlichen Formen auf und beinhalten eine sehr große Breite von Funktionalitäten. LCMS verwalten alle Daten und Informationen in Bezug auf eLearning-Content [HK03, 12], sie sind somit auf eLearning-Content spezialisierte CMS, die der Erstellung und Speicherung modularer Lernobjekte, der gezielten Suche nach existierenden Lernobjekten sowie ihrer Zusammenstellung zu Kursen dienen [Sc04, 504]. LCMS können Lernobjekte in unterschiedlichen Kursen und Formaten zusammenstellen [HK03, 12]. Der Content wird i.d.R. mit Autorentools erstellt, [HK03, 12] diese müssen jedoch nicht in das LCMS integriert sein. Weiterhin ermöglichen LCMS das Content-Tracking, d.h. das Nachverfolgen der Interaktionen zwischen Lerner und Content [HK03, 12]. Der Begriff LCMS wird für Systeme verwendet, die über einen größeren Umfang an Funktionalitäten verfügen als Learning Object Repositories. Im Allgemeinen wird der Begriff auf Systeme angewandt, die Komponenten für die Autorenunterstützung beinhalten, über ein Learning Object Repository verfügen, die Bereitstellung von Lernobjekten für Lernende ermöglichen und darüber hinaus die Administration unterstützen. [CN06, 29f] Die Funktionalitäten, die ein LCMS bereitstellt, können daher sehr stark differieren, nämlich vom einfachen Management von mit externen Autorentools erstellten Inhalten, über die Unterstützung der Erstellung und Verwaltung von Content bis hin zur Übernahme von LMS-Funktionalitäten 2. In diesem Beitrag werden LCMS als Lernplattformen betrachtet, die Funktionen von eLearning-spezifischen Content Management Systemen beinhalten. 2.3 WYSIWYG-HTML-Editor WYSIWYG 3-HTML-Editoren sind Werkzeuge zur einfachen Erstellung und Pflege von Web-Seiten.4 Traditionelle WYSIWYG-HTML-Editoren unterstützten jedoch keine eLearning-Standards [Bu06, 47]. Mit der zunehmenden Verbreitung des eLearning wurden allerdings spezialisierte WYSIWYG-HTML-Editoren entwickelt, die eLearningspezifische Unterstützungsmerkmale aufweisen und Content-Standards wie SCORM oder AICC-Standards implementiert haben [Bö04, 42]. 2 Eine Beschreibung der Funktionen von LMS findet sich beispielsweise in [HSS01]. WYSIWYG: What You See Is What You Get. 4 Beispiele für WYSIWYG-HTML-Editoren sind u.a. Macromedia Dreamweaver, Microsoft Frontpage, Adobe GoLive sowie NetObjects Fusion [Bu06, 47; Bö04, 42]. 3 117 2.4 Wiki-Systeme Die Erstellung von Inhalten im Web gestaltet sich meist schwieriger als der reine Abruf. Aus diesem Grund wurden Tools entwickelt, die das Lesen und Erstellen von Inhalten gleichermaßen einfach ermöglichen, so dass beides mit den gleichen Kenntnissen durchführbar ist. Die Kooperation bei der Inhaltserstellung ist somit nicht auf Personen beschränkt, die über gleiche Kenntnisse und dieselben Tools verfügen. [DV05] Ein weit verbreitetes Tool für die kooperative Erstellung Web-basierter Inhalte sind Wikis. Sie stehen der zentralen Funktionalität von CMS, dem stark ausdifferenzierten Rollensystem, gegenüber. [Ba05, 128] Seit Mitte der 1990er Jahre ist das Wiki-Konzept vielfach weiterentwickelt worden. Es wurden vielfältige Wiki-Engines in verschiedenen Skriptund Programmiersprachen entwickelt.5 Die Kernfunktionalitäten eines Wiki sind einfache Editiermöglichkeiten, einfache Auszeichnungen sowie automatisches Verlinken von Seiten. Mit der Verbreitung von Wikis nahmen jedoch die Ansprüche der Nutzer zu, so dass weitere Funktionalitäten hinzukamen, wie der Versionsvergleich sowie die Übersicht über Änderungen an Seiten. Weitere Funktionalitäten von Wikis sind u.a.: Erstellen neuer Seiten, Erstellen externer Links, Sandbox für neue Nutzer,6 Page History sowie Suchfunktionalitäten. [CL04] Viele Online-Kurse verlinken auf Inhalte von Wikis [Sm05, 218]. Wikis setzen sich zunehmend für die kollaborative Erstellung von Inhalten durch. Unterschiedliche Wikis werden derzeit auch für die eLearning-Content-Erstellung an Hochschulen im In- und Ausland eingesetzt. 2.5 eLearning-spezifische Autorensysteme Die Kategorie eLearning-spezifische Autorensysteme umfasst in diesem Beitrag alle speziell auf eLearning ausgerichteten Systeme zur Erstellung und Pflege von eLearningContent, die nicht den Kategorien LCMS oder klassische Autorensysteme (z.B. Macromedia Director) angehören. Beispiele sind spezielle, auf eLearning ausgerichtete Generierungswerkzeuge bzw. so genannte Content-Converter. Diese dienen dazu, Dokumente, die mittels einer Textverarbeitungssoftware erstellt wurden, in HTML-Dateien umzuwandeln. Hierfür ist es jedoch erforderlich, dass die Struktur im Textdokument, insbesondere die Überschriftenformate zur Erstellung der Navigation, exakt definiert wurden. [Bö04, 43] In [Sc01] wird die Individualentwicklung Virtual Learning Environment Generator (VLEG) beschrieben, die auf der Basis von mittels WYSIWYG-HTMLEditoren gepflegten Manuskrip-ten semantisch angereicherte, hochgradig verlinkte und mit zahlreichen Funktionalitäten aus-gestattete WBTs generiert. Vorstellbar sind aber auch eLearning-spezifische CMS, die im Gegensatz zu Content-Convertern zusätzlich eLearning-spezifische Rollenkonzepte und Workflow-Unterstützungen anbieten. 5 Eine Übersicht verfügbarer Wiki-Engines findet sich unter: http://www.c2.com/cgi/wiki?WikiEngines. Hierbei handelt es sich um spezielle Wiki-Seiten, die in Wiki-Systemen neuen Nutzern zur Verfügung gestellt werden, damit diese sich „mit der Bearbeitung und Erstellung von Seiten im Wiki vertraut“ machen können. In den deutschsprachigen Versionen werden diese Seiten auch „Spielwiesen“ genannt. http://de.wikipedia.org/wiki/Sandbox, Abruf am 2006-07-23. 6 118 3 Content-Migrationen zwischen verschiedenen Systemkategorien Unter Web-basiertem eLearning-Content werden im Folgenden einzelne Lernobjekte verstanden, die mittels spezieller Systeme erstellt, gepflegt und verwaltet werden. Im Extremfall kann es sich hierbei auch um die vollständige inhaltliche Aufbereitung einer Vorlesung handeln. An Hochschulen wurden in den letzten Jahren erhebliche Ressourcen für die Entwicklung von Web-basiertem eLearning-Content verwendet. Die Technologien und Sprachen (HTML, JavaScript, CSS, XML, XSL, RDF), mit denen Web-basierter Content erstellt wird, haben sich stetig weiterentwickelt. Aufgrund dieser dynamischen technologischen Entwicklungen entstehen immer wieder Situationen, in denen Web-basierter Content an neue Technologien angepasst werden muss. Der damit verbundene Aufwand hängt stark davon ab, mit welcher Systemkategorie Web-basierte Inhalte gepflegt werden. Im Idealfall reicht ein Softwareupdate des Systems aus, das zur Erstellung und Pflege der Webbasierten Inhalte verwendet wird. Bei Ansätzen, bei denen zu festen Zeitpunkten Webbasierte eLearning-Produkte generiert werden (z.B. bei Content Convertern), wird es komplizierter, da in diesem Fall der komplette Web-basierte eLearning-Content erneut generiert werden muss. Bei der Pflege von Web-basiertem Content mittels HTMLEditoren kann es sogar passieren, dass eine Vielzahl von einzelnen Dateien manuell überarbeitet werden muss. Je nach der verfolgten eLearning-Strategie einer Hochschule werden eine Vielzahl unterschiedlicher oder im Extremfall lediglich ein bestimmtes System zur Erstellung und Pflege von Web-basiertem eLearning-Content eingesetzt. Eine Vielzahl von Gründen kann dazu führen, dass von den aktuell eingesetzten Systemen zu anderen Systemen migriert werden muss. Im Rahmen solcher Migrationen muss u.a. der eLearning-Content migriert werden. Der damit verbundene Aufwand hängt sowohl vom Quell- als auch vom Zielsystem ab. Ist der notwendige Aufwand für eine Content-Migration zu hoch, so kann dies zu einer Gefährdung von zuvor durchgeführten Investitionen in die Entwicklung von eLearning-Content führen. Dömer unterscheidet in Bezug auf allgemeine Anwendungssysteme zwischen internen oder externen Migrationsanlässen sowie zwischen funktionalen oder technologischen Faktoren. Interne funktionale Ursachen werden durch neue Anforderungen der Organisation ausgelöst, die mit dem bisherigen System nicht erfüllbar sind. [Dö98, 57] Beispielsweise kann es sein, dass eine Hochschule das Angebot an eLearningLehrveranstaltungen erhöhen möchte und hierzu effiziente Organisationsstrukturen für die Erstellung und Pflege von Web-basiertem e-Learning-Content benötigt. Hierzu könnte es notwendig sein, dass das für die Erstellung und Pflege eingesetzte System die Definition komplexer Rollenkonzepte sowie komplexer Workflows unterstützen muss. Sofern diese Anforderungen durch das vorhandene System nicht erfüllbar sind, kann somit eine Migrationsnotwendigkeit entstehen. Interne technologische Ursachen sind häufig mit einer schlechten Wartungsqualität von Systemen verbunden, die dazu führt, dass zu viele (Mitarbeiter-)Ressourcen durch diese Systeme gebunden werden [Dö98, 57]. Bei Systemen zur Erstellung und Pflege von Web-basiertem eLearning-Content sollten neben dem Aufwand der Systemwartung, vor allem auch der durch das System verursachte 119 administrative Aufwand sowie die Erstellungs- und Pflegeproduktivität in Bezug auf den eLearning-Content betrachtet werden. Sofern es Systeme mit einem deutlich geringeren Administrationsaufwand sowie einer erheblich höheren Erstellungs- und Pflegeproduktivität gibt, kann sich der mit einer Migration verbundene Aufwand lohnen. Externe funktionale Ursachen werden durch den Wettbewerb ausgelöst. So kann der Wettbewerb das Angebot neuer Dienstleistungen erzwingen, die ohne Migration vorhandener Systeme nicht erbracht werden können [Dö98, 57]. Bietet eine Hochschule bspw. einen virtuellen Studiengang an, so stellt die Qualität der angebotenen eLearning-Produkte i.d.R. ein Differenzierungsmerkmal dar. Zur Steigerung der Qualität (z.B. Erweiterung der Funktionalitäten) kann ein Wechsel auf ein anderes eLearning-System erforderlich sein. Externe technologische Ursachen liegen z.B. dann vor, wenn Systeme bzw. Systemkomponenten von einem Hersteller nicht mehr unterstützt werden oder neue Technologien erhebliche Nutzengewinne ermöglichen [Dö98, 57]. Aufgrund der Vielzahl von Anbietern von Systemen zur Erstellung und Pflege von Webbasiertem eLearning-Content ist davon auszugehen, dass eine Vielzahl von Systemen in den nächsten Jahren am Markt nicht überleben wird, so dass ein Migrationszwang entstehen kann. Zudem sind zahlreiche weitere Migrationsanlässe denkbar, z.B. kann eine ungünstige Kostenstruktur (hohe Lizenzkosten) Anlass für Migrationsüberlegungen geben. Genauso gut kann auch die Migrationsfähigkeit eines Systems und des mit dem System verwalteten eLearning-Content ein wichtiger Migrationsanlass sein. Stellt eine Hochschule fest, dass der mit ihrem System erstellte eLearning-Content nur mit sehr hohem Aufwand migrierbar wäre, kann es sinnvoll sein, rechtzeitig auf ein anderes System zu wechseln, bei dem eine deutlich höhere Migrationsfähigkeit gegeben ist. Abbildung 1 veranschaulicht die Vielfalt möglicher Migrationen zwischen verschiedenen Systemkategorien (WYSIWYG-HTML-Editoren, LCMS, eLearning-spezifische Autorensysteme, Wiki-Systeme, CMS), die für die Erstellung und Verwaltung von Webbasiertem e-Learning-Content eingesetzt werden können. Zu allen aufgeführten Systemkategorien gibt es eine Vielzahl von kommerziellen Systemen, Open-Source-Systemen sowie Individualentwicklungen. Eine Systemkonsolidierung, in dem Sinne, dass sich bestimmte Standardsysteme am Markt etabliert haben, hat in allen hier aufgeführten Systemkategorien noch nicht stattgefunden.7 Die Mehrzahl der an Hochschulen eingesetzten Web-basierten e-Learning-Inhalte wurde mit eLearning-spezifischen Autorensystemen und WYSIWYG-HTML-Editoren erstellt. An dritter Stelle dürften mittlerweile LCMS stehen. Seltener werden hingegen allgemeine CMS sowie Wiki-Systeme zur Erstellung und Pflege Web-basierter eLearning-Inhalte verwendet. In Abbildung 1 werden für jede Systemkategorie drei Unterkategorien unterschieden, so dass ein Pfeil stellvertretend für jeweils neun unterschiedliche Migrationskategorien steht und insgesamt 225 verschiedene Migrationskategorien unterschieden werden. Die folgenden Betrachtungen zu den einzelnen Migrationskategorien beziehen sich lediglich auf die Systemoberkategorien und verzichten auf eine Differenzierung zwischen kommerziellen Systemen, Open-Source-Systemen sowie Individualentwicklungen. 7 Auf der Web-Site von Contentmanager (http://www.contentmanager.de) sind derzeit bspw. über 1000 Content-Management-Systeme verzeichnet. 120 1 WYSIWYG-HTML-Editoren 2 6 8 5 4 3 LCMS 11 12 10 16 eLearning-spezifische Autorensysteme 18 17 20 14 Legende Kommerzielle Systeme 15 7 19 Wiki-Systeme 13 23 22 24 9 21 CMS 25 Individualentwicklungen Open-Source-Systeme Evtl. problematische Migration, da nur teilweise automatisierbar. Abbildung 1: Potenzielle Migrationspfade zwischen verschiedenen Systemklassen Bei den folgenden Migrationsbetrachtungen geht es nicht um die Entwicklung eines neuen Systems auf der Basis eines alten Systems, sondern primär um die Migration von Elementen, die unmittelbar oder mittelbar mit eLearning-Content zusammenhängen. Die Nutzung von eLearning-Content über unterschiedlichste Systeme (z.B. unterschiedliche Lernplattformen) stellt meist kein allzu großes Problem dar, auch wenn der Austausch von Content nicht immer reibungslos funktioniert und gelegentlich sogar problematisch sein kann [Sm05, 218]. Die Migration von eLearning-Content zwecks Wechsel des Systems, das zur Erstellung, Pflege und Verwaltung von eLearning-Content eingesetzt wird, ist hingegen nicht trivial. Von einer Migration sind je nach Systemkategorie u.a. Metadaten zum eLearning-Content, Templates, spezialisierte Skripte sowie der eigentliche Content betroffen. Der Systemwechsel kann sowohl innerhalb einer Systemkategorie (z.B. von LCMS zu LCMS) als auch zwischen zwei Systemkategorien erfolgen. Migrationen innerhalb von Systemkategorien haben meistens einen Vorteil, denn i.d.R. versuchen Systemanbieter Kunden, die bereits ein System einer bestimmten Kategorie nutzen, dazu zu bewegen zu ihrem System zu wechseln. Daher sollten sich insbesondere kommerzielle Anbieter mit adäquaten Migrationsstrategien auseinandersetzen und zumindest für bestimmte Systeme Migrationswerkzeuge bereitstellen. Zudem gibt es bestimmte Systemkategorieübergänge für die besonders häufig Migrationsansätze entwickelt wurden und entsprechend viele Migrationserfahrungen existieren. Dies ist bspw. für Migrationen des Typs 9 (Migration von WYSIWYG-HTML-Editor zu CMS) der Fall. Je nachdem, von welcher Systemkategorie zu welcher anderen Systemkategorie eLearning-Content migriert wird, kann es zum einen zu einem semantischen Informationsverlust in Bezug auf mit dem eLearning-Content verbundene semantische Metadaten kommen. Zum anderen können wesentliche Eigenschaften des auf der Grundlage des eLearning-Content bereitgestellten eLearning-Produktes vom Zielsystem bestimmt werden, so dass nach der Migrationsdurchführung i.d.R. sich das eLearning-Produkt funktional und optisch vom Ursprungsprodukt unterscheidet. Im Folgenden wird die Problematik der ContentMigration an ausgewählten Migrationskategorien verdeutlicht. 121 Migration von CMS zu CMS (25): Die Migration von einem CMS zu einem anderen CMS ist ein komplexes Migrationsvorhaben bei dem eine Vielzahl von Elementen von der Migration betroffen ist. Folgende Abbildung zeigt CM-Komponenten und ContentElemente, die beim Übergang von einem CMS zu einem anderen CMS bei der Migrationsdurchführung berücksichtigt werden müssen. Quelle CMKomponenten Ziel Templa Rollen- Work tes konzepte -flows Replikation Content - - Templates Workflows Replikation - CMKomponenten Rollenkonzepte - Text Text Bild Bild - - - - Content Abbildung 2: Migration von einem CMS zu einem anderen CMS [BHF03, 5] Zur Durchführung einer Migration von einem CMS zu einem anderen CMS ist Expertenwissen über beide Systeme notwendig [BHF03, 5]. Vor einer Migrationsdurchführung ist zu prüfen, inwieweit eine Migration zwischen den beiden Systemen überhaupt ökonomisch vertretbar durchgeführt werden kann. Es ist durchaus möglich, dass zwischen bestimmten Systemen eine Migration zu hohe Aufwendungen verursachen würde. Insbesondere bezogen auf die verschiedenen CM-Komponenten ist zu prüfen, inwieweit eine Migration oder aber eine Neuentwicklung vorteilhaft ist. Für die Migration von CM-Komponenten können teilweise am Markt verfügbare Konvertierungsprogramme sowie spezielle Migrationstools genutzt werden. Teilweise müssen spezifische Konvertierungsroutinen programmiert werden. Die Migration des Content ist i.d.R. einfacher, als die Migration der CM-Komponenten, erfordert jedoch meistens die Programmierung individueller Konvertierungsprogramme [BHF03, 6], da zumindest Teile des Content systemspezifisch strukturiert und abgespeichert sind. Jeder strukturierten Ablage des vom CMS verwalteten Content liegt ein CMS-spezifisches Content-Modell zugrunde, da für CMS kein standardisiertes Austauschformat für Metadaten, Content sowie Layout existiert [BHF03, 6]. Normalerweise sind mit den durch ein CMS verwalteten ContentEinheiten spezielle rollen-, gruppen- sowie benutzerbezogene Rechte (Leserechte, Editierrechte) verbunden. Inwieweit diese Rechte komplett und automatisiert migriert werden können, hängt sehr stark vom jeweiligen Quell- und Zielsystem ab. Migration von CMS zu anderen Systemen: Mittels individuell programmierter Skripte kann Content aus CMS in mittels WYSIWYG-HTML-Editoren (Typ 8) und WikiSystemen (Typ 24) pflegbare Dateien migriert werden. Bei WYSIWYG-HTMLEditoren und Wiki-Systemen fehlt jedoch, sofern es sich nicht um semantische Wiki- 122 Systeme handelt, die Möglichkeit der semantischen Auszeichnung der zu pflegenden Inhalte. Zudem stehen eine Reihe von Unterstützungsmöglichkeiten bei der Verwaltung und der Pflege des Content damit nicht mehr zur Verfügung. Bei der Migration zu eLearning-spezifischen Autorensystemen (Typ 20) sowie zu einem LCMS (Typ 14) ergibt sich je nach der Leistungsfähigkeit des Autorensystems eine vergleichbare Situation wie bei einer Migration zu einem anderen CMS. Migration von LCMS zu LCMS (10): Im Rahmen der Migration von einem LCMS zu einem anderen LCMS ist eine Vielzahl von Elementen zu migrieren. Insbesondere die Migration stark verknüpfter und möglicherweise sehr LCMS-spezifischer Metadatenstrukturen (z.B. für zu verwaltende Kurse) kann selbst im Falle guter Export-/ Importfunktionen sehr komplex sein. Hier geht es jedoch primär um die Content-Migration. Der Aufwand für die Content-Migration von einem LCMS zu einem anderen LCMS hängt letztlich sehr stark von der Leistungsfähigkeit der jeweiligen Import-/ Exportfunktionalitäten8 der LCMS ab. Für den Import und Export bieten sich XML-Dateien an. Die Migration von Content-bezogenen Metadaten sollte sich im Falle der Verwendung von eLearning-Standards, wie bspw. SCORM9 und der Spezifikation des IMS 10 Content Packaging,11 erheblich leichter gestalten als die Migration des eigentlichen eLearningContent, der je nach LCMS sehr unterschiedlich strukturiert und mit LCMS-spezifischen XML-Tags ausgezeichnet sein kann. Selbst eLearning-Content, der nach den Kriterien des IMS- oder SCORM-Standard erstellt wurde, kann i.d.R. nicht ohne zusätzlichen Anpassungs- und Programmieraufwand von einem System zu einem anderen System migriert werden [Ka04, 74]. Vor einem Import von zuvor exportiertem eLearningContent müssen daher i.d.R. spezifische Konvertierungsprogramme entwickelt werden. Problematisch ist, dass vielfach LCMS-Anbieter kein allzu großes Interesse an leistungsfähigen Content-Exportfunktionen haben, denn damit würden sie die Barriere für einen Anbieterwechsel zu ihrem eigenen Nachteil herabsetzen. Bei der Auswahl eines LCMS ist dieser Punkt jedoch sehr wesentlich, denn je leistungsfähiger die ContentExportfunktion des LCMS ist, desto geringer ist die Abhängigkeit vom LCMS-Anbieter und desto niedriger sind zukünftige Kosten bei einem notwendigen Systemwechsel. Migration von LCMS zu anderen Systemen: Im Wesentlichen gelten die Ausführungen zur Migration von LCMS zu LCMS. Sofern eLearning-Content in Form von XMLDateien aus einem LCMS exportiert werden kann, lässt sich dieser mittels individuell programmierter Skripte in mittels WYSIWYG-HTML-Editoren (Typ 2) und WikiSystemen (Typ 15) pflegbare Dateien migrieren. Je nach funktioneller Leistungsfähigkeit des LCMS in Bezug auf die vom LCMS angebotenen eLearning-Produkte, ist dabei jedoch teilweise ein deutlicher semantischer und funktioneller Verlust verbunden. Bei WYSIWYG-HTML-Editoren und Wiki-Systemen fehlt die Möglichkeit der semantischen Auszeichnung der zu pflegenden Inhalte. Bei der Migration zu eLearning8 Ein Beispiel für eine hohe Leistungsfähigkeit in Bezug auf Import- und Exportfunktionalitäten ist das Literaturverwaltungsprogramm Endnote. Dieses Programm bietet eine Vielzahl von Filtern zu unterschiedlichsten Systemen und zudem flexible Möglichkeiten eigene Filter, beispielsweise auf XML-Basis, für den Import- und Export von Daten zu definieren. 9 Sharable Content Object Reference Model, http://www.adlnet.gov. 10 IMS Global Learning Consortium, Instructional Management Systems, (IMS) http://www.imsproject.org. 11 Die aktuelle Spezifikation des IMS Content Packaging Information Model liegt in der Version 1.1.4 vor. Siehe [IMS04]. 123 spezifischen Autorensystemen (Typ 11) ergibt sich je nach der Leistungsfähigkeit des Autorensystems eine vergleichbare Situation wie bei einer Migration zu einem anderen LCMS. Die Migration zu einem CMS (Typ 13) gestaltet sich hingegen erheblich aufwendiger, denn in diesem Fall muss eine Vielzahl von CM-Komponenten (z.B. Templates, Layout, Metadatenstrukturen) neu entwickelt werden. Migration von WYSIWYG-HTML-Editoren zu WYSIWYG-HTML-Editoren (1): Prinzipiell kann zwar relativ einfach zwischen verschiedenen WYSIWYG-HTML-Editoren gewechselt werden. Allerdings hat jeder WYSIWYG-HTML-Editor gewisse Besonderheiten. Jeder WYSIWYG-HTML-Editor erzeugt beispielsweise einen für den Editor charakteristischen HTML-Quellcode. Wechsel zwischen verschiedenen WYSIWYGHTML-Editoren können daher dazu führen, dass der Quellcode „verunreinigt“ wird. Eventuell sollten daher bei einer Migration spezielle Quellcodeoptimierungswerkzeuge eingesetzt werden. Migration von WYSIWYG-HTML-Editoren zu anderen Systemen: Bei der Migration zu einem LCMS (Typ 3), einem CMS (Typ 9) oder einem eLearning-spezifischen Autorensystem (Typ 4) muss eine semantische Anreicherung des Content erfolgen. Zudem ist die Trennung von Struktur, Layout und Inhalt notwendig. Hierzu bietet sich die Überführung von HTML-Dateien zu XML-Dateien an. Probleme, die bei derartigen Migrationen zu lösen sind, werden in [Ga03] und [SC04] beschrieben. Die durchzuführende Migration dürfte sich daher nur sehr schwer vollständig automatisiert durchführen lassen, so dass der Migrationsaufwand i.d.R. sehr hoch sein wird. Die Migration zu einem WikiSystem sollte sich hingegen verhältnismäßig gut automatisieren lassen, auch wenn sich dabei die Eigenschaften des resultierenden Lernproduktes deutlich verändern können. Migration von eLearning-spezifischem System zu eLearning-spezifischem System (17): Der Migrationsaufwand zwischen eLearning-spezifischen Systemen dürfte zum einen sehr stark von den Möglichkeiten des Content-Import und -Export der beteiligten Systeme bzw. dem Speicherformat des verwalteten Content abhängen. Zum anderen kommt es sehr stark darauf an, welchem primären Paradigma (z.B. Generierungswerkzeuge bzw. Content-Converter) die jeweiligen Systeme folgen und über welche spezifischen Eigenschaften die jeweiligen Systeme verfügen. Migration von eLearning-spezifischem System zu anderen Systemen: Die Situation ist hier vergleichbar mit der Migration von LCMS- oder CMS-Systemen zu anderen Systemen. Allerdings kann hier, je nachdem welche Eigenschaften das eLearning-spezifische System besitzt, der Migrationsaufwand unterschiedlich stark ausfallen. Eventuell sind zusätzliche Entwicklungsaufwendungen im Anschluss an die Migrationsdurchführung notwendig. Migration von Wiki-System zu Wiki-System (22): Wiki-Systeme verwenden zum Editieren von Web-Seiten verhältnismäßig wenige und einfache Konventionen. Zwar gibt es je nach Wiki-System unterschiedliche Editierkonventionen, diese folgen jedoch einer sehr ähnlichen Philosophie. Daher sollten sich Konvertierungsprogramme sehr schnell entwickeln lassen, so dass die Migration von Wiki-Content für den Übergang von einem Wiki-System zu einem anderen i.d.R. keinen großen Aufwand darstellen sollte. 124 Migration von einem Wiki-System zu anderen Systemen: Für die Migration von WikiContent zwecks zukünftiger Bearbeitung mit einem WYSIWYG-HTML-Editor (Typ 6) werden ebenfalls lediglich einfache Konvertierungsprogramme benötigt. Für die Migration von Wiki-Content zu LCMS, CMS sowie eLearning-spezifischen Systemen gelten im Wesentlichen die Ausführungen zur Migration von WYSIWYG-HTML-Editoren zu anderen Systemen. Allerdings dürfte die Migration von Wiki-Content deutlich einfacher zu realisieren sein, als die Migration von mit WYSIWYG-HTML-Editoren gestalteten Web-Seiten, da diese durchaus problematischen HTML-Quellcode sowie problematische Skripte beinhalten können. 4 Fazit Die effiziente Erstellung und Pflege von Content ist für Hochschulen im Wesentlichen aus zwei Gründen besonders wichtig: zum einen sind sowohl Erstellung als auch Pflege in der Regel mit hohen Aufwendungen verbunden, zum anderen können diese jedoch durch die Wiederverwendung des Content (z.B. durch Vermarktung) refinanziert werden. Zur Erstellung und Pflege können unterschiedlichste Systemkategorien verwendet werden. Problematisch ist jedoch die Content-Migration sowohl innerhalb derselben Systemkategorie als auch zwischen den verschiedenen Systemkategorien. Die Situation verschärft sich, wenn eine Migration aus zwingenden Gründen erfolgen muss. Bereits bei der Entwicklung oder Auswahl eines Systems für die Content-Erstellung und Pflege für das eLearning muss darauf geachtet werden, dass zu einem späteren Zeitpunkt eine Migration zu einem anderen System notwendig werden kann. Daher sollte bei Auswahl von Systemen, die zur Erstellung und Pflege von eLearning-Content eingesetzt werden, unbedingt darauf geachtet werden, welche Content-Exportmöglichkeiten das jeweilige System bietet und inwieweit exportierter Content mit vertretbarem Aufwand für unterschiedlichste Zielsysteme automatisiert konvertiert werden kann. Literaturverzeichnis [BHM04] Baumgartner, P.; Häfele, H.; Maier-Häfele, K.: Evaluation von Lernplattformen: Verfahren, Ergebnisse und Empfehlungen (V1.3). 2004. http://www.campussource.de/opensource/docs/evaluation_lernplattf_at.pdf, Abruf am 2006-07-14. [Ba05] Baumgartner, P.: Communication and Interactions in eLearning. In: Proceedings eLearning Conference, Brüssel, 19.-20.05.2005. S. 120-129. [Bö04] Bör, A.: Service-Architekturen für Multimediale Lehre und Netzbasiertes Lernen. http://deposit.ddb.de/cgi-bin/dokserv?idn=97770338x&dok_var=d1&dok_ext=pdf&filename=97770338x.pdf, Abruf am 2006-07-08. [BHF03] Brandner, M.; Hoeck, B.; Friedrich, M.: Migration von Web Content Management Systemen. http://www.saxxess.com/media/GFT-WP-CMS-Migration.pdf, Abruf am 200607-21. [Br01] Brugger, R.: Die Erstellung von wiederverwendbaren Inhalten für Web-basierte Kurse. In: Wagner, E.; Kindt, M. (Hrsg.): Virtueller Campus: Szenarien - Strategien – Studium. Medien in der Wissenschaft, Band 14, Waxmann Verlag, Münster 2001. S. 282 -291. 125 [Br04] [Bu06] [CL04] [CN06] [DV05] [Dö98] [Ga03] [HSS01] [HK03] [IMS04] [Ka04] [Ro05] [Sc01] [Sc04] [Sm05] [SC04] 126 Brugger, R.: Auswahl und Betrieb von Lernplattformen. In: Seufert, S.; Euler, D. (Hrsg.): Handbuch eLearning in der Hochschullehre, Oldenbourg Verlag. München 2004. Bungenstock, M.: Entwurf und Implementierung einer vollständigen Infrastruktur für modulare E-Learning-Inhalte. Dissertation an der Fakultät für Elektrotechnik, Informatik und Mathematik der Universität Paderborn. http://ubdata.unipaderborn.de/ediss/14/2006/bungenst/disserta.pdf, Abruf am 2006-07-23. Chawner, B.; Lewis, P. H.: WikiWikiWebs: New Ways of Interacting in a Web environment. LITA National Forum, St Louis, October 2004. http://www.ala.org/ala/lita/litaevents/2004Forum/CS_WikiWikiWebs.pdf, Abruf am 2006-07-22. Cohen, E. B.; Nycz, M.: Learning Objects and E-Learning: an Informing Science Perspective. In: Koohang, A. (Hrsg.): Interdisciplinary Journal of Knowledge and Learning Objects. Volume 2, 2006. S. 23-34. Di Iorio, A.; Vitali, F.: Web authoring: a closed case? In: Proceedings of the Hawaii International Conference on System Sciences 38, January 3-6, 2005, Big Island (Hawaii). http://csdl2.computer.org/comp/proceedings/hicss/2005/2268/04/22680095b.pdf, Abruf am 2006-07-22. Dömer, F.: Migration von Informationssystemen. Erfolgsfaktoren für das Management. Deutscher Universitäts-Verlag, Wiesbaden 1998. Gantz, S.: XML Unifies Content Migration. XML 2003 - Conference Proceedings. http://www.idealliance.org/papers/dx_xml03/papers/03-06-01/03-06-01.pdf, Abruf am 2006-07-21. Hagenhoff, S.; Schellhase, J.; Schumann, M.: Lernplattformen auswählen. In: Hohenstein, A.; Wilbers, K. (Hrsg.): Handbuch E-Learning. Fachverlag Deutscher Wirtschaftsdienst, Köln, 2001. Hettrich, A.; Koroleva, N.: Marktstudie Learning Management Systeme (LMS) und Learning Content Management Systeme (LCMS) – Fokus deutscher Markt. Fraunhofer IAO. 2003. http://www.iltec.de/downloads/IAOLMSLCMSStudie.pdf, Abruf am 200607-14. IMS Global Learning Consortium, Inc.: IMS Content Packaging Information Model. Version 1.1.4 Final Specification. 04.10.2004. Kamin, O.: Mehrfachverwendbare elektronische Lehr-/Lernarrangements. Eul Verlag, Lohmar/Köln, 2004. Robertson, J.: CMS interoperability? April 2005. http://www.steptwo.com.au/papers/kmc_interoperability/pdf/KMC_Interoperability.pdf, Abruf am 2006-07-21. Schellhase, Jörg: Entwicklungsmethoden und Architekturkonzepte für WebApplikationen unter besonderer Berücksichtigung von Systemen zur Erstellung und Administration Web-basierter Lernumgebungen. Gabler-Verlag 2001. Schluep, S. et al.: Learning Content Management für die Ergonomie. In: GfA (Hrsg.): Arbeit + Gesundheit in effizienten Arbeitssystemen, Bericht zum 50. Kongress der Gesellschaft für Arbeitswissenschaften. S. 503-507. Smith Nash, S.: Learning Objects, Learning Object Repositories, and Learning Theory: Preliminary Best Practices for Online Courses. In: Koohang, A. (Hrsg.): Interdisciplinary Journal of Knowledge and Learning Objects. Volume 1, 2005. S. 217-228. Sommaruga, L.; Catenazzi, N.: Issues in Migrating to XML based Content Management for Academic Web Portal. XML Europe 2004 - Conference Proceedings. http://www.idealliance.org/papers/dx_xmle04/papers/03-01-01/03-01-01.pdf, Abruf am 2006-07-21. Entwicklung rekonfigurierbarer Lerninhalte mit (edu) DocBook Ludger Thomas Education and Training Fraunhofer Institut Experimentelles Software Engineering (IESE) Fraunhofer-Platz 1 67663 Kaiserslautern ludger.thomas@iese.fraunhofer.de Abstract: Wiederverwendung und Rekonfiguration sind zwei zentrale Herausforderungen für Autoren und Produzenten digitaler (Lern)Inhalte. Am Beispiel eines aktuell laufenden Projektes wird dargestellt, wie entsprechende Inhalte in rekonfigurierbarer Form nach dem Single-Source-Publishing-Ansatz erstellt und in multiplen Konfigurationen und Formaten ausgegeben werden können. Es wird aufgezeigt welche Möglichkeiten sich hieraus für Inhaltsanbieter, Trainer und Seminaranbieter ergeben und wie der Ansatz mit freier Software und weltweit genutzten Standards umgesetzt werden kann. 1 Rekonfiguration und Wiederverwendung als Herausforderung für die Inhaltsentwicklung Digitale und insbesondere Lerninhalte werden meist mit einem hohen Aufwand an Ressourcen erstellt: Ein Team von Konzeptern und Autoren erarbeitet die Gesamtkonzeption sowie die Vorlagen für die Implementierung; Agenturen oder interne Dienstleister setzen die entsprechenden Konzepte um. Aufgrund des großen Personaleinsatzes und des damit verbundenen Aufwandes für die initiale Erstellung von Inhalten müssen diese aus betriebswirtschaftlicher Sicht eine möglichst große - und ggf. auch zahlungskräftige - Zielgruppe ansprechen sowie über effiziente Kanäle zur Verfügung gestellt werden. Erst wenn die Inhalte möglichst günstig erstellt und von möglichst vielen Rezipienten (mit gutem Erfolg) verwendet werden, entfalten sie ihr maximales betriebswirtschaftliches Potenzial für den Auftraggeber. Dies ist jedoch nur eine, zwar wichtige, jedoch verkürzte Sicht auf den betriebswirtschaftlichen Nutzen. Der Blick auf den gesamten sog. Content Lifecyle, also den Lebenszyklus der Inhalte, wird nur ansatzweise berücksichtigt: Zum betriebswirtschaftlichen Erfolg trägt nämlich ebenfalls bei, wenn bestehende Inhalte möglichst einfach für neue Medienformate aufbereitet, inhaltlich aktualisiert und an neue Erfordernisse angepasst sowie in neuen Kontexten genutzt werden können. Zu einem Zeitpunkt, da sich E-Learning als ein fester Bestandteil des Medienmixes im Trainings-, Dokumentations- und Supportbereich etabliert hat, und in Unternehmen und Bildungseinrichtungen bereits zahlreiche Inhalte vorliegen und kontinuierlich neue Inhalte erstellt 127 werden, ist die Erschließung und Ausschöpfung von Wiederverwendungspotenzialen ein nicht zu vernachlässigender betriebswirtschaftlicher Faktor im Content Lifecyle. Wiederverwendung und Rekonfiguration von Inhalten, d.h. die Anpassung der inneren und äußeren Struktur an neue Anforderungen, ist somit nach wie vor ein zentrales Thema für die Weiterentwicklung der Lernmedienproduktion. Dies wurde beispielsweise in einer Studie der eLearning guild 2005 bestätigt [El05]. Thomas und Ras haben in ihrer Analyse aufgezeigt, dass die meistgenutzten Techniken für die Lernmedienerstellung gerade den Aspekt des „re-use“ und „re-purposing“ vernachlässigen [TR06]. Zum einem ähnlichen Schluss kommt auch Hörmann in seiner Dissertation [Ho06]: Danach behindern „verbreitete Autorenwerkzeuge […] die Wiederverwendung häufig durch die Verwendung monolithischer Datenformate zur Speicherung der Lernobjekte […]“. Betrachtet man das Thema Wiederverwendung von Inhalten aus einer allgemeinen Perspektive, so lassen sich grundsätzlich mehrere Dimensionen unterscheiden: Dimension 1: Verwendungszusammenhang Lerninhalte werden erstellt, um bestimmte Ziele zu erreichen, beispielsweise „Unsere Mitarbeiter sollen weniger Fehler bei der Eingabe der Daten machen“. Durch Konzeption und Auswahl der Technologien werden Inhalte oftmals auf spezifische Verwendungszusammenhänge wie z.B. auf die Verwendung als Selbstlernmedium festgelegt. Wechselt der Verwendungszusammenhang, beispielsweise vom Einsatz als Selbstlernmedium für KFZ-Meister hin zum Einsatz in einem Support-Portal für Kunden eines Automobilzulieferers, so müssen die Medien ggf. aufwändig umgearbeitet werden. Eine besondere Herausforderung bei der Wiederverwendung besteht folglich darin, Inhalte so zu erstellen, dass sie in möglichst vielen unterschiedlichen Verwendungszusammenhängen genutzt werden können. Dimension 2: Medienformat Eine weitere Dimension ist die Wiederverwendung über Medienformate hinweg. Inhalte, die für ein Medienformat produziert wurden, sollen auch in anderen Formaten nutzbar sein: Ein Online-Kurs sollte sich also beispielsweise auch als gedrucktes Werk ausgeben lassen oder in einem ganz anderen Format auf ein mobiles Endgerät, beispielsweise für eine Nutzung im Zug, darstellen lassen. Zentral für die medienformatübergreifende Wiederverwendung ist der Single-Source Multiple-Media Publishing Ansatz. Dieses Konzept besagt, dass Daten und Dokumente zunächst möglichst redundanzfrei zentral abgelegt werden. Dabei muss insbesondere auf die konsequente Trennung der drei Textdimensionen Inhalt, Struktur und Layout geachtet werden, da nur so eine medienformatübergreifende Wiederverwendung möglich ist. Durch eine entsprechende Speicherung und anschließende Transformation der Daten können aus den Daten letztlich beliebige Ausgabeformate erzeugt werden. Aus dem Bereich der elektronischen Hilfesysteme kommt der so genannte Electronic Performance Support System (EPSS) Ansatz [Ge91]. Damit wird die Gesamtheit aller technischer Systeme und Medien bezeichnet, die den Nutzenden bei der Arbeit mit einem (elektronischen) System unterstützen: EPSS ist “an integrated electronic environ- 128 ment that is […] structured to provide immediate, individualized on-line access to the full range of information, software, guidance, advice and assistance, data, images, tools, and assessment and monitoring systems to permit job performance with minimal support and intervention by others.” (ebd.) Im Bereich von Softwareprodukten bedeutet dies beispielsweise, dass ein EPSS im Allgemeinen aus einer Sammlung von Dokumenten (z.B. Handbüchern), Hilfesystemen (z.B. Online-Hilfen) sowie Trainingsmedien (z.B. WBT) sowie weiteren Unterstützungsangeboten besteht. Diese Medien tragen dazu bei, dass die Nutzer ihre Aufgaben effizienter erledigen können. Lerninhalte werden in diesem Kontext neben den gedruckten und den online verfügbaren Medien als ein weiterer Baustein zur Unterstützung der Nutzung gesehen. Abstrahiert man nun von den einzelnen Medienformaten im EPSS-Ansatz und betrachtet das Ganze aus der medienformatübergreifenden Sicht des Single-Source-Publishings, so stellt man fest, dass die im EPSS-Ansatz vorgesehenen Dokumente zahlreiche Informationen enthalten, die sich in multiplen Medienformaten und Verwendungszusammenhängen wiederverwenden lassen [vergl. TR05]. So werden beispielsweise in kleinen und mittleren Unternehmen (KMU) die unterschiedlichen Dokumente vom selben Autor verfasst. Auch enthalten die Dokumente gleiche oder ähnliche Inhalte. Ebenso verfolgen sie ähnliche Ziele, nämlich dass sie den Nutzenden bei seinen Aufgaben unterstützen sollen. Dazu müssen die jeweiligen Bestandteile möglichst gut auf den Gegenstand sowie die Bedürfnisse der Zielgruppe zugeschnitten sein. Entsprechend ähnlich gestalten sich auch die damit verbundenen Qualitätsanforderungen: So ist für ein Lernmedium der sprachliche Ausdruck und Verständlichkeit, eine klare Struktur, unterstützender Medieneinsatz, gute Navigierbarkeit und schneller Zugriff auf die enthaltenen Informationen usw. ebenso wichtig wie für ein Hilfe-System oder auch eine Dokumentation. Nichtsdestotrotz gibt es auch Unterschiede: Während ein Lernprogramm i.A. darauf ausgelegt ist, einen Fluss von Informationen anzubieten, den die Lernenden, mit einigen Verzweigungen, möglichst von Anfang bis zum Ende durcharbeiten, um z.B. eine Abschlussprüfung zu bestehen, kann bei Online-Hilfen oder Handbüchern i.A. von einer singulären Nutzung einzelner Teilbereiche ausgegangen werden. Eine Online-Hilfe lesen wohl nur wenige Nutzer von Anfang bis zum Ende durch; eine explizite Auflistung von Lernzielen würde ein Nutzer in einer Courseware erwarten, in einer Online-Hilfe würde sie aber vermutlich keinen Sinn machen, da hier ein enzyklopädischer, selektiver Zugriffstil vorliegt. Bei der Erstellung eines EPSS muss entsprechend darauf geachtet werden, dass neben einer möglichst hohen Wiederverwendung auch den o.g. inhaltlichen und strukturellen Aspekten Rechnung getragen wird. Dimension 3: Organisation Diese Dimension spielt eine wesentliche Rolle für den Erfolg von Wiederverwendung. Letztlich reicht es nicht, dass auf der technischen und inhaltlichen Ebene Wiederverwendung ermöglicht wird. Es muss vielmehr geklärt werden, auf welchen Ebenen und Organisationseinheiten Wiederverwendung ermöglicht werden kann, darf und soll, und unter welchen Konditionen dies geschieht. So lässt sich unterscheiden: 129 1. Projektinterne Wiederverwendung: Dies ist die einfachste Form der Wiederverwendung, bei der es im Wesentlichen auf die Lösung der technischen und inhaltlichen Probleme, der Abstimmung unter den Autoren (Redaktionsleitfaden) sowie der geschickten Konzeption, Speicherung und Erstellung der Inhalte ankommt. 2. Organisationsweite Wiederverwendung: Sobald Wiederverwendung vom „rechtsfreien“ Raum des Projekts, des Dozenten, des Lehrstuhls oder der Arbeitsgruppe gelöst ist, spielt die Vergabe und Einhaltung von Nutzungsrechten eine zentrale Rolle bei der Wiederverwendung. So begegnen Organisationen beim Versuch einer organisationsweiten Bereitstellung und Nutzung von Inhalten – z.B. auch bei Wissensmanagement Systemen – oft dem Problem, dass die Fachexperten fürchten, mit ihren Inhalten auch „Herrschaftswissen“ preiszugeben und dadurch an „Wert“ zu verlieren. Entsprechende Versuche, Inhalte dem Unternehmen zur freien und uneingeschränken (Wieder) Verwendung zu überlassen, stoßen in der Praxis daher oft auf zum Teil massive Widerstände resp. entsprechende Inhalte werden einfach nicht zur Verfügung gestellt. 3. Organisationsübergreifende Wiederverwendung: Ähnlich wie bei der organisationsweiten Wiederverwendung spielen die Nutzungsrechte auch hierbei eine zentrale Rolle. Noch mehr als in der anderen Dimension von Wiederverwendung, bedarf die organisationsübergreifende Form einer vertraglichen Fixierung sowie ggf. eines Ressourcentauschs. Plattformen, wie educanext (www.educanext.org), die einen organisationsübergreifenden Austausch von Lernobjekten zum Ziel haben, verfügen deshalb über ein umfangreiches Lizenzierungs- und Nutzungsrechtemanagement, bei der die Emittenten detailliert die Bedingungen der Nutzung durch andere regeln können. Diese kurze Analyse hat gezeigt, dass Wiederverwendung eine zentrale Herausforderung im Content Lifecycle darstellt und dass dieses Problem in mehreren Dimensionen mit je ganz spezifischen Schwerpunkten betrachtet werden muss. Das zentrale Augenmerk dieser Arbeit liegt auf praxisnahen und technischen Fragen, wie sie in den Dimensionen Verwendungszusammenhang und Medienformat angerissen wurden. Diese werden insbesondere vor dem Hintergrund einer projektinternen Wiederverwendung diskutiert und es werden erste Lösungsansätze präsentiert. Auf die Notwendigkeit eines systematischen Erstellungsprozesses sowie einer geschickten Koordination der Autoren wurde an anderer Stelle bereits hingewiesen [GT06] und soll deshalb hier nicht weiter ausgeführt werden. Im Folgenden wird zunächst die Idee eines eduDocBook als Austauschformat für Lerninhalte konzeptionell umrissen. Anschließend wird auf die modulare Inhaltsproduktion mit diesem Format eingegangen und es werden Erfahrungen und Entwicklungen, wie sie im Rahmen eines aktuell laufenden EU-Forschungsprojektes gemacht wurden, vorgestellt. Abschließend werden in einer Diskussion des Ansatzes Möglichkeiten und Grenzen dargestellt und es wird ein Ausblick auf zukünftige Arbeiten geboten. 130 2 eduDocBook. Austauschformat für Lerninhalte DocBook ist ein mehr als 400 Elemente umfassender XML-Dialekt, der Anfang der 1990er Jahre als Austauschformat für (Software-)Dokumentationen entworfen wurde und der seitdem weltweit große Verbreitung erlangt hat. Eine rege, weltweite Community stellt für DocBook neben dem Support eine Vielzahl von Hilfsmitteln für die Erstellung der Daten sowie deren Transformation in diverse Ausgabeformate zur Verfügung. Aufgrund seiner weltweiten Nutzung diente DocBook zahlreichen Entwicklern von XML-Dialekten als erfolgreiches Beispiel für die Entwicklung eines strukturierten Formates für Dokumente. So berichten Entwickler von Educational Modeling Languages (EML), dass DocBook bei der Entwicklung der XML-Dialekte Pate gestanden hat [KO04]. Zu einer größeren, dokumentierten Verbreitung des DocBook Standards im Bereich der Lernmedienproduktion kam es jedoch bislang nicht. Vielmehr wurden in den letzten Jahren zahlreiche proprietäre Formate für diesen Bereich entwickelt, die jeweils bislang jedoch nur singulär Bedeutung erzielt haben (z.B. ML3, LMML, eLML). Im Gegensatz zu diesen Arbeiten fokussiert vorliegender Ansatz auf die Verwendung von DocBook als weltweit genutztem Standard für EPSS. Der Begriff „eduDocBook“ wurde – jedenfalls laut der Suchmaschine Google - erstmals im Juni 2003 in einer Internet-Diskussion der CETIS erwähnt. Dabei ging es darum, ob und wie SCORM mit der Modellierung der eigentlichen Lerninhalte umgehen sollte und ob es hierfür eine Art universeller Auszeichnungssprache bedarf [Go03]. Weiterhin wurde in der Diskussion darauf eingegangen, dass Elemente von DocBook sowie die Idee der Inhaltsauszeichnung ursprünglich in der Educational Modeling Language (OUEML) der Open University der Niederlande enthalten waren, aber aufgrund der damit verbundenen Komplexität auf dem Weg der Standardisierung (IMS LearningDesign) über Bord geworfen wurden. eduDocBook, wie es am Fraunhofer IESE entwickelt und genutzt wird, ist eine Erweiterung und Spezialisierung von DocBook, die diese Sprache insbesondere für den Bildungsbereich sowie für die Erstellung von EPSS empfiehlt. Die bisherige und zukünftige Entwicklung von eduDocBook folgt im Wesentlichen den folgenden Leitgedanken:  Es sollen, soweit möglich, nur minimale Anpassungen an DocBook vorgenommen werden, sodass die Inhalte weitgehend mit dem Standard kompatibel bleiben.  Es sollen, soweit möglich, zunächst alle Möglichkeiten zur Spezialisierung von Elementen (z.B. über das role Attribut) geprüft werden, bevor Erweiterungen an DocBook vorgenommen werden. Domänenspezifische Erweiterungen sollen, wenn möglich, vermieden werden (z.B. <para role=“definition“> statt <definition>).  Über Anpassungen der Standard-Transformationen werden lernmedienspezifische Ausgabeformate, wie z.B. ein WBT-Format, erzeugt. Dabei kommen Standardtechnologien, frei verfügbare und anpassbare Werkzeuge zum Einsatz. 131 Im Ergebnis erlaubt der derzeit vorliegende Stand von eduDocBook die feingranulare Modellierung sequenziell-hierarchischer Lerninhalte. Auf Seiten der Informationsmodellierung werden u.a. folgende Möglichkeiten geboten:  Auszeichnung von zielgruppenspezifischen Inhalten (z.B. Anfänger, Fortgeschrittene) und Inhaltsvarianten (z.B. für WBT, Hilfe, Handbuch).  Unterstützung von Relationen innerhalb von Dokumenten (z.B. x istÜbungZu y).  Modellierung von Übungsaufgaben und automatische Umsetzung von einzelnen Übungsformen für nicht-interaktive Formate (z.B. Druckformate).  Modulare Speicherung und Wiederverwendung von Inhalten.  Build-Tool auf Basis von Open-Source-Software.  Zusätzlich alle Möglichkeiten, die DocBook per se bietet: Glossar(e), Index, div. Verzeichnisse, Funktionsreferenzen, Bibliographien, … Wie erste Anwendungen in Industrie und Hochschule belegen, lassen sich mit dem erarbeiteten eduDocBook Format sowie den begleitenden Werkzeugen zahlreiche Formen von Inhalten detailliert auszeichnen und in multiplen Konfigurationen und Medienformaten ausgeben. So wurden seitens des Fraunhofer IESE für einen Industriekunden multiple Dokumentenvarianten (z.B. Kurs, Hilfe, Handbuch) semantisch feingranular modelliert und in diversen Endformaten bereitgestellt. Wenngleich nicht detailliert bezifferbar, ergab sich im Projekt eine sehr hohe Wiederverwendungsquote. Auch im Rahmen des hier referenzierten Projektes Up2UML wurden Inhalte so modelliert und aufbereitet, dass sie in multiplen Konfigurationen und Medienformaten in Blended-learningArrangements eingebettet werden können. Erste Evaluationen zeigen, dass die medienformatübergreifende Wiederverwendung funktioniert und von den Teilnehmern sehr gut angenommen wird. Ebenso lassen sich Inhalte in multiple Konfigurationen einbetten und so von mehreren Trainern und Kursanbietern parallel nutzen. 3 Inhaltsproduktion mit (edu)DocBook Auf technischer Ebene lassen sich bei einem DocBook-basierten Ansatz zur Inhaltsentwicklung grundsätzlich vier aufeinander aufbauende Schichten (layer) unterscheiden, die bei der technischen Erstellung und Aufbereitung von Dokumenten nacheinander durchlaufen werden. Auf die entsprechenden Redaktionsprozesse wurde an anderer Stelle bereits hingewiesen [GT06]. 1. Datenhaltung (storage layer) In dieser Schicht werden die Bestandteile der Dokumentationen in XML erstellt und für die weitere Verarbeitung vorgehalten. 2. Komposition (composition layer) Diese Schicht dient der Aggregation der Bestandteile zu einem in sich geschlosse- 132 nen, validen DocBook-Dokument, das als Grundlage für die weiteren Verarbeitungsprozesse dient. 3. Transformation (transformation layer) Auf dieser Ebene werden die aggregierten Dokumentationen in das gewünschte Ausgabeformat überführt. 4. Präsentation (presentation layer) Die formatierten Dokumentationen werden in dieser Schicht den Benutzerinnen und Benutzern präsentiert. Abbildung 1: Produktionsprozess mit DocBook [GT06] Auf der Ebene der Erstellung und Bereitstellung der Dokumentationsbestandteile (storage layer) arbeiten Autorinnen und Autoren typischerweise mit einem Autorenwerkzeug, beispielsweise einem XML-Editor oder einem IDE-Werkzeug wie Eclipse. Die Bestandteile werden beispielsweise in einem SVN-Repository gespeichert und für die weitere Be- und Verarbeitung vorgehalten. Durch Verwendung entsprechender Technologien wie xinclude, xpointer, xml catalog, conref usw. ist eine weitgehende Modularisierung der Informationen sowie eine Wiederverwendung auf technischer Ebene möglich. Zentrales Werkzeug auf den Ebenen Komposition (composition layer) und Transformation (transformation layer), ist ein XSLT-Prozessor, der die valide XML-Datei einer Dokumentation (Profiled intermediate-File) regelbasiert nach HTML bzw. XSL-FO überführen kann. Für das Überführen der XSL-FO Dateien in das Portable Document Format (PDF) stehen sowohl freie als auch kommerzielle Software zur Verfügung. Für die Präsentation und Bereitstellung der finalen Dokumentationen und Medien kann ein Content 133 Management System (CMS) oder, im Fall von Lernsoftware, ein Learning Management System (LMS) wie Moodle verwendet werden. Über eine entsprechende Transformation können aus DocBook heraus IMS Manifest-Dateien geschrieben werden, die den Import in ein LMS über die SCORM-Schnittstelle unterstützen. Der gesamte Produktionsvorgang ist für das eduDocBook-Format weitgehend automatisiert und wird durch einen Transformations-Assistenten gesteuert. Im Rahmen des EU-Forschungsprojektes „Upskilling to Object-oriented development with the UML“ (Up2UML) wurde diese Form der Inhaltsproduktion – initial entstanden im Rahmen eines Industrieprojekts - weitgehend beibehalten und weiter verfeinert. Zusätzlich wurde ein spezifisches WBT-Ausgabeformat für eduDocBook entwickelt, das eine ansprechende und funktionale Oberfläche zur Präsentation der DocBook Inhalte erzeugt und den Lernenden schnelle und unkomplizierte Zugriffsmechanismen auf die Inhalte erlaubt. Durch den SCORM-Export wurde ermöglicht, dass die Inhalte direkt in jedes gängiges LMS, z.B. Moodle, Ilias importiert werden können. 4 Der CourseComposer als Beispiel für ein Werkzeug zur Rekonfiguration von (Lern)Inhalten Im Rahmen des Projektes Up2UML wurden Inhalte zur „Unified Modeling Language“ (UML) in modularer Form erstellt und als weitgehend voneinander unabhängige Informationsobjekte gespeichert. Insgesamt wurde dadurch das Ziel verfolgt, späteren „Wiederverwendern“ der Bausteine – also Trainern, Verlagen, Kursanbietern – die Möglichkeit zu geben, Kurse nach individuellen Wünschen zusammenzustellen. So kann ein Trainer mit den im Projekt erstellten Inhalten in der Vorbereitung einer Präsenzphase beispielsweise die theoretischen Grundlagen der UML-Diagramme in Form eines WBT herausgeben und die praktischen Übungen zusammen mit einer Case Study den Teilnehmern erst mit Abschluss des Workshops zur Verfügung stellen, um den Transfer des Gelernten zu sichern. Auch sind durch diese Rekonfiguration der Medien so beispielsweise Fokussierungen auf bestimmte Diagrammarten innerhalb der UML oder auch Anpassungen an vorliegende Blended-learning-Konzeptionen möglich. Der Begriff der Rekonfiguration von Inhalten im hier verwendeten Zusammenhang entspricht dem, was [HRS05] im Wesentlichen als „Authoring by Aggregation“ bezeichnen. Letztlich wird mit Rekonfiguration die Zusammenstellung von Inhalten aus bestehenden Inhaltsbausteinen (Aggregation) bzw. die Änderung einer solchen Zusammenstellung sowie die Übertragung auf andere Dimensionen der Wiederverwendung bezeichnet (Rekonfiguaration). Der Erstellungsprozess für Lernmedien in Up2UML erfolgt in zwei Schritten: Zunächst werden Inhalte in modularer Form erstellt und gespeichert. Im zweiten Schritt werden diese Bausteine, die so genannten Inhaltsobjekte, zu didaktisch sinnvollen Arrangements inklusive der diversen Zugriffshilfen aggregiert. Als Werkzeug für diese Aggregation und letztlich auch Rekonfiguration der Inhalte wurde im Rahmen des Projektes zunächst mit einer lokalen Lösung gearbeitet. Dabei kam die Idee auf, dass die gleichen Prozesse sich auf einen Web-Server übertragen lassen und so den späteren Nutzern eine komfor- 134 tablere Zusammenstellung und Rekonfiguration von Lernmedien erlaubt. Aus diesem Gedanken heraus ist der CourseComposer entstanden. Diese Applikation erlaubt es den Nutzern, didaktisch-motivierte Arrangements aus Inhaltsobjekten - faktisch sind dies in SVN vorliegende XML-Dateien im eduDocBook-Format - komfortabel zu erstellen bzw. bereits vorhandene Arrangements zu rekonfigurieren. Anschließend durchlaufen die Zusammenstellungen eine Reihe von Transformationen, um schließlich im gewünschten Ausgabeformat, der Zielsprache sowie mit den gewünschten Inhalten (z.B. den zielgruppenspezifischen Daten) zum Download zur Verfügung zu stehen (Abbildung 2). Abbildung 2: Schematischer Ablauf der Rekonfiguration von Trainingsmedien mit dem CourseComposer [GTS06-2] Durch die Verwendung von Java-Script und Ajax Bibliotheken und -techniken bietet der Course Composer eine intuitiv bedienbare Oberfläche. So ist es beispielsweise im sog. Arranger des CourseComposers möglich, Kurse über Drag&Drop regelgeführt zusammenzustellen oder einzelne Knoten, Lektionen, Kapitel usw. mit der Maus zu verschieben. Im so genannten Transformer werden die so „zusammengeklickten“ Kurse in die gewünschten Formate überführt. Mit Abschluss der Transformationen stehen Sie dann in den Formaten WBT (HTML) und PDF sowie ggf. mehreren Sprachen zur Verfügung und können in gängige Systeme zur Distribution eingebunden werden. 135 5 Diskussion des Ansatzes und Ausblick Die Analyse hat gezeigt, dass Wiederverwendung und Rekonfiguration von (Lern) Inhalten ein spannendes und wichtiges Feld für die Weiterentwicklung des Bereich ELearning sowie der EPSS-Systeme darstellt. Mit eduDocBook sowie den verwandten Werkzeugen stehen Lösungen zur Verfügung, mit der einige der beschriebenen Ansätze realisiert werden können. Insbesondere projektinterne und medienformatübergreifende Wiederverwendung kann so gut unterstützt werden. Im Gegensatz zu vielen proprietären Lösungen (wie den diversen EMLs), kann DocBook als etablierter und weltweit genutzter Standard auf eine rege Nutzergruppe sowie zahlreiche verwandte Technologien zurückgreifen. Hierin liegt denn auch einer der originären Beiträge des Ansatzes. Gerade aufgrund der Verbreitung und der Nutzung von Standard-Technologien, scheint ein Einsatz von DocBook resp. eduDocBook für Unternehmen und Bildungseinrichtungen mittelfristig als zukunftssicher. Auch in Bezug auf die derzeit auf internationaler Ebene geführten Diskussionen zu Open Content scheint die Verwendung freier Standards für die Lernmedienproduktion ein zentraler Aspekt zu sein. Der hier beschriebene Ansatz zur Erstellung und Re-Konfiguration von Inhalten hat sich bislang im Rahmen von je einem Industrie- und einem Forschungsprojekt zu ganz unterschiedlichen Themenstellungen bewährt, wenngleich eine intensive wissenschaftliche Evaluation noch aussteht. Erste Erfahrungen aus dem eigenen Einsatz sowie einer Evaluation der damit erstellten Inhalte verliefen bislang sehr positiv. Eine grundsätzliche Eignung des Ansatzes für weitere Themenfelder scheint plausibel, kann in der Gänze jedoch nicht belegt werden. Selbst wenn der Einsatz von DocBook in den Sozial- und Geisteswissenschaften vereinzelt gefordert wird [Bu05], so liegen nur wenige Erfahrungsberichte über die Eignung des Standards für die Auszeichnung entsprechender Texte, z.B. für die Bereiche Medizin, Jura usw., vor [MRS02]. Grundsätzlich hat sich (edu)DocBook in den beschriebenen Kontexten als relativ universell nutzbare Auszeichnungssprache bewährt. Die beschriebene geringe Spezialisierung auf den Bereich der Lernmedienmodellierung ist jedoch auch ein Problem von eduDocBook: So lassen sich Übungsaufgaben nur begrenzt in DocBook semantisch sauber modellieren. Auch die immer wieder geforderten, aber selten praktisch realisierten, komplexen didaktischen Szenarien lassen sich nur schwer mit der in DocBook implementierten Lehrbuch-Logik umsetzen. Vielmehr muss man hier (gangbare) Umwege gehen, um entsprechende Ergebnisse zu erzielen. Für die „gute Praxis“ im Bereich des Blended-learning – bei der der Trainer durch weitere Aktivitäten ausreichend viele Interaktionen in einen Kurs einbetten kann - scheint dies kein nennenswerter Nachteil zu sein, wie erste Evaluationsergebnisse im Projekt zeigen: Vielmehr artikulierte die überwiegende Zahl der befragten Teilnehmer, dass sie eine rein sequenzielle Lehrbuchform in PDF einer Variante im WBT-Format sogar vorziehen würden. Mittelfristig ist der Ansatz auf seine praktische Tragfähigkeit außerhalb der beschriebenen Projekte hin zu überprüfen. So ist zu eruieren, ob die beschriebenen Techniken auch im Rahmen von weiteren EPSS-, Dokumentations- oder E-Learning-Vorhaben zu den gewünschten Ergebnissen führen. Kurzfristig stehen zunächst technische Arbeiten im Vordergrund, die den Ansatz komplettieren helfen: So ist beispielsweise abzuwägen, ob 136 und inwieweit multiple Wiederverwendung innerhalb desselben Dokuments unterstützt werden kann. XML-Dialekte wie Darwin Information Typing Architecture (DITA) bieten hierfür mit conref entsprechende Mechanismen, die auch in eduDocBook implementiert werden könnten [Wa05]. Ein weiteres Arbeitsfeld ist die Verbesserung der Suche von Informationsobjekten im CourseComposer, da diese die Kursautoren dabei unterstützt, neue Arrangements zusammenstellen bzw. bestehende Inhaltsarrangements zu rekonfigurieren. Mit dem weiteren praktischen Einsatz der beschriebenen Technologien wird zukünftig sicherlich auch der Bereich der Projekt- und organisationsübergreifenden Wiederverwendung von Bausteinen einen wichtigen Stellenwert einnehmen. 6 Zusammenfassung Gerade vor dem geschilderten Hintergrund, dass „re-purpose“ und „re-use“ von Content mittel- und langfristig zentrale Herausforderungen für Inhaltsentwicklung im ELearning-Bereich darstellen, scheinen Ansätze, Lernmedien nach den Prinzipien des Single-Source-Publishings und mit Blick auf eine mögliche Rekonfiguration und Wiederverwendung der Inhalte zu erstellen, eine Alternative für die bislang betriebenen Vorgehensweisen der singulären Produktion zu sein. Entsprechende Investitionen in eine saubere Konzeption und Modularisierung lohnen sich für Autoren oder Produzenten mittel- oder langfristig, da nicht nur die Wiederverwendung besser unterstützt wird, sondern auch Wartungs- und Anpassungsprozesse effizienter werden. Im Rahmen des EU-Forschungsprojektes Up2UML wurde ein Repository mit Lernobjekten aufgebaut, das von Trainern, Kursanbietern oder Verlagen zur Herstellung eigener Produkte genutzt werden kann. Für die Rekonfiguration der Lernmedien wurde mit der CourseComposer Anwendung ein Werkzeug entwickelt, das es erlaubt, modular vorliegende Informationsobjekte im (edu)DocBook Format zusammenzustellen und in multiple Ausgabeformate zu überführen. Zukünftige Arbeiten werden darauf fokussieren neben den Lernmedien ganze Blended-Learning-Szenarien und -Muster in rekonfigurierbarer Form zu beschreiben und o.g. Zielgruppen eine weitgehend automatisierte Lernmedien, Handbücher und Kursraumgenerierung zu ermöglichen. Danksagungen Das Projekt „Upskilling to Object-oriented development with the UML“ (Up2UML) umfasst Partnerorganisationen aus Deutschland, Frankreich, Irland, Rumänien und Bulgarien und erhält Fördermittel aus dem europäischen Berufsbildungsprogramm LEONARDO da VINCI 2005-2007 (Förderkennzeichen PP 146369). Besonderer Dank an Eric Ras für Durchsicht und hilfreiche Anmerkungen. 137 Literaturverzeichnis [Bu05] Bunke, Hendrik: Schreibt strukturiert! XML und Docbook in Sozial- und Geisteswissenschaften. 07.12.2005. <http://hbxt.org/edutech/docbook-in-geisteswissenschaften> [17.03.2007] [El05] The eLearningguild: The Content Authoring Research Report 2005. <http://www.elearningguild.com/pdf/1/Oct05-contentauthor.pdf> (13.03.06) [Ge91] Gery, G.: Electronic Performance Support System. Gery Association, 1991 [Go03] Gorissen, P.: Fiercely complex ? In reponse to the dynamic appearance model and implementing SCORM 1.3 (13.07.2003) <http://zope.cetis.ac.uk/content/20030713202337/20030714000846> [29.06.2007] [GT06] Grützner, I.; Thomas, L.: Systematische Entwicklung von Medien zur Benutzerunterstützung und -schulung mit einem XML basierten Single-Source-Ansatz. Multikonferenz Wirtschaftsinformatik 2006 [GTS06-2] Grützner, I.; Thomas, L.; Steinbach-Nordmann, S.: Building re-configurable multilingual training media. in: Méndez-Vilas, Antonio (Ed.); Solano Martin, A. (Ed.); Mesa González, Julian (Ed.); Mesa González, J.A. (Ed.): Current Developments in Technology-Assisted Education (2006) - Vol. 3, S. 1944-1948 [HRS05] Hoermann, S.; Rensing, C.; Steinmetz, R.: Wiederverwendung von Lernressourcen mittels Authoring by Aggregation im ResourceCenter. In: Haake, J. M.; Lucke, U.; Tavangarian, D. (Hrsg.): DeLFI 2005: 3. Deutsche e-Learning Fachtagung Informatik, GIEdition, September 2005, S. 153-164 [Ho06] Hoermann, S.: Wiederverwendung von digitalen Lernobjekten in einem auf Aggregation basierenden Autorenprozess. Dissertation, Technische Universität Darmstadt, 2005 [KO04] Koper, R.; Olivier, B.: Representing the learning design of units of learning. Educational Technology & Society, 7 (3), S. 97-111. [MRS02] Merz, A. K.; Rockmann, F.; Schwarz, C.; Reng, C. M.: Rechnergestützte Lehr- und Lernsysteme in der Medizin. "MedicCaseML: XML Austauschformat für CBT Systeme in der medizinischen Aus- und Weiterbildung"; In: Bernauer, J.; Fischer, M.R.; Leven, J.; Puppe, F.; Weber, M. (Hrsg.): Rechnergestützte Lehr- und Lernsysteme in der Medizin, S. 67-76, Shaker Verlag: Berlin (2002) [TR05] Thomas, L.; Ras, E.: Courseware Development Using a Single-Source Approach. In: Proceedings of the World Conference on Education Multimedia, Hypermedia and Telecommunications, Ed-Media 2005; S. 4502-4509 [TR06] Thomas, L.; Ras, E.: Wiederverwendungsorientiertes Content Authoring nach dem Single-Source Prinzip. In: Mühlhäuser, M.; Rößling, G.; Steinmetz, R. (Hrsg.): DeLFI 2006, 4. e-Learning Fachtagung Informatik, September 2006, Darmstadt, S. 159-170 [WM99] Walsh, N.; Muellner, L.: DocBook. O'Reilly, 1999 [Wa05] Walsh, N.: DITA for DocBook. Volume 8, Issue 136. <http://norman.walsh.name/2005/10/21/dita> [17.03.2007] 138 Das Authoring Management System EXPLAIN zur ganzheitlichen Unterstützung des Erstellungsprozesses von Trainingsmedien und WBTs Lasse Lehmann1, Helge Fredrich2, Christoph Rensing1, Volker Zimmermann2, Ralf Steinmetz1 1 KOM - Multimedia Kommunikation Technische Universität Darmstadt Merckstrasse 25 64283 Darmstadt {Lasse.Lehmann, Christoph.Rensing, Ralf.Steinmetz}@kom.tu-Darmstadt.de 2 imc - information multimedia communication AG Altenkessler Str. 17 D3 66115 Saarbrücken {Helge.Fredrich, Volker.Zimmermann}@im-c.de Abstract: In Unternehmen erfordern kurze Produktentwicklungszyklen und enge Terminpläne zumeist eine Entwicklung der Trainingsinhalte parallel zur Produktentwicklung selbst. Unternehmen können hierzu entweder externe Dienstleister beauftragen oder die Produktion in-house durchführen. Während sich ersteres oft schon auf Grund der hohen Kosten nicht lohnt, lohnt sich letzteres für kleine und mittlere Unternehmen nur, wenn eine vorhandene Infrastruktur die oben genannten Prozesse vereinfacht und unterstützt. Um eine solche Infrastruktur handelt es sich bei dem hier vorgestellten Authoring Management System (AMS). 1 Einleitung und Motivation Die Erstellung und Produktion von e-Learning Inhalten ist ein zeitaufwändiger und komplexer Prozess. So dauert die Entwicklung von Produktschulungen in Unternehmen, von der Konzeption bis zur Bereitstellung an die Kunden oder Mitarbeiter, durchaus 6-9 Monate. In Unternehmen erfordern kurze Produktentwicklungszyklen und enge Terminpläne, oftmals wird ein Produkt noch wenige Wochen vor dem Verkauf geändert, deshalb zumeist eine Entwicklung der Trainingsinhalte parallel zur Produktentwicklung selbst. Dadurch wird die effektive Entwicklung dieser Trainingsmedien zu einem wichtigen Wettbewerbsfaktor [BBS01]. Dies gilt zwar im Besonderen für multimedial aufbereitete Inhalte, aber im Prinzip für alle möglichen Arten von Trainingsmedien, die zu einem Produkt erstellt werden müssen. Hierzu zählen beispielsweise ProduktDokumentationen, Schulungsunterlagen, Foliensätze für Fortbildungen, Selbstlerneinheiten oder auch Werbematerial. Da die Content-Produktion durch externe Dienstleister häufig, besonders für kleine und mittlere Unternehmen, kaum erschwinglich ist, streben viele Unternehmen eine in-house Produktion von Trainingsmedien an. Hier fehlen je139 doch oft das nötige Know-How und die passenden Werkzeuge zur Medien- und ContentProduktion. Zudem ist der organisatorische Aufwand sehr hoch: Die Inhalte müssen konzipiert und das Konzept dann von den zuständigen Projektleitern autorisiert werden, noch bevor der eigentliche Inhalt erstellt wird. Die Fachexperten müssen die Inhalte liefern und ihr Wissen in enger Zusammenarbeit mit den Autoren zur Verfügung stellen. Dafür müssen sie auf Wissen und Ressourcen im Firmennetzwerk zugreifen können. Mediendesigner müssen wissen, welche Medienobjekte wann und in welcher Form produziert werden sollen; und schließlich muss das Projektmanagement den Prozess kontrollieren, die wichtigsten Parameter abrufen und, soweit notwendig, effektiv eingreifen können. Dies ist nur möglich, wenn eine vorhandene Infrastruktur die oben genannten Prozesse vereinfacht und unterstützt. Um eine solche Infrastruktur handelt es sich bei dem hier vorgestellten Authoring Management System (AMS). In Kapitel 2 werden, anhand der existierenden Schwachstellen bei der Content-Erstellung in Unternehmen, Anforderungen an ein solches System definiert, während auf dieser Basis im folgenden Kapitel das der Authoring Management Plattform zugrunde liegende Konzept vorgestellt wird. In Kapitel 4 wird die Implementierung des Systems beschrieben, während Kapitel 5 sich mit der Evaluation sowohl des Konzepts als auch der Plattform als solche befasst. Nach einem Blick auf die verwandten Arbeiten in Kapitel 6, schließt Kapitel 7 den Artikel ab und gibt einen Ausblick auf zukünftige Schritte. 2 Schwachstellen in der Content-Produktion In [CLL07] wurden die Content-Erstellungs-Prozesse in kleinen und mittleren Unternehmen analysiert. Dazu wurden Firmen, die bereits selber Content produziert haben, befragt und eine Reihe von Schwachstellen in der Content-Produktion identifiziert. Hieraus lassen sich wiederum Anforderungen an ein AMS ableiten. Die nachfolgend aufgeführten Schwachstellen werden weitestgehend in [CLL07] detailliert beschrieben und im Einzelnen begründet. 1. Hoher Zeitbedarf bei spezialisierten, teuren Mitarbeitern Eine Authoring Management Plattform muss für eine optimale Einbindung der Fachexperten in den Erstellungsprozess der Inhalte sorgen und nach Möglichkeit nicht inhaltliche Tätigkeiten von den Fachexperten fernhalten. 2. Fehlende Integration der Werkzeuge Die Authoring Management Plattform muss entweder die Funktionen der verschiedenen Werkzeuge beinhalten oder eine kompatible und konsistente Schnittstelle zu existierenden Werkzeugen bieten. 3. Hoher Kommunikations- und Koordinationsaufwand Das AMS soll einen integrativen, zentralen Kommunikationspunkt darstellen, über den alle Koordinationsaufgaben schnell und unkompliziert gelöst werden können. 140 4. Große Datenmenge und ungewollte Redundanz Die Authoring Management Plattform muss ein konsistentes System zur Verwaltung und zum Austausch der Inhalte bieten, aber dennoch einfach und intuitiv zu benutzen sein. 5. Hohe Kosten und Aufwände durch Aktualisierungen und Lokalisierungen Das AMS muss ein einfaches und zügiges Aktualisieren bestehender Inhalte unterstützen, indem bspw. Inhalt und Layout getrennt voneinander gehandhabt werden. 6. Divergenz zwischen erwarteten und tatsächlichen Kosten Das System kann durch klare Projektmanagement- und Controlling-Funktionen eine Hilfestellung bieten. 7. Höherer Zeitaufwand durch komplexe Drehbücher Drehbücher werden im industriellen Umfeld häufig als Meilensteine in der ContentErstellung verwendet. Der Projektleiter autorisiert nach Durchsicht des Drehbuchs die Weiterführung des Inhaltserstellungs-Prozesses, was eine Form der Qualitätssicherung darstellt. Die von uns durchgeführten Anwendungs-Szenarien haben jedoch gezeigt, dass komplexe Drehbücher den Prozess unnötig in die Länge ziehen, da sie weder einen guten Überblick über die zu erstellenden Inhalte vermitteln, noch schnell und effizient zu lesen sind (siehe Kapitel 5). Das AMS sollte zumindest optional eine effektivere Möglichkeit der Qualitätssicherung und Konzepterstellung bieten. 8. Spezieller Werkzeug-Bedarf Unterschiedliche Formen von Lernmaterial haben unterschiedliche Anforderungen an die Werkzeuge, mit denen die Inhalte erstellt werden. So benötigt man beispielsweise zum Erstellen einer e-Lecture ein anderes Werkzeug als zum Erstellen eines WBTs. Daher müssen oft teure Software-Lizenzen für einmalig oder selten benutzte Werkzeuge erworben werden. Das Authoring Management System muss hier zum einen passende Werkzeuge für die unterschiedlichen Arten von Lerninhalten zur Verfügung stellen und zum anderen Geschäftsmodelle anbieten, die auf die Bedürfnisse von kleinen und mittleren Unternehmen zugeschnitten sind. 3 Das Authoring Management System Im Folgenden wird ein Konzept vorgestellt, welches die in Kapitel 2 genannten Anforderungen erfüllt und Grundlage unserer Implementierung ist. 3.1 Gesamtkonzept Einigen der in Kapitel 2 genannten Schwachstellen liegt das Problem zu Grunde, dass die verwendeten Autorenlösungen nicht den gesamten Produktionsprozess und den begleitenden Projektmanagement-Prozess hinreichend unterstützen. Der überwiegende Großteil setzt erst bei der Produktion der eigentlichen Inhalte an (siehe Kapitel 5). Viele 141 der genannten Schwachstellen können vermieden werden, indem ein Werkzeug bereits die Konzeptionsphase unterstützt und allen Projektbeteiligten, also auch den Fachexperten und dem Projektmanager, zur Verfügung steht (1, 3). Das Konzept für ein AMS sieht daher vor, alle Teilprozesse innerhalb der Content-Erstellung (vgl. Kapitel 3.2) und insbesondere die Konzeption und Modellierung der Inhalte mittels einfacher integrierter Werkzeuge zu unterstützen (2) und den gesamten Produktionsprozess zu managen (4, 6). Die Drehbucherstellung wird durch eine angereicherte Content-Modellierung ersetzt (5, 7). Neben der Unterstützung der verschiedenen Teilprozesse innerhalb eines ContentProjektes soll das AMS umfangreiche Mehrwertdienste bieten. Diese Mehrwertdienste, die vom Betreiber des AMS angeboten werden, sammeln Erfahrungswissen, welches allen Nutzern zur Verfügung gestellt werden kann. Dazu zählen Profile externer Dienstleister, ein didaktischer Assistent und ein Pool von WBT-typischen Ressourcen, sowie Werkzeugen auf Basis verschiedner Lizenzmodelle (8). 3.2 Teilprozesse des AMS Um die in Kapitel 2 gestellten Anforderungen zu erfüllen, muss ein AMS Teilaspekte und Funktionen der Bereiche Projekt-Management, Content-Konzeption bzw. Erstellung und Material-Management abdecken oder unterstützen. Diesen Anwendungsbereichen entsprechen die drei grundlegenden Prozesse, die die Hauptfunktionalität der Plattform bilden (siehe Abbildung 1). Die Basis all dieser Prozesse bildet das Content-Modell. Es folgt in der Modellierung dem Buchparadigma und besteht somit aus einer hierarchischen Struktur von Kapiteln und Seiten. Die tatsächliche Realisierung des WBTs und seine Navigation können von diesem Paradigma abweichen, beispielsweise durch von den Autoren definierbare Lernpfade. Die Gesamtheit der Kapitel und Seiten wird Inhaltspaket genannt. Die Kapitel bilden die logische Struktur des Inhaltspakets ab, während die Seiten die Inhalte der Kapitel darstellen. Den Seiten können binäre Materialien, wie beispielsweise Bilder, Animationen oder Videos, die für die spätere Produktion von Bedeutung sind, zugeordnet werden. So ist es möglich, bereits während der Konzeption fertig gestellte oder aus anderen Projekten wieder verwendete Materialien zu berücksichtigen. Kapitel, Seiten und Materialien besitzen jeweils neben den Standard-Metadaten wie Titel, Beschreibung, Stichworte etc. umfangreiche Attribute, in denen Informationen für das Projekt-Management, die spätere Produktion sowie didaktische Informationen enthalten sind [LA06]. Das Content-Modell eines Inhaltspakets kann also neben Materialien in allen Entwicklungsstufen auch umfangreiche Informationen über die Produktion, wie Design- oder Layout-Informationen, inhaltliche Informationen wie Sprecherund Bildschirmtexte und didaktische Informationen wie Lernziele und Testfragen beinhalten. Es kann somit in Form eines angereicherten Content-Modells als vollwertiger Ersatz für das Drehbuch dienen [CLL07]. Darüber hinaus enthält das Content-Modell alle für das Projektmanagement relevanten Informationen. Im „Projektmanagement-Prozess“ werden alle Planungs- und Controlling-Aufgaben für ein Content-Projekt durchgeführt. Die Plattform dient in diesem Bereich als Produktionsleitstand, wo alle wichtigen Parameter eingesehen und beeinflusst werden können sowie die Qualitätssicherung geplant und durchgeführt wird. Die wichtigsten Teilprozesse stellen hier das Kosten- und Termin-Management sowie das Regeln der Verantwort- 142 lichkeiten dar. Jedem Element des Content-Modells können Soll- und Istkosten, sowie Start- und Solltermine zugewiesen werden. Neben den Statusinformationen der Inhaltspakete eines Projektes müssen vom Projekt-Management auch die Projekte selbst, die Personen und Rollen sowie Aufgaben, die den Projekten und Inhaltspaketen zugeordnet werden können, verwaltet werden. Der „Content-Erstellungs-Prozess“ ist der eigentlich Kernprozess des Authoring Management Systems und dient der Planung, Konzeption und schließlich Produktion der Inhalte. Das Authoring Management System wurde so konzipiert, dass die Planung und Modellierung der Inhalte als integrativer Bestandteil der Plattform vorgesehen sind, während die eigentliche Produktion der Lernmaterialien auch mit Hilfe von externen, bereits vorhandenen Werkzeugen vorgenommen werden kann. Hierfür ist eine entsprechende Schnittstelle vorgesehen [ZF06]. Der „Material-Management-Prozess“ ist für die Verwaltung der für die Produktion benötigten Inhalte zuständig. Dieser Prozess bildet auch gleichzeitig die Grundlage für den Produktionsleitstand, da alle Entscheidungen auf Grund von Statusveränderungen bei Materialien oder Elementen des Content-Modells getroffen werden. 3.3 Mehrwertdienste Neben den drei Hauptprozessen umfasst das Konzept der Plattform noch verschieden unterstützende Dienste, über welche das Erfahrungswissen des Plattformbetreibers den verschiedenen Nutzern zur Verfügung gestellt wird. Die Dienste werden in Abbildung 1 jeweils in derselben Farbe dargestellt, wie der Prozess, dem sie zugeordnet sind. Die „Assistenten“ unterstützen die Projektgruppe bei verschiedenen Entscheidungen, die nicht unmittelbar in ihrem Kompetenzbereich liegen. So unterstützt der didaktische Assistent den Fachexperten bei didaktischen Entscheidungen, schlägt für unterschiedliche didaktische Parameter unterschiedliche Format- und Sequenzmuster [NN06]. Wenn eine Formatentscheidung getroffen wurde, unterstützt der Tool Assistent die Benutzer der Plattform bei der Auswahl eines passenden Werkzeugs. So kann ein bestimmtes Werkzeug beispielsweise zur Erstellung einer e-Lecture – also einer Präsentationsaufzeichnung – sehr gut geeignet sein, aber zur Produktion eines interaktiven WBTs ungeeignet. „Bibliotheken“ enthalten Ressourcen, Werkzeuge und Materialien, welche bei der Content-Produktion benötigt werden und die ein Mandant der Plattform lizenzieren kann. Hierzu zählen beispielsweise Sammlungen von Bildern oder Videoclips, die in ContentProduktionen häufig verwendete Themen zum Inhalt haben, oder Layout-Vorlagen für Lerninhalte. Bei den „Ressourcen Pools“ handelt es sich um umfangreiche Kontaktdatenbanken zu externen Dienstleistern, die im Inhaltserstellungsbereich tätig sind, da oftmals externe Agenturen für Übersetzungen, das Erstellen von Bildern oder Tonaufnahmen benötigt werden. Die „Kollaborationsdienste“ stellen Mittel für die Kommunikation unter den Projektbeteiligten eines Mandanten zur Verfügung. 143 Prozesse Projekt- Planung Planung Management Steuerung Steuerung // Statusmanagement Statusmanagement // Controlling Controlling ContentContentPakete Pakete anlegen anlegen und und Format Format planen planen ContentErstellung/ Authoring Seitenkonzeption Seitenkonzeption Kapitelkonzeption Kapitelkonzeption AutorentoolAutorentoolbasierte basierte Produktion Produktion ContentModell / Stückliste Intro 1 MaterialManagement 1.1 1.1.1 1.1.2 Materialsammlung, Materialsammlung, -zuordnung -zuordnung und und -management -management 1.2 Dienste Projektbezogene Archive Material-, Material-, DokumentenDokumenten- und und Produktionsarchiv Produktionsarchiv Didaktischer Assistenten Didaktischer Assistent Assistent Bibliotheken RessourcenPools Kollaborations- Live CommProjektLive Comm- ÜbersetzungsProjektÜbersetzungsSprecher Sprecher Dienste agenturen unication Blog/Wiki agenturen unication Blog/Wiki Tool Tool Assistent Assistent KalkulationsKalkulationsassistent assistent BeispielBeispielBibliothek Bibliothek VorlagenVorlagenbibliothek bibliothek Layoutvorl.Layoutvorl.- Grafik-&FotoGrafik-&Fotobibliothek bibliothek bibliothek bibliothek ClipClipBibliothek Bibliothek LeitfadenLeitfadenbibliothek bibliothek Tool Tool bibliothek bibliothek Autoren Autoren Fotografen Fotografen VideoVideoagenturen agenturen Sprecher Sprecher Übers.Übers.agenturen agenturen MedienMedienagenturen agenturen Tonstudios Tonstudios Medien- MedienKontakte Kontakte agenturen agenturen Abbildung 1: Konzept der Authoring Management Plattform 4 Implementierung In Kapitel 3 wurde das Konzept eines Authoring Management Systems beschrieben. Realisiert wurde dieses System als Web-basierte Plattform, um (1) die Hemmschwelle der Nutzung durch die Verwendung des Browsers als Werkzeug zu verringern und (2) flexible, auf die Zielgruppe KMU angemessene Lizenzmodelle anbieten zu können. Im Rahmen des Forschungsprojektes war es nicht die Zielsetzung, ein neues System komplett zu entwickeln sondern die grundsätzliche Validität des Ansatzes anhand eines Prototypen nachzuweisen. Daher war es sinnvoll die Entwicklungsarbeiten auf bestehende Systeme aufzusetzen. Nach eingehender Untersuchung möglicher Basistechnologien wurde entschieden die Explain Plattform auf Basis von MS Sharepoint umzusetzen, da dieses neben den bereits vorhandenen Material-Management- und Kollaborationskomponenten mit .net eine solide Technologiebasis und, wie sich gezeigt hat, große Flexibilität hinsichtlich der Erweiterbarkeit und Anpassbarkeit mit so genannten „WebParts“ bietet. Um aus den vorhandenen Funktionalitäten einen möglichst großen Nutzen zu ziehen, wurde die vorhandene Funktionalität sinnvoll mit eigenen Modulen erweitert. Die daraus resultierende Architektur wird im Folgenden beschrieben. 4.1 Architektur Abbildung 2 zeigt den schematischen Aufbau der Explain Plattform. Um die Erweiterbarkeit und Update-Fähigkeit von Sharepoint nicht zu beeinträchtigen, wurde das Sharepoint zu Grunde liegende Backend nicht verändert und somit das Backend der Plattform auf dem aus Listen und Bibliotheken bestehenden Backend von Sharepoint aufgesetzt. Dies hat den Vorteil, dass alle vorhandenen Funktionalitäten von Sharepoint weiterhin über das angebotene Frontend genutzt werden können. Das Materialmanagement, also 144 das Auf-, Herunterladen und Verwalten von für die Produktion der Inhalte benötigten Materialien, wurde mit Anpassungen von Sharepoint übernommen. Dieses ist dem vielen Benutzern bekannten Explorer-Schema des Betriebssystems Windows sehr ähnlich, dadurch entsteht keine Benutzbarkeitshürde. Zwischen dem Frontend und dem Sharepoint basierten Backend sitzt ein Controller, der die ausgeführten Aktionen verarbeitet und dementsprechend Daten aus dem Backend zurückliefert. Bei der Verwendung des nativen Sharepoint-Frontends geschieht dies in Form von Eventhandlern, die bestimmten Strukturen im Sharepoint Backend zugewiesen werden können. Die über die StandardFunktionen von Sharepoint hinaus gehenden Funktionalitäten wurden mit Hilfe einer Ajax Middleware in das Sharepoint-Framework integriert. Dadurch wird hohe Flexibilität und größtmögliche Unabhängigkeit vom Backend gewährleistet. So können selbst komplexere Teilapplikationen, wie der ContentModeller problemlos in Sharepoint integriert werden. Eine dritte Zugriffsmöglichkeit auf die Explain Plattform besteht über eine integrierte Webservice Schnittstelle. Diese wird in [ZF06] detaillierter beschreiben. Webservices Frontend (angepasst) AjaxPro Middleware SP Frontend Explain Controller erweitertes Sharepoint Backend (Listen, Bibliotheken) Abbildung 2: Architektur der EXPLAIN Plattform 4.2 Bereiche der Explain Plattform Die Explain Plattform ist Mandanten-basiert, das heißt, jeder Nutzergruppe wird ein eigener, auf diese Gruppe zugeschnittener Bereich der Plattform zugewiesen. Neben diesen Mandantenbereichen, die nur registrierten Benutzern der Plattform zugänglich sind, existiert ein offener Bereich, der die Funktionen eines Portals übernimmt. Hier gibt es Neuigkeiten, allgemeine Informationen über die Explain Plattform, Aufzeichnungen von Beispielsitzungen und die Möglichkeit sich zu registrieren und Mandant der Plattform zu werden. Der Mandantenbereich unterteilt sich in mehrere Module, die unterschiedlich stark voneinander abhängig sind. Der „Projekt-Management Bereich“ gliedert sich in drei Ebenen. Auf der obersten Ebene werden Projekte angelegt und verwaltet, Budgets und Kosten überwacht, sowie die Termine und Statusinformationen aller Projekte zusammengefasst. Hierfür werden die Kosten und Termindaten der Materialien, Seiten, Kapitel und Inhaltspakete der Projekte bis auf die Projektebene aufgerechnet und visuell in Form von Budget- und GanttDiagrammen aufbereitet (Abbildung 3). Pro Mandant können beliebig viele ContentProjekte verwaltet werden. Auf der zweiten Ebene werden die Eigenschaften und Attri- 145 bute eines einzelnen Projektes verwaltet. Hierfür können die Metadaten bearbeitet, Projektmitglieder hinzugefügt und Aufgaben zugewiesen werden. Auf dieser Ebene werden zu einem Projekt Inhaltspakete hinzugefügt. Dabei kann ein Projekt mehrere Inhaltspakete enthalten, da in vielen Fällen für ein Projekt Inhalte unterschiedlicher Formate benötigt werden. Wie auch auf der obersten Ebene des Projekt-Managements werden hier Terminpläne und Budget-Übersichten auf Basis aller in dem Projekt vorhandenen Inhaltspakete generiert. Auf der untersten Ebene des Projekt-Management Bereichs schließlich, werden die Attribute eines Inhaltspakets definiert. Neben den Metadaten können hier Aufgaben und Phasen für das Inhaltpaket verwaltet werden, auf deren Basis wiederum Gantt-Diagramme generiert werden. Jedem Inhaltpaket ist ein Content-Modell zugeordnet. Abbildung 3: Projektübersicht Im „ContentModeller“ kann das Content-Modell eines Inhaltpakets erstellt und bearbeitet werden. Dieser Bereich wird immer aus dem Kontext eines bestimmten Inhaltpakets heraus aufgerufen, so dass er eng mit dem Projekt-Management Bereich zusammenhängt. Die Modellierung wird auf Basis eines intuitiven, Drag & Drop-fähigen Editors vorgenommen (Abbildung 4). Im linken Bereich, kann mit wenigen Klicks eine komplexe Baumstruktur erstellt werden, während im rechte Bereich wahlweise die Metadaten und Attribute des gewählten Elements bearbeitet werden können, oder Materialien gesucht und ebenso mit Hilfe von Drag & Drop den Seiten in der Struktur zugeordnet werden können. Die Materialsuche im ContentModeller ist nicht identisch mit der Benutzerschnittstelle der Material-Management Komponente. Während diese darauf ausgerichtet ist, möglichst einfach Materialien in die Pools zu übertragen und dort in Ordnern zu strukturieren, bietet die Materialsuche im ContentModeller eine unabhängige Sicht auf die Materialien im Backend. Es gibt verschiedene Sichten, die nach diversen Aspekten gefiltert und durchsucht werden können. 146 Obwohl das Konzept der Plattform vorsieht, dass mittels einer generischen Schnittstelle diverse Autorenwerkzeuge für die Produktion der Inhaltpakete verwendet werden können, wurde ein einfaches Autorenwerkzeug in die Plattform integriert. Es wird aus dem ContentModeller heraus aufgerufen und dient auf Basis eines HTML-Editors dazu, die modellierten Seiten und zugeordneten Materialien direkt zu produzieren. Das fertige Inhaltspaket kann dann als HTML Paket vom ContentModeller aus exportiert werden. Die Integration eines eigenen Autorenwerkzeugs erfolgte auf ausdrücklichen Wunsch der Projektpartner, da diese eine vollständige Wiederverwendung der bereits Erstellten Content-Modelle gewährleistet. Die Schnittstelle zu anderen Autorenwerkzeugen wurde auf Basis von Webservices (siehe Abbildung 2) umgesetzt und arbeitet bisher noch nicht vollkommen verlustfrei. Abbildung 4: ContentModeller Das „Material-Management“ umfasst das Verwalten der für die Inhaltsproduktion benötigten Materialien. An dieser Stelle wird die auf WebDav basierende Sharepoint Standard-Funktionalität verwendet. Diese gleicht von der Benutzbarkeit und dem Design her dem bekannten Explorer des Windows Betriebssystems. Materialien wie Bilder, Videos oder Animationen können einfach in die dafür vorgesehenen Dokument-Bibliotheken gezogen werden, während ein für diese Bibliotheken registrierter Eventhandler dafür sorgt, dass den Materialien alle benötigten Metadaten automatisch zugewiesen werden. Jedem Mandanten sind zwei Typen dieser Bibliotheken zugeordnet. Der Projektübergreifende Mandantenpool ist dafür vorgesehen Projekt-unabhängig benötigte Assets wie Firmenlogos, oder allgemein verwertbare Inhalte zu verwalten, während in den Projektpools Materialien für ein bestimmtes Content-Projekt gesammelt werden können. Die vorhandenen Pools können beliebig tief mit Unterordnern versehen und strukturiert werden. Die Attribute und Metadaten der Materialien können entweder mit dem Standard-Frontend von Sharepoint oder direkt mit Hilfe des Metadateneditors im ContentModeller bearbeitet werden. 147 Der „didaktische Assistent“ ist als Wizard implementiert, den ein Benutzer beim Anlegen eines neuen Inhaltpakets durchlaufen kann. Anhand der Antworten des Fachexperten auf verschiedene Fragen bezüglich des Lernziels, der Zielgruppe und des zu vermittelnden Wissens, die der Benutzer anhand von Checkboxen oder Drop-Down Menus beantworten kann, wird eine priorisierte Liste von Formatvorschlägen für das gewünschte Inhaltpaket ausgegeben [NN06]. Darüber hinaus stellt der Assistent eine didaktische Wissensbasis dar, die, unabhängig vom Content-Erstellungs-Prozess, vom Fachexperten genutzt werden kann. Neben den genannten Bereichen gibt es noch weitere Bereiche, welche die Mandanten bei der Erstellung der Inhalte unterstützen. Dazu zählen die Ressourcen Pools, wo Kontakt und Preisdaten verschiedener externer Dienstleister, wie Fotografen, Übersetzer, Grafikdesigner etc. hinterlegt sind und Arbeitsproben dieser begutachtet werden können, der Hilfe-Bereich mit FAQs, Tutorials und Aufzeichnungen sowie der Bereich Team Services, welcher den Mitgliedern eines Mandanten die Möglichkeit bietet, auf unterschiedliche Arten miteinander zu kommunizieren. Momentan enthält dieser Bereich ein Adressbuch, ein Forum, einen Chat zur Echtzeitkommunikation und ein Wiki. 5 Evaluation Noch vor Beginn der Entwicklungsarbeiten wurden die, der Authoring Management Plattform zu Grunde liegenden, Konzepte in mehreren Anwendungs-Szenarien getestet und evaluiert. Dies geschah, indem für die einzelnen Basisprozesse jeweils den Anwendungspartnern bekannte und vertraute Tools zur Verwendung kamen. Dabei handelte es sich beispielsweise um MS Visio zur Modellierung der Inhalte, MS Project für das Projektmanagement, MS Sharepoint für die Materialverwaltung und Autorentools wie eXact Packager [EX07] oder EasyProf [EA07] für die endgültige Produktion der Lerninhalte. Es zeigte sich hierbei, dass schon die konsequente Anwendung der Konzepte eine Effizienzsteigerung des Entwicklungsprozesses der Inhalte zur Folge hatte, während die anderen Beurteilungsfaktoren, wie didaktische Qualität oder inhaltliche Flexibilität, laut der Anwendungspartner keine Änderung, respektive Verschlechterung, erfuhren. Das angereicherte Content-Modell konnte deutlich schneller zur Produktion freigegeben werden, und war für die Produktion selbst besser zu verwerten als ein umfangreiches Storyboard; demzufolge sank die Gesamtdauer des Erstellungsprozesses bei konstanten Kosten [CLL07]. Selbstverständlich ist bei den genannten Anwendungsfällen das vorhandene Verbesserungspotential enorm. So können beispielsweise weiterhin Medienbrüche verhindert und die Integration der einzelnen Teilaspekte verbessert werden. Daher ist für die Evaluation der gesamten Plattform eine weitere Effizientsteigerung zu erwarten, da hier Medienbrüche auf ein Minimum reduziert und die einzelnen Teilaspekte optimal integriert sind. Auch im Hinblick auf die weiteren Faktoren ist, hinsichtlich der Dienste der Plattform wie beispielsweise des didaktischen Assistenten, eine Verbesserung zu erwarten. Die Evaluation der entwickelten Plattform mit den drei Anwendungspartnern des Explain Projekts wird momentan durchgeführt. 148 6 Verwandte Arbeiten Es gibt viele Arbeiten und implementierte oder in der Entwicklung befindliche Systeme, die Teilaspekte des hier vorgestellten AMS abdecken. Hierzu zählen bspw. Autorenwerkzeuge, mit denen Inhalte produziert werden können. Die meisten dieser Werkzeuge decken jedoch allein den Produktionsprozess der Inhalte ab. Dazu zählen neben Autorenwerkzeuge für WBTs wie easyProf [EA07] oder Macromedia Authorware, Aufzeichnungssoftware wie Lecturnity oder Captivate auch Werkzeuge wie Flash, Powerpoint, Dreamweaver oder Frontpage. Einige Autorenlösungen unterstützen zudem eine Modellierung der Inhalte. Dazu zählen das ResourceCenter [HHR06], wo die Inhalte auf Kapitelebene modelliert werden können, bevor diese mit Inhalt befüllt werden oder der eXact Packager [EX07], der die Modellierung einer Struktur erlaubt. Zum Modellierungsansatz selbst wurde in [LAR07] eine hinreichende Analyse bestehender Ansätze durchgeführt. Learning Content Management Systeme wie ILIAS [ILI07] oder Clix [IMC07] erlauben es häufig, neben einem auf Lernen ausgerichteten Materialmanagement, Kurse aus bestehenden Inhalten zu strukturieren. Diese Systeme unterstützen jedoch die eigentliche Produktion der Inhalte, sowie eine Koordination der Produktionsprozesse nicht. Projektmanagement-Systeme wie beispielsweise MS Project können zwar als Produktionsleitstand verwendet werden, jedoch ergibt sich hier die Integrationsproblematik mit anderen verwendeten Werkzeugen. Oft sind diese Projektmanagementsysteme auch sehr komplex und bieten weit mehr Funktionalitäten als benötigt werden, worunter wiederum die Benutzbarkeit leidet. Verschiedene Content Management und Versionierungs-Systeme wie Typo3 oder CVS decken den Materialmanagementprozess des AMS hinreichend ab, bieten jedoch keine Unterstützung für die restlichen Aspekte der Inhaltsproduktion oder eine hinreichende Integrationsmöglichkeit. Enterprise Content Management Systeme wie Sharepoint verbinden Content Management mit kollaborativen Elementen und Controlling-Funktionen und können als Grundlage für eine Implementierung in Betracht gezogen werden (siehe Kaptitel 4). Systeme, welche das komplette Spektrum einer Authoring Management Plattform abdecken, sind kaum vorhanden. Ein System, was diesem Konzept nahe kommt, aber dennoch einige wichtige Funktionalitäten vermissen lässt ist QMind [QM07]. Hierbei handelt es sich um eine webbasierte Plattform zur Konzeption, Produktion und Qualitätssicherung von Inhalten. Diese können jedoch einzig im Flash Format erstellt werden, was den Anwendungsbereich der Plattform sehr stark einschränkt. Des Weiteren wurde der Projektmanagement-Prozess nur in Bezug auf Review- und Qualitätssicherungsfunktionalitäten umgesetzt. Auch generische Schnittstellen zur Integration bereits vorhandener Lösungen lässt das System vermissen. 7 Zusammenfassung und Ausblick Mit dem Authoring Management System Explain wurde ein System konzipiert und umgesetzt, welches, besonders in Unternehmen, die Produktion von e-Learning Inhalten effizienter und einfacher macht. Auch im universitären Bereich kann eine Anwendung des Systems sinnvoll sein, jedoch nur, wenn der Content-Produktion ein kollaborativer 149 Prozess mit mehreren unterschiedlichen Rollen zu Grunde liegt. Der hauptsächliche Einsatzbereich der Plattform ist in Unternehmen mittlerer Größe zu sehen, die durch inhouse Produktion von Inhalten den Zeit- und Kostenaufwand verringern wollen. Die prototypische Implementierung kann als Proof of Concept dienen, setzt jedoch die konzipierte Plattform nicht in allen Details um. Hier können durch zukünftige Arbeiten, beispielsweise bei der Überführung in die Produktreife, noch an einigen Stellen Verbesserungen angebracht werden. So wäre eine Rollen-abhängige Sicht auf den Mandantenbereich sinnvoll. Des Weiteren könnte die automatisierte Unterstützung der Metadatenerstellung verbessert werden. Auch der Einbezug externer, in vielen Unternehmen bereits vorhandener Materialquellen, wie Datenbanken, Dateisysteme oder FTP-Server in das Materialmanagement der Explain Plattform, kann noch umgesetzt werden. Danksagung Das diesem Bericht zu Grunde liegende Vorhaben wurde mit Mitteln des Bundesministeriums für Wirtschaft und Technologie unter dem Förderkennzeichen 01 MD 512 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor. Literaturverzeichnis [BBS01] Back, A.; Bendel, O. & Schai, D.S. (2001), E-Learning im Unternehmen, Orell Fuessli. [CLL07] Chikova, P.; Leyking, K.; Loss, P.; Bruch, E. & Lehmann, L. (2007), Reengineering der Content-Erstellungsprozesse in Industrieunternehmen durch Content-Modellierung: Fallbeispiel, in 'Proceedings of the 8. Intern. Tagung Wirtschaftsinformatik WI 2007'. [EA07] Daten + Dokumentation GmBH - easyProf, http://www.easyprof.de/, 2007 [EX07] Giunti Labs Learnexact - eXact Packanger, http://www.giuntilabs.com/info.php?vvu=12 [HHR05] Hoermann, S.; Hildebrandt, T.; Rensing, C. & Steinmetz, R. (2005), ResourceCenter - A Digital Learning Object Repository with an Integrated Authoring Tool, in 'Proceedings of the Edmedia 2005'. [ILI07] ILIAS open source - ILIAS, http://www.ilias.de, 2007 [IMC07] imc - Lernplattform Clix, http://www.im-c.de/138/Lernplattform-CLIX/, 2007 [LAR06] Lehmann, L.; Aqqal, A.; Rensing, C.; Chikova, P.; Leyking, K. & Steinmetz, R. (2006), A Content Modeling Approach as Basis for the Support of the Overall Content Creation Process, in 'Proceedings of the IEEE ICALT 2006'. [NN06] Niegemann, H.M. & Niegemann, L. (2006), Ein „Didaktischer Assistent“ für die Entwicklung von eLearning-Angeboten, in 'Proceedings of 10. Workshop Multimedia in Bildung und Wirtschaft'. [QM07] QMind - QMind, http://www.qmind.com/, 2007 [ZF06] Zimmermann, V. & Fredrich, H. (2006), Authoring Management Plattform "Explain" Effiziente Content Produktion durch Integration von Autorenlösungen über eine webbasierte Prozess- und Serviceplattform, in 'Proceedings of 10. Workshop Multimedia in Bildung und Wirtschaft'. 150 Eine logfilebasierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen Christoph Hermann1 , Martina Welte1 , Johann Latocha2 , Christoph Wolk3 , Wolfgang Huerst1 Institut für Informatik Albert-Ludwigs-Universität Freiburg Georges-Köhler-Allee, Gebäude 051 79110 Freiburg im Breisgau {hermann, welte, huerst}@informatik.uni-freiburg.de1 johann@latocha.de2 , christoph.wolk@googlemail.com3 Abstract: Ziel des vorliegenden Beitrags ist es, die Ergebnisse einer vorangehenden, informellen Studie zur Nutzung von Vorlesungsaufzeichnungen durch harte Fakten“ ” zu überprüfen und gegebenenfalls neue Erkenntnisse zu gewinnen. Es wird kurz ein Werkzeug vorgestellt, mit welchem wir die Zugriffe der Studierenden auf die Vorlesungsaufzeichnungen untersucht haben. Die aufschlussreichsten Analysen werden in diesem Beitrag vorgestellt. Es ergeben sich hierbei interessante Ergebnisse bezüglich der Verwendung der Materialien durch die Studierenden oder der Nachfrage nach verschiedenen Medienformaten. Auch das immer wieder kontrovers diskutierte Thema, ob Vorlesungsaufzeichnungen mit Dozentenvideo besser geeignet sind als Aufzeichnungen ohne das Video, wird von uns aufgegriffen und die Position unserer Studierenden zu dieser Thematik anhand der Logfileanalyse dargelegt. Des Weiteren diskutieren wir das Thema der Archivierung von Vorlesungsaufzeichnungen und untersuchen, zu welchen Zeitpunkten Studierende besonders auf Vorlesungsaufzeichnungen als Lernmaterial zurückgreifen. 1 Motivation Vorlesungsaufzeichnungen [MO00] haben sich an Hochschulen in systematisch aufgebauten Fächern wie Informatik als eines der Hauptmaterialien in der Lehre sowohl in Präsenz als auch zur Unterstützung der Durchführung von Onlinekursen herausgestellt. An der Universität Freiburg werden alle Vorlesungsaufzeichnungen der Fakultät für Angewandte Wissenschaften (FAW) über das eLectures-Portal“ [HHW06] verteilt und archiviert. Die ” Zugriffe auf diese Materialien werden über den verteilenden Webserver (Apache) protokolliert und können somit von uns ausgewertet werden. In einer früheren Studie [HLT06] haben wir das Nutzungsverhalten, die Funktionalität und Usability von Vorlesungsaufzeichnungen aus der Sicht der Studierenden im Fach Informatik untersucht. Diese Studie hat bisherige Vermutungen über den Mehrwert von Vorle- 151 sungsaufzeichnungen bestätigt. Ferner hat sie aufgezeigt, welche Funktionalitäten, Medien und Formate von den Studierenden akzeptiert bzw. als wichtig angesehen werden. In dem vorliegenden Beitrag wollen wir die damals anhand von Fragebögen durchgeführte Evaluation, welche auf der subjektiven Sicht der Studierenden basiert, anhand vorliegender Fakten aus den Logfiles der Zugriffe auf die Materialien verifizieren. Uns interessieren hierbei Fragestellungen der Art: Welche Art von Dokumenten wird von den Studierenden ” bevorzugt verwendet?“, Gibt es bestimmte Typen von Dokumenten, die besonders nach” gefragt werden?“, Gibt es einen Zusammenhang zwischen der Nachfrage nach bestimm” ten Dokumenten und bestimmten Ereignissen wie Klausuren oder Übungsblattabgaben?“. Für Entscheider an Hochschulen, die über den Einsatz von Vorlesungsaufzeichnungen nachdenken, ist auch insbesondere interessant, wie lange die enormen Datenmengen in einem Archiv vorgehalten werden sollten. Für eine Veranstaltung der Länge von 45 Minuten (eine einstündige ex-cathedra-Vorlesung) fallen durchschnittlich etwa 25MB für eine Vorlesungsaufzeichnung ohne das Dozentenvideo und mehrere hunderte Megabyte für eine Vorlesungsaufzeichnung mit Dozentenvideo an. Insgesamt ist an unserer Fakultät fast ein halbes Terabyte an Vorlesungsaufzeichnungen vorhanden (fast das gesamte Curriculum der Informatik sowie das der Mikrosystemtechnik ist als Vorlesungsaufzeichnungen verfügbar), die täglich gesichert werden müssen. Ziel dieses Beitrags ist es, diese und andere Fragen anhand der ausgewerteten Daten der Logfiles unseres eLecture-Portals zu beantworten. 2 Auswertung der Logfileanalyse 2.1 Vorgehensweise Zur Analyse der Logfiles unseres Portals wurde ein Werkzeug entwickelt, das die vorliegenden Daten in einem ersten Schritt von überflüssigen Einträgen bereinigt, in einem zweiten Schritt die Metadaten des eLecture-Portals einbezieht und letztendlich die Möglichkeit bietet, grafische Reports der Daten zu liefern. Das Werkzeug bietet verschiedene standardisierte Abfragen, die auch in den gängigen Logfileanalysetools zu finden sind, etwa eine Aufschlüsselung nach verwendetem InternetBrowser, Betriebssystem oder angefragter Datei. Im Gegensatz zu Standard-Logfileanalysetools ist jedoch eine wesentlich detailliertere und damit aufschlussreichere Analyse der Daten möglich. Dies geschieht durch die Einbeziehung der Metadaten, die im eLecturePortal (hier sind Vorlesungsaufzeichnungen mit Semester, Autor, Titel und einer Struktur versehen) gespeichert sind. Abbildung 1 zeigt einen Screenshot der grafischen Oberfläche. Über die Kommandozeilenversion des Werkzeugs sind noch weitere, deutlich detailliertere Analysen möglich. Die Logfiles, die zur Analyse der Daten herangezogen wurden, stammen aus dem Zeitraum Februar 2006 bis März 2007 und enthalten etwa 2,6 Millionen Zeilen an Logfileeinträgen. Die eLectures-Datenbank enthält Einträge über die Strukturen der gesamten Vorlesungen des Informatik-Curriculums. Zu jeder Vorlesungsaufzeichnung werden die Metadaten 152 Abbildung 1: Tool zur Logfileanalyse Autor, Datum, Vorlesung und Titel erfasst. Die einzelnen Vorlesungsaufzeichnungen sind über die Struktur in Kapitel und Unterkapitel unterteilt, die es ermöglichen, den Zusammenhang zwischen einer Datei und der jeweiligen Veranstaltung (Titel, Semester sowie Dozent) herzustellen. Zur Bereinigung der Logfiles von Zugriffen von Robots und um ungewöhnliche Zugriffsspitzen1 , die eine Auswertung verfälschen würden, zu entfernen, wurden die Logfiles wie folgt gefiltert: Es wurden pro Stunde jeweils die Zugriffe einer IP-Adresse nur einmal gezählt, so dass ein mehrfacher Download derselben Datei von einem Rechner (identifiziert durch die IP-Adresse) nicht mehrfach gezählt wurde. Bei Browsern und Betriebssystemen wurde in den jeweiligen Statistiken identisch vorgegangen. Zugriffe von Clients, deren Benutzeragentkennungen den Begriff Robot“ bzw. Bot“ enthielten, wurden ” ” zusätzlich entfernt. 2.2 Nutzergruppe Teilnehmer unserer ersten Umfrage (siehe [HLT06]) waren Studierende der Veranstaltungen Informatik II (Algorithmen und Datenstrukturen) im Sommersemester 2004 und Sommersemester 2005 sowie Algorithmentheorie im Wintersemester 2003/2004 und Studierende der Geometrischen Algorithmen im Wintersemester 2004/2005. Bei der Analyse der Logfiles kann die Zielgruppe nicht exakt eingegrenzt werden (da der Zugriff auf die Vorlesungsaufzeichnungen auch von außerhalb der Universität gestattet ist), jedoch ist davon auszugehen, dass zum größten Teil nur Studierende der entsprechenden Veranstaltungen auf die Aufzeichnungen auf dem Portal zugreifen2 . Es ist jedoch klar, dass sich 1 2 Als Zugriffsspitzen bezeichnen wir übermäßig starke Nachfragen zu einem bestimmten Zeitpunkt. Zumindest ist aufgrund der Analyse der Logfiles (IP Adressen, Herkunft etc.) davon auszugehen. 153 diese Benutzergruppe von der Allgemeinheit der Internetnutzer deutlich unterscheidet, da es sich hauptsächlich um Studierende der Informatik und verwandter Fächer handelt. Ein Vergleich zwischen unserer Benutzergruppe und der Allgemeinheit zeigt deutliche Unterschiede in der Verwendung des Betriebssystems und auch beim verwendeten Browser. Dies bestätigt wiederum die Ergebnisse der Befragungen der letzten Studie. Allgemein3 wird zu 58,7% der Internet Explorer verwendet, zu 32,6% Mozilla Browser (Mozilla, Firefox) zu 1,7% Safari und zu 1,5% Opera. Unter den Studierenden wird zu 40,29% Internet Explorer verwendet, zu 42,37% Firefox. Der Rest der Zugriffe stammt von anderen Browsern oder Robots. Bei den Betriebssystemen zeigt sich eine ähnliche Abweichung: Die Studierenden verwenden zu 70,45% Microsoft Windows XP (allgemein 76,1%), zu 9,1% Linux (allgemein 3,5%), zu 7,08% Windows 2000 (allgemein 7,4%) gefolgt von 5,82% Windows 98-Nutzern (allgemein lediglich 0,8%) und anderen. Man sieht, dass InformatikStudierende sich zwar von der Allgemeinheit unterscheiden, jedoch nicht so stark wie man unter Umständen hätte vermuten können. Die tatsächlichen Angaben in den Logfiles unterscheiden sich auch leicht von den Angaben der Studierenden in der letzten Studie. Diese Abweichung ist vermutlich dadurch zu erklären, dass sich Studierende zunehmend im Hauptstudium mit alternativen Betriebssystemen beschäftigen (und dies auch in der Studie so angegeben haben), während ein Großteil der Studierenden im Grundstudium noch das Microsoft-Betriebssystem (stärker) bevorzugt. Eine alternative Erklärung könnte sein, dass das Microsoft-Betriebssystem unter den Informatik-Studierenden einen negativen Ruf hat und sie deshalb in der Umfrage vermehrt angegeben haben, alternative Betriebssysteme zu benutzen. 2.3 Umgang der Studierenden mit Vorlesungsaufzeichnungen Aus den Top 15 (laut Zugriffszahlen) der uns vorliegenden Veranstaltungen haben wir zwei besonders nachgefragte und wichtige Veranstaltungen (Informatik II im Grundstudium und Algorithmentheorie im Hauptstudium) herausgesucht und diese im Detail analysiert. Wir haben untersucht, welche der angebotenen Formate von den Studierenden besonders häufig heruntergeladen bzw. aufgerufen werden, ob ältere Vorlesungsaufzeichnungen auch in den aktuellen Veranstaltungen nachgefragt werden und ob es in Zuge dessen sinnvoll ist, ein großes Archiv älterer Versionen der Vorlesungsaufzeichnungen vorrätig zu halten. Des Weiteren hat uns interessiert, ob es bestimmte Zeitpunkte gibt, zu denen die Medien besonders stark nachgefragt werden und inwiefern das mit bestimmten Terminen wie Übungsblattabgaben, Klausuren oder Ferien zusammenhängt. Bei den zwei im Detail analysierten Veranstaltungen Informatik II und Algorithmentheorie handelt es sich um Präsenzveranstaltungen, die im akademischen Zyklus (jährlich) angeboten werden. Der Vortrag des Dozenten wird live aufgezeichnet und wenige Stunden nach der Veranstaltung im Internet auf dem eLectures-Portal zur Verfügung gestellt. Die folgenden Auswertungen zeigen jeweils an den Achsen die absoluten Downloadzahlen (Y-Achse) relativ aufgetragen zur Zeitskala (X-Achse). Die Semesterzeiten werden durch senkrechte Linien begrenzt, in der vorlesungsfreien Zeit nach dem Semester fin3 http://www.w3schools.com/browsers/browsers stats.asp 154 den meist die Prüfungen statt. Entlang der X-Achse eingezeichnete Punkte kennzeichnen die Abgabetermine der Übungsblätter zur Vorlesung, im ein- bis zweiwöchentlichen Rhythmus). Einige der Grafiken zeigen eine geglättete“ Auswertung, hier haben wir eine ” Glättung über drei oder sieben Tage vorgenommen, um ein konsistenteres Erscheinungsbild zu bekommen. Dies wird in den einzelnen Grafiken jeweils durch die Zusätze 3” Tages-Durchschnitt“ oder Wöchentlicher Durchschnitt“ gekennzeichnet. ” Vergleich der verschiedenen Medienformate Bei der Auswertung der Logfiles haben wir untersucht, inwiefern verschiedene Dateiformate bzw. Medientypen von den Studierenden nachgefragt werden. Die auf dem eLecturesPortal verfügbaren Dateien wurden in die drei Kategorien Video“, Flash“ und Folien“ ” ” ” unterteilt und analysiert. In die erste Kategorie fallen alle Arten von Vorlesungsaufzeichnungen, d.h. es spielt hierbei keine Rolle, mit welchem Werkzeug diese aufgezeichnet wurden (wir setzen Lecturnity und Camtasia ein), oder ob es sich um Aufzeichnungen mit oder ohne Dozentenvideo handelt. Diese Unterscheidung haben wir an dieser Stelle absichtlich nicht vorgenommen, da wir diese Analyse in einem eigenen Abschnitt behandeln. Flash“ enthält alle Vorlesungsaufzeichnungen im Flash-Format, und unter Folien ” haben wir sowohl Powerpoint- als auch PDF-Präsentationen zusammengefasst. Wichtig ist hierbei anzumerken, dass wir bei Vorlesungsaufzeichnungen“ und Folien“ nicht im ” ” Detail feststellen können, wie oft diese Materialien tatsächlich verwendet wurden, da die entsprechenden Dateien in der Regel von den Studierenden heruntergeladen werden und im Anschluss oft nur noch von der lokalen Festplatte aus aufgerufen werden. 120 VIDEOS FLASH FOLIEN 160 DOWNLOADS DOWNLOADS 100 200 ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT) INFORMATIK II (3-TAGES-DURCHSCHNITT) VIDEO FLASH SS 2006 FOLIEN WS 2006/07 80 120 60 80 40 40 20 DATUM 0 24.10.06 13.11.06 03.12.06 23.12.06 12.01.07 01.02.07 21.02.07 0 3.4.06 DATUM 28.4.06 23.5.06 17.6.06 12.7.06 6.8.06 31.8.06 25.9.06 Abbildung 2: Vergleich der Downloadhäufigkeit der verschiedenen Medientypen Video“, Folien“ ” ” und Flash“; Links für die Veranstaltung Algorithmentheorie im WS2006/2007 und rechts für ” Informatik II über alle verfügbaren Semester Nichtsdestotrotz erkennt man in Abbildung 2 sehr deutlich eine klare Präferenz für die Videos“, gefolgt von Folien“ und als letztes Flash“. Dies bestätigt wiederum unsere ” ” ” Theorie des Leecher-Effekts“ der letzten Studie, d.h. die Studierenden präferieren ein ” Format, das sie komplett herunterladen können. 155 Vergleich der Nachfrage von Vorlesungsaufzeichnungen mit und ohne Video Die Relevanz des Videobildes des Dozenten als Einfluss auf den Lernprozess wird immer wieder kontrovers diskutiert. Krüger [Kr05] weist darauf hin, dass verschiedene Studien von Fey [Fe02], Glowalla [Gl04] und Moreno und Mayer [MM02] unterschiedliche Ergebnisse aufzeigen, ob das Videobild des Dozenten notwendig ist, oder ob es ausreicht, das Tonsignal zu übertragen. Krüger weist jedoch auch darauf hin, dass die Untersuchungen nur davon ausgehen, dass die durch das Betrachten des Videos erzielte höhere Motivation ein nachhaltigeres Lernen ermöglicht, dieses jedoch noch nicht in einer Langzeitstudie nachgewiesen wurde. Wir wollen hier weder die eine noch die andere These bestätigen oder widerlegen, sondern die entsprechenden Aussagen anhand der Fakten, die wir aus einer Logfileanalyse ziehen können, überprüfen. Abbildung 3 zeigt links eine Übersicht DOWNLOADS 800 ALLE VORLESUNGEN (WÖCHENTLICHER DURCHSCHNITT) 80 LECTURNITY (MIT DOZENTENVIDEO) LECTURNITY (OHNE DOZENTENVIDEO) SS 2006 WS 2006/07 60 400 40 200 20 DATUM 6.4.06 6.6.06 ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT) LECTURNITY (MIT DOZENTENVIDEO) LECTURNITY (OHNE DOZENTENVIDEO) WS 2006/07 600 0 6.2.06 DOWNLOADS 100 1000 6.8.06 6.10.06 6.12.06 6.2.07 0 25.10.06 25.11.06 25.12.06 25.1.07 DATUM Abbildung 3: Vergleich der Vorlesungsaufzeichnungen mit und ohne Dozentenvideo über alle vorhandenen Aufzeichnungen getrennt nach Downloads der Aufzeichnungen mit und ohne Video. Die rechte Grafik zeigt im Detail noch einmal die Nachfrage der Studierenden nach diesen beiden Aufzeichnungsarten bei der Veranstaltung Algorithmentheorie. Man sieht sehr deutlich, dass sowohl insgesamt als auch bei einzelnen Veranstaltungen die Vorlesungsaufzeichnungen ohne Video deutlich von den Studierenden präferiert werden. Interessant ist jedoch, dass zum Ende der Veranstaltung Algorithmentheorie die Vorlesungsaufzeichnungen mit Video noch einmal sehr stark heruntergeladen wurden. Dies ist eventuell damit zu begründen, dass sich Studierende zu Ende der Veranstaltungen die gesamten Materialien herunterladen, um sich damit dann auf die Prüfungen vorzubereiten oder um diese selbst zu archivieren. Ein anderes Argument wäre, dass zu diesem Zeitpunkt die Veranstaltung von einem anderen Dozenten gehalten wurde und deshalb die Studierenden das Bild des unbekannten“ Dozenten sehen wollten. Es gibt Vermutungen, die genau ” diese Argumentation unterstützen. Sie besagen, dass bei einem unbekannten Dozenten das Bild des Vortragenden für den Zuhörer wichtig ist, da er die Person kennenlernen“ ” möchte. 156 Notwendigkeit eines Archivs 140 160 140 DOWNLOADS 180 ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT) DOWNL. Aufgrund der immensen Datenmenge und den damit verbundenen Kosten für die Archivierung und Aufrechterhaltung kommt der Frage, ob sich die Nutzung der Daten zumeist auf das letzte Semester beschränkt und eine langfristige Archivierung damit gegebenenfalls gar nicht relevant ist, eine hohe Bedeutung zu. Es wäre z.B. möglich nach Ablauf des Semesters (dem Prüfungszeitraum) die Vorlesungsaufzeichnungen zu löschen. Bei unseren Untersuchungen hat sich herausgestellt, dass die Studierenden nicht nur die aktuellen Materialien verwenden, sondern dass auch ältere Vorlesungsaufzeichnungen genutzt werden. Abbildung 4 zeigt auch sehr deutlich, dass vor allem vor Beginn des Semesters INFORMATIK II (3-TAGES-DURCHSCHNITT) 120 ÄLTERE SEMESTER WS 2006/07 ÄLTERE SEMESTER 100 SS 2006 SS 2006 120 WS 2006/07 80 100 80 60 60 40 40 20 20 0 03.10.2006 03.11.2006 03.12.2006 03.01.2007 03.02.2007 DATUM 0 3.4.06 3.5.06 3.6.06 3.7.06 3.8.06 3.9.06 DATUM Abbildung 4: Links: Downloads von Vorlesungsaufzeichnungen aus verschiedenen Semestern der Veranstaltung Algorithmentheorie im WS2006/2007; Rechts der Informatik II über alle vorhandenen Semester verstärkt Zugriffe auf alte Vorlesungsaufzeichnungen stattfinden. Die erste vertikale Linie markiert den Beginn des aktuellen Semesters; man erkennt vor diesem Zeitpunkt einen starken Zugriff auf die Vorlesungsaufzeichnungen des vorhergehenden Semesters. Hierfür gibt es verschiedene denkbare Begründungen: Zum einen gibt es Studierende, die alte Vorlesungsaufzeichnungen als Orientierungshilfe“ benutzen, um sich über die Veranstaltung ” und deren Schwierigkeitsgrad zu informieren. Auch wird diese Möglichkeit von Studierenden genutzt, um auszuloten, ob sie diese Veranstaltung im kommenden Semester als eine ihrer Wahlpflichtveranstaltungen belegen. Zum anderen gibt es auch den einen oder anderen Studierenden, der diese Materialien bereits als Vorbereitung auf die kommenden Veranstaltungen nutzt, um deren Inhalte zu verinnerlichen bzw. vorzuarbeiten. Der Zugriff auf die alten Vorlesungsaufzeichnungen nimmt im Laufe des Semesters dann zwar ab, jedoch werden zu bestimmten Zeitpunkten weiterhin bestimmte (ältere) Aufzeichnungen stärker nachgefragt. Wir gehen davon aus, dass die Studierenden ausgesuchte alte Vorlesungsaufzeichnungen bevorzugen, weil dort der ein oder andere Sachverhalt besser oder ausführlicher erklärt wird als in den aktuellen Aufzeichnungen. 157 Zugriffszeitpunkte Eine weitere wichtige Analyse, die wir anhand der Logdateien durchgeführt haben, war die Untersuchung, zu welchen Zeitpunkten die Studierenden besonders auf die Vorlesungsaufzeichnungen zugreifen. DOWNLOADS 100 ALGORITHMENTHEORIE (3-TAGES-DURCHSCHNITT) WS2003/04 WS2004/05 WS2005/05 WS2006/07 90 DOWNLOADS 120 120 SS2003 SS2005 INFORMATIK II (3-TAGESDURCHSCHNITT) SS2004 SS2006 SS 2006 WS 2006/07 80 60 60 40 30 20 0 3.10.06 3.11.06 3.12.06 3.1.07 3.2.07 DATUM 0 3.4.06 3.5.06 3.6.06 3.7.06 3.8.06 3.9.06 DATUM Abbildung 5: Downloads von Vorlesungsaufzeichnungen zu verschiedenen Zeitpunkten (jeweils über alle verfügbaren Semester): Links die Zugriffe auf die Vorlesungsaufzeichnungen der Algorithmentheorie; rechts der Informatik II Abbildung 5 zeigt ein Diagramm der Zugriffe. Punkte entlang der X-Achse stehen für Abgabetermine der Übungsblätter. Besonders deutlich zeichnet sich bei der Algorithmentheorie das folgende Phänomen ab: Direkt vor der Abgabe der Übungsblätter werden die Aufzeichnungen vermehrt nachgefragt; man sieht sehr schön die wöchentlichen Spitzen in der Grafik direkt vor den Abgabezeitpunkten. Auch in der Informatik II ist der Rhythmus erkennbar, wenn auch nicht ganz so deutlich. Es ist allerdings erkennbar, dass in den zwei Wochen, in denen kein Übungsblatt abzugeben ist, auch keine Nachfragespitze entsteht. Bei Informatik II ist wiederum auch sehr gut erkennbar, dass vor dem aktuellen Semester die älteren Aufzeichnungen stark nachgefragt werden. Die erkennbare Zugriffsspitze in der Mitte der Grafik der Zugriffe auf die Algorithmentheorie stammt von einem Studierenden, der offenbar alle Vorlesungsaufzeichnungen auf einmal besitzen wollte und diese komplett heruntergeladen hat. Sehr deutlich ist in Abbildung 5 auch das Weihnachtsloch“ zu erkennen: Im Bereich der ” Weihnachtsferien und Silvester werden fast überhaupt keine Vorlesungsaufzeichnungen heruntergeladen. Solch ein deutlicher Einbruch ist sonst kaum zu erkennen, was darauf schließen lässt, dass sich die Studierenden (von denen einige Weihnachten sicherlich zuhause verbringen) in diesem Zeitraum eine Lernpause gönnen. Abbildung 6 zeigt die Zugriffe der Studierenden auf die Vorlesungsaufzeichnungen direkt vor den Klausuren (Prüfungsterminen) und jeweiligen Wiederholungsterminen. Besonders deutlich ist der Anstieg vor den ersten Klausuren, bei den Wiederholungsprüfungen ist der Anstieg nicht so deutlich, was darauf zurückzuführen ist, dass deutlich weniger Studierende an der Wiederholungsklausur teilnehmen müssen. 158 120 ALGORITHMENTHEORIE (WÖCHENTLICHER DURCHSCHNITT) KLAUSUR WS05/06 ÉVV WS2003/04 WS2004/05 WS2005/06 WS2006/07 ²V ã¡YsÌ¡æã DOWNLOADS 160 s懞§ Ìæúú¸ \sŠ¡¸Ïæý\+\\ BYp‡žµsýÌ\‡žµ¸+ãú¸‡ž‡žs\ýý( mVV mVV% +mVV› mVV„ mVV› Ìæúú¸ SS 2006 WS 2006/07 Y+mVV›V÷ NACHKLAUSUR ›V 80 „V 40 mV 0 6.2.06 6.4.06 6.6.06 6.8.06 6.10.06 6.12.06 DATUM V ›àmàV› ›à„àV› ›à›àV› ›à²àV› ›àÉVàV› ›àÉmàV› ãæýúÏ ›àmàV÷ 6.2.07 Abbildung 6: Downloads von Vorlesungsaufzeichnungen vor den Prüfungsterminen: Links die Zugriffe auf die Vorlesungsaufzeichnungen der Algorithmentheorie; rechts der Informatik II Dass insgesamt viel mehr Zugriffe bei der Veranstaltung Informatik II zu verzeichnen sind, liegt unter Anderem an der Teilnehmerzahl bei den zwei untersuchten Veranstaltungen. Die Vorlesung Informatik II wurde als Grundstudiumsveranstaltung von deutlich mehr Studierenden besucht als die Vertiefungsveranstaltung Algorithmentheorie. 3 Zusammenfassung und Ausblick In dem vorliegenden Beitrag haben wir anhand der Auswertung der Logfiles unseres eLecture-Portals die Ergebnisse einer vorhergehenden Studie überprüft und validiert, und einige interessante und für die Bereitstellung derartiger Lehrmaterialien wichtige Erkenntnisse gewonnen. Es zeigt sich, dass die Studierenden die Vielfalt der angebotenen Formate jeweils zu unterschiedlichen Zeitpunkten und in unterschiedlicher Intensität nutzen, dass jedoch jedes der Formate (Vorlesungsaufzeichnungen, Folien und Flash) seine Berechtigung hat. Des Weiteren ist es durchaus sinnvoll, ein Archiv der verschiedenen Veranstaltungen aus verschiedenen Semestern vorzuhalten, da die Studierenden die älteren Aufzeichnungen sowohl vor Beginn eines neuen Semesters als auch während einer laufenden Veranstaltung nutzen. Wiederum hat sich auch bestätigt, dass unsere Studierenden die Vorlesungsaufzeichnungen mit Video des Dozenten deutlich weniger nachfragen als die Vorlesungsaufzeichnungen ohne Dozentenvideo. Als zusätzlicher Service dem Studierenden gegenüber ist es jedoch sicherlich vorteilhaft, auch eine Variante mit Video anzubieten, da es immer wieder eine (wenn auch geringe) Nachfrage nach diesen Dateien gibt. In Anschluss an die bisher durchgeführten Auswertungen der Logfiles wollen wir zukünftig durch eine genauere Zuordnung von aktuellen Vorlesungsaufzeichnungen zum Abgabezeitpunkt von Übungen das Lernverhalten von Studierenden überprüfen. 159 Zusätzlich wollen wir einige der hier verwendeten intuitiven Argumente (vor allem in Hinblick auf die Nutzung der älteren Vorlesungsaufzeichnungen) durch eine genauere Befragung unter den Studierenden verifizieren. Interessant wäre auch ein direkter Vergleich von Vorlesungsaufzeichnungen, die mit Lecturnity (objektbasierte Aufzeichnung) angefertigt wurden, gegenüber reinen Screengrabbingaufzeichnungen, wie sie z.B. mit Camtasia erstellt werden können. Dafür müssten für eine Veranstaltung beide Dateiformate angeboten werden. Technisch ist angedacht, dies über einen automatischen Mitschnitt des Videosignals der Grafikkarte zusätzlich zur Aufzeichnung mit Lecturnity zu realisieren; dies verhindert eventuelle Komplikationen zwischen den verschiedenen Aufzeichnungstools. Dieser Mitschnitt kann dann nachträglich überarbeitet und in das typische AVI-Format konvertiert werden. Anhand der Zugriffe aus den Logfiles ist es möglich, ein best-of“ der entsprechenden ” Lehrveranstaltungen zu erstellen, indem die Teile ausgesucht werden, die von den Studierenden jeweils am häufigsten nachgefragt werden. Dies ist insofern interessant, als dass jeder Dozent in seiner Veranstaltung die Schwerpunkte anders setzt und verschiedene Inhalte mehr oder minder detailliert erklärt. Mittels einer best-of“-Auswahl könnten auch ” die Archivierungskosten gesenkt werden, indem lediglich die besten Vorlesungsaufzeich” nungen“ archiviert werden. Dies kann dann noch erweitert werden, indem sich Studierende ihre Wunschvorlesun” gen“ selbst zusammenstellen können. Im AOF-Player der Universität Freiburg ist es bereits vorgesehen, Teile einer Veranstaltung mit Metadaten auszuzeichnen [Tr06] und basierend darauf seine individuelle Vorlesungsaufzeichnung zu erstellen. Literaturverzeichnis [Fe02] Anja Fey. Audio vs. Video: Hilft Sehen beim Lernen? Vergleich zwischen einer audiovisuellen und auditiven virtuellen Vorlesung. Unterrichtswissenschaften, Zeitschrift für Lernforschung, 30. Jhg(4):331–338, 2002. [Gl04] Ulrich Glowalla. Utility and Usability von E-Learning am Beispiel von Lecture-ondemand Anwendungen. In Entwerfen und Gestalten, 2004. [HHW06] Christoph Hermann, Wolfgang Hürst und Martina Welte. The eLecture-Portal: An Advanced Archive For Lecture Recordings. In Informatics Education Europe, Oct 2006. [HLT06] Christoph Hermann, Tobias Lauer und Stephan Trahasch. Eine lernerzentrierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen zur Unterstützung der Präsenzlehre. In Tagungsband der 4. e-Learning Fachtagung Informatik (DeLFI 2006), Sep 2006. [Kr05] Marc Krüger. Pädagogische Betrachtungen zu Vortragsaufzeichnungen (eLectures). icom, Zeitschrift für interaktive und kooperative Medien, 3:56–60, 2005. [MM02] R. Moreno und R.-E. Mayer. A Learner-Centred Approach to Multimedia Explanations: Deriving Instructional Design principles from Cognitive Theory. In Interactive Multimedia Electronic Journal of Computer-Enhanced Learning, 2002. [MO00] Rainer Müller und Thomas Ottmann. The “Authoring on the Fly” system for automated recording and replay of (tele)presentations. Multimedia Systems, 8(3):158 – 176, 10 2000. [Tr06] Stephan Trahasch. Skriptgesteuerte Wissenskommunikation und personalisierte Vorlesungsaufzeichnungen. Wissensprozesse und digitale Medien. Logos Verlag, 2006. 160 Anreizsysteme zur Intensivierung von E-Teaching an Hochschulen Klaus Wannemacher Abteilung 3, Hochschulentwicklung HIS Hochschul-Informations-System GmbH Goseriede 9 30159 Hannover wannemacher@his.de Abstract: An den Hochschulen mangelt es an wirksamen Anreizen für Lehrende, sich in dem Bereich E-Teaching stärker zu engagieren. Mit welchen Mitteln können Hochschullehrende jedoch für die Nutzung mediengestützter Lehrformen interessiert werden? Anhand einer aktuellen Erhebung an deutschen Hochschulen stellt der Beitrag den gewachsenen strategischen Stellenwert von E-Learning an der Hochschule sowie die bevorzugten Maßnahmen zu einer Intensivierung der ETeaching-Nutzung durch Dozierende dar. Gängige E-Teaching-Anreizsysteme an deutschen Hochschulen werden anhand erfolgreicher Referenzbeispiele vorgestellt und übergeordnete Entwicklungslinien nachvollzogen. 1 Anreizdefizit trotz gewachsenem Stellenwert von E-Teaching Der strategischen Bedeutung eines ausgereiften E-Learning-Angebots an den Hochschulen und der Notwendigkeit einer Integration von E-Learning in die Hochschulstrategie wird von Hochschulleitungen zunehmende Bedeutung beigemessen, wie eine Untersuchung der HIS GmbH und des Multimedia Kontor Hamburg vom Sommer 2006 zur „E-Readiness“ deutscher Hochschulen zeigt. In der „E-Readiness“-Studie, an der sich die Hochschulleitungen von 201 Hochschulen beteiligt haben, wurden diese befragt, welchen Stellenwert die mediengestützte Lehre konkret in Bezug auf „typische“ Hochschulziele hat? Die Resultate zeigen, dass die Hochschulen E-Learning insbesondere als ein Instrument sehen, um die Zufriedenheit der Studierenden (77 %) und die eigene Attraktivität für (neue) Studierende zu steigern (Reputationssteigerung: 63 %; Studienerfolgssteigerung: 60 %; Erschließung neuer Zielgruppen: 56 %). Demgegenüber trägt der mediengestützte Unterricht nach Auffassung der Hochschulen deutlich weniger zur Erleichterung der Lehre (37 %) oder zur Behebung von Kapazitätsengpässen (36 %) bei. Die Lehre wird – so die Sicht der Hochschulen – folglich zwar attraktiver, aber nicht weniger aufwändig oder personalintensiv. Kurzum: Reputation statt Rendite, Qualität statt Rationalisierung – dies sind die vorherrschenden Motive für E-Learning an Hochschulen im Jahr 2006. 161 100 90 77 80 63 70 60 60 56 50 37 40 36 31 30 30 20 10 0 Erhöhung der ReputationsSteigerung des Erschließung neuer Erleichterung der Einnahmen durch Behebung von Nutzung von Zufriedenheit der steigerung der Studienerfolgs durch Zielgruppen Lehre für die Kapazitätsengpässen Online-Angebote Kursen/ Inhalten Studierenden Hochschulen Qualitätsverbesserung Dozenten in der Weiterbildung anderer Anbieter im Zuge der durch bessere Services der Lehre Umstellung auf Bachelor/ Masterstudiengänge Abbildung 1: Welchen Stellenwert hat die mediengestützte Lehre konkret in Bezug auf „typische“ Hochschulziele (in Prozent)? Die hohe Wertschätzung der Hochschulen für den strategischen Nutzen neuer Medien in der Hochschullehre korreliert jedoch nicht durchgängig mit den aktuell gebräuchlichen Maßnahmen zur Förderung des E-Learning-Einsatzes. Bei diesen Anreizmechanismen handelt es sich um Maßnahmen, die den Fakultäten oder Lehrenden ein Motiv für die Nutzung von E-Teaching-Anwendungen bieten, um die E-Teaching- und E-LearningProduktivität and -Effektivität der Lehrenden und Studierenden zu erhöhen. An vielen Hochschulen sind solche Anreizsysteme zur Gewinnung von Dozierenden für mediengestützte Lehrszenarien noch unterentwickelt. Akzeptanzdefizite für E-Teaching seitens der Lehrenden ebenso wie inadäquate Anreizstrukturen verhindern häufig eine Optimierung der Hochschullehre durch Entwicklung geeigneter Online-Lehrmaterialien. Im Folgenden werden ausgewählte Ergebnisse der „E-Readiness“-Studie im Hinblick auf den Stellenwert mediengestützter Lehre dargestellt, um anschließend der Frage nach geeigneten Anreizstrukturen für eine Intensivierung von E-Teaching nachzugehen. Die Sicht der Hochschulleitungen auf die Bedeutung von E-Learning wird nicht von allen Hochschullehrenden geteilt. Viele Dozierende sehen sich erheblichen Schwierigkeiten bei der Nutzung mediengestützter Lehrszenarien gegenüber. Häufig schreckt die erforderliche Medienkompetenz für die Produktion von digitalem Content, die spezifisches Media-Authoring-Anwenderwissen voraussetzt, von der E-Teaching-Nutzung ab. Die untergeordnete Bedeutung der Lehre innerhalb akademischer Laufbahnen (im Gegensatz zu Publizieren, Drittmitteleinwerbung etc.), das hohe Arbeitsaufkommen und das Desinteresse der Lehrenden, die fehlende Vertrautheit mit den Mehrwerten von ETeaching, aufwändige Reformprozesse an den Hochschulen, nicht ausreichend entwickelte Supportinfrastrukturen, inadäquate didaktische, technische und finanzielle Unterstützung, ein Mangel an Dialogpartnern innerhalb der Fakultät etc. tragen zu einer 162 skeptischen Haltung gegenüber E-Teaching unter den Lehrenden bei. Da ein Anfangsinteresse an E-Teaching sich in der Regel nicht automatisch ergibt, ist der Rückgriff des Hochschul-Managements auf effektive Anreizstrukturen und -programme von zentraler Bedeutung, um die Nutzung von E-Teaching zu steigern (ohne dabei jedoch Druck auszuüben). In diesem Sinne wurden an den Hochschulen unterschiedliche Anreizsysteme ins Leben gerufen. Im Zentrum dieses Beitrags stehen hochschulinterne E-TeachingAnreize. Externe Anreizmechanismen (z.B. Förderprogramme durch die Wissenschaftsministerien oder durch Stiftungen) werden in diesem Kontext außer Acht gelassen. Gebräuchliche Anreize bestanden in den vergangenen Jahren in der finanzellen Förderung von E-Teaching (d.h. der Bereitstellung von hochschulischen Fördermitteln für die Beschäftigung zusätzlicher Mitarbeiter, die Beschaffung spezifischer Soft- und Hardware, Bereitstellung des technischen Supports etc.), der Bereitstellung von Coachingund Trainingsangeboten oder von Assistenten für die Entwicklung von E-LearningModulen. Gegenwärtig trägt die Nutzung mehrschichtiger zielgruppenorientierter Supportinfrastrukturen und Services vielfach bereits zu einem aktiveren Engagement im Bereich E-Teaching bei. Verschiedene Anreizmechanismen sollten dabei sinnvoll miteinander kombiniert werden, um deren Wirksamkeit zu steigern. 2 E-Teaching-Strategien und der Einfluss der Hochschulleitung Maßnahmen zur Steigerung der Akzeptanz von mediengestützter Lehre und wirksame Anreize für E-Teaching können von unterschiedlichen Statusgruppen an Hochschulen umgesetzt werden, insbesondere von der Hochschulleitung, von Entscheidern in den Fakultäten, E-Learning-Pionieren, weiteren Dozierende, den E-Learning-Dienstleistern sowie von Studierenden. Nicht alle beteiligten Personen können jedoch direkt Einfluss nehmen, und selbst die Hochschulleitung hat auf zahlreiche Anreizfaktoren (studentische Nachfrage nach E-Teaching, gute Kursevaluationen etc.) keinen Einfluss. Ungeachtet dessen übt die Hochschulleitung einen beträchtlichen Einfluss auf die Anreizgestaltung aus. Ohne einschlägige Entscheidungen der Hochschulleitung zugunsten von mediengestützter Lehre werden Planer und Entwickler von medienbasierter Lehre und E-Teaching-Pioniere Schwierigkeiten haben, die erforderliche Unterstützung in Entscheidungsgremien zu erhalten. Wenn die Hochschulleitung die strategische Bedeutung des Themas für das Hochschulmarketing nicht aufgreift, werden die erforderlichen Infrastrukturen und Ressourcen nicht bereitgestellt und dürfte manch ambitioniertes ELearning-Projekt langfristig wirkungslos bleiben. Dies bestätigen die Ergebnisse einer Online-Befragung zum Thema „E-Learning aus Sicht der Studierenden“, die die HIS GmbH 2004 gemeinsam mit dem DLR Projektträger Neue Medien in der Bildung und Fachinformation im Rahmen des HISBUS-Projekts (Beteiligung von bundesweit 3.811 Studierenden) durchgeführt hat. In der Umfrage wurden Studierende nach geeigneten Maßnahmen für eine intensivere Nutzung von E-Learning gefragt. Betrachtet man die Antworten, die den vorgeschlagenen Maßnahmen einen verstärkenden Einfluss zuerkennen („führt zu intensiverer E-Learning-Nutzung“ = Skalenwerte 1 und 2), so sind Hinweise der Lehrenden und der Hochschule (81 bzw. 75 % 163 der Antworten), die Verbesserung der inhaltlichen Qualität (74 %) sowie der Einsatz in Pflichtveranstaltungen (72 %) die wirksamsten Maßnahmen [KWW05]. 81 75 74 72 70 66 62 62 62 61 54 48 47 Hinweise der Lehrenden auf relevante Angebote Hinweise der Hochschule auf relevante Angebote Bessere inhaltliche Qualität Nutzung in Pflichtveranstaltungen Bessere und mehr Kommunikation und Kooperation Günstigere private Internetanbindung Günstiger Kauf/Miete von Notebook Bessere technische Qualität von Angeboten Integration in Studienplan Bessere Online-Betreuung Interaktion, Multimedia-Anteile bessere Hardwareausstattung der Hochschule bessere Softwareausstattung der Hochschule Prüfungen über das Internet Schulungen, Trainings 38 34 führt zu intensiverer E-Learning-Nutzung (Skalenwerte 1 + 2) 7 8 9 14 10 22 24 15 21 17 17 27 27 43 47 führt nicht zu intensiverer E-Learning-Nutzung (Skalenwerte 4 + 5) Abbildung 2: Maßnahmen für intensivere E-Learning-Nutzung durch Studierende (in Prozent) Mit Ausnahme des Einsatzes in Pflichtveranstaltungen sind diese Maßnahmen zugleich diejenigen, deren Wirksamkeit von den wenigsten Antwortenden bestritten wird. Damit zeigt sich erneut, dass die Nutzung von E-Learning stark durch die Lehrenden und das Hochschulumfeld motiviert ist – und durch die Erwartung guter Qualität von Seiten der Studierenden, d.h. durch Faktoren, die unmittelbar für das Studium und den Studienerfolg relevant sind. Die geringste Wirksamkeit hätten dagegen Schulungen und Trainings (34 % zustimmende, 47 % ablehnende Antworten), die von den Studierenden möglicherweise aufgrund des zusätzlichen Aufwands oder des mangelnden konkreten Problembezugs eher abgelehnt werden, gefolgt von Online-Prüfungen mit 38 % positiven und 43 % negativen Antworten. Angesichts der erheblichen Bedeutung, die die Studierenden des HISBUS-Panels den Vermittlungsleistungen durch das Hochschulumfeld beimaßen, könnten geeignete Maßnahmen der Hochschulleitung zur E-Teaching-Förderung etwa darin bestehen, den Wandel der akademischen Lehrkultur aktiv zu unterstützen (d.h. die Bedeutung der Lehre im Hinblick auf das Selbstverständnis der Lehrenden stärken), E-Teaching in Zielvereinbarungen mit den Fakultäten zu berücksichtigen (u.a. auch als Auswahlkriterium in Berufungsverhandlungen einzubeziehen), die Medienentwicklungsstrategie der Universität bekanntzumachen, 164 Personal und technische Ressourcen für die Medienentwicklung sowie Mittel für ein E-Learning-Kompetenzzentrum bereitzustellen. Im Allgemeinen sind zahlreiche innerhochschulische Anreizmechanismen (interne Programme zur E-Teaching-Förderung, Reduktionen der Lehrverpflichtung, Auszeichnungen für gute mediengestützte Lehre, Einrichtung von Hilfskraftpools für das Mediendesign, Vereinfachung des Prüfungswesens durch standardisierte Online-Prüfungs-Verfahren etc.) wesentlich von der Unterstützung des Hochschul-Managements abhängig. 3 Geeignete Maßnahmen zur Intensivierung von E-Teaching Für einen Ausbau des E-Learning-Angebots an deutschen Hochschulen müssen vor allem die Lehrenden gewonnen werden. Daher wurde den Hochschulen im Rahmen der eingangs erwähnten E-Readiness-Erhebung 2006 die Frage vorgelegt, für wie geeignet sie (auf einer fünfstufigen Skala) bestimmte Maßnahmen halten, um die Nutzung von ELearning durch die Lehrenden zu steigern: 100 94 95 88 90 85 82 78 80 76 77 75 75 70 65 60 Verbesserung der ITInfrastruktur Bereitstellung einfach Beratungs- und zu bedienender Trainingsangebote für Software Lehrende Anrechnung von Multimediaproduktion/ Online-Lehre auf das Lehrdeputat Bereitstellung hochschuleigener Fördergelder Förderprogramme Dritter Aufnahme von ELearning in die strategische Planung der Hochschule Abbildung 3: Eignung von Maßnahmen zur Steigerung der Nutzung von E-Learning durch die Lehrenden (in Prozent) Bei den Ergebnissen (vgl. Abb. 3)1 ist zu berücksichtigen, dass die Antworten Einschätzungen aus der Perspektive der Hochschulen bzw. der den Fragebogen bearbeitenden Hochschulvertreter sind und nicht von den Lehrenden selbst stammen. 1 Für die Darstellung wurden die Merkmalsausprägungen „sehr geeignet“ und „geeignet“ herausgegriffen und zusammengefasst. 165 Als wichtigsten Anreiz für eine verstärkte Nutzung von E-Learning durch die Lehrenden sehen die Hochschulen die Bereitstellung einfach zu bedienender Software (Autorentools, Lernplattformen etc.). 94 % aller Einrichtungen sind dieser Auffassung. Die größte Hürde für den Einsatz von E-Learning wird daher im Bereich der Softwareanwendung gesehen. Offen bleibt dabei, ob die verfügbaren Systeme zu kompliziert sind oder ob die Lehrenden über eine zu geringe Medienkompetenz verfügen. Für letzteren Grund spricht, dass 88 % der Hochschulen der Auffassung sind, Trainings- und Beratungsangebote für Lehrende zu technischen und mediendidaktischen Fragen würden zu einem verstärkten E-Learning-Einsatz führen, und sich „nur“ 76 % der Hochschulen diese Wirkung von der generellen Verbesserung ihrer IT-Infrastruktur (Netzwerk, WLAN, Arbeitsplatzrechner, CIP-Pools etc.) erhoffen. Daraus lässt sich schließen, dass die Hochschulen der Personalentwicklung bei der Implementierung von E-Learning einen großen Stellenwert zuerkennen. In der Reihe der geeigneten Maßnahmen folgt auf dem nächsten Platz die Aufnahme von E-Learning in die strategische Planung der Hochschule – mit einer Zustimmungsrate von 82 %. Dies verdeutlicht, dass E-Learning einerseits inzwischen als ein strategisches Instrument zur hochschulischen Aufgabenwahrnehmung gesehen wird, andererseits aber auch einer Integration in die strategische Planung bedarf, um sich erfolgreich etablieren zu können. Ein weiterer Faktor für eine Intensivierung mediengestützter Lehre ist die Anrechnung von Leistungen in Multimedia-Produktion und Online-Lehre auf die Lehrverpflichtung, die 78 % der Hochschulen als wirksamen Anreiz betrachten. Überraschen muss hingegen, dass Förderprogramme externer Geldgeber (Land, Bund, EU etc.) von „nur“ 77 % der Hochschulen als motivierend angesehen werden. Zumindest aufwändige E-Learning-Entwicklungen waren bislang ohne solche Drittmittel kaum möglich. Die Gründe für dieses Votum bleiben spekulativ: einer könnte die Antizipation des weiteren Rückgangs öffentlicher Fördermittel sein, ein anderer die Erfahrung, dass Fördermittel allein eine nachhaltige Nutzung von E-Learning nicht gewährleisten konnten. Ähnliches könnte auch auf die hochschuleigenen Fördergelder zutreffen, die nach Auskunft von „nur“ 75 % der Hochschulen zu mehr E-Teaching motivieren. Dies ist der niedrigste Wert unter allen Maßnahmen: Bekanntlich ist das Geld insgesamt knapp. Generell ist jedenfalls auffällig, dass nicht primär monetäre Anreize bei der Frage nach geeigneten Maßnahmen zur Steigerung von E-Teaching in den Vordergrund gestellt werden, sondern eher „weiche“ Faktoren wie Kompetenzentwicklung und strategische Einbettung. 4 Anreizsysteme für E-Teaching in der Hochschulpraxis Anhand der Priorisierung unterschiedlicher Anreizmechanismen sollen im Folgenden unterschiedliche Maßnahmen skizziert werden, die in den vergangenen Jahren an den Hochschulen ergriffen wurden, um die Fakultäten und Hochschulangehörigen zu erkennbaren und nachdrücklichen Beiträgen für eine Integration von IKT in Forschung, Hochschullehre und -verwaltung anzuregen. Die Darstellung konzentriert sich dabei auf vier übergeordnete Bereiche von Anreizmechanismen: infrastrukturbezogene Anreize (einfach zu bedienende Software, Bereitstellung von Schulungsangeboten etc.), Aufnahme in 166 die strategische Planung der Hochschule und Reputationseffekte, Anrechnung auf die Lehrverpflichtung und Reduktion von Workload sowie monetäre Anreize. Ausgewählte Good-Practice-Beispiele beleuchten verschiedene Formen der Umsetzung. 4.1 Infrastrukturbezogene Anreize Als zentrale Anreize für eine erfolgreiche E-Learning-Nutzung an den Hochschulen wies die E-Readiness-Studie die „Bereitstellung einfach zu bedienender Software” (94 %) sowie von „Beratungs- und Trainingsangebote für Lehrende” (88 %) aus (s. Abb. 3). Ganz allgemein stellt die Verfügbarkeit von Infrastrukturen eine zentrale Voraussetzung für die Akzeptanz von Online-Lehre dar. Da in der unmittelbaren Arbeitsumgebung zahlreicher Dozierenden in der Regel nur begrenzte Kapazitäten und Fertigkeiten für die Contentproduktion verfügbar sind, sind Beratungsangebote von E-LearningKompetenzzentren oder Weiterbildungseinrichtungen maßgeblich für die erfolgreiche Medienkonzeption und -produktion. In Kooperation zwischen E-LearningKompetenzzentrum (falls vorhanden) und weiteren zentralen Einrichtungen oder aber durch einen aus studentischen Hilfskräften bestehenden Servicepool erhalten Dozierende individuelle Beratung bei der konzeptionellen, didaktischen und technischen Umsetzung von Lerneinheiten, können Qualifizierungsangebote und Multiplikatorentrainings nutzen oder sich bei der Öffentlichkeitsarbeit für Projekte unterstützen lassen etc.2 Die Koordinierungsstelle für Neue Medien der Universität Freiburg unterhält ein Medien-Team-Programm. Eine Gruppe von Studierenden wird am Rechenzentrum qualifiziert und mit spezieller Medienexpertise ausgestattet. Dozierende aller Fakultäten können diese Support- und Beratungsangebote in den Bereichen Autorentools, Contentproduktion, Bildbearbeitung, XML, Digitalisierung etc. anfordern. Da diese Medienproduktionsdienste durch Studierende auf der Basis von Arbeitsstunden abgerechnet werden, entrichten die Einrichtungen bei Nutzung der Medien-Team-Dienste die üblichen Sätze für studentische Hilfskräfte. Nachdem die Studierenden einen gewissen Umfang an Stunden abgeleistet haben, können sie ein Zertifikat über ihre spezifische Beratungsexpertise erwerben. Die Universität Frankfurt a.M. offeriert ein vergleichbares „Student Consulting”-Angebot. Auch die Studierenden des Frankfurter Supportpools werden in verschiedenen Schwerpunktfeldern ausgebildet und auf stündlicher Basis bezahlt (Stundensatz von etwa 15 Euro pro Assistent). 4.2 Aufnahme in die strategische Hochschulplanung und Reputationseffekte 82 % der Hochschulen sahen die „Aufnahme von E-Learning in die strategische Planung der Hochschule” als entscheidenden Anreizfaktor an (s. Abb. 3). Zahlreiche Hochschulen versprechen sich von der E-Learning-Nutzung eine Reputationssteigerung. Diese Reputationssteigerung von Hochschulen, Fakultäten und einzelnen Lehrenden kann auf 2 Gerade der internen Öffentlichkeitsarbeit für E-Teaching kommt erhebliche Bedeutung für die Vermittlung der hochschulstrategischen Relevanz von E-Learning zu. Die Öffentlichkeitsarbeit sollte Meinungsführer an der jeweiligen Hochschule einbeziehen und umfasst im einzelnen Aktivitäten wie die Veranstaltung von ETeaching-Informationstagen an den Fachbereichen, Multiplikatorenkursen und Tutorien, das Vorstellen von medienbasierten Kursen auf einschlägigen E-Learning-Webseiten etc. 167 unterschiedlichen Wegen erfolgen, etwa durch die Einhaltung einschlägiger Zielvereinbarungen auf Fakultätsebene, durch Mindestanteile von E-Learning-Kursen im Curriculum, interne Benchmarkings zwischen Fakultäten, durch Medienberichterstattung über exemplarische E-Teaching-Angebote oder durch exzellente Evaluationsergebnisse. Drei reputationssteigernde Maßnahmen sollen exemplarisch dargestellt werden: Auszeichnungen und Qualitätssiegel für medienbasierte Lehre sowie E-Learning-Zertifikate. Hochwertige E-Teaching-Module können mittlerweile für eine Vielzahl unterschiedlicher Lehrpreise vorgeschlagen werden. Neben renommierten internationalen Auszeichnungen (World Summit Award, EureleA, MedidaPrix etc.) schreiben mehrere deutsche Institutionen3 eigene Auszeichnungen für digitale Lehre aus. An der Technischen Universität Darmstadt (TUD) existiert ein solcher Best E-Teaching Award seit dem Jahr 2004. Mit diesem E-Teaching Award, der mit einem aus Stiftungsmitteln gespeisten jährlichen Preisgeld von 6.000 Euro dotiert ist, wird jährlich ein Hochschullehrer ausgezeichnet, der qualitativ hochwertiges E-Learning in der eigenen Lehre einsetzt.4 Während manche Universitäten medienbasierte und -angereicherte Kurse in Vorlesungsverzeichnissen durch ein Symbol grafisch hervorheben, stellen Gütesiegel für medienbasierte Lehre E-Learning-Angebote vielfach wirksamer heraus. Ein solches „Gütesiegel für computergestützte Lernarrangements“ (GCL) wurde 2004 an der TUD entwickelt; es stellt zugleich die Auswahlkriterien für den Best E-Teaching Award der TUD bereit. Das GCL dient als Instrument der Qualitätssicherung und überprüft 130 Qualitätsskriterien im Hinblick auf den Lerngegenstand, die Nutzerorientierung, technische Rahmenbedingungen und Wirtschaftlichkeit. Eine weitere breitangelegte Initiative zur Festlegung von Qualitätsstandards für E-Learning geht von der Universität Duisburg-Essen aus („Qualitätsinitiative E-Learning in Deutschland“ QED).5 Ein hoher karrierebezogener Anreiz der Qualifizierung für Nachwuchs-Wissenschaftler stellt der Erwerb eines E-Learning-Zertifikats dar, das die Aneignung ausgiebiger Handlungskompetenzen im Umgang mit neuen Medien in der Lehre dokumentiert. Solche ELearning-Zertifikate werden derzeit an den Universitäten Braunschweig (richtet sich als Angebot des Kompetenzzentrums „Hochschuldidaktik für Niedersachsen“ an Lehrende aller niedersächsischer Hochschulen), Potsdam (Modellprojekt „Weiterbildung zur/m Online-Tutor/in“) und Frankfurt a.M. (steht Angehörigen hessischer Hochschulen und Lehrern sowie weiteren Interessenten offen) angeboten. 3 Zu den deutschen E-Teaching Auszeichnungen zählen der Digita (TU Berlin, seit 1995), der Deutsche Multimedia Preis (DMMK, BVDW etc., seit 1996), der monatliche eLearning-Award (eLearning-Journal, seit 2005) etc. 4 Ähnliche Auszeichnungen existieren an der Universität Freiburg (Media Award, seit 2004), Charité Berlin (eTeaching-Award, seit 2005), Universität Frankfurt (seit 2005), Universität des Saarlandes (Förderpreis “Neue Medien in der Lehre”, seit 2004/05) und an der Technischen Universität München (TUM eLearning-Award, seit 2006). 5 Eine ähnliche Initiative auf europäischer Ebene bildet die European Foundation for Quality in E-Learning (EFQUEL) in Gestalt des Serviceportals www.qualityfoundation.org. 168 4.3 Anrechnung auf die Lehrverpflichtung und Reduktion von Workload Die Anrechnung von Multimedia-Produktion und Online-Lehre auf das Lehrdeputat wurde von 78 % der Hochschulen als wirksame Maßnahme zur Steigerung der Nutzung von E-Learning durch die Lehrenden bezeichnet (s. Abb. 3). Die Reduktion der administrativen Aufgaben der akademischen Lehre (selbsttätige Kursregistrierung und Kurszulassung, Bewältigung einer gewachsenen Anzahl von Prüfungen, erleichterte Kursmodularisierung, Redundanz fester Sprechstundenzeiten, erleichterte Initiierung von Netzwerken für Forschung und Lehre etc.) durch Einsatz von E-Learning-Systemen ist selbst für E-Learning-skeptische Dozenten attraktiv. Solche Komfortaspekte überzeugen Dozenten (selbst wenn diese an den didaktischen Möglichkeiten von E-Teaching kein Interesse entwickeln) mitunter von einer Nutzung von E-Teaching-Systemen. Des Weiteren wird die Interoperabilität und sukzessive Integration von Hochschul-ManagementSystemen und von Lernplattformen (Synchronisierung von Studierendenverwaltungssoftware und E-Learning-Systemen, Single Sign-on or Single Login für die Dienste von Rechenzentrum, Medienzentrum, Bibliothek etc.) einen positiven Einfluss auf die Akzeptanz dieser Systeme ausüben. Einige Länder wie Baden-Württemberg, Bayern und Sachsen-Anhalt bieten Dozenten, die im Rahmen ihrer Lehre digitale Kursmodule erstellen, eine Reduktion der Lehrverpflichtung an. Eine 2001 veröffentlichte Änderung der bayerischen Lehrverpflichtungsverordnung sieht vor, dass Entwicklung und Betreuung digitaler Lernangebote mit bis zu maximal 25 % der Lehrverpflichtung auf das Deputat angerechnet werden können. Da jedoch im Falle der Inanspruchnahme dieser Regelung nicht automatisch Mittel für eine Vertretung bereitgestellt werden, sind die Effekte dieser Anreizstruktur begrenzt. 4.4 Monetäre Anreize Die finanzielle Förderung von E-Teaching-Aktivitäten bildet einen starken Anreiz, der sich auf die an den Fakultäten vorhandenen Kenntnisse zur Integration von IKT in die Lehre und Wissenschaft unmittelbar auswirkt. Die Mehrzahl der Anreize für E-Teaching enthält monetäre Elemente in der einen oder anderen Form. Zwei Formen von monetären Anreizen werden im Folgenden ausgiebiger dargestellt: Projektförderung und Einnahmen aus der Contentvermarktung. Projektförderung Auch wenn „nur” 77 % der Hochschulen „Förderprogramme Dritter” und nur 75 % die „Bereitstellung hochschuleigener Fördergelder” als geeignete Maßnahmen zur Steigerung der Nutzung von E-Learning durch die Lehrenden betrachteten (s. Abb. 3), haben doch in vergangenen Jahren diverse Förderprogramme des Bundes und der Länder die ELearning-Entwicklung bundesweit erheblich forciert. Durch diese Programme standen den Hochschulen mehrere hundert Millionen Euro für E-Teaching zur Verfügung. Einige Hochschulen boten oder bieten ergänzend interne Förderprogramme an (oder erweiterten bestehende Fonds zur Förderung der Qualität der Lehre). Die Freie Universität Berlin (FU) schreibt seit 2002 ein FU-internes Programm zur Förderung von E-LearningProjekten aus, das der Stärkung der Nachhaltigkeit bereits existierender und erfolgrei- 169 cher E-Learning-Initiativen durch ergänzende Unterstützung oder der Produktion neuen Contents dient. Die Förderung soll bis 2009 fortgeführt werden; die Fördermittel belaufen sich gegenwärtig auf jährlich 300.000 Euro. Weitere hochschulinterne Fördermaßnahmen – vielfach geringeren Umfangs – wurden unter anderem an der Humboldt-Universität zu Berlin (Multimedia-Förderprogramm), den Universitäten Dortmund (eLearning plus 05-Programm), Frankfurt (eLearningFond-Ausschreibung), Kassel (Projektwettbewerb), Stuttgart (Campus-online education), an der Universität des Saarlandes (Anreizorientierung E-Learning) und an den Technischen Universitäten Darmstadt (TUD-Online) und Dresden (Beteiligung an der SMWKAusschreibung „E-Learning”) aufgesetzt oder administriert. Einnahmen aus der Contentvermarktung Die hohen Erwartungen, die sich vor wenigen Jahren auf die Generierung von Einnahmen aus der Vermarktung von E-Learning Content richteten, sind mittlerweile abgeflacht. Nurmehr 31 % der Hochschulen rechnen künftig mit signifikanten „Einnahmen durch Online-Angebote in der Weiterbildung” (s. Abb. 1). Unter den verschiedenen Geschäftsmodellen für E-Learning (vgl. [BrHo05, KW05]) floriert gegenwärtig vor allem die Vermarktung von postgradualen internetbasierten Weiterbildungs-Studiengängen in beschränktem Umfang. Mehrere Online-Weiterbildungsstudiengänge vorrangig aus den Bereichen Informationssysteme (Master of Science in Information Systems, WinfoLine; International Master of Business Informatics, Virtual Global University; etc.), neue Medien (Master of Arts in Educational Media, Universität Duisburg-Essen; Master of Science in Multimedia and Computer Science, onCampus GmbH etc.) sowie eine wachsende Anzahl von MBA-Programmen und Studienangeboten in weiteren Bereichen sind derzeit bereits verfügbar. Die Vermarktung von Internet-basierten Wissensressourcen unterhalb der Studiengangsebene (Kurse mit ECTS-Kreditpunkten, Zertifikatskurse etc.) ist aufgrund des unterentwickelten Weiterbildungsbereichs an den Hochschulen, des starken Wettbewerbsdrucks durch kommerzielle Anbieter und der mangelnden Nachfrageorientierung in der Hochschullehre bislang weniger stark entwickelt. Auch Peer-to-peer Contenttransfer und -sharing innerhalb von Dozentennetzwerken ist noch kaum verbreitet. Häufig begegnen Hochschulen den grundlegenden Herausforderungen der Vermarktung von Online-Content, der an den Hochschulen entwickelt wurde, nicht angemessen und sind diese nicht auf nachfrageorientierte Vermarktungsprozesse ausgerichtet. Zudem wirkt sich der Mangel geeigneter Infrastrukturen wie Vermarktungs- und Transferagenturen oder von Vertriebsportalen für Marketing und Distribution von Online-Weiterbildungs-Angeboten nachteilig aus. 5 Perspektiven Die exemplarisch aufgeführten Anreizstrukturen und -maßnahmen der Hochschulen unterlagen aufgrund der wechselnden Verfügbarkeit von Fördermitteln einem kontinuierlichen Wandel. Da der Zenit der öffentlichen Förderprogramme für die Unter- 170 stützung von E-Teaching überschritten und die Haushaltslage der Hochschulen klamm ist, kommt gegenwärtig – gerade aus Sicht der Hochschulleitungen – nicht-monetären Anreizmechanismen maßgebliche Bedeutung zu. Während Förderprogramme die Verbreitung und Kompetenz im Hinblick auf E-Learning signifikant gesteigert haben, sind nunmehr komplementär ressourcenbasierte Anreize, Publizitäts- und Aufmerksamkeitsmechanismen sowie die Bekanntmachung von Möglichkeiten zur Workload-Reduktion wichtige Faktoren für die Akzeptanzsteigerung für E-Learning. Auch sind die Möglichkeiten der Unterstützung von Lehrenden durch E-Learning-Support-Teams und der Bereitstellung von Beratungs- und Trainingsangeboten für die Produktion von Lehrmedien bei Weitem nicht ausgeschöpft. Wenig bekannt ist bislang über die tatsächliche Wirkung der geschilderten Anreize. Um Anreize zielführend gestalten zu können, wären künftig daher Studien sinnvoll, die sowohl die Anreizwirkung einzelner Maßnahmen aus Sicht der Dozenten erheben als auch die Korrelationen zwischen einzelnen Maßnahmen und der Einstellung der Hochschulmitglieder zu E-Learning sowie zu der Entwicklung des E-Learning-Angebots selbst ermitteln müssten. Da den Ergebnissen der E-Readiness-Studie zufolge bevorzugt „weiche“ Faktoren wie Kompetenzentwicklung und strategische Einbettung zur Steigerung von E-Teaching herangezogen werden, sind Hochschulleitungen grundsätzlich aber gut beraten, künftig erstens die Bedeutung von E-Learning im Rahmen der strategischen Hochschulplanung noch stärker als bislang bekannt zu machen und zweitens die ETeaching-Rahmenbedingungen durch die Verknüpfung der Bereitstellung einfach zu bedienender Software mit ausgiebigen Beratungs- und Trainingsangeboten für Lehrende (bis hin zum Einsatz von Change Agents für die Lehre) so umzugestalten, dass demotivierende Faktoren, die von der E-Teaching-Nutzung abhalten, zumindest reduziert werden. Literaturverzeichnis [BH05] Breitner, M.H.; Hoppe, G.: E-Learning. Einsatzkonzepte und Geschäftsmodelle. Physica, Heidelberg 2005. [He06] Heesen, B.: Diffusion of Innovations. Factors Predicting the Use of E-Learning at Institutions of Higher Education in Germany. dissertation.de, Berlin 2006. [Je06] Jentzsch, D.: Anreizinstrumente der TU Dresden zur Nutzung von eLearning. In: Lattemann, C. & Köhler, T. (Hrsg.): Multimediale Bildungstechnologien. Multimediale Technologien. Multimedia im E-Business und in der Bildung. Frankfurt a. M. u. a. 2006. [Ke05] Kerres, K.; Euler, D.; Seufert, S.; Hasanbegovic, J. et.al.: Lehrkompetenz für eLearningInnovationen in der Hochschule. Ergebnisse einer explorativen Studie zu Maßnahmen der Entwicklung von eLehrkompetenz. St. Gallen 2005. [KW05] Kleimann, B.; Wannemacher, K.: Geschäftsmodelle für E-Learning. Konzepte und Beispiele aus der Hochschulpraxis. In: Tavangarian, D., Nölting, K. (Hrsg.): Auf zu neuen Ufern! E-Learning heute und morgen. Münster 2005. S. 187-196. [KWW05] Kleimann, B.; Weber, S.; Willige, J. (2005): E-Learning aus Sicht der Studierenden. HISBUS-Kurzbericht Nr. 10. HIS, Hannover 2005. [Sa06] Sandrock, J.: System Dynamics in der strategischen Planung. Zur Gestaltung von Geschäftsmodellen im E-Learning. Deutscher Universitäts-Verlag, Wiesbaden 2006. 171 172 Fourth Party E-Learning-Provider – Ein Koordinationsansatz zur nachhaltigen Etablierung von E-Learning an einer Massenuniversität Harald Kolbe, Alexander Nikolopoulos Professur für Information Systems Engineering Johann Wolfgang Goethe Universität Frankfurt am Main Mertonstr. 17 60325 Frankfurt {kolbe, nikolopo}@ wiwi.uni-frankfurt.de Abtract: Die nachhaltige Etablierung von Neuen Medien in der universitären Ausbildung gilt als ein vorrangiges Ziel in der gegenwärtigen E-LearningDiskussion. Dem Aspekt der Nachhaltigkeit wird nun verstärkt Aufmerksamkeit geschenkt, weil E-Learning-Angebote häufig nicht weitergeführt werden, nachdem Fördergelder auslaufen oder Lehrende die Organisation verlassen. In der Literatur wurden verschiedene Erfolgsfaktoren für eine nachhaltige Etablierung identifiziert. Als besonders bedeutsam wird die Existenz einer so genannten „E-LearningKoordinationsstelle“ angesehen, die sich vor allem organisatorischen Aufgaben widmet. Diese Erkenntnis steht im Widerspruch zu den Ergebnissen, die in Unternehmensstudien gewonnen wurden, in denen den organisatorischen Aspekten verhältnismäßig wenig Bedeutung zugemessen wird. In diesem Beitrag wird mithilfe eines organisationstheoretischen Modells anhand der Situation an einer deutschen Massenuniversität gezeigt, warum die Existenz von Koordinationsstellen in dezentralen Organisationen erforderlich ist. Das verwendete Viable System Model eignet sich insbesondere dazu, Organisationsstrukturen und Kommunikationsbeziehungen zu untersuchen. Basierend auf dieser Analyse wird ein dezentraler Koordinationsansatz motiviert und daraus die Aufgaben eines „Fourth Party E-LearningProviders“ abgeleitet. 1 Einleitung Zur qualitativen Verbesserung der universitären Lehre insbesondere in Massenveranstaltungen eignen sich E-Learning-Angebote1 in besonderem Maße [GNH06]. Allerdings fehlt häufig eine zentrale Strategie, so dass E-Learning-Angebote nur in Eigeninitiative einiger Lehrender eingesetzt werden. Somit kommt es zu keiner flächendeckenden Bereitstellung der Angebote. Darüber hinaus werden die Angebote häufig nicht weiterge1 Der E-Learning Begriff ist in der Literatur nicht einheitlich definiert. Zahlreiche unterschiedliche Lehrformen werden unter diesem „modernen“ Begriff zusammengefasst. In dieser Arbeit wird auf die sehr allgemeine Definition von Wesp zurückgegriffen, der unter dem Begriff E-Learning alle Lehr- und Lernformen versteht, bei denen ein Bildschirmarbeitsplatz benötigt wird [We03]. 173 führt, nachdem Lehrende die Organisation verlassen haben. Die Sicherung der Nachhaltigkeit der Angebote stellt daher eines der obersten Ziele bei der Implementierung neuer Angebote dar [SM03]. In aktuellen Förderprojekten und Förderausschreibungen wird deshalb besondere Aufmerksamkeit auf den Aspekt der Nachhaltigkeit gelegt. Zur Beurteilung der nachhaltigen Implementierung von E-Learning-Angeboten schlagen Euler und Seufert [Se06, SE03] ein Dimensionssystem vor, das die unterschiedlichen Aspekte der Nachhaltigkeit abbildet. Sie vertreten die Ansicht, dass fünf Dimensionen (technische, didaktische, ökonomische, sozio-kulturelle und organisatorische Dimension) berücksichtigt werden müssen, um eine nachhaltige Verankerung der Angebote sicherstellen zu können. Eine Studie des Swiss Center for Innovations in Learning aus dem Jahr 2006 kommt zu dem Ergebnis, dass die organisatorische Dimension in zentral strukturierten Unternehmen eine eher untergeordnete Rolle spielt [DSE06]. In dezentralen Organisationen wie einer Universität kommt diesem Aspekt allerdings eine große Bedeutung zu. Insbesondere die hohe organisatorische Komplexität an einer Universität – hervorgerufen durch die Vielzahl der Dozenten sowie Lehrveranstaltungen und Studierenden – erfordert eine besondere Berücksichtigung der organisatorischen Dimension. Sowohl die nahezu autonomen Fachbereiche als auch die jeweiligen Professuren und schließlich eine Vielzahl an möglichen E-Learning-Initiativen führen zu einer Komplexität, die explizit adressiert werden muss. In unterschiedlichen Studien [SES04, We06] wurde die Existenz einer E-LearningKoordinationsstelle als wichtiger Erfolgsfaktor der Nachhaltigkeit von E-LearningAngeboten ermittelt. Eine Begründung, warum diese Koordinationsstelle notwendig ist, wird allerdings in der Regel nicht gegeben. Der vorliegende Beitrag beantwortet die Frage, wann und warum die Einrichtung einer E-Learning-Koordinationsstelle notwendig ist, um eine nachhaltige Implementierung von E-Learning-Angeboten in der universitären Lehre sicher zu stellen. Hierzu werden zunächst die in der Literatur ermittelten und diskutierten Erfolgsfaktoren einer nachhaltigen E-Learning-Implementierung dargestellt, zu denen auch die Einrichtung einer Koordinationsstelle zählt. Anschließend werden mithilfe eines organisationstheoretischen Modells die universitären Organisationsstrukturen sowie die zwischen den einzelnen Organisationseinheiten bestehenden Informationsflüsse am Beispiel der Johann Wolfgang Goethe-Universität Frankfurt am Main (JWG-Universität) identifiziert, dokumentiert und analysiert. Im Anschluss lässt sich daraus ableiten, warum und in welcher Form die Einrichtung einer E-Learning-Koordinationsstelle sinnvoll ist. Schließlich wird ein innovativer Koordinationsansatz zur nachhaltigen Etablierung von E-Learning-Angeboten an einer Massenuniversität skizziert. 2 Erfolgsfaktoren einer nachhaltigen E-Learning-Implementierung Die Frage nach den Faktoren einer nachhaltigen Verankerung der E-Learning-Angebote in der universitären Ausbildung nimmt in der gegenwärtigen Diskussion einen bedeutenden Rang ein [Eu06, Ow06, We06]. Bei der Implementierung von Informationssystemen allgemein, als welche sich E-Learning-Angebote ebenfalls auffassen lassen, ist die Un- 174 terstützung durch das Top-Management einer der Haupt-Erfolgsfaktoren [JI91, KZ87, LD88, PSZ01, SY03]. Für die Implementierung von E-Learning-Angeboten in der universitären Lehre bedeutet dies, dass die Hochschulleitung hinter den Angeboten stehen muss und die Implementierung aktiv unterstützen muss [Ow06]. Ein hochschulweiter Entwicklungsplan sowie verbindliche Zielvorgaben tragen dazu bei, den Einsatz Neuer Medien in der Lehre voran zu treiben [We06]. Besonders während der initialen Implementierung erfordern Neue Medien in der Lehre einen beträchtlichen finanziellen und personellen Mehraufwand. Neben den Investitionen in die erforderliche Infrastruktur stellt vor allem der Aufwand für die Erstellung multimedialer Angebote einen beträchtlichen Kostenblock dar [EGS02]. Darüber hinaus verursacht die Betreuung der angebotenen Kurse auch während ihrer Laufzeit kontinuierlich Personalkosten. Somit stellen verfügbare finanzielle Mittel und personelle Ressourcen einen weiteren Erfolgsfaktor dar. Als Enabler des E-Learnings gilt eine absolut zuverlässige technische Infrastruktur. Des weiteren erfordern die eingesetzten Technologien eine stärkere Motivation der Studierenden, als dies bei konventionellen Medien notwendig ist [De02]. Zur Anregung der Motivation, die als wesentlicher Erfolgsfaktor des Lernens gilt, werden in der Literatur unterschiedliche Modelle (z. B. ARCS-Modell [Ke83], Time-Continuum-Ansatz [Wl78], Ansatz der Supermotivation [Spi96]) vorgeschlagen. Je nach berücksichtigtem Ansatz erfordert die Motivation der Studierenden unterschiedliche Maßnahmen. Als weiterer wichtiger Faktor, der den erfolgreichen Einsatz Neuer Medien in der Lehre determiniert, gilt die Motivation der Lehrenden [Ha00, Ow06, SBH01, We06]. Hagner und darauf aufbauend auch Seufert unterscheiden vier Typen von Lehrenden, die sich hinsichtlich ihrer Innovationsbereitschaft unterscheiden: Unternehmer, Risikovermeider, Karriereorientierte und Widerstrebende [Eu06, Ha01]. Entsprechend müssen die Dozenten unterschiedlich zum Einsatz der Neuen Medien motiviert werden. Während die Unternehmer hauptsächlich intrinsisch motiviert sind und die Angebote in Eigeninitiative einsetzen, benötigen die Vertreter der anderen Typen externe Motivatoren und in der Regel umfangreiche Beratungsleistungen. Eine zentrale E-Learning-Koordinationsstelle gilt ebenfalls als erfolgsentscheidend [SBH01, We06]. Je größer die betrachtete Hochschule bzw. der betrachtete Fachbereich ist, desto bedeutsamer ist die Existenz einer zentralen E-Learning-Koordinationsstelle [We06]. Dieses Ergebnis deckt sich mit der in diesem Beitrag vertretenen Annahme, dass insbesondere in großen und dezentralen Organisationen der organisatorische Aufwand bei der Implementierung von E-Learning-Angeboten unverhältnismäßig hoch ist. Die von der Koordinationsstelle übernommenen Aufgaben können unterschiedlicher Natur sein: Sie reichen von der Vermittlung bereits bestehender Angebote bis hin zu kompletten Beratungsangeboten über den gesamten Zeitraum des E-Learning-Einsatzes. Die Unterstützung der Lehrenden wird ebenfalls als Aufgabe der Koordinationsstelle genannt [SES04]. 175 3 Das Viable System Model Um die universitäre Organisationsstruktur sowie die zwischen den einzelnen Organisationseinheiten bestehenden Informationsflüsse identifizieren, dokumentieren und analysieren zu können, wird in diesem Beitrag auf das von Beer entwickelte und auf der Systemtheorie basierende Modell des Lebensfähigen Systems, das Viable System Model (VSM), zurückgegriffen. Als Metamodell konzipiert, identifiziert das VSM die Lenkungsaufgaben und Informationsflüsse, die es einem System ermöglichen, in einer beliebig komplexen Umwelt einen gewünschten Zustand auf unbestimmte Zeit aufrechterhalten und somit seine Lebensfähigkeit sichern zu können [Be79]. Das VSM basiert auf der Kybernetik, einer Denkrichtung der Systemtheorie. Die Kybernetik versucht „Lösungen für die Probleme der Lenkung und Informationsverarbeitung von und in [...] dynamischen Systemen zu entwickeln“ [Ba83]. Ausgangspunkt der kybernetischen Bemühungen ist seit jeher die Komplexität von Systemen sowie die Möglichkeiten zu ihrer Beherrschung [Ho99]. Als Maß für die Komplexität eignet sich nach Ashby der Begriff der Varietät. Die Varietät eines dynamischen Systems bezeichnet die Anzahl der möglichen Zustände, die es annehmen kann [As64, Be85]. Als eine der wichtigsten Erkenntnisse der Kybernetik ist das von Ashby auf diesem Komplexitätsmaß formulierte Gesetz der erforderlichen Varietät zu sehen: „Only variety can destroy variety“ [As64]. Es besagt, dass die Varietät eines Systems nur beherrscht werden kann, wenn es gelingt, zu seiner Beherrschung ebenso hohe Varietät zu erzeugen. Das durch das VSM abgebildete System ist über so genannte Varietätshemmer mit der umgebenden Umwelt verbunden. Hierdurch wird eine Informationsüberlastung des Systems verhindert. Zur Reaktion auf Änderungen der Umwelt existieren im Umkehrschluss Varietätsverstärker. Die Gestaltung der Varietätshemmer und -verstärker zählt zu den wichtigsten Aufgaben des Managements. Weiterhin liegt dem Modell das Prinzip der Rekursivität zugrunde. Dieses besagt, dass sich die Struktur des VSM in seinen Teilen wiederholt: Jede Stufe einer Organisation stellt eine Rekursionsstufe ihres Super-Systems dar [Be79]. Das VSM besteht aus fünf miteinander agierenden Komponenten bzw. Sub-Systemen und Informationskanälen zwischen den Sub-Systemen: System 1: Auf jeder Rekursionsstufe des VSM stellen die Divisionen eine Gruppierung aller Operationen und Aktivitäten dar, die der Erbringung eines Leistungspakets dienen. Jede Division wird von einer Management-Einheit gelenkt und ist mit der divisionalen Umwelt verbunden. Alle Divisionen sowie alle den Divisionen assoziierten Management-Einheiten einer Rekursionsstufe formen System 1. System 2: Zur Koordination der Aktionen der einzelnen Divisionen des System 1 wird ein übergeordneter Mechanismus benötigt. Dieser wird durch das System 2 bereitgestellt, das aus diesem Grund auch als interdivisionales Management bezeichnet wird. Ohne System 2 käme es zu unkontrollierten Schwingungen bzw. Oszillationen im Verhalten der Divisionen, da jede einzelne ihre Aktionen immer nur ad hoc an die Aktionen der übrigen Divisionen anpassen würde. System 2 bietet eine Informationsplattform in Form eines Informationsnetzwerks und eines Divisionskoordinationszentrums. Allein 176 durch die Abstimmung der einzelnen Divisionen über das System 2 kann ein Großteil der denkbaren Konflikte umgangen werden, ohne die Autonomie der Divisionen einzuschränken. Zusätzlich agiert das Divisionskoordinationszentrum als Informationsfilter für System 3. System 3: Zur Sicherstellung der Lebensfähigkeit des Gesamtsystems koordiniert System 3 aktiv die Aktionen des System 1. Es sorgt für eine optimale Allokation der Ressourcen und überwacht den Ressourcenverbrauch der Divisionen. Hierzu existiert ein Kommunikationskanal zum Divisionskoordinationszentrum. Weiterhin besteht ein direkter Kanal zu den Management-Einheiten der System 1-Divisionen. Diese so genannte zentrale Befehlsachse stellt darüber hinaus eine Verbindung zu System 4 und 5 dar. Da das System 3 die Schnittstelle zwischen den operativen Systemen einer Organisation und dem Metasystem – bestehend aus den Systemen 3 bis 5 – bildet, stellt es gewissermaßen das Machtzentrum der jeweiligen Organisation dar. System 3*: Über den so genannten Audit-Kanal – das System 3* – besteht ein zusätzlicher Informationskanal direkt zwischen System 3 und den operationalen Einheiten der System 1 Divisionen. Es findet keine Informationsfilterung durch die Divisionsleitungen oder das System 2 statt. Systeme 4: Da das System 3 keine Informationsverbindung zur Umwelt hat, wird zusätzlich System 4 benötigt, das diese Verbindung herstellt. Hierdurch werden die Koordinationsaktivitäten auch auf Änderungen der Umwelt abgestimmt. Gleichzeitig plant das System 4 die zukünftige Entwicklung der Organisation, wofür ebenfalls ein Abgleich mit den Änderungen der Umwelt notwendig ist. System 5: Das normative Management schließlich, das die Normen und Werte der Organisation vorgibt, ist in System 5 zu finden. Es sorgt für eine kontinuierliche Entwicklung der Organisation, indem es die Koordinationsaktivitäten zwischen System 3 und System 4 beeinflusst und so verhindert, dass es hier zu Oszillationen kommt. 4 4.1 Modellierung der JWG-Universität mit Hilfe des VSM Überblick über die JWG-Universität Die 1914 gegründete JWG-Universität zählt mit ca. 35.000 Studierenden zu den größten Hochschulen Deutschlands. Die in 16 Fachbereichen organisierten ca. 600 Professoren unterrichten an vier über das Stadtgebiet Frankfurt verteilten Standorten. Neben der Größe ist der hohe Anteil an internationalen Studierenden eine weitere Besonderheit, der in Frankfurt bei ca. 10% liegt.2 Aus der großen Anzahl der Studierenden, sowie der räumlichen Verteilung der Standorte ergeben sich Probleme, die unter anderem durch den Einsatz Neuer Medien in der Lehre gemildert werden sollen [GNH06]. Zur Unterstützung des breiteren Einsatzes Neuer Medien wurde die E-Learning-Strategie der Universität (studiumdigitale) formuliert, die im Rahmen des durch das Bundesministerium 2 http://www.uni-frankfurt.de/ueber/fakten/index.html 177 für Bildung und Forschung (BMBF) geförderten Projekts „megadigitale“ umgesetzt wird. Zentraler Bestandteil der Strategie ist ein top-down-/bottom-up-Vorgehen, das besagt, dass die jeweiligen Fachbereiche eigene spezifische Konzepte zur Etablierung der Neuen Medien erarbeiten, während sie gleichzeitig zentral beraten und durch ein zentrales mediendidaktisches Zentrum unterstützt werden [Br06]. 4.2 Erste Rekursionsstufe: Die JWG-Universität Die Organisation der Universität kann mithilfe des VSM dargestellt werden, um das Zusammenspiel der unterschiedlichen Akteure und die Informationsflüsse zwischen ihnen bei der Umsetzung der E-Learning-Strategie aufzuzeigen. Das betrachtete System (system in focus) repräsentiert hierbei die Gesamtuniversität und wird in Abbildung 1 dargestellt. Es gilt zu beachten, dass die Organisation im Zusammenhang mit der Umsetzung der E-Learning-Strategie untersucht wird, wodurch die unterschiedlichen Rollen und Systeme determiniert werden. Alternative Zuordnungen sind in unterschiedlichen Zusammenhängen denkbar und wahrscheinlich. Als operative Einheiten, die sich mit der Umsetzung der E-Learning-Strategie befassen, lassen sich die einzelnen Fachbereiche (System EINS) identifizieren, die die Verbindung zu der umgebenden Umwelt herstellen, in diesem Fall hauptsächlich die Studierenden eines Fachbereichs. Die zentrale Befehlsachse ist nur rudimentär vorhanden, hierdurch drückt sich die Autonomie der Fachbereiche bei der Umsetzung der Strategie aus. Eine zentrale Weisungsinstanz, die die Strategie verbindlich vorgibt, existiert nicht. Lediglich über die Ausschreibung und Bewilligung von Fördermitteln besteht eine Möglichkeit, die Aktionen der Fachbereiche zentral zu steuern. Aus Gründen der Übersichtlichkeit werden in Abbildung 1 lediglich drei Fachbereiche berücksichtigt. Über ein Informationsnetzwerk (System ZWEI) kommunizieren die Fachbereiche sowohl untereinander als auch mit den steuernden Instanzen. Um diese Kommunikation zu unterstützen, die in erster Linie dem Erfahrungsaustausch dient, finden monatliche Jour Fixes statt. Hier werden neue Erkenntnisse und Ergebnisse berichtet sowie Probleme kommuniziert und diskutiert. Zusätzlich wurde ein Informationssystem (BSCW-Server) eingerichtet, das den Informationsaustausch ebenfalls unterstützt. Interessierte Dozenten werden darüber hinaus über einen regelmäßigen Newsletter auf dem Laufenden gehalten. Schließlich wurden Arbeitskreise gebildet, in denen Vertreter der verschiedenen Fachbereiche zusammen arbeiten und Erkenntnisse zum Einsatz Neuer Medien in der Lehre austauschen. Über dieses Informationsnetzwerk läuft der Hauptteil der Kommunikation ab, da weitere Informationskanäle, wie die zentrale Befehlsachse, nur unzureichend ausgeprägt sind. Das beschriebene Informationsnetzwerk wird insbesondere vom megadigitale-Kernteam betreut, das aus der Projektleitung sowie aus Mitarbeitern des Kompetenzzentrums Neue Medien in der Lehre besteht. Es ist insofern ebenfalls Teil des Systems ZWEI. Das Kompetenzzentrum wurde bereits vor dem Start des Projektes eingerichtet und soll den Einsatz Neuer Medien in der Lehre vorantreiben. Daher werden vor allem Schulungen und Beratungen zu technischen und pädagogischen Aspekten sowie zu allgemeinen Fragen zum Einsatz der Neuen Medien in der Lehre angeboten. 178 Projektmanagement FÜNF - Teilnahme an Tagungen - Akquise von Fördergeldern - Veröffentlichung der Projektergebnisse - Kommunikation mit Projektträger Umwelt megadigitale Kernteam VIER Umwelt und Zukunft Projektleitung Kompetenzzentrum für Neue Medien - Evaluation der Fachbereichsprojekte Studierende FB01 DREI Evaluation Collegium studiumdigitale DREI * ZWEI Zentrale Befehlsachse E IN - E- Learning Förderfond - Anträge - Zuweisung Projektmittel S 16 Fachbereiche 5 FB0 1 3* 4 Informationsnetzwerk 3 - monatlicher Jour Fixe - halbjährliche Netzwerktage 2 - xxx O1 Studierende FB02 1 ... ... O BSCW -Server monatlicher Newsletter zentrale Projektdatenbank Projektwebsite Univis x z. B. Fach bere ich süber greife nde Lehr veran staltung en x E IN S 5 3* FB0 2 - Fachbereichsrat Dekanat Fachschaft Mittelbau 4 - Studiendekan 3 O 1 Pr o fe ss ur - Dekanat - Fachbereichsrat 2 en 1 Studierende FB03 - .. . ... O4 2 E- Learning Koordinationsstelle Informationsveranstaltungen Newsletter Mailings 42 ON E I NE S 5 3* FB 03 4 Operationale Einheit 3 Management Einheit 2 xx x O1 1 ... UNTERSUCHTES SYSTEM JWG Universität Frankfurt ... : Ox x Systeme der ersten Rekursionsstufe : EINS, ZWEI , DREI , DREI *, VIER , FÜNF Systeme der zweiten Rekursionsstufe 1, 2, 3, 3* , 4, 5 : Abbildung 1: Zwei Rekursionsstufen des VSM der JWG-Universität Das „collegium studiumdigitale“ plant, steuert und kontrolliert die Aktionen der einzelnen Fachbereiche (System DREI). Das „collegium studiumdigitale“ wurde vom Präsidium der Universität eingerichtet, um die Fachbereiche an der Strategieentwicklung und 179 -umsetzung zu beteiligen [Br06]. Im „collegium studiumdigitale“, das in regelmäßigen Abständen tagt, befinden sich daher führende E-Learning-Akteure der beteiligten Fachbereiche. Die Entscheidungen werden hierbei hauptsächlich auf der Basis der Informationen getroffen, die durch das Informationsnetzwerk (System ZWEI) übermittelt werden. Die getroffenen Entscheidungen werden anschließend über das Informationsnetzwerk an die einzelnen Fachbereiche übermittelt. Sämtliche Fachbereichsprojekte werden durch Mitglieder des „collegium studiumdigitale“ nach festen Kriterien evaluiert. Die Evaluationen finden in der Regel am Ende der Projektlaufzeit statt, in Ausnahmefällen auch während der Projektlaufzeit. Die übermittelte Informationsmenge ist jedoch aufgrund der recht seltenen Evaluationen begrenzt. Über dieses zusätzliche Informationsnetzwerk (System DREI*) wird das „collegium studiumdigitale“ über den Stand der Fachbereichsprojekte informiert. Die Anbindung des Projektmanagements an die umgebende Umwelt wird über die Projektleitung (System VIER) hergestellt. Sowohl die Kommunikation mit dem Projektträger, in diesem Fall das BMBF, als auch die Außendarstellung auf Messen und Kongressen werden von System VIER übernommen. Die normative Projektentwicklung wird von allen Mitgliedern des megadigitaleKernteams wahrgenommen (System FÜNF). Sie achten auf die Einhaltung der langfristigen Projektentwicklung, die bereits im ursprünglichen Projektantrag skizziert wurde. Hierzu wird insbesondere in die Kommunikation zwischen System DREI und VIER eingegriffen, sollte die Entwicklung zu stark von den ursprünglichen Projektzielen abweichen. 4.3 Zweite Rekursionsstufe: Der Fachbereich Wirtschaftwissenschaft Auf der zweiten Rekursionsstufe stehen die einzelnen Fachbereiche der JWG-Universität im Vordergrund. Im Rahmen der folgenden Analyse wird exemplarisch der Fachbereich Wirtschaftswissenschaften (FB02) untersucht (fett markiert in Abbildung 1). Der FB02 stellt einen der größten Fachbereiche der JWG-Universität dar und setzt sich aus über 42 Professuren für Betriebswirtschaftslehre und Volkswirtschaftslehre zusammen. Die Professuren sind thematisch in verschiedenen Abteilungen organisiert und bilden insgesamt über 4200 Studierende aus. Jedes Semester immatrikulieren sich ca. 300 Studienanfänger in den im Wintersemester 05/06 gegründeten Bachelor-Studiengang (Bachelor of Science in Wirtschaftswissenschaften). Aus Sicht des VSM stellen die Professuren des FB02 die operativen Einheiten dar (System 1). Neben dem Dekanat, das den Fachbereich leitet, werden die zentralen Entscheidungsprozesse im Fachbereich durch die Gremien Fachbereichsrat, Prüfungsausschuss und Promotionsausschuss getragen (System 3). Der Studiendekan (System 4) – als Bestandteil des Dekanats – erarbeitet u. a. Vorschläge für die Planung und Durchführung des Studienangebots und zur Wahrnehmung der Studienfachberatung. Er steht somit in enger Verbindung mit den Studierenden des FB02. Darüber hinaus wird System 4 vom Fachbereichsrat repräsentiert, der die strategische Entwicklung des Fachbereichs wahrnimmt. Durch ihn wurden bspw. die neuen Bachelor- und Masterstudiengänge beschlos- 180 sen. Als normatives Management (System 5) können sowohl die oben genannten Gremien als auch der Mittelbau sowie die Fachschaft angesehen werden. Sie formulieren die Vision des Fachbereichs und determinieren somit die langfristige Entwicklung des Fachbereichs. Ebenso wie auf Rekursionsstufe 1 kommt der zentralen Befehlsachse bezüglich der ELearning-Implementierung nur ein geringer Stellenwert zu. Die Professuren handeln weitestgehend autonom und bestehen auf ihre Unabhängigkeit. Zur Koordination der ELearning-Aktivitäten am FB02 wurde daher im Oktober 2006 eine E-LearningKoordinationsstelle eingerichtet, die in engem Kontakt zum megadigitale-Kernteam sowie zu den Koordinationsstellen der anderen Fachbereiche steht. Über die E-LearningKoordinationsstelle werden einerseits die Angebote des Kernteams durch Informationsveranstaltungen, Newsletter, Mailings und persönliche Gespräche an die Professuren kommuniziert (top-down). Andererseits werden individuelle E-Learning-Aktivitäten am FB02 an die Professuren, an die anderen Fachbereiche sowie an das Kernteam vermittelt (bottom-up). Diese Informationskanäle und die Koordinationsstelle bilden System 2. Ihnen kommt für eine nachhaltige Implementierung von E-Learning-Angeboten eine große Bedeutung zu. 4.4 Die Koordinationsstelle als Steuerungsinstrument für eine nachhaltige Implementierung von E-Learning-Angeboten Die vorangegangene Analyse zeigt, dass der Koordinationsstelle als Steuerungsinstrument bei der Umsetzung einer universitätsweiten E-Learning-Strategie eine besondere Bedeutung zukommt. Insbesondere bei staatlichen Massenuniversitäten lässt sich eine dezentrale Organisationsstruktur – determiniert durch die Autonomie der Fachbereiche bzw. Professuren – feststellen. Aus Sicht des vorgestellten organisationstheoretischen Modells ist deshalb auf beiden Rekursionsstufen ein gut ausgeprägtes System 2 erforderlich. Darüber hinaus ist die enge Verknüpfung zwischen den fachbereichseigenen Koordinationsstellen und der zentralen universitätsweiten Koordinationsstelle von besonderer Wichtigkeit. Durch diesen Kommunikationskanal können die Schwächen der zentralen Befehlsachsen sowie der Audit-Kanäle (System 3*) ausgeglichen werden. Für eine nachhaltige Implementierung von E-Learning-Angeboten müssen auf Universitätsebene (Rekursionsstufe 1) einerseits die unterschiedlichen Rahmenbedingungen in den einzelnen Fachbereichen berücksichtigt werden und andererseits die Fachbereichsinitiativen effektiv aufeinander abgestimmt werden. Diese Aufgaben werden von dem beschriebenen Kompetenzzentrum, das als zentrale universitätsweite Koordinationsstelle fungiert, wahrgenommen. Auf Fachbereichsebene (Rekursionsstufe 2) wird eine Koordinationsstelle eingesetzt, die die Dozenten über andere Initiativen informiert und beim Einsatz Neuer Medien in der Lehre beratend zur Seite steht sowie technische Unterstützung anbietet. Darüber hinaus muss die Koordinationsstelle dafür sorgen, dass die Erkenntnisse der Einzelinitiativen nicht mit dem Ausscheiden der Mitarbeiter aus der Organisation verloren gehen. 181 5 Fourth Party E-Learning-Provider Für das dezentrale Koordinationsproblem wird im Folgenden ein Lösungsansatz vorgeschlagen, der sich an das Konzept der Fourth Party Logistics anlehnt [NB02]. Hierbei handelt es sich um einen Ansatz aus dem Bereich der Logistik, bei dem ein Dienstleister Unternehmen bei der Planung und Koordination diverser Logistikprozesse unterstützt. Als eine Art Hub koordiniert er Zulieferer und Abnehmer sowie weitere notwendige Dienstleister. Hierzu setzt er neben dem notwendigen Know-how eigene Informationssysteme ein, mit dessen Hilfe die Prozesse unterstützt werden. Für den vorliegenden Fall der nachhaltigen E-Learning-Implementierung in Organisationen mit dezentralem Charakter wird in Analogie an die Logistik ein Fourth Party E-Learning-Provider vorgeschlagen und dessen Aufgaben und Funktionen skizziert. Er übernimmt sämtliche Koordinationsaufgaben sowie die Beratung und Motivation aller an der Etablierung Neuer Medien beteiligten Akteure. Im Fall der E-Learning-Koordinationsstelle gilt es vor allem die bereits erwähnten Erfolgsfaktoren einer nachhaltigen Implementierung zu unterstützen. In erster Linie richtet sich das Beratungsangebot daher an die Dozenten, die die Neuen Medien einsetzen wollen. Die Koordinationsstelle vermittelt – wie in Abbildung 2 dargestellt – zwischen den Anbietern technischer Infrastruktur, didaktischer und rechtlicher Beratung sowie potentieller Content- und Tool-Anbieter einerseits und den Dozenten andererseits. Für den einzelnen Dozenten ist es aufgrund des äußerst heterogenen Marktes für E-Learning Anbieter häufig nicht möglich, eigenständig die geeigneten Anbieter auszuwählen. Der Fourth Party E-Learning-Provider kann und soll daher dem Dozenten basierend auf den bisher gesammelten Erfahrungen die entsprechenden Anbieter vermitteln. Weitere eigene Angebote wie beispielsweise organisatorische Beratung sowie Hilfestellungen bei technischen Angelegenheiten oder bei der Evaluation der Lehre werden ebenfalls durch den Fourth Party E-Learning-Provider bereitgestellt. Darüber hinaus kann der Fourth Party E-Learning-Provider dafür sorgen, dass die Erkenntnisse der Einzelinitiativen nicht mit dem Ausscheiden der Mitarbeiter aus der Organisation verloren gehen. Didaktische Beratung Content - und Tool Anbieter Infrastruktur Rechtliche Beratung Evaluation Organisatorische Beratung Dozenten Fourth Party ELearning Provider Dozenten Dozenten Weitere Dienstleistungen Dozenten Abbildung 2: Aufgaben eines Fourth Party E-Learning-Providers 182 6 Zusammenfassung und Ausblick Auf der Suche nach den Erfolgsfaktoren der nachhaltigen Etablierung von E-Learning in der universitären Lehre zeichnet sich in der relevanten Literatur u. a. der Einsatz einer Koordinationsstelle ab. Eine Begründung, warum diese Koordinationsstelle notwendig ist, wird allerdings nicht gegeben. Der vorliegende Beitrag widmet sich dieser Fragestellung. Dafür wurden die Organisationsstrukturen sowie die Informationskanäle zwischen den einzelnen Organisationseinheiten einer Massenuniversität identifiziert, dokumentiert und analysiert. Am Beispiel der JWG-Universität konnte gezeigt werden, dass insbesondere an Massenuniversitäten die zentrale Befehlsachse schwach ausgeprägt ist, da Fachbereiche sowie die einzelnen Professuren autonom handeln. Mit Hilfe des Viable System Modell konnte gezeigt werden, wie durch den Einsatz von Koordinationsstellen sowohl auf Universitätsebene als auch in den jeweiligen Fachbereichen der von der Universitätsleitung entwickelte top-down-/bottom-up-Ansatz zur nachhaltigen Etablierung von Neuen Medien in der Lehre implementiert werden konnte. Schließlich wurde in Analogie zur Fourth Party Logistik ein Koordinationsansatz vorgestellt, durch den die Aufgaben der Koordinationsstellen konkretisiert werden. Weiterer Forschungsbedarf besteht für die Frage, ob der hier vorgestellte Fourth Party ELearning-Provider sein Dienstleistungsangebot auch nach außen verkaufen kann. Hierzu ist die Entwicklung eines Geschäftsmodells notwendig. Danksagung Wir danken den Gutachtern für die wertvollen inhaltlichen Anregungen zu unserem Beitrag. Diese Arbeit entstand im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projekts megadigitale (Förderkennzeichen: 01PI05017). Literaturverzeichnis [As64] [Ba83] Ashby, W.R.: An Introduction to Cybernetics. University Paperbacks, London, 1964. Baetge, J.: Kybernetische Kontrollsysteme. Kybernetik und Management: Ein Roundtable-Gespräch. Berlin, 1983, S. 31-58. [Be79] Beer, S.: The heart of enterprise. John Wiley & Sons, New York, 1979. [Be85] Beer, S.: Diagnosing the System for Organizations. John Wiley & Sons, New York, 1985. [Br06] Bremer, C.: megadigitale - Hochschulweite Umsetzung einer eLearning-Strategie. In: Tagungsband des 10. Workshops "Multimedia in Bildung und Weiterbildung", 14-15. Sept. 2006 an der Technischen Universität Ilmenau, 2006. [De02] Deimann, M.: Motivationale Bedingungen beim Lernen mit Neuen Medien. In: Medienunterstütztes Lernen-Beiträge von der WissPro Wintertagung, 2002, S. 61-70. [DSE06] Diesner, I., Seufert, S., Euler, D.: SCIL-Trendstudie - Herausforderungen für das Bildungsmanagement. In: SCIL-Arbeitsbericht 9, 2006. [EGS02] Encarnacao, J.-L., Guddat, H., Schnainer, M.: Die Hochschule auf dem Weg ins ELearning Zeitalter. In: Bentlage, U. (Hrsg.): E-Learning: Märkte, Geschäftsmodelle, Perspektiven. Bertelsmann-Stiftung, Gütersloh, 2002. 183 [Eu06] Euler, D., et al.: Handbuch der Kompetenzentwicklung für E-Learning Innovationen; Eine Handlungsorientierung für innovative Bildungsarbeit in der Hochschule. Bern, 2006. [GNH06] Grüne, M., Nikolopoulos, A., Holten, R.: Der Einsatz von E-Learning-Technologien an einer Massenuniversität. In: Proc. der MKWI 2006; Teilkonferenz: E(lectronic)-Learning – Technologiebasiertes Lehren und Lernen. Springer-Verlag, Berlin, 2006. [Ha00] Hagner, P.R.: Faculty Engagement and Support in the New Learning Environment. Vol. 35, 2000, S. 27–36. [Ha01] Hagner, P.R.: Interesting practices and best systems in faculty engagement and support. In: NLII White Paper, 2001. [Ho99] Holten, R.: Entwicklung von Führungsinformationssystemen - Ein methodenorientierter Ansatz. Wirtschaftswissenschaftliche Fakultät. Westfälische Wilhelms-Universität Münster, Münster, 1999. [JI91] Jarvenpaa, S.L., Ives, B.: Executive Involvement and Participation in the Management of Information Technology. In: MIS Quarterly 15, 1991, S. 205-227. [Ke83] Keller, J.M.: Motivational design of instruction. Reigeluth, C.M. (Hrsg.): Instructional design theories and models: An overview of their current status. Erlbaum, Hillsdale, N.J., 1983, S. 386-434. [KZ87] Kwon, T.H., Zmud, R.W.: Unifying the fragmented models of information systems implementation. Critical issues in information systems research John Wiley & Sons, New York, USA, 1987, S. 227-251. [LD88] Leonard-Barton, D., Deschamps, I.: Managerial Influence in the Implementation of New Technology. In: Management Science 34, 1988, S. 1252-1265. [NB02] Nissen, V., Bothe, M.: Fourth Party Logistics – Ein Überblick. In: Logistik Management, Nr 1, 2002, S. 16-26. [Ow06] Owston, R.D.: Contextual factors that sustain innovative pedagogical practice using technology: An international study. In: Proceedings of AREA 2004, San Diego, 2006. [PSZ01] Purvis, R.L., Sambamurthy, V., Zmud, R.W.: The Assimilation of Knowledge Platforms in Organizations: An Empirical Investigation. In: Organization Science 12, 2001, S. 117135. [SBH01] Seufert, S., Back, A., Häusler, M.: E-Learning: Weiterbildung im Internet, Das"PlatoCookbook" für internetbasiertes Lernen. 2001. [SE03] Seufert, S., Euler, D.: Nachhaltigkeit von eLearning-Innovationen. In: SCILArbeitsbericht 1, 2003. [Se06] Seufert, S.: Sustainability of eLearning Innovations. 2004. [SES04] Schönwald, I., Euler, D., Seufert, S.: Supportstrukturen zur Förderung einer innovativen eLearning-Organisation an Hochschulen. Swiss Center for Innovations in Learning, St. Gallen, 2004. [SM03] Seufert, S., Miller, D.: Nachhaltigkeit von eLearning-Innovationen: Von der Pionierphase zur nachhaltigen Implementierung. In: Medienpädagogik, 2003. [Spi96] Spitzer, D.R.: Motivation: The Neglected Factor in Instructional Design. In: Educational Technology 36, 1996, S. p45-49. [SY03] Sharma, R., Yetton, P.: The Contingent Effects of Management Support and Task Interdependence on Successful Information Systems Implementation. In: MIS Quarterly 27, 2003, S. 533-555. [We03] Wesp, D.: Warum erfolgreiches E-Learning so selten ist – Thesen und Erfahrungen. In: Apel, H./Kraft, S.(2003)(Hrsg.): Online lehren – Planung und Gestaltung netzbasierter Weiterbildung. Bielefeld: Bertelsmann Verlag, 2003, S. 177-195. [We06] Werner, B.: Status des E-Learning an deutschen Hochschulen. In: www.e-teaching.org, 2006. [Wl78] Wlodkowski, R.J.: Motivation and Teaching: A Practical Guide. NEA Distribution Center, West Haven, 1978. 184 Interoperabilität von elektronischen Tests Michael Piotrowski, Wolfram Fenske Otto-von-Guericke-Universität Magdeburg Institut für Wissens- und Sprachverarbeitung Postfach 4120 39016 Magdeburg mxp@iws.cs.uni-magdeburg.de Abstract: Die Erstellung qualitativ hochwertiger Tests ist aufwändig. Daher ist es wünschenswert, einmal erstellte Tests wieder- und weiterverwenden zu können. Um eine Abhängigkeit von einer einzelnen Testplattform zu vermeiden, werden standardisierte Austauschformate benötigt. In diesem Beitrag formulieren wir Desiderata für derartige Formate und untersuchen den derzeitigen De-Facto-Standard, die IMS Question & Test Interoperability Specification (QTI), auf seine Eignung. Das erklärte Ziel von QTI ist es, den Austausch von Tests zwischen verschiedenen Systemen zu ermöglichen. Nach der Analyse der Spezifikation und aufgrund unserer Erfahrungen bei der Implementierung von QTI im System „ECQuiz“ kommen wir zu dem Schluss, dass QTI jedoch als Austauschformat ungeeignet ist. 1 Einleitung Formative Tests tragen entscheidend zur kontinuierlichen Verfolgung des Lernprozesses bei. Webbasierte objektive1 Tests (wie Multiple-Choice-Tests) sind in diesem Zusammenhang besonders nützlich, da sie schnell und häufig durchgeführt und zeitlich und räumlich flexibel eingesetzt werden können. Die Erstellung qualitativ hochwertiger Tests ist jedoch aufwändig. Schon alleine aufgrund des damit verbundenen zeitlichen und personellen Aufwands ist es wünschenswert, dass einmal erstellte Tests wieder- und weiterverwendbar bleiben. Dies gilt sowohl für den Fall, dass sich die verwendete Testplattform ändert als auch für den Austausch mit anderen Lehrenden. Um dies zu ermöglichen, wird ein Austauschformat benötigt, also eine Repräsentation von Tests, die von verschiedenen Systemen geschrieben und gelesen werden kann. Im Kontext von Tests handelt es sich bei den Systemen üblicherweise um Lernplattformen mit integrierten Testmöglichkeiten (z. B. Blackboard, ILIAS, Moodle, OLAT oder WebCT) oder um eigenständige Testsysteme (z. B. Hot Potatoes, Questionmark Perception oder Test Pilot). 1 Im Sinne der Testtheorie, d. h., Antwortalternativen sind eindeutig richtig oder falsch (vgl. [LR98]) und somit automatisch überprüfbar. 185 In diesem Beitrag gehen wir zunächst auf einige Aspekte ein, die unseres Erachtens für den Austausch von Tests relevant sind und definieren Anforderungen an Austauschformate für Tests. Wir berichten über unsere Erfahrungen mit der IMS Question & Test Interoperability Specification (QTI) in dem von uns entwickelten System „ECQuiz“. Es folgt eine kritische Betrachtung von QTI. 2 Desiderata für Austauschformate Ob ein (direkter) Datenaustausch zwischen Systemen möglich ist, hängt zunächst davon ab, ob es ein gemeinsames Datenformat gibt. Das alleine ist aber in der Praxis leider noch keine Garantie für einen reibungslosen Datenaustausch. Vielmehr hängt die Zuverlässigkeit des Austauschs fast unmittelbar von der Spezifikation des Austauschformats ab. Ist das Austauschformat unzureichend spezifiziert, ist es möglich – und sogar wahrscheinlich –, dass es von verschiedenen Entwicklern auf verschiedene Weise interpretiert und implementiert wird; auch wenn alle Varianten dabei prinzipiell der Spezifikation entsprechen, kann ein Datenaustausch dennoch unmöglich sein. Weiterhin kann man davon ausgehen, dass mit der Komplexität der Spezifikation auch die Zahl der Fehler in den Implementierungen wächst. Schreibt oder liest ein System das Austauschformat nicht korrekt, ist es wiederum wahrscheinlich, dass der Datenaustausch gar nicht oder nur fehlerhaft funktioniert. Dabei ist die Situation, dass ein Datenaustausch zwar stattfindet, die Daten aber z. B. vom Zielsystem nicht richtig interpretiert werden, potentiell gefährlicher, als wenn der Datenaustausch von vornherein nicht möglich ist: Die dabei entstehenden Fehler können lange unentdeckt bleiben und im Falle von Tests etwa zu einer falschen Bewertung der Kandidaten führen. Formale Definition Aus diesen Überlegungen ergeben sich eine Reihe von Anforderungen an Austauschformate für Tests. Zunächst sollten sich Standards – oder als solche intendierte Spezifikationen – soweit wie möglich auf bereits vorhandene Standards stützen. Im Bereich von Datenformaten bedeutet dies heutzutage die Verwendung von XML [Wo06]. Auf diese Weise kann die Spezifikation des eigentlichen Austauschformats kompakt gehalten werden und es kann bei der Implementierung auf bereits vorhandene und insbesondere bereits getestete Werkzeuge zurückgegriffen werden. Die Verwendung von XML in einer Spezfikation ist jedoch nur dann sinnvoll, wenn auch eine formale Definition in einer Schemasprache (Relax NG [ISO03] oder W3C XML Schema [Wo04]) erfolgt. Die Möglichkeiten der Schemasprachen sollten dabei voll ausgeschöpft werden, um die Konformität möglichst weitgehend bereits durch einen XMLParser sicherstellen zu können; natürlichsprachliche Einschränkungen und Anforderungen, sind dagegen weit schwerer automatisch zu überprüfen, somit fehlerträchtig und sollten daher vermieden werden. Durch ein Schema wird die Syntax beschrieben. Für eine Implementierung, die das Format schreiben oder lesen soll, muss darüberhinaus auch die 186 Semantik, also die Bedeutung der einzelnen Elemente, genau spezifiziert sein, so dass Tests auch tatsächlich in der vom Ersteller intendierten Form übertragen werden. Trennung von Inhalt und Form Beim Austausch und bei der Wiederverwendung von Tests gibt es verschiedene Szenarien. In manchen Fällen sollen Tests vollständig übernommen werden, während in anderen Fällen z. B. nur einzelne Fragen aus einem Test oder einer Aufgabensammlung („item bank“) in einen anderen Test integriert werden sollen. Daher ist es wichtig, die verschiedenen Aspekte von Tests – insbesondere Inhalt, Erscheinungsbild und Verhalten – klar voneinander zu trennen, so dass etwa der Austausch von Inhalten nicht dadurch behindert wird, dass Inhalt und Erscheinungsbild miteinander vermischt sind. Umfang Um vollständige Tests mit allen ihren Eigenschaften austauschen zu können, erscheint es zunächst wünschenswert, dass ein Austauschformat die gesamte Funktionalität aller Systeme abbilden kann. Bei näherer Betrachtung wird jedoch klar, dass diese Anforderung illusorisch ist: Zu vielfältig und zu verschieden sind die Möglichkeiten von Testsystemen, wobei kein System alle Testtypen und Auswertungsfunktionen unterstützt. Daher sollte sich ein Austauschformat zunächst auf einen relativ kleinen Kern von Testund Fragetypen beschränken; weitere Typen können in späteren Versionen standardisiert werden, wenn klar ist, welche Beschreibungsmöglichkeiten in der Praxis tatsächlich benötigt werden. Die Aufnahme von optional zu implementierenden Teilen oder mehrerer Alternativen für eine Funktion ist dagegen zu vermeiden, da sich gezeigt hat, dass dies die Entwicklung interoperabler Implementierungen stark behindert. 2 Langlebigkeit Schließlich sollte ein Austauschformat langlebig sein, d. h., im Austauschformat beschriebene Tests sollten über einen möglichst langen Zeitraum verarbeitbar bleiben. Zur Korrektur von Fehlern und zur Erweiterung der Beschreibungsmöglichkeiten werden immer wieder neue Revisionen des Formats notwendig sein. Hierbei sollte jedoch soweit wie möglich vermieden werden, dass neue Revisionen zu Problemen beim Datenaustausch führen. 2 Ein gutes Beispiel dafür sind SGML und XML. SGML enthält eine Vielzahl optionaler Teile: Trotz des nunmehr 20jährigen Bestehens von SGML gibt es bisher keinen Parser, der den Standard vollständig implementiert. XML ist eine Untermenge von SGML, bei der auf alle optionalen Teile verzichtet wurde: In kürzester Zeit waren eine große Zahl von konformen und interoperablen Implementierungen verfügbar und XML fand eine praktisch universelle Verbreitung. 187 3 IMS QTI: Überblick Für die Beschreibung von Multiple-Choice-Tests und verwandten Testtypen ist die IMS Question & Test Interoperability Specification (QTI) [IMS05] zur Zeit die einzige öffentliche, von einer Implementierung unabhängige Spezifikation. Darüberhinaus kann das IMS-Konsortium im E-Learning-Bereich als De-Facto-Standardisierungsinstanz betrachtet werden. QTI beschreibt ein Datenmodell und eine XML-Repräsentation für die Kodierung von Testfragen (sog. „assessment items“) bzw. Tests. Das erklärte Ziel der Spezifikation ist es, den Austausch dieser Daten zwischen Autorenwerkzeugen, Aufgabensammlungen, Lernplattformen und Testsystemen zu ermöglichen; QTI ist also als Austauschformat gedacht. QTI Version 1.0 wurde im Jahr 2000 veröffentlicht und mehrfach überarbeitet. Wenn bei Systemen „Unterstützung für QTI“ angegeben ist (beispielsweise bei Respondus, WebCT oder OLAT), ist in den meisten Fällen damit eine Version von QTI 1.x gemeint. Eine kurze Beschreibung von QTI 1.0 durch Mitglieder der QTI-Arbeitsgruppe bietet [SR00]. Im Einsatz zeigten sich jedoch grundsätzliche Mängel in QTI 1.x, so dass die QTI-Arbeitsgruppe einen kompletten Neuentwurf für nötig erachtete. Dieser Neuentwurf ist die Version 2.0, die 2005 veröffentlicht wurde. Entgegen den Zusagen weitgehender Kompatibilität durch IMS – „software that is compliant with the V1.0 DTD will be able to import V2.0 Items providing it ignores the optional tags“ [SR00] – verwendet QTI 2.0 ein grundsätzlich anderes Modell und eine vollkommen andere XML-Struktur und ist mit QTI 1.x nicht kompatibel. Darüberhinaus deckt QTI 2.0 nicht alle Bereiche ab, die in QTI 1.x verfügbar waren; so können etwa mit QTI 2.0 nur einzelne Items, aber keine kompletten Tests beschrieben werden. Im Folgenden gehen wir auf QTI 2.0 ein; dies ist z. Z. die neueste offizielle Version der Spezifikation. Die QTI-Spezifikation besteht aus mehreren Teilen. Im Teil „Information Model“ wird zunächst ein abstraktes Datenmodell beschrieben. Hier wird beispielsweise behandelt, was eine Frage ist und über welche Attribute sie verfügt. Das „XML Binding“ definiert dann eine Abbildung dieses Modells in eine konkrete XML-Repräsentation. Für die XMLRepräsentation werden ein W3C XML Schema und eine DTD definiert. Die weiteren Teile der Spezifikation beschäftigen sich mit verschiedenen Teilaspekten und geben Hinweise zur Implementierung und Nutzung von QTI. Das grundlegende Element von QTI 2.0 ist das Item, also eine Frage mit den dazugehörigen Antwortmöglichkeiten. Für die Auszeichnung des Iteminhalts wird dabei eine Untermenge von XHTML verwendet, die um testspezifische Elemente ergänzt wird. Abbildung 1 zeigt ein einfaches Beispiel für ein in QTI 2.0 kodiertes Item, in dem eine Multiple-Choice-Frage mit Mehrfachwahl definiert wird. Das Element <itemBody> enthält dabei die eigentliche Frage (Element <prompt>) und die Antwortmöglichkeiten. Da der Kandidat mit den Antworten „interagieren“ kann, wird dieser Teil in QTI als „Interaction“ bezeichnet. Im Beispiel soll eine Auswahl getroffen werden, daher wird das Element <choiceInteraction> verwendet, das in den <simpleChoice>-Elementen die Antwortmöglichkeiten enthält. Welche der Antwortmöglichkeiten korrekt sind, wird im Element <correctResponse> am Anfang der Datei festgelegt. 188 ❁❄①♠❧ ✈❡rs✐♦♥❂✧✶✳✵✧❄❃ ❁✦❉❖❈❚❨P❊ ❛ss❡ss♠❡♥t■t❡♠ ❙❨❙❚❊▼ ✧✐♠sqt✐❴✈✷♣✵✳❞t❞✧❃ ❁❛ss❡ss♠❡♥t■t❡♠ ✐❞❡♥t✐❢✐❡r❂✧❊❳✶✧ t✐t❧❡❂✧❋♦r♠❡❧✲✶✧ ❛❞❛♣t✐✈❡❂✧❢❛❧s❡✧ t✐♠❡❉❡♣❡♥❞❡♥t❂✧❢❛❧s❡✧❃ ❁r❡s♣♦♥s❡❉❡❝❧❛r❛t✐♦♥ ✐❞❡♥t✐❢✐❡r❂✧❘✲❊❳✷✧ ❝❛r❞✐♥❛❧✐t②❂✧♠✉❧t✐♣❧❡✧❃ ❁❝♦rr❡❝t❘❡s♣♦♥s❡❃ ❁✈❛❧✉❡❃❝❤♦✐❝❡✶❁✴✈❛❧✉❡❃ ❁✈❛❧✉❡❃❝❤♦✐❝❡✷❁✴✈❛❧✉❡❃ ❁✴❝♦rr❡❝t❘❡s♣♦♥s❡❃ ❁✴r❡s♣♦♥s❡❉❡❝❧❛r❛t✐♦♥❃ ❁✐t❡♠❇♦❞②❃ ❁❝❤♦✐❝❡■♥t❡r❛❝t✐♦♥ r❡s♣♦♥s❡■❞❡♥t✐❢✐❡r❂✧❘✲❊❳✷✧ s❤✉❢❢❧❡❂✧tr✉❡✧ ♠❛①❈❤♦✐❝❡s❂✧✵✧❃ ❁♣r♦♠♣t❃■♥ ✇❡❧❝❤❡♥ ❏❛❤r❡♥ ✇✉r❞❡ ▼✐❝❤❛❡❧ ❙❝❤✉♠❛❝❤❡r ❋♦r♠❡❧✲✶✲❲❡❧t♠❡✐st❡r❄❁✴♣r♦♠♣t❃ ❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✶✧❃✶✾✾✹❁✴s✐♠♣❧❡❈❤♦✐❝❡❃ ❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✷✧❃✷✵✵✵❁✴s✐♠♣❧❡❈❤♦✐❝❡❃ ❁s✐♠♣❧❡❈❤♦✐❝❡ ✐❞❡♥t✐❢✐❡r❂✧❝❤♦✐❝❡✸✧❃✷✵✵✻❁✴s✐♠♣❧❡❈❤♦✐❝❡❃ ❁✴❝❤♦✐❝❡■♥t❡r❛❝t✐♦♥❃ ❁✴✐t❡♠❇♦❞②❃ ❁✴❛ss❡ss♠❡♥t■t❡♠❃ Abbildung 1: Einfaches Beispiel für eine QTI-2.0-Datei 4 Beispiel: QTI 2.0 in „ECQuiz“ „ECQuiz“3 [PR05] ist ein Modul der von uns entwickelten eduComponents [RPA07], das die Integration von Multiple-Choice-Tests in das freie Content-Management-System Plone4 ermöglicht. Für den Import und Export von Tests haben wir in „ECQuiz“ eine Untermenge von QTI 2.0 implementiert und dabei Erfahrungen mit diesem Standard gesammelt, die die Grundlage für diesen Artikel bilden. Wir beschreiben im Folgenden den konkreten Einsatz von QTI in „ECQuiz“ und unsere Erfahrungen bei der Implementierung. Da es zu Beginn der Entwicklung bereits konkrete Anforderungen gab, welche Funktionen „ECQuiz“ bereitstellen sollte, war unser Ansatz, zuerst die benötigte Funktionalität mittels eines geeigneten Modells zu implementieren und diese dann für den Import und Export auf QTI 2.0 abzubilden. Das kleinste Element im Modell von „ECQuiz“ ist eine Frage. „ECQuiz“ bietet z. Z. zwei grundsätzliche Fragetypen: Multiple-Choice-Fragen, bei denen die Kandidaten aus mehreren Antwortmöglichkeiten auswählen müssen, und Textfragen, bei denen eine freie Antwort formuliert werden muss. Mehrere Fragen, die sich z. B. auf dieselbe Textpassage oder dasselbe Bild beziehen oder anderweitig inhaltlich verwandt sind, können in einer Fragegruppe zusammengefasst werden. Der gemeinsame Inhalt wird in den sogenannten „Bearbeitungshinweisen“ der Fragegruppe abgelegt, vgl. Abb. 2. Mehrere Fragen und Fra3 4 Frühere Versionen hießen „LlsMultipleChoice“. ❤tt♣✿✴✴✇✇✇✳♣❧♦♥❡✳♦r❣✴ 189 Abbildung 2: Beispiel eines Tests (hier in der Ergebnisansicht) in „ECQuiz“ mit Fragegruppen (➊ und ➋) und den dazugehörigen Bearbeitungshinweisen (➌ und ➍). gegruppen bilden schließlich einen Test. Analog zu den Fragegruppen können auch für den Test als ganzes Bearbeitungshinweise gegeben werden. Für „ECQuiz“ haben wir QTI zunächst soweit implementiert, dass ein „round trip“ möglich ist, d. h., dass von „ECQuiz“ exportierte Dateien ohne Informationsverlust wieder importiert werden können. Bei der Abbildung des Modells von „ECQuiz“ auf QTI traten mehrfach Probleme auf, die es erforderlich machten, „ECQuiz“-spezifische Erweiterungen vorzunehmen. Wie bereits oben erwähnt, deckt QTI 2.0 im Gegensatz zu QTI 1.x nur einzelne Fragen ab und lässt die Teile von QTI 1.x aus, die sich mit der Aggregation von Fragen in Abschnitte und Tests beschäftigten. Da „ECQuiz“ jedoch sowohl komplette Tests als auch Gruppen von zusammengehörigen Fragen unterstützt, musste ein Weg gefunden werden, diese Strukturen dennoch in einer möglichst portablen Weise zu beschreiben. Die Teile „Integration Guide“ und „Migration Guide“ der QTI-Spezifikation schneiden einige dieser Aspekte an, es bleiben jedoch viele Fragen bezüglich der konkreten Umsetzung offen: As this version of the QTI specification does not define either an information model or a binding for section, assessment and objectbank objects no recommendations on how to interpret collections of packaged version 2 190 items are made. However, packaged items may be referred to individually in an associated learning design or set of sequencing rules. [IMS05, Integration Guide, S. 4] Sie machen auch deutlich, dass die Integration der verschiedenen IMS-Spezifikationen noch nicht optimal ist: IMS Learning Design and IMS QTI are natural partners in the learning process. [. . . ] However, the type systems used in IMS LD and IMS QTI differ: [. . . ] A final complicating factor is the presence of multi-valued variables in QTI which have no equivalent in IMS LD. [IMS05, Integration Guide, S. 7 bzw. S. 9] Wir haben den im Folgenden beschriebenen Ansatz gewählt. Eine Frage mit ihren zugehörigen Antworten wird gemäß QTI 2.0 in ein „assessmentItem“ abgebildet. Die Zusammenstellung der Fragen zu einem Test erfolgt gemäß der IMS Content Packaging Specification (CP) [IMS04]. „Packaging“ bedeutet hier, dass alle Items zusammen mit einem sog. „Manifest“ in ein ZIP-Archiv gepackt werden. Das Manifest ist eine XML-Datei mit dem Namen „imsmanifest.xml“ im Wurzelverzeichnis des Archivs und beschreibt die im Archiv enthaltenen Ressourcen. Die von „ECQuiz“ vorgesehenen Bearbeitungshinweise für Test und Fragegruppen werden weder von QTI noch von CP explizit unterstützt. Wir behandeln diese Hinweise als „assessmentItem“ ohne „Interaction“. Auf diese Weise lässt sich die Erweiterung syntaktisch konform modellieren, es ist allerdings nicht sicher, ob andere Systeme diese Verwendung des <assessmentItem>-Elements korrekt interpretieren können. Die Randomisierung der Antworten innerhalb einer Frage wird von QTI abgedeckt, „ECQuiz“ unterstützt jedoch auch die Randomisierung von Fragen, einschließlich der zufälligen Auswahl einer Untermenge der vorhandenen Fragen. Das Verhalten kann für jede Fragegruppe separat eingestellt werden. Um diese Eigenschaften zu beschreiben, greifen wir auf die IMS Simple Sequencing Specification [IMS03] zurück. Diese Spezifikation definiert Elemente, mit denen die Abfolge von Lernobjekten beschrieben werden kann. Diese Elemente können im <organization>-Element des Manifests verwendet werden. Wir benutzen sie, um die Randomisierung von Elementen, die Anzahl erlaubter Versuche und die zeitliche Freigabe von Tests zu beschreiben. Der Implementierungsaufwand für die QTI-Unterstützung in „ECQuiz“ war sehr hoch, denn um einen Test ohne Informationsverlust exportieren zu können, mussten neben QTI auch IMS CP sowie Teile von IMS Simple Sequencing implementiert werden, die nicht immer perfekt aufeinander abgestimmt sind. Außerdem galt es, Lösungen für Eigenheiten und Einschränkungen von QTI zu finden. Das QTI-Modul macht in „ECQuiz“ fast 50 % des gesamten Codes aus. Um den Aufwand in Grenzen zu halten, ist der QTI-Import primär darauf ausgerichtet, von „ECQuiz“ selbst exportierte Tests zu importieren. Experimente mit QTI-Dateien bzw. Content-Packages aus verschiedenen Quellen waren, außer bei sehr einfachen Items, unbefriedigend. Beispielsweise sind die von Moodle exportierten QTI-2.0-Items und Content-Packages nicht mit den Spezifikationen konform, so dass der Import in „ECQuiz“ fehlschlägt. 191 5 IMS QTI: Probleme Beim Entwurf von QTI 2.0 sind Rückmeldungen von der Anwendergemeinde zu QTI 1.x eingeflossen. Trotzdem sind uns während der Implementierung in „ECQuiz“ (vgl. Abschnitt 4) eine Vielzahl von Schwachstellen aufgefallen, von denen wir einige im Folgenden beschreiben. Die Probleme lassen sich dabei drei Bereichen zuordnen: „Problematische Designentscheidungen“, „formale Schwächen“ und „Schwächen in der technischen Umsetzung in XML“. Vorab ist anzumerken, dass QTI 2.0 keine existierende Praxis kodifiziert, sondern komplett neu geschrieben wurde. Im Gegensatz zum Standardisierungsverfahren für RFCs der IETF [Br96] verlangt IMS nicht mindestens zwei voneinander unabhängig entwickelte, interoperable Implementierungen; es gibt auch keine Referenzimplementierung von QTI 2.0. 5.1 Problematische Designentscheidungen QTI 2.0 ist eine überaus umfangreiche Spezifikation mit vielen optionalen Teilen. Um die Interoperabilität zwischen Systemen zu sichern, die nicht den gesamten Standard umsetzen, sieht die QTI-Spezifikation die Definition von Profilen vor. Sie erlauben es, die von einem System implementierte Untermenge von QTI zu beschreiben. Zwei Profile, „QTI-Lite“ und „QTI-All“, sind vordefiniert. Beide sind praktisch leider von geringem Nutzen. QTI-Lite beschreibt eine minimale Untermenge, die selbst für einfachste Tests zu beschränkt sein düfte: Beispielsweise dürfen in QTI-Lite-konformen Items keine Aufzählungen oder Tabellen und lediglich die Bildformate JPEG und GIF, nicht aber das vom W3C standardisierte PNG-Format benutzt werden. Diese Einschränkungen sind aus technischer Sicht nicht nachvollziehbar. QTI-All hingegen fordert die Implementierung der gesamten Spezifikation. Zur Zeit ist uns keine vollständige Implementierung von QTI 2.0 bekannt; angesichts des Umfangs erscheint es uns fraglich, ob es eine solche jemals geben wird. Die QTI-Spezifikation ist in vielen Punkten recht liberal; innerhalb eines Items sind praktisch beliebige Strukturen zugelassen. So ist etwa ein komplett leeres Item vollkommen standardkonform, ebenso ein Item ohne <itemBody> (und damit ohne Fragetext) sowie ein Item mit mehreren „Interactions“, d. h. ein Item, das z. B. gleichzeitig Multiple-ChoiceFrage als auch Lückentext ist. Ein Vorteil dieser Philosophie ist, dass prinzipiell viele Fragetypen auf QTI abgebildet werden können. Der Nachteil ist, dass der Import von QTI-Items aus unbekannten Quellen sehr komplex wird. Da der Standard zudem nicht klärt, welche Bedeutung etwa ein leeres Item oder eines mit mehreren „Interactions“ hat, kann kaum sichergestellt werden, dass ein Item genau so importiert wird, wie vom Autor ursprünglich vorgesehen. Somit wird der Hauptzweck eines Austauschformats nicht erreicht. Zusätzlich zur Beschreibung von Fragen und Tests spezifiziert QTI mit dem sogenannten „Response Processing“ eine Programmiersprache zur Auswertung von Tests. Da Beschreibung und Auswertung von Tests aber zwei vollkommen unterschiedliche Aspekte sind, 192 hätte das „Response Processing“ unserer Meinung nach in eine separate Spezifikation ausgegliedert werden sollen. Dies hätte zur Vereinfachung des ohnehin sehr umfangreichen QTI-Standards beigetragen. Die oben genannte Trennung von Inhalt, Erscheinungsbild und Verhalten findet sich im Design von QTI praktisch nicht wieder. In den Definitionen vieler Elemente, die den Inhalt des Items beschreiben, z. B. <feedbackBlock>, <feedbackInline> oder <responseDeclaration>, finden sich Abhängigkeiten zum per „Response Processing“ beschriebenen Verhalten des Items. Selbst wenn die Auswertung eines Tests nicht mit „Response Processing“ erfolgt, müssen bestimmte Elemente und Attribute vorhanden sein, damit ein Item dem QTI-Standard entspricht. 5.2 Formale Schwächen Da sie an vielen Stellen ungenau oder mehrdeutig ist, genügt die QTI-Spezifikation nicht unserer Forderung nach exakter Formulierung. Zahlreiche Fragen bleiben ungeklärt oder müssen vom Leser selbst erschlossen werden. Wir halten es daher für unwahrscheinlich, dass zwei Implementierungen von QTI in ihrer Interpretation des Standards genug übereinstimmen, dass ein reibungsoser Austausch zwischen ihnen möglich ist. Beispielsweise wird der Datentyp „language“ im [IMS05, XML Binding, S. 52] mit dem knappen Satz „A trivial restriction of xsd:string.“ definiert. Ob Sprachbezeichnungen z. B. nach RFC 3066 anzugeben sind, wird nicht näher festgelegt. Die Definition des Formats des Typs „identifier“ ist hingegen übermäßig lang ausgefallen. Üblicherweise werden für derartige Definitionen reguläre Ausdrücke oder kontextfreie Grammatiken in Backus-Naur-Form (BNF) verwendet. In der QTI-Spezifikation wird jedoch eine umständliche natürlichsprache Definition gegeben: An identifier is a string of characters that must start with a Letter or an underscore (’_’) and contain only Letters, underscores, hyphens (’-’), period (’.’, a.k.a. full-stop), Digits, CombiningChars and Extenders. Identifiers containing the period character are reserved for future use. The character classes Letter, Digit, CombiningChar and Extender are defined in the Extensible Markup Language (XML) 1.0 (Second Edition) [XML]. Note particularly that identifiers may not contain the colon (’:’) character. Identifiers should have no more than 32 characters. for compatibility with version 1 They are always compared case-sensitively. Die Interpunktionsfehler sind im Original enthalten; dadurch ist unklar, worauf sich die Kompatibilität mit Version 1 bezieht. Abweichend von der obigen Spezifikation ist im Schema der Typ „identifier“ als „NMTOKEN“ deklariert, das Schema erlaubt somit u. a. Punkt und Doppelpunkt, so dass die Anwendung die weiteren Restriktionen implementieren muss, obwohl dies bereits im Schema möglich gewesen wäre. Ebenso wird nicht verbindlich geregelt, ob Bezeichner mehr als 32 Zeichen lang sein dürfen und innerhalb welches Bereiches sie eindeutig sein müssen – tatsächlich macht die Spezifikation überhaupt keine Aussage zur Eindeutigkeit von Bezeichnern. 193 Ein anderes Beispiel findet sich in der Definition des Elements <extendedTextInteraction> für Freitextaufgaben. Dieses Element hat unter anderem die Attribute „expectedLines“ und „expectedLength“. Beide sind dafür vorgesehen, dem Kandidaten einen Anhaltspunkt zu geben, wie umfangreich seine Antwort ausfallen sollte (vgl. [IMS05, Information Model, S. 29]): Attribute: expectedLines [0..1]: integer The expectedLines attribute provides a hint to the candidate as to the expected number of lines of input required. A Delivery Engine should use the value of this attribute to set the size of the response box, where applicable. Attribute: expectedLength [0..1]: integer The expectedLength attribute provides a hint to the candidate as to the expected overall length of the desired response. A Delivery Engine should use the value of this attribute to set the size of the response box, where applicable. Aus den nahezu identischen Beschreibungen dieser beiden Attribute ist nicht ersichtlich, worin sie sich in ihrer Funktion unterscheiden. Ebensowenig wird erläutert, welcher Wert Vorrang hat, falls beide Attribute angegeben wurden. Zudem ist bei beiden unklar, worauf sich der anzugebende Wert bezieht. Die Vorgabe einer bestimmten Anzahl von Zeilen mittels „expectedLines“ ergibt nur dann einen Sinn, wenn auch festgelegt ist, wie lang die Zeilen sind. Der Wert von „expectedLength“ könnte z. B. die Anzahl an Wörtern meinen oder die Anzahl der Sätze oder die Breite in Zentimetern eines Eingabefeldes auf einer Webseite. Bei Items aus unbekannten Quellen ist es unmöglich festzustellen, was beabsichtigt war. 5.3 Schwächen in der technischen Umsetzung in XML Die QTI-Spezifikation umfasst auch das „XML Binding“, in dem ein XML-Schema definiert wird, das vorgibt, wie die im „Information Model“ beschriebenen Items auf XMLElemente abgebildet werden. Leider werden die Möglichkeiten von XML und XMLSchema nur ansatzweise ausgenutzt, so dass QTI-Dokumente mit Standard-XML-Werkzeugen nur zum Teil validiert werden können. Damit wird eine weitere unserer Anforderungen an Austauschformate nicht erfüllt. Einige Beispiele sollen dies illustrieren. An vielen Stellen in QTI wird für Querverweise auf andere Elemente ein Attribut verwendet, das den Bezeichner des Zielelements enthält. Teilweise werden Querverweise in QTI-Dokumenten aber auch anders realisiert. Wie in Abbildung 1 zu sehen ist, werden z. B. die richtigen Antwortmöglichkeiten auf eine Multiple-Choice-Frage mit Hilfe des <correctResponse>-Elements angegeben, das wiederum ein oder mehrere Elemente vom Typ <value> enhält. Der Inhalt jedes <value>-Elements ist der Bezeichner einer korrekten <simpleChoice>. Problematisch ist an diesem Ansatz, dass bei konsequenter Nutzung der XML eine deutlich robustere und elegantere Lösung möglich gewesen wäre. Zur Realisierung von Querverweisen stellt XML eigens die Attributtypen „ID“, „IDREF“ und „IDREFS“ zur Verfügung. 194 Werden Attribute dieses Typs verwendet, ist garantiert, dass alle Bezeichner vom Typ „ID“ eindeutig sind und dass alle per „IDREF“ oder „IDREFS“ referenzierten Element auch tatsächlich existieren. Vermutlich ist diese Semantik auch in QTI intendiert; im QTI-Schema werden jedoch an keiner Stelle die Attributtypen „ID“, „IDREF“ oder „IDREFS“ verwendet. Stellvertretend für zahlreiche weitere Schwächen in der XML-Umsetzung sei noch das Element <rubricBlock> genannt. Im [IMS05, Information Model, S. 23] findet sich in der Definition dieses Elements der Hinweis „Although rubric blocks are defined as simpleBlocks they must not contain interactions.“ Im XML-Schema wird diese Einschränkung aber nicht umgesetzt, obwohl W3C XML Schema durchaus die dazu notwendigen Mittel bietet. 6 Zusammenfassung und Schlussfolgerung Aufgrund unserer Erfahrungen bei der Implementierung einer Untermenge von QTI 2.0 in „ECQuiz“ und der Analyse der QTI-Spezifikation kommen wir zu dem Schluss, dass QTI 2.0 als Standard für den Austausch von Tests nicht geeignet ist: Es erlaubt zwar prinzipiell die Beschreibung einer großen Zahl von Testtypen und Auswertungsverfahren, eine vollständige Implementierung ist aber nur mit extrem hohem Aufwand möglich – unvollständige Implementierungen erreichen jedoch nicht die angestrebte Interoperabilität. Zur Zeit (Juni 2007) ist QTI 2.1 in Vorbereitung; diese Version soll u. a. die bislang fehlende Möglichkeit zur Beschreibung vollständiger Tests nachliefern. In den aktuellen Entwürfen sind darüberhinaus keine grundsätzlichen Änderungen gegenüber Version 2.0 vorgenommen worden, so dass die o. g. Kritikpunkte weiterhin zutreffen. Es ist jedoch bereits absehbar, dass QTI 2.1 nicht vollständig abwärtskompatibel zu QTI 2.0 sein wird: Nach QTI 2.0 kodierte Tests werden also ohne Änderungen keine gültigen QTI-2.1-Tests sein. Gorissen hat 2003 und 2006 [Go03, Go06] bei einer Auswahl von Systemen5 die Unterstützung für QTI evaluiert. Seine Untersuchungen zeigen, dass alle Systeme nur sehr kleine Untermengen von QTI unterstützen; in den meisten Fällen gehen beim Import Informationen verloren. Er bemerkt, dass sich die Situation seit 2003 – trotz des offensichtlichen Bedarfs für Austauschmöglichkeiten von Tests – praktisch nicht verbessert hat. Angesichts dieser Situation und der Komplexität von QTI schlägt Gorissen die Entwicklung einer freien Referenzimplementierung durch die „educational community“ vor. Da die Probleme mit QTI letztendlich in der Designphilosophie begründet sind, lassen sie sich nicht dadurch beheben, dass lediglich die o. g. Schwächen ausgebessert werden. Vielmehr ist aus unserer Sicht ein grundsätzlich anderer Ansatz notwendig, um die in Abschnitt 2 definierten Kriterien erfüllen zu können. Daher halten wir auch eine Beteiligung am QTISpezifikationsprozess nicht für Erfolg versprechend. 5 2006: Respondus, QuestionMark Perception, N@tschool!, Blackboard, Learn eXact (QTI 1.2) und TOIA (QTI 2.1) 195 Viele der Probleme im Ansatz von QTI rühren auch daher, dass QTI nicht aus dem praktischen Einsatz heraus entwickelt wurde, sondern von einem Kommittee „am grünen Tisch“ entworfen wurde (vgl. Abschnitt 5). Wir schlagen deshalb vor, dass die Anwendergemeinde (also die „educational community“) stattdessen auf der Basis ihrer praktischen Erfahrungen selbst ein Austauschformat für Tests entwickelt, das die o. g. Desiderata umsetzt und so die Implementierung tatsächlich interoperabler Testsysteme ermöglicht. Literaturverzeichnis [Br96] [Go03] [Go06] [IMS03] [IMS04] [IMS05] [ISO03] [LR98] [PR05] [RPA07] [SR00] [Wo04] [Wo06] 196 Scott Bradner. The Internet Standards Process – Revision 3. RFC 2026 (BCP 9), Internet Engineering Task Force, 1996. Pierre Gorissen. Quickscan QTI. Usability study of QTI for De Digitale Universiteit, 2003. Pierre Gorissen. Quickscan QTI – 2006. Usability study of QTI for De Digitale Universiteit, 2006. IMS Global Learning Consortium. IMS Simple Sequencing Specification Version 1.0, 2003. IMS Global Learning Consortium. IMS Content Packaging Specification Version 1.1.4, 2004. IMS Global Learning Consortium. IMS Question and Test Interoperability Version 2.0 Final Specification, 2005. ISO (International Organization for Standardization). ISO/IEC 19757-2:2003. Information technology – Document Schema Definition Language (DSDL) – Part 2: Regulargrammar-based validation – RELAX NG, 2003. Gustav A. Lienert und Ulrich Raatz. Testaufbau und Testanalyse. Psychologie Verlags Union, Weinheim, 6. Auflage, 1998. Michael Piotrowski und Dietmar Rösner. Integration von E-Assessment und ContentManagement. In Jörg M. Haake, Ulrike Lucke und Djamshid Tavangarian, Hrsg., DeLFI2005: 3. Deutsche e-Learning Fachtagung Informatik der Gesellschaft für Informatik e.V., number P-66 in Lecture Notes in Informatics, Seiten 129–140, Bonn, 2005. GIVerlag. Dietmar Rösner, Michael Piotrowski und Mario Amelung. A Sustainable Learning Environment based on an Open Source Content Management System. In Wilhelm Bühler, Hrsg., Proceedings of the German e-Science Conference (GES 2007). Max-PlanckGesellschaft, 2007. Colin Smythe und P. Roberts. An Overview of the IMS Question & Test Interoperability Specification. In Proceedings of the 4th CAA Conference, Loughborough, England, 2000. Loughborough University. World Wide Web Consortium. XML Schema, 2004. World Wide Web Consortium. Extensible Markup Language (XML) 1.0, 2006. Aktueller Stand und Perspektiven der eLearning-Infrastruktur an deutschen Hochschulen Ulrike Lucke, Djamshid Tavangarian Universität Rostock Institut für Informatik, Lehrstuhl für Rechnerarchitektur Albert-Einstein-Str. 21 18059 Rostock {ulrike.lucke, djamshid.tavangarian}@uni-rostock.de Abstract: Neben organisatorischen und pädagogischen Rahmenbedingungen ist eine leistungsfähige IT-Infrastruktur eine zentrale Voraussetzung für erfolgreiches eLearning. Eine Reihe von Forschungsaktivitäten und Strukturmaßnahmen hat in den vergangenen Jahren zur Weiterentwicklung und Verstetigung der an den Hochschulen verfügbaren Infrastrukturen beigetragen. Inwiefern damit die für aktuelle eLearning-Szenarien – insbesondere über die Grenzen einer Hochschule hinweg – benötigte Funktionalität gegeben ist, wird in diesem Beitrag untersucht. Basis der Aussagen ist eine Bestandsaufnahme der aktuellen IT-Infrastrukturen, die aus dem Verbund „Virtuelle Hochschullandschaft Norddeutschland“ (VHN) entstanden ist. Es werden der erzielte Entwicklungsstand wie auch bestehende Defizite aufgezeigt und Empfehlungen für die richtungsweisende Gestaltung von eLearning-Infrastrukturen an unseren Hochschulen angegeben. 1 Motivation Im Rahmen unterschiedlicher Förderprogramme vor allem des Bundes sowie auf Initiative einzelner Hochschulen wurden in den vergangenen Jahren vielfache Anstrengungen unternommen, um eLearning dauerhaft als integralen Bestandteil der Hochschulbildung zu etablieren. Einzelziele waren zum Beispiel, eLearning-Inhalte zu entwickeln [Bu00], Konzeptionen für das mobile Lernen zu entwerfen und im Studienbetrieb zu verankern [Bu01] oder nachhaltige Strukturveränderungen für eLearning an den Hochschulen herbeizuführen [Bu04]. Begleitet wird dies bereits seit langem durch Maßnahmen zum Ausbau der grundlegenden Infrastruktur [Bu69]. Führten diese Aktivitäten zu substanziellen Veränderungen im Studium an deutschen Hochschulen? eLearning hält nur langsam, nur in ausgewählten Bereichen und vorwiegend in Ergänzung zur traditionellen Präsenzlehre Einzug. Noch 2002 wurde dem eLearning in Deutschland ein vergleichsweise schlechter Entwicklungsstand im internationalen Vergleich bescheinigt: „On many variables for which substantial differences between countries could be determined, Germany demonstrates the lowest score, or is among the lowest. This refers first of all to the current use of ICT options and tools, the 197 extent to which ICT influences the general teaching practice and the support that is available for instructors in doing so. Second, this applies to the flexibility that is currently offered to students” [CW02]. Hat sich dieser Zustand in den vergangenen fünf Jahren verbessert? Bedingt sowohl durch Ergebnisse der o. g. Forschungsprogramme, aber auch generell durch den technologischen Fortschritt existiert heute eine Vielzahl von Geräten, Systemen, Prozessen und Anwendungsszenarien rund um das eLearning. Sie lassen sich oft nur schwer in ein gemeinsames Ganzes fügen. Die Infrastrukturen an den Hochschulen nehmen rasch an Umfang, Heterogenität und damit auch an Komplexität zu. Neben einer hochschulweiten Integration der Informations- und Kommunikationstechnologien [Te07] [Un07] oder Portalen zur Sammlung von eLearning-Diensten [De07][Hi07] werden aber auch hochschulübergreifende Mechanismen [Fa07] sowie völlig neue organisatorische Rahmenbedingungen und pädagogische Konzepte benötigt. In diesem Zusammenhang sind beispielsweise Kooperationsstudiengänge zwischen mehreren Hochschulen (mit Präsenzund virtuellen Anteilen in einem durchgängigen Szenario) oder die flexible Anerkennung einzelner Prüfungsleistungen von fremden Einrichtungen (auch ohne die Einbettung der Lehrveranstaltungen in ein gemeinsam geplantes Curriculum) zu nennen. Hintergrund derartiger Arrangements sind nicht allein eine organisatorische Umstrukturierung zur Kostensenkung oder der Wunsch bzw. der Bedarf nach einer Einbeziehung von Fachexperten aus einem größeren Einzugsgebiet. Angesichts der demographischen Veränderungen, der zunehmenden Mobilität von Wissenschaftlern und Studierenden ist dies auch eine ernsthafte Herausforderung aus bildungspolitischer Sicht. Wie wird die vorhandene Infrastruktur an unseren Hochschulen diesen, auf sie zu kommenden Anforderungen gerecht? 2 Bestehende Infrastruktur für eLearning Angesichts der oben aufgeworfenen Fragen haben die Wissenschaftsminister der fünf norddeutschen Bundesländer im Oktober 2005 den Verbund „Virtuelle Hochschullandschaft Norddeutschland“ (VHN) ins Leben gerufen. Hier sollen neue Strategien für das eLearning erarbeitet werden, um so die Wettbewerbsfähigkeit der norddeutschen Hochschulen national und international zu stärken – auch angesichts der aktuellen Exzellenzdiskussionen. Einer der sechs eingesetzten Arbeitskreise beschäftigt sich mit Aspekten der IT-Infrastruktur. In diesem Zusammenhang wurde durch den Arbeitskreis eine Analyse der eLearning-Infrastruktur an den norddeutschen Hochschulen erarbeitet. Deren Ergebnisse – die teilweise zwar nicht überraschend, doch in der Fachliteratur vorwiegend als generelle Empfehlungen [DI05][Re05] ohne hochschulübergreifende Datenbasis zusammengefasst sind – bilden den Gegenstand dieses Beitrags. Es wurden im August 2006 alle damals 68 Hochschulen in den fünf norddeutschen Bundesländern angeschrieben. Davon sendeten 26 den Fragebogen ausgefüllt zurück, und weitere 3 entschuldigten sich als in Auflösung oder Umwandlung begriffen. Da sich alle großen Universitäten aktiv in die Bestandsaufnahme eingebracht haben und damit ein Großteil der Studierenden in Norddeutschland von der Analyse erfasst ist, sind die Ergebnisse als repräsentativ zu bewerten. Die Verteilung der beteiligten Hochschulen auf 198 öffentliche und private Einrichtungen sowie auf Universitäten und Fachhochschulen ist in Abbildung 1 dargestellt. 100% 100% 80% priv. 80% FH 60% 60% 40% 40% öfftl. 20% 20% Uni 0% 0% öffentlich / privat Universität / Fachhochschule Abbildung 1: Zusammensetzung der in die Bestandsaufnahme eingegangenen Hochschulen Bei der Konzeption der Fragebögen wurden die folgenden Hypothesen zugrunde gelegt:  Die strategische Ausrichtung der Hochschulen beinhaltet eLearning als einen integralen Bestandteil.  Der Anteil elektronisch gestützter Lehr- und Lernszenarien ist derzeit noch gering, wird jedoch künftig zunehmen.  Die Organisationsstrukturen für eLearning resultieren vermutlich aus Forschungsprojekten und sind daher gering entwickelt, dezentral und temporär.  Die vorhandenen IT-Infrastrukturen für eLearning – als Schwerpunkt der Untersuchung – werden in den Bereichen Erstellung und Nutzung von eLearning-Inhalten als gut entwickelt angenommen. Dagegen sind Mechanismen zur gezielten Wiederverwendung von Inhalten sowie hochschulübergreifende Szenarien vermutlich nur gering entwickelt. Von den IT-Basisdiensten werden die Kommunikationsstrukturen als sehr gut eingestuft, aber Sicherheitsdienste (v. a. hochschulübergreifend) als noch ungenügend. Diese vier Bereiche bilden zugleich die Struktur der nachfolgenden Auswertung. 2.1 Strategische Ausrichtung hinsichtlich des eLearning Erst sehr wenige Hochschulen (etwa 20%) verfügen über eine klar definierte Strategie (im Sinne eines Strategiepapiers, Hochschulentwicklungsplans o. ä.) für den Umgang mit neuen Medien, wie Abbildung 2 zeigt. Bei der Ermittlung der strategischen Ziele für den Einsatz von eLearning wurde auf eine geschlossene Frage verzichtet und den Teilnehmern somit hinreichend individueller Spielraum bei der Beantwortung eingeräumt. (Das machte die nachträgliche Zusammenfassung zu Kategorien nötig, die jedoch ohne Informationsverlust möglich war.) Von der überwiegenden Mehrheit der Hochschulen wurde die Ergänzung der Präsenzlehre als 199 100% 80% ohne 60% 40% 20% in Arbeit vorhanden 0% Abbildung 2: Gibt es eine definierte Strategie für eLearning an Ihrer Hochschule? Ziel für eLearning benannt; auch die Erweiterung des Lehrangebots sowie die steigende Qualität und Attraktivität des Studiums spielen bei etwa der Hälfte der Hochschulen eine wichtige Rolle. Dagegen erfolgt selten eine kommerzielle Ausrichtung der eLearningAngebote. Eine Hochschule äußerte die Hoffnung auf eine Kostensenkung, wie in Abbildung 3 dargestellt ist. 20 18 16 14 Ergänzung der Präsenzlehre 12 Erw eiterung des Lehrangebots 10 kommerzielle Ausrichtung 8 Kostensenkung 6 Qualitätssteigerung 4 2 0 Abbildung 3: Welche strategischen Ziele verbinden Sie mit dem Einsatz von eLearning? Offenbar erwarten die Hochschulen vom eLearning zwar eine Verbesserung des bestehenden Lehrangebots (qualitativ wie quantitativ), jedoch keine gravierenden Veränderungen in den internen Prozessen, in ihrem Profil oder ihrer Marktposition. 2.2 Eingesetzte Lehr- und Lernszenarien Die Hochschulen nutzen nach eigener Schätzung zu etwa 30% elektronisch unterstützte Präsenzlehre sowie bereits zu etwa 10% neue Lehr- und Lernformen (v. a. Videoaufzeichnung, aber auch Selbstlernen oder Blended Learning – mit verschwimmenden Abgrenzungen) und wollen diesen Anteil in den kommenden Jahren deutlich steigern. Hochschulübergreifende Szenarien spielen mit unter 2% derzeit nur eine marginale Rolle, werden aber künftig an Bedeutung gewinnen. Dies ist dargestellt in Abbildung 4. Die möglichen Antwortkategorien waren bei dieser Frage vorgegeben. Dabei ist anzumerken, dass einerseits die Bereiche nicht vollständig disjunkt sind (Wie viel Blended 200 hochschulübergreifend Videoaufzeichnungen Blended Learning Selbstlernen elektronisch unterstützt klassische Präsenzlehre heute in 5 Jahren Abbildung 4: Welche Lehr-/Lernszenarien setzen Sie heute ein, und welche in etwa 5 Jahren? Learning steckt im Selbstlernen?), andererseits die Interpretation der Begriffe variierte (Gehören PowerPoint-Folien inzwischen zur klassischen Präsenzlehre?). Trotz dieser Unschärfe lässt sich dennoch ein allgemeiner Trend der Antworten ableiten. 2.3 Organisationsstrukturen für eLearning An vielen Hochschulen gibt es bereits lokale Organisationsstrukturen zur Koordination von eLearning-Aktivitäten sowie zentrale Maßnahmen bzw. Anlaufstellen für Support und Training der Anwender (jeweils an etwa drei Viertel der Hochschulen). Es handelt sich nur noch teilweise um projektbezogene, temporäre Einrichtungen. Oft wird die Funktion des Koordinators durch einen Prorektor wahrgenommen bzw. in existierende Einrichtungen mit anderem Arbeitsschwerpunkt (Rechenzentrum, Bibliothek) integriert; selten besteht eine eigenständige Einheit. Dagegen sind Organisationsstrukturen zur Qualitätssicherung – wenn überhaupt vorhanden – erst im Aufbau begriffen. Teilweise werden Evaluationen durchgeführt. Hochschulübergreifende Strukturen für eLearning sind oft bereits vorhanden bzw. werden verstärkt gefordert, wie Abbildung 5 zeigt. Die Frage war hier offen formuliert, um 28 24 20 vorhanden 16 w ünschensw ert 12 keine w eiteren gew ünscht 8 4 0 übergreifende Strukturen Abbildung 5: Sind hochschulübergreifende Organisationsstrukturen für eLearning vorhanden? Welche halten Sie für wünschenswert? 201 verschiedenartige Organisationsformen erfassen zu können. Teilweise handelt es sich bei den angegebenen Strukturen um bilaterale Kooperationen, z. T. auch um regionale oder landesweite Netzwerke. Eine Verstärkung der Kooperation wird v. a. für die überregionale, koordinierte Entwicklung und den Austausch von eLearning-Inhalten sowie für die wechselseitige Anerkennung (elektronischer) Prüfungen gewünscht. Auffallend ist, dass sich einige Hochschulen explizit keine weiteren übergreifenden Strukturen wünschen, selbst wenn sie bereits auf solche zugreifen können. (Die Formulierung im Fragebogen lautete: „Welche halten Sie für wünschenswert?“ und suggerierte somit keine ablehnende Antwort.) In individuellen Nachfragen haben sich die Einstellungen zu diesen Institutionen als ambivalent herausgestellt, da in deren Folge Abhängigkeit oder Mittelabzug befürchtet werden. 2.4 IT-Infrastrukturen für eLearning Auch bei der Ermittlung der bestehenden IT-Infrastruktur für eLearning wurden alle Fragen offen formuliert. Teilweise wurden stichpunkthafte Beispiele ergänzt, um die Fragestellung zu verdeutlichen. Das Antwortspektrum zeigt bei vielen Fragen eine große Varianz. So waren etwa an einigen großen Universitäten viele Ausstattungsmerkmale offenbar selbstverständlich (und daher nur auf Nachfrage feststellbar), die von anderen Hochschulen im Detail dargelegt wurden. Die Multimedia-Ausstattung der Hochschulen kann insbesondere an den Universitäten als gut bis sehr gut charakterisiert werden. Für die Erstellung von eLearning-Inhalten sind durchgängig Multimedia-Arbeitsplätze mit Internet-Anbindung vorhanden, die sowohl dezentral in den Einrichtungen als auch hochschulweit zentral durch spezielle Labore oder Arbeitsplätze ergänzt werden. Auch für die Nutzung von eLearning sind eine fast durchgängige Multimedia-Ausstattung (vor allem in Hörsälen, oft auch in Seminarräumen) sowie zahlreiche Speziallabore oder Pools verfügbar. Zugangseinrichtungen für die Nutzer sind zahlreich und vielfältig vorhanden. Neben einer (abhängig von der Größe und Art der Hochschule) breiten Zahl von Plätzen in PC- oder Workstation-Pools steht insbesondere an den großen Universitäten eine Reihe von Notebook-Arbeitsplätzen zur Verfügung. Es gibt bislang kaum dedizierte Mechanismen zur hochschulweiten Wiederverwendung von Lehr- und Lerninhalten. Teilweise wird dies in lokaler Eigenregie durch die Lehrenden ersatzhalber mit Hilfe von Authoring-Werkzeugen oder Lernplattformen realisiert; es gibt kaum zentrale Repositorien. Im hochschulübergreifenden Bereich bestehen einige gemeinsame Nutzungen von Lernplattformen; erste gemeinsame Portale befinden sich im Aufbau – beides lässt sich jedoch nicht als wirkliche Wiederverwendung von Inhalten bezeichnen. Dabei existiert eine Vielzahl von unterschiedlichen Lernplattformen, wie in den Abbildungen 5 und 6 dargestellt ist. Die Integration der Lernplattformen mit anderen universitären Diensten (Hochschulinformationssystem oder Bibliothek) ist erst vereinzelt realisiert, und zwar vorwiegend für Stud.IP. Die Schnittstellen der eingesetzten Systemen werden mit schwankender Aussagekraft benannt; positiv fallen hier v. a. Stud.IP und Ilias durch ihre APIs sowie den Import/Export etwa über SCORM auf. 202 28 24 20 16 Authoringwerkzeuge Lehr-/Lernplattform zentrale Repositorie 12 8 4 0 Wiederverwendung (lokal) Abbildung 5: Welche Werkzeuge setzen Sie zur gezielten Wiederverwendung von Inhalten ein? 10 8 Stud.IP Ilias 6 WebCT Blackboard 4 Eigenentw icklung andere 2 0 Lernplattform (dezentral) Lernplattform (zentral) Lernplattform (übergreifend) Abbildung 6: Welche Lehr-/Lernplattformen sind bei Ihnen im Einsatz? Als hochschulübergreifende Infrastrukturen für das eLearning werden nur einzelne Initiativen (Virtuelle Fachhochschule [Fa07], Telekolloquium [EL07]) aufgeführt. Grundsätzlich sind die Hochschulen aber zumindest im öffentlichen Bereich für die Fernkooperation gut bis sehr gut mit Videokonferenz-Systemen (zentral und/oder dezentral) ausgestattet. Lediglich kleinere private Hochschulen verfügen noch nicht über eine solche Ausrüstung. Zentrale Infrastrukturen zum Identity Management sind, wenn überhaupt, erst innerhalb einer Hochschule vorhanden. Hier wird vorwiegend LDAP eingesetzt, teilweise existieren auch proprietäre Lösungen. Hochschulübergreifende Mechanismen befinden sich erst in Planung, wie Bild 7 zeigt. Die Vernetzung an den norddeutschen Hochschulen kann inzwischen als fast vollständig angesehen werden. Bis auf einzelne kleinere, private Hochschulen haben alle Einrichtungen Netz am Arbeitsplatz und im Wohnheim sowie flächendeckend WLAN, zum 203 Abbildung 7: Über welche Mechanismen zum Identity Management verfügen Sie? großen Teil auch in Verkehrsflächen. Die öffentlichen Hochschulen bieten einen gesicherten VPN-Zugang von außen an und sind mit Bandbreiten von deutlich über 10 MBit/s an das Wissenschaftsnetz angebunden. Dagegen haben die privaten Hochschulen i. Allg. nur einen schmalbandigen Anschluss und selten einen VPN-Zugang. Dies ist in den Bildern 8 und 9 dargestellt. 2.5 Fazit Mit Bezug auf die eingangs formulierten Thesen der Untersuchung lassen sich folgende Kernergebnisse der Analyse ableiten: 1. Die strategische Ausrichtung der Hochschulen hinsichtlich des eLearning umfasst v. a. die Ergänzung und Verbesserung der bestehenden Präsenzlehre und kann daher als konservativ bezeichnet werden. Eine klare Strategie ist leider noch kaum definiert. 2. Lehren und Lernen ohne Rechnerunterstützung nehmen derzeit noch knapp zwei Drittel der Szenarien im Alltag der Hochschulen ein, werden jedoch in den kommenden fünf Jahren auf etwa ein Drittel zurückgehen. Besonders steigen wird nach Selbsteinschätzung der Hochschulen der Anteil von elektronisch gestützter Präsenzlehre und Blended Learning. 3. Die vorhandenen Organisationsstrukturen für eLearning sind dauerhafter als vermutet, jedoch kaum eigenständig realisiert. Während Verantwortliche zur Koordination von und zum Support für eLearning bereits häufig definiert sind, befinden sich Strukturen zur eLearning-Qualitätssicherung erst im Aufbau. Hochschulübergreifende Strukturen sind regional teilweise verfügbar, werden jedoch vermehrt auch überregional gefordert. 4. Die technische Infrastruktur für eLearning ist an den untersuchten Hochschulen in großen Teilen vorhanden, vor allem in den Bereichen Erstellung und Nutzung von eLearning-Inhalten. Sie ist jedoch hochgradig heterogen und nicht einheitlich organisiert. Die Komplexität und Dynamik der Systeme lassen in vielen Fällen keine 204 16 14 12 10 nein teilw eise 8 ja 6 4 2 0 Netz im Wohnheim WLAN hochschulw eit Netz in Verkehrsflächen VPN von außen Abbildung 8: Über welche Kommunikationsinfrastruktur verfügen Sie? kein 6 5MBit/s 10MBit/s 4 34MBit/s 50MBit/s 100MBit/s 2 300MBit/s 600MBit/s 0 Bandbreite zum WIN Abbildung 9: Mit welcher Bandbreite sind Sie an das wissenschaftliche Netz angeschlossen? statische Konfiguration und manuelle Steuerung zu. Dies verhindert die nötige Interoperabilität der Systeme. Zudem fehlen grundlegende Infrastruktur-Dienste (wie ein zentrales Identity Management) und dedizierte eLearning-Infrastrukturen (z. B. Plattformen zur gezielten Wiederverwendung von Inhalten – lokal ebenso wie hochschulübergreifend). Die anhand der Bestandsaufnahme in Norddeutschland gewonnenen Aussagen lassen sich unter Beachtung lokaler Spitzen, wie sie im Zuge der Exzellenzinitiative diskutiert wurden [Wi07], mit großer Wahrscheinlichkeit auch auf den Rest des Bundesgebiets ausdehnen. 3 Entwicklungsperspektiven und Empfehlungen Besonders stark wirkt sich die bestehende Diversität der eLearning-Infrastrukturen und Organisationsstrukturen in institutionsübergreifenden Szenarien aus, die aufgrund der 205 demographischen und bildungspolitischen Entwicklungen zunehmend an Bedeutung gewinnen werden. Bei der Kooperation über die Grenzen einer Hochschule bzw. sogar eines Bundeslandes hinweg sind Interoperabilität, Standards und Schnittstellen sowie lokale Autonomie für den reibungslosen Betrieb unverzichtbar. Als grundlegende organisatorische Maßnahme erscheint daher die durchgängige Realisierung von eigenständigen eLearning-Einrichtungen mit klaren Kompetenzen und Befugnissen für Koordination, Support&Training sowie Qualitätssicherung – auf Basis einer klar definierten eLearning-Strategie – sowohl hochschulintern als auch hochschulübergreifend als wichtig. Solche Strukturen sind wichtige Instrumente für Kontinuität und Kompetenzbildung. Überregionale Netzwerke und Ansprechpartner haben hier bereits vielfach positive Entwicklungen hervorgerufen. Auf technischer Ebene kann eine signifikante Verbesserung der IT-Infrastruktur an den Hochschulen (nicht nur für das eLearning) durch den Paradigmenwechsel zu einer dienstbasierten Architektur erzielt werden. Dadurch könnten bestehende Werkzeuge, Plattformen und Prozesse in aller nötigen Heterogenität und Dezentralität aufrechterhalten und dennoch zu einem durchgängigen System zusammengefasst werden [Kr06]. Durch das Nebeneinander und Miteinander verschiedener Angebote, die einander ersetzen oder ergänzen, wird der Übergang zwischen individuellen Prozessen und Dienstvarianten an verschiedenen Hochschulen nahtlos ermöglicht. In einer hochgradig heterogenen und verteilten Universitätslandschaft können dafür keine streng hierarchischen, zentralisierten Strukturen mehr zum Einsatz kommen. Im Hochschulalltag werden durch eine Service-Orientierte Architektur (SOA) Transparenz und Komfort für den Nutzer erhöht sowie der administrative Aufwand verringert. Somit ergeben sich Verbesserungen in alltäglichen Anwendungsszenarien, wie z. B.:  Kopplung von Studenten- & Personalverwaltung mit dem Nutzermanagement, direkte Übernahme von Stammdaten beim Hochschulwechsel  institutionsübergreifendes Identity Management mit Single-SignOn  automatische Erfassung von Prüfungsergebnissen (auch von anderen Hochschulen bei Auslandssemestern oder Kooperationsstudiengängen) als Basis für Prüfungszulassungen oder individuelle Studienpläne  Weiterleitung von Netzwerkverbindungen, persönlichen Einstellungen und Daten des Nutzers auf Basis seines aktuellen Umfelds  personalisierte Bibliothekssuche in Abhängigkeit vom Studienfortschritt sowie Rechnerunterstützung beim Ausleihvorgang  proaktive Distribution von Lehr- und Lerninhalten auf der Basis von aktueller Position und Zeit sowie dem geltenden Veranstaltungsplan  automatische Lokalisierung geeigneter Drucker und Authentifizierung des Anwenders beim Drucken in einer unbekannten Umgebung 206  automatische Erfassung von Raumauslastungen u. ä. zur Optimierung von Belegungsplänen oder anderen logistischen Parametern Vergleichbare Anwendungen existieren bereits in Form von mobilen Informationssystemen, wie z. B. an Flughäfen oder für das Sight Seeing. Die Herausforderung besteht in der Übertragung dieser Technologien und Konzepte auf das komplexe Geflecht aus Infrastrukturen und Diensten an einer Hochschule, ohne deren laufenden Betrieb zu beeinträchtigen. Hier sind umfangreiche Forschungs- und Entwicklungsprojekte nötig. Langfristig wird es eine weiterführende Entwicklung hinsichtlich der Kopplung von dienstorientierten Architekturen (als infrastrukturelle Grundlage) und der aktuellen Forschung zu selbstorganisierenden Systemen, zu Peer-to-Peer-Architekturen und zum Pervasive Computing geben. Die bereitgestellten Dienste einer solchen Pervasive University werden ergänzt durch kaum wahrnehmbare Sensoren, Prozessoren und Aktoren, die den Anwender vorausschauend und allgegenwärtig bei seinen täglichen Aktivitäten unterstützen und dabei physische Umgebung und Informationstechnik nahtlos ineinander verweben. Hier ist eine Reihe von kontextsensitiven, proaktiven Diensten in Lehre, Forschung und Verwaltung der Hochschulen denkbar [TL06]. Grundlegendes Ziel sollte es dabei sein, die mit moderner IT-Technologie verfügbaren Optionen gezielt und umfassend einzusetzen, um das eLearning (in Ergänzung und Erweiterung der bestehenden Präsenzlehre) zur Steigerung von Qualität und Flexibilität im Studium einzusetzen. Dies würde zu einer nachhaltigen Stärkung der Position unserer Hochschulen im internationalen Wettbewerb führen. Literaturverzeichnis [Bu69] [Bu00] [Bu01] [Bu04] Bundesministerium für Bildung und Forschung: „Gesetz über die Gemeinschaftsaufgabe ‚Ausbau und Neubau von Hochschulen’ (Hochschulbauförderungsgesetz, HBFG)“, September 1969. http://www.bmbf.de/pub/HBFG_1.pdf Bundesministerium für Bildung und Forschung: „Bekanntmachung von Richtlinien über die Förderung von Vorhaben zur Förderung des Einsatzes Neuer Medien in der Hochschullehre im Förderprogramm ‚Neue Medien in der Bildung’“, März 2000. http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/bekanntmachung_hochschule n.html Bundesministeriums für Bildung und Forschung: „Richtlinien über die Förderung von Projekten zur Unterstützung von E-Learning an Hochschulen durch mobilen Rechnereinsatz (‚Notebook- University’) im Förderprogramm ‚Neue Medien in der Bildung’“, Oktober 2001. http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/bekanntmachung_notebook_ university.html Bundesministerium für Bildung und Forschung: „Richtlinien über die Förderung der Entwicklung und Erprobung von Maßnahmen der Strukturentwicklung zur Etablierung von eLearning in der Hochschullehre im Rahmen des Förderschwerpunkts ‚Neue Medien in der Bildung’“, Juni 2004. http://www.dlr.de/pt_nmb/Foerderung/Bekanntmachungen/eLearning.pdf 207 [CW02] Betty Collis, Marijk van der Wende (Eds.): „Models of Technology and Change In Higher Education: An international comparative survey on the current and future use of ICT in Higher Education”, Center for Higher Education Policiy Studies, Niederlande, Dezember 2002. http://www.utwente.nl/cheps/documenten/ictrapport.pdf [De07] Deutsches Zentrum für Luft- und Raumfahrt: „Portal zur BMBF-Förderung Neue Medien in der Bildung“ http://www.medien-bildung.net/ [DI05] DINI: „Technische und organisatorische Rahmenbedingungen für eine erfolgreiche Einführung und nachhaltige Nutzung von E-Learning an Hochschulen“, DINI-Schriften 5-de, Oktober 2005. [EL07] E-Learning Academic Network Niedersachsen (ELAN): „Niedersächsisches Telekolloquium” http://www.telekolloquium.de/ [Fa07] Fachhochschule Lübeck: „oncampus” htttp://www.oncampus.de/ [Hi07] Higher Education Funding Council for England: „Joint Information Systems Committee: supporting education and research“ http://www.jisc.ac.uk/ [Kr06] Reinhold Kröger, Ulrike Lucke, Markus Schmid, Djamshid Tavangarian: "Web Services for the Integration of XML-based Content into Learning Platforms: a Three-level Model", erscheint in: Proceedings of 2nd International Symposium on Leveraging Applications of Formal Methods, Verification and Validation (ISoLA 2006), IEEE Press. [Re04] Thomas Reglin: “Welche Infrastruktur benötigt eLearning?”, in: „E-Learning – Virtuelle Kompetenzzentren und Online-Communities zur Unterstützung arbeitsplatznahen Lernens“, Bertelsmann-Verlag, 2004. [Te07] Technische Universität München: „TUM Projektübersicht – Integratum“ http://portal.mytum.de/iuk/integratum/ [TL06] Djamshid Tavangarian, Ulrike Lucke: „Pervasive University: Implementierung und Einsatz des Pervasive Computing in der Hochschule“, Proc. Informatik, LNI, Vol. P-93, S. 45-49, Köllen Verlag, 2006. [Un07] Universität Münster: „E-Learning-Kompetenzzentrum“ http://e-learning.uni-muenster.de/ [Wi07] Wissenschaftsrat: „Exzellenzinitiative“ http://www.wissenschaftsrat.de/exini_start.html 208 ...unser Admin installiert da mal was! – Zur Nachhaltigkeit von E-Learning-Infrastrukturen – Eine Taxonomie Thorsten Hampel, Marc Steinbring Universität Wien Fakultät für Informatik - Betriebliche Informationssysteme Dr.-Karl-Lueger-Ring 1 A - 1010 Wien thorsten.hampel@univie.ac.at, steinb@zitmail.uni-paderborn.de Abstract: Ziel des Beitrags ist die Analyse von Faktoren der inhaltlichen und organisatorisch-infrastrukturellen Nachhaltigkeit von E-Learning-Infrastrukturen. In Form einer Taxonomie werden die zentralen Aspekte und Einflussfaktoren eines nachhaltigen Einsatzes von E-Learning-Infrastrukturen herausgearbeitet, systematisiert und an Beispielen illustriert. 1 Einleitung Etymologisch betrachtet geht der Begriff der Nachhaltigkeit auf den Forstwirt Hans Carl von Carlowitz zurück, der in seiner Sylvicultura oeconomica von 1713 das erste Mal der Idee einer nachhaltigen Pflege des Baumbestandes nachging. „Wird der halben die größte Kunst, Wissenschaft, Fleiß und Einrichtung hiesiger Lande darinnen beruhen, wie eine sothane Conservation und Anbau des Holzes anzustellen, dass es eine kontinuierliche beständige und nachhaltende Nutzung gebe, weil es eine unentbehrliche Sache ist, ohne welche das Land in seinem Esse nicht bleiben mag.“1 Fielen einst zahlreiche Flächen an forstwirtschaftlichen Kulturen dem mit der Rodung einhergehenden Profitdenken zum Opfer, sind nach Einführung einer nachhaltigen Nutzung deren Vorteile heutzutage offensichtlich und allgemein anerkannt. Die Idee der Nachhaltigkeit aus der forstwirtschaftlichen Definition heraus kann auch für E-Learning-Systeme übertragen und für Handlungsanweisungen einer positiven Entwicklung entliehen werden. In beiden Fällen hat die Definition eine dauerhafte und kontinuierliche Nutzung und Pflege einmal aufgebauter Strukturen zum Inhalt. Die Unterstützung menschlichen Lernens mit Hilfe von Computern ist von Multimedia über Hypermedia und E-Learning in stetiger Entwicklung. Aktuell trifft vielleicht der Begriff der Wissensorganisation die vielfältigen Ansätze am treffendsten. Analog zur stetigen Entwicklung der Terminologien der Wissensorganisation werden fortlaufend neue Systeme geschaffen und bestehende Ansätze erweitert. 1 Hans Carl von Carlowitz, Sylvicultura Oeconomica, 1713 209 Als sicherlich richtungweisende Erkenntnis steht dabei nicht länger die Frage nach der (einen) richtigen Plattform im Vordergrund. Es geht vielmehr um die Voraussetzungen einer auf Nachhaltigkeit aufbauenden Einbettung unterschiedlicher, miteinander vereinbarer, koexistierender Systeme in eine kooperative Diensteinfrastruktur. Sind die Gründe für die Fülle an genutzten Systemen und Ansätzen sehr vielfältig, so gilt dem Augenmerk die Entwicklung eines geeigneten Konzepts der Nachhaltigkeit. Der vorliegende Beitrag wird ausgehend von der Fähigkeit zur Interoperabilität verschiedener ELearning-Systeme eine Nachhaltigkeitstaxonomie vorstellen. 2 Von funktional ausgerichteter Softwareentwicklung zur nachhaltigen Interoperabilität Prägender Gegenstand der allgemeinen E-Learning-Diskussion der letzten Jahre war der funktionale Vergleich der verschiedenen auf dem Markt verfügbaren E-LearningPlattformen und Systeme. E-Learning-Plattformen oder auch Lernmanagementsysteme werden hierbei primär nach funktionalen Eigenschaften und Merkmalen (ihren Features) miteinander verglichen und voneinander differenziert. Treibende Kriterien eines derartigen Vergleichs sind die bereitgestellten didaktischen Lernformen, Kommunikationsmöglichkeiten, aber auch technische Eigenschaften, wie bereitgestellte Schnittstellen oder unterstützte Formate. In diesem Prozess des Benchmarking orientiert sich die Bewertung von Lernplattformen oder auch allgemein eine Bewertung wissensverarbeitender Systeme primär an Eigenschaften des jeweils betrachteten Werkzeugs. Im Zuge dieses Vorgehens sind eine ganze Reihe von teils umfangreichen Vergleichsstudien zu den Eigenschaften verschiedener E-Learning-Plattformen und Lernmanagementsystemen entstanden (vgl. [BHM02] und [Sc03]). Derartige Studien leisten die wichtige Aufgabe, Plattformen zunächst anhand verschiedener Kriterien, wie der unterstützten Lernformen, Übungstypen oder auch Mechanismen der Lernfortschrittskontrolle, also die primär funktionalen Eigenschaften, zu klassifizieren. Zurzeit sind zwei wesentliche neue Phänomene in der Bewertung verschiedener Lernplattformen und Lernmanagementsysteme zu beobachten. Hierbei ist zum einen eine funktionale Konvergenz der auf dem Markt verfügbaren Produkte zu nennen, zum anderen finden zunehmend Interoperabilitäts- und Architekturmerkmale (Standarisierungsaspekte) von Lernplattformen eine Berücksichtigung.2 Mit der funktionalen Konvergenz verschiedener Lernplattformen ist zunächst eine zunehmende funktionale Ähnlichkeit typischer Lernplattformen gemeint. Viele Systeme gleichen sich in Art und Umfang der angebotenen Lernformen und Kommunikationswerkzeuge. Lassen sich eine Vielzahl unterschiedlicher Ausprägungen und Unterschiede zwischen den Plattformen beobachten, so sind jedoch grundlegende Merkmale und Funktionen ähnlich bzw. vielfach aufeinander abbildbar. Dies erkennt man beispielsweise an ähnlicher Terminologie (Kurs, Übung bzw. angebotene Übungsformen) aber auch an einem sich ausbildenden gewissen Konsens der Gestaltung einer Lernplattform. 2 vgl. hierzu auch die Open Knowledge Initiative (O.K.I), http://okicommunity.mit.edu/ 210 Besonders bemerkenswert ist in diesem Zusammenhang, dass sich Open-SourceSysteme in den letzten Jahren den großen kommerziellen Systemen angenähert haben, bzw. diese in einigen Bereichen übertreffen. Insofern bilden Open-Source-Systeme – nicht zuletzt aufgrund des Geschäftsmodells des Verkaufs von Service und Dienstleistung rund um Open-Source – eine ernst zu nehmende Alternative zu verbreiteten kommerziellen Lösungen. Funktionale Konvergenz bedeutet entsprechend auch eine sich ausbildende Vielfalt an möglichen Lizenz- und Kostenstrukturen bei ähnlichem funktionalem Angebot (vgl. [SH06a]). Gängige Lernplattformen werden sich entsprechend rein funktional betrachtet ähnlicher, wenn auch zum Teil die Fundamente ihrer Architektur erheblich differieren. So führen unterschiedliche architektonische Konstrukte der jeweiligen Plattformen zu sehr differenzierten Möglichkeiten der Verzahnung der angebotenen Werkzeuge/Dienste.3 Eine wesentliche Auswirkung hat die gewählte architektonische Grundlage eines Systems jedoch insbesondere auf dessen Fähigkeit mit anderen Systemklassen zusammenzuarbeiten. Neben der funktionalen Konvergenz von Wissensorganisations- und Lernmanagementplattformen sind als deren besondere Qualitätskriterien die Standardisierung und Interoperabilität, also die Konvergenz auf Interoperabilitätsebene, zu nennen. Der vorliegende Beitrag begreift die Fähigkeit zur Interoperabilität, also die Systemkonvergenz verschiedener Systemklassen des E-Learning als wesentliches Merkmal der Nachhaltigkeit einer aufzubauenden Infrastruktur. Die Fähigkeit mit anderen Systemklassen zusammenzuarbeiten erstreckt sich dabei auf die Dimension des  standardisierten Austauschs von Daten und Materialien der Lernplattform, also die Nutzung von Standards zur Kodierung der Inhalte und Strukturen,  auf die funktionale Verzahnbarkeit verschiedener Systemklassen, also die Möglichkeit einzelne Funktionseinheiten und Dienste in verschiedenen Nutzungskonstellationen zusammenführen zu können,  und schließlich auf den Aufbau von sicheren Authentifizierungs- und Autorisierungsinfrastrukturen, also die Fähigkeit Nutzer- und Gruppenverwaltungen organisatorisch wie technisch zusammenführen zu können. Alle drei genannten Dimensionen einer Systemkonvergenz sind entsprechend wichtige Aspekte der Nachhaltigkeit einer gewählten Lösung. War noch vor wenigen Jahren das Argument der Wahl einer entsprechenden Plattform aus funktionaler Sicht wesentlich und vorrangig, so verschiebt sich zusehends der Fokus auf die Nachhaltigkeit der zu entwerfenden Gesamtlösung. Vereinfacht ausgedrückt lassen sich verschiedene Systeme weniger durch die besondere eine oder andere Funktion unterscheiden, als durch ihre Fähigkeiten zur Integration in eine Gesamtinfrastruktur. 3 Auf die Aspekte der Integration von medialen Beschreibungsformen, beispielsweise verwirklicht im Konzept der Wissensräume, sei an dieser Stelle nicht genauer eingegangen und auf [Ha02] verwiesen. 211 3 Taxonomische Darstellung für Dimensionen der Nachhaltigkeit Die Nachhaltigkeit einer E-Learning-Umgebung bzw. eines Lernmanagement-Systems ist von einer ganzen Reihe von Faktoren beeinflusst. Auf dem Weg hin zu einer Taxonomie der Nachhaltigkeit von E-Learning-Systemen lässt sich zunächst die Dimension einer inhaltlichen Betreuung von der Dimension einer organisatorischen Einbettung des genutzten Produkts mit ihren verschiedenen Faktoren differenzieren. Diese Bestandteile führen zu einer klassifizierenden Gliederung der Nachhaltigkeit von E-LearningLandschaften und können in Form einer Taxonomie dargestellt werden (vgl. Abbildung 1). Die mit der Nachhaltigkeit einhergehenden Umsetzungskonflikte sind in Abbildung 2 tabellarisch aufgeführt. Dimension 1: Inhaltliche Betreuung Die inhaltliche Betreuung bezieht sich auf die Art und Weise der Pflege der wesentlichen Bestandteile einer E-Learning-Umgebung. So können einerseits die Verwaltung der Lerner und Lehrende (Faktor 1.1), die Aktualität der Inhalte (Faktor 1.2) und die Betreuung der Nutzer (Faktor 1.3) als Nachhaltigkeitskriterium aus inhaltlicher Sicht ausgemacht werden. Zwischen inhaltlicher und organisatorisch-infrastruktureller Nachhaltigkeit bestehen diverse Abhängigkeiten und ein enger Bezug. Faktor 1.1: Verwaltung von Lerner und Lehrende Für jede auf Nachhaltigkeit ausgelegte Nutzung eines E-Learning-Systems gilt es die Nutzer und Lehrenden der Lernumgebung zu verwalten und geeignete Gruppenstrukturen zu pflegen. Nur wenn Lerner und Lehrende eine strukturierte Lernumgebung vorfinden, ist eine sinnvolle Nutzung überhaupt erst möglich. Eine einfache Verwaltung liefert die Grundvoraussetzung für eine Effizienz und Effektivität des Lernsystems. Faktor 1.2: Aktualität der Lerninhalte Inhaltskomponenten (Content), wie Materialien, Multiple-Choice-Tests oder Prüfungen, bedürfen natürlicherweise einer stetigen Aktualisierung und Pflege. Inhalte in Kursen oder Übungen müssen den wechselnden Rahmenbedingungen der Lehre stets überarbeitet und die Aufarbeitung und Darstellungsform neuen Strukturen angepasst werden. Hierzu ist ein organisatorischer wie personell-fachlicher Aufwand zu kalkulieren. Nachhaltige Pflege bezieht sich auf die Umsetzung dieser Anforderung. Faktor 1.3: Betreuung der Nutzer Ähnlich komplex wie die Verwaltung und Aktualisierung eines E-Learning-Angebots ist die Sicherstellung der Betreuung und tutoriellen Begleitung der Nutzer während des gesamten Lernprozesses. Nicht nur im Umfeld des Blended-Learnings bedarf es personellem Aufwand, inhaltliche Strukturen aufzubauen und den Lernern anzubieten. Für die Beantwortung von Fachfragen und als Lernbegleiter müssen Tutoren mit unterschiedlichem Fachwissen zur Verfügung stehen, Teilnehmer motivierend unterstützen sowie Gruppenprozesse steuern und begleiten. 212 Dimension 2: Organisatorisch-infrastrukturelle Nachhaltigkeit Infrastrukturelle Nachhaltigkeit bezieht sich auf sämtliche Aspekte des Betriebs der notwendigen Infrastruktur, insbesondere auf ihrer Einbettung in eine übergreifende Gesamtinfrastruktur. E-Learning ist integraler Bestandteil von Systemen der Organisation der Lehre, der Prüfungsverwaltung, Kursorganisation, aber auch vielfältiger Formen der Bereitstellung und Recherche von Lernmaterialien, z.B. als Teil digitaler Bibliotheken. Verschiedene E-Learning-Dienste werden Teil einer teils komplexen Infrastruktur, welche vielfältige Aspekte der Wissensorganisation und des Lernens umspannt. Zu einem detaillierten Verständnis der infrastrukturellen Nachhaltigkeit muss einer ganzen Reihe von Fragestellungen nachgegangen werden. Abbildung 1: Taxonomie einer Nachhaltigkeit von E-Learning-Plattformen Faktor 2.1: Nachhaltigkeit im Betrieb der Plattform Die unterschiedlichen Möglichkeiten, wie E-Learning-Systeme grundsätzlich betrieben werden, sind in genauer zu spezifizieren und unterschiedlichen Betriebsmodellen zuzuordnen (Faktor 2.1.1). Eng verknüpft mit der Art der nachhaltigen Nutzungsmöglichkeit einer Plattform sind die jeweiligen, mit den Betriebsmodellen einhergehenden Geschäftsmodelle der Anbieter verbunden (Faktor 2.1.2). Wird von Nachhaltigkeit eines ELearning-Systems gesprochen, so sind beide Faktoren als Nachhaltigkeitskriterium zu berücksichtigen. Faktor 2.1.1: Entscheidung des Betriebsmodells Betriebsmodelle im E-Learning können unterschiedliche Ausprägungen aufweisen. Beispielsweise können eine Betreuung, Wartung und Hosting vor Ort (Inhouse-Betrieb einer eigenen Plattform) in der jeweiligen Institution erfolgen oder ein Outsourcing von Bestandteilen der Plattform vorgenommen werden. Ein Outsourcing kann über Strategien des vollständigen externen Hostings einer Lernplattform mit Inanspruchnahme der Dienste eines (Full) Application Service Providers bis hin zu Varianten reichen, die nur einzelne Bestandteile auskoppeln. 213 Hierzu zählt beispielsweise das Server-Housing, bei dem lediglich Rechenleistung und Infrastruktur (wie Hardware und Netzwerkinfrastruktur) eines Dienstleisters in Anspruch genommen werden, um auf die eigene Anschaffung und Betreuung notwendiger (kostenintensiver) Hardware zu verzichten; eine Betreuung der E-Learning-Plattform findet seitens des Dienstleisters nicht statt. Vor- und Nachteile gilt es in allen Lösungen gegeneinander abzuwägen. So erlaubt ein Betrieb vor Ort natürlicherweise eine intensive Anpassung und ein Zuschnitt der jeweiligen Dienste auf den Kontext des Anwendungsfalls. Auch ist die Kostenstruktur durch vor Ort anfallende Kosten, wie Hardware und Infrastruktur, geprägt. Notwendig ist entsprechendes Know-How für den Betrieb und die Pflege der notwendigen Infrastrukturen aufzubringen. Externes Hosting (auch von Teilen der jeweiligen Infrastruktur) entbindet genau von diesem notwendigen Wissen bzw. Hardwarekosten. Auch sind Kostenstrukturen zum Teil transparenter abschätzbar, da sie in Vertragsverhandlungen mit dem Dienstleister offengelegt werden. Externes Hosting geht oftmals einher mit der Nutzung von Standard-Lösungen, welche durch die jeweiligen Provider vorgegeben sind, allerdings in zunehmendem Maße auch mit Individualanpassungen angereichert werden. Somit bestimmt die Entscheidung für oder gegen ein bestimmtes Betriebsmodell auch die Nachhaltigkeit des eingesetzten E-LearningSystems. Denn nicht zuletzt erweist sich eine zu ungenau durchgeführte Kostenkalkulation oftmals als Ursache des nicht reibungslosen Funktionierens, wenn nicht sogar der Einstellung von E-Learning-Aktivitäten. Faktor 2.1.2: Geschäftsmodell der Anbieter Die richtige Wahl des angebotenen Geschäftsmodells beeinflusst in erheblichem Maße die weitere Zukunftsfähigkeit eines E-Learning-Systems. Nachhaltigkeit aus Sicht der Provider besteht in dem Anbieten geeigneter lizenzorientierter Vertragsbedingungen, da schlussendlich die Kunden über Akzeptanz oder Ablehnung eines Dienstes entscheiden und direkten Einfluss auf den finanziellen Erfolg eines Produktes haben. Um dieses Ziel zu erreichen, müssen Lizenzmodelle gleichwohl als Bestandteil eines erfolgreichen Geschäftsmodells so ausgerichtet werden, dass sie auf Akzeptanz seitens der Nachfrager stoßen und zu Vertragsabschlüssen führen. Seitens der Nachhaltigkeit aus Nachfragersicht gilt es zunächst zu unterscheiden, inwieweit Anpassungen, z.B. lediglich durch einen Anbieter (Closed Source) oder im Idealfall einer Gruppe möglicher Anbieter (Open-Source), möglich sind. E-Learning-Infrastrukturen auf Open-Source-Basis nehmen in dieser Form eine besondere Stellung in einer Diskussion um die Nachhaltigkeit eines Produkts ein. Eine Nachhaltigkeit bezogen auf das vorliegende Geschäftsmodell von Anbieter und Nachfrager erstreckt sich entsprechend über die Dimensionen:  Open-Source – kommerzielles Produkt  Freie Verfügbarkeit – Lizenzierung  Verfügbarkeit von Support – Kosten von Supportleistungen  Aktive Entwicklergemeinde – nachhaltige Betreuung/Support durch Anbieter  Diversifikation der Dienstleister und Dienstleistungen – Herstellersupport 214 Immer wieder werden Studien zum Kostenvergleich von Open-Source-Plattformen mit kommerziellen Plattformen durchgeführt, deren Ergebnisse zu unterschiedlichen Aussagen führen. Daher wird auf das Pro und Contra von Open-Source an dieser Stelle nicht weiter eingegangen. Vielmehr gilt es für den Anwender verschiedene, auf das einzusetzende Produkt bezogene Faktoren gegeneinander abzuwägen. Für viele auf dem Markt verfügbare nicht-kommerzielle E-Learning-Plattformen existieren durchaus kommerzielle Anbieter, welche kostenpflichtig Support leisten und Erweiterungen an den jeweiligen Produkten vornehmen. Das verbreitete Argument Open-Source-Software wäre einerseits umsonst, würde andererseits aber wenig professionellen Support bieten können, ist nicht mehr in dem Maße gültig. Vielen Orts kehrt sich das genannte Argument um, indem Software, welche vom Quelltext offen liegt, eine breitere Vielfalt an möglichen Anbietern von Dienstleistungen und Erweiterungen nach sich zieht. Der Kunde ist in diesem Fall nicht vom Geschäftsmodell eines einzelnen Herstellers abhängig. Kriterien für gute Open-Source-Software im Sinne der Nachhaltigkeitsdiskussion orientieren sich an dem Vorhandensein einer aktiven Entwicklergemeinde.4 Letztere ist gleichzeitig auch der Garant für das Vorhandensein einer ausreichenden Zahl kommerzieller Anbieter rund um ein Open-Source-Produkt (vgl. [SH06b]). Hieraus ergibt sich eine Kosten-NutzenRelation aus eingesparten Lizenzkosten eines kommerziellen Produktes zu eingekauftem Support und Entwicklung durch einen externen Dienstleister für eine Open-SourceLösung. Es gilt ebenso abzuwägen wie viel Know-How zur Nutzung und Erweiterung/Entwicklung an einer Open-Source-Plattform aufzubauen ist. Anpassbarkeit und Zukunftsfähigkeit von Lernplattformen werden in den nächsten Jahren wesentlich durch serviceorientierte Architekturen an Flexibilität gewinnen. Schon jetzt sind mit Hilfe verschiedener architektonischer Konzepte, wie beispielsweise Webservices, Architekturmodelle erkennbar, in denen sich Dienste von verschiedenen Anbietern, also auch Open-Source-Anbietern, in Lern- und Arbeitsumgebungen zusammen führen lassen. Möglichst offene Schnittstellen führen hierbei zu neuartigen Systemarchitekturen in denen verschiedene Diensteanbieter ihre spezifischen Services erbringen. Gleichzeitig ergeben sich neue Geschäftsmodelle, als Teil derer sich Dienste beispielsweise mieten lassen. Faktor 2.2: Nachhaltige Instanziierung einer Lernumgebung Eine nachhaltige Instanziierung ist wesentlich mit der Betreuung der Nutzer und Gruppenstruktur (Dimension 1) verknüpft. Das Einrichten neuer Nutzer und Gruppen und die Pflege und Aktualisierung der bestehenden Gruppenstruktur sind wichtige Bestandteile eines Nachhaltigkeitskonzepts einer E-Learning-Infrastruktur. Auch wenn seit einigen Jahren Ansätze der dezentralen Administration5 existieren und verschiedene Verfahren der automatischen oder halbautomatischen Anmeldung zu E-Learning-Umgebungen Anwendung finden, verbleibt ein nicht unerheblicher Aufwand an notwendiger Betreuung und Pflege der Nutzerstruktur. 4 vgl. die weltumspannende Entwicklergemeinschaft der Plattform Moodle (www.moodle.org) Als Teil einer dezentralen Administration werden Nutzer- und Gruppenstruktur durch eine größere Gruppe von Administratoren gepflegt – nicht wie sonst üblich durch einen oder wenige Administratoren. 5 215 Bereits heute wird in diesem Zusammenhang die Einbindung eines E-Learning-Systems in einen zentralen Verzeichnisdienst angewendet, wie beispielsweise über eine LDAPSchnittstelle6. Autorisierungs- und Authentifizierungsinfrastrukturen führen letztlich zu einer Zentralisierung von Aufgaben, Pflege und Verwaltung von Nutzerinformationen. Der enge Zusammenhang von Nachhaltigkeit und entsprechender Interoperabilität der genutzten Werkzeuge zeigt sich am Beispiel der Integration verschiedener Angebote des SprachChancen-Verbunds7 in die der Virtuellen Hochschule Bayern (vhb). Die vhb stellt ein zentrales Portal zur Belegung verschiedener Kursangebote bereit. Die eigentlichen Kursmaterialien verbleiben in den Lernumgebungen der jeweiligen Kursanbieter. Dieses Vorgehen macht entsprechend Schnittstellen zur automatischen Kursregistrierung auf Seiten der Kursanbieterplattformen notwendig. Im Idealfall wäre der Aufbau einer zentralen Authentifizierungs- und Autorisierungsinfrastruktur (AAI) beispielsweise auf Basis der Shibboleth-Software8 wünschenswert, die es den Lernenden erlaubt sich transparent zwischen Lernplattformen und dem vhb-Studierendenportal mit einem Single-Sign-On zu bewegen. Denkbar sind in diesem Zusammenhang auch Szenarien des Outsourcings von Betreuungsleistungen der Nutzer- und Gruppenstruktur (vgl. Faktor 2.1). Teil der Nachhaltigkeitsanalyse einer Lernumgebung ist die Prüfung des Vorhandenseins flexibler Schnittstellen zur Nutzerverwaltung (Verwendbarkeit externer Werkzeuge bzw. Einbettung in Autorisierungs- und Authentifizierungsinfrastrukturen). Gleichzeitig sind die innerhalb des Systems angebotenen Werkzeuge zur Administration von Nutzer- und Gruppenstrukturen bezogen auf die Größe und Struktur, sowie Komplexität des geplanten Einsatzes und der damit erforderlichen Gruppenstruktur in die Betrachtung einzubeziehen. Faktor 2.3: Innovationsgrad einer Plattform Als weitere Bestandteile einer Nachhaltigkeitsanalyse sind Aspekte des Innovationsgrades der gewählten Plattform zu berücksichtigen. Nachhaltigkeit definiert sich zu einem guten Teil über die Dynamik an Innovationen, d.h. die kontinuierliche Weiterentwicklung und Anpassung der gewählten Plattform. Wachsende Bedürfnisse der Nutzer, aber auch sich ändernde Vorstellungen der Ausgestaltung von E-Learning-Systemen definieren eine kontinuierliche Notwendigkeit zur Innovation der verwendeten Werkzeuge. Aber auch sich laufend ändernde Rahmenbedingungen, wie beispielsweise sich wandelnde Arbeitsumgebungen der Nutzer (Betriebssysteme, verwendete Werkzeuge) und sich ändernde Rahmenbedingungen zum Betrieb der jeweiligen Plattformen (Serverumgebungen, Schnittstellen etc.) machen die kontinuierliche Anpassung der verwendeten Systeme notwendig. Nachhaltigkeit bedeutet beiden Gegebenheiten in können. Beeinflusst wird die Möglichkeit hierzu kunftsfähigkeit einer Plattform, welche sich zum der realisierten Systemarchitektur (Faktor 2.3.1) kunftsweisender Standards (Faktor 2.3.2) ableitet. 6 7 8 flexibler Weise Rechnung tragen zu zu einem guten Stück von der Zueinen von dem Innovationspotenzial und zum anderen der Nutzung zu- vgl. Verzeichnisdienste wie das Lightweight Directory Access Protocol. vgl. www.sprachchancen.de vgl. http://shibboleth.internet2.edu/ 216 Faktor 2.3.1: Innovationspotential der Architektur Die realisierte Systemarchitektur beeinflusst entsprechend unmittelbar die Art und Weise, wie sich eine E-Learning-Umgebung auf sich ändernde Ansprüche anpassen lässt. Handelt es sich beispielsweise um eine Architektur, welche auf ein eher starres Datenbankschemata zurückgreift, lassen sich nur schwer weitere Attribute in ein System einfügen oder strukturelle Änderungen an der Systemarchitektur vornehmen. Flexible und vor allem moderne erweiterungsfähige Architekturansätze bieten hier erheblich mehr Spielraum. Beispiele sind so genannte serviceorientierte Architekturmodelle (SOA), welche sich aus Sicht der Systemarchitektur durch besonders flexibel kombinierbare und damit erweiterbare Teilkomponenten auszeichnen. Problematisch ist im Zusammenhang mit der Einschätzung eines realisierten Architekturmodells, dass es auf die meisten verfügbaren Systeme bezogen äußerst schwer fällt, die Systemarchitektur eines Werkzeugs im Detail zu ermitteln. Ein kritischer Blick auf die realisierte Architektur lässt sich entsprechend meist nur in engem gedanklichen Austausch mit den Entwicklern/Softwarearchitekten des jeweiligen E-Learning-Systems erzielen. Faktor 2.3.2: Nutzung zukunftsweisender Standards Standards definieren einen plattform- und herstellerübergreifenden Weg der Speicherung und des Austauschs von Materialien. Standards beziehen sich auch auf die Integrierbarkeit der jeweiligen Plattform in umfassendere Infrastrukturen. Mit Blick auf die Nachhaltigkeit einmal entwickelter Materialien spielt ihre Übertragbarkeit und Wiederverwendbarkeit mit Hilfe verschiedener Standards eine ausgezeichnete Rolle. So gelingt es, Materialien, wie Kurse oder auch einzelne Aufgaben von einem E-Learning-System in ein weiteres System zu überführen und dort zu nutzen. E-Learning-Standards sind entsprechend kein theoretisches Qualitätskriterium, sondern ein wirkliches Kriterium der Nachhaltigkeit einer genutzten Umgebung. Standards, wie SCORM9, LOM10, QTI 11 oder IMS Learning Design 12 bieten sehr unterschiedliche Möglichkeiten und bedürfen einer ganzen Reihe von Voraussetzungen. Allerdings gelingt es in der Praxis nur sehr bedingt, in einem der genannten Standards abgelegte Materialien ohne größeren Aufwand oder Anpassung von einer E-Learning-Umgebung in eine weitere Umgebung zu überführen. Dies zeigt sich z.B. daran, dass Export-Funktionen von Materialien in verschiedenen Standards oftmals ausgeprägter ausgestaltet sind als notwendige Import-Funktionen. Entsprechend sollte im Rahmen einer Nachhaltigkeitsdiskussion auch kritisch hinterfragt werden, wie konkret der jeweilig unterstützte Standard ausgestaltet ist. In vielen Fällen werden lediglich Subsets des genormten Standards unterstützt; auch werden Standards in vielen Fällen durch proprietäre Erweiterungen ergänzt. Beides macht das ursprüngliche Ziel einer Übertragbarkeit von Materialien schwierig und in der Praxis teils unmöglich. Leider befinden sich E-Learning-Standards, wie beispielsweise IMS Learning Design in vielen Bereichen noch im Entwicklungsstadium und eignen sich zum Teil nur bedingt zur Codierung von Lernmaterialien in einer alltagstauglichen Art und Weise. Auf der 9 SCORM, Sharable Content Object Reference Model LOM, Learning Object Metadata 11 IMS Question & Test Interoperability Specification, http://www.imsproject.org/question/ 12 IMS Learning Design Specification, http://www.imsglobal.org/learningdesign/) 10 217 anderen Seite zeugen vorhandene Standards gegenüber rein proprietären Lösungen von einem hohen technischen Niveau und einer gewissen Innovationskraft der jeweiligen Plattform. Ist die praktische Nutzbarkeit vieler Standards, speziell im Übergang zwischen verschiedenen Plattformen oftmals ernüchternd, tragen sie doch entscheidend zur Zukunftsfähigkeit der jeweiligen Lösung bei. Zu hoffen gilt in Bezug auf den letztgenannten Punkt, dass sowohl genutzte Standards, aber auch deren Umsetzung und Ausgestaltung kontinuierlich verbessert werden. Faktor 2.4: Verzahnung auf organisatorisch-infrastruktureller Ebene Infrastrukturelle Nachhaltigkeit erstreckt sich auch auf die organisatorischinfrastrukturelle Verzahnung des E-Learning-Produkts mit seinen ihn umgebenden Systemen. Wie schon im Bereich der Nutzerverwaltung angedeutet, können E-LearningSysteme nicht länger als isolierte Einheiten verstanden werden, vielmehr sind sie Bestandteil einer offenen Diensteinfrastruktur. Als Teil dieser offenen und flexiblen Diensteinfrastruktur werden Schnittstellen wichtige Grundvoraussetzung der Integrierbarkeit des jeweiligen Systems. Zu unterscheiden gilt es zunächst inwieweit eine Verzahnung auf enger technischer Kopplungsebene (Faktor 2.4.1) oder eine voneinander unabhängige, lose gekoppelte Dienste Verzahnung erfolgt (Faktor 2.4.2). Faktor 2.4.1: Verzahnung auf enger technischer Kopplungsebene Eine Verzahnung auf enger technischer Kopplungsebene bildet die klassische Form der Verknüpfung verschiedener E-Learning-Systeme, z.B. auf Basis verschiedener Programmierschnittstellen. Gängige E-Learning-Systeme zeichnen sich durch verschiedene Schnittstellen zum Datenaustausch, z.B. zur externen Anbindung einer Nutzerverwaltung aus. Zum Teil existieren Programmierschnittstellen (oftmals ausgelegt als APIs für typische Scripting-Sprachen), bei denen der Austausch innerhalb der jeweiligen Institution erfolgt. Hierbei werden Systeme z.B. auf Ebene der Nutzerverwaltung sehr direkt miteinander verbunden (z.B. Anbindung an einen zentralen Verzeichnisdienst/LDAPServer). Zu einer Kopplung verschiedener Systeme und Systemklassen ist ein sehr spezifisches Wissen um die Strukturen und das Verhalten des jeweiligen Systems notwendig. E-Learning-Standards sind ein erster wichtiger Schritt um Datenformate und Metadaten zwischen verschiedenen Systemen zu normieren. Diese Normierung findet in der Regel auf Basis verschiedener XML-Beschreibungen statt. Als oftmals problematisch erweist sich in diesem Zusammenhang die fehlende technische und strukturelle Anbindungsmöglichkeit einiger E-Learning-Lösungen an die Verzeichnisdienste einer Nutzerdaten verwaltenden Institution (z.B. Rechenzentrum). Faktor 2.4.2: Verzahnung auf loser technischer Dienste-Ebene Eine nächste wichtige Stufe der Koppelbarkeit von E-Learning-Systemen bilden offene Interoperabilitätsschnittstellen. Ziel ist hier auch die institutionsübergreifende Kopplung von Systemen zu ermöglichen. E-Learning-Systeme treten als Dienstnehmer und Dienstgeber auf. Merkmale sind zum einen die Selbstbeschreibungsfähigkeit der bereitgestellten Dienste zu fördern. Die konkrete Realisierung (Implementierung) des jeweiligen Systems tritt zugunsten einer Datenkapselung in den Hintergrund. Zum anderen führen dienstorien- 218 tierte Ansätze zu einer gewissen Austauschbarkeit der jeweiligen Dienste. Wichtige architektonische und technische Grundlagen bilden die so genannten Webservices. Webservices im E-Learning-Umfeld erlauben es beispielsweise auch sehr heterogene Systemklassen funktional zu koppeln. Beispielsweise lässt sich eine Suche aus einem ELearning-System in einer digitalen Bibliothek vornehmen oder LernmanagementSysteme werden funktional an E-Learning-Systeme angebunden (Belegung eines Kurses o.ä.) (vgl. [Bo06]). Unter dem Gesichtspunkt einer Bewertung der Nachhaltigkeit bilden offene und flexible Interoperabilitätsschnittstellen die wesentlichen Grundlagen zur Realisierung erfolgreicher Systemkonvergenzen. Im letzteren Bereich findet sich sicherlich das größte Innovationspotenzial von E-Learning- und Lernmanagement-Systemen, wenngleich auch von Kommunikationssystemen und Plattformen für Zusammenarbeit. Die Grenzen eines einzelnen Produktes werden zu Gunsten einer durch offene Schnittstellen ermöglichte Diensteintegration zu einem Konstrukt aufgehoben, das auf Individualität und Flexibilität ausgerichtet ist. Abbildung 2: Konfliktpotential bei angewendeter Nachhaltigkeit 4 Ausblick: Nachhaltigkeit auf Handlungsebene Der Entwurf einer Taxonomie verschiedener Faktoren der Nachhaltigkeit hat deutlich gemacht, wie wichtig sich Nachhaltigkeit für die aktuelle Landschaft der Wissensorganisation und des klassischen E-Learning darstellt. E-Learning-Systeme fungieren nicht länger als weitgehend isolierte Einheiten; sie nehmen ihren Platz in einem komplexen Geflecht aus miteinander interagierenden Diensten ein und bilden entsprechend im Idealfall eine durchgängige Infrastruktur. Zum Aufbau einer derartigen Infrastruktur sind eine ganze Reihe technischer, aber auch organisatorischer Voraussetzungen zu erfüllen. Diese reichen von der Wahl und Architektur der jeweiligen Plattform der Pflege und Erweiterbarkeit bis zu Fragen ihres Betriebs als Bestandteil einer Dienstinfrastruktur. Aktuell viel diskutierte Fragen betreffen insbesondere die Integration einer plattform- 219 übergreifenden Nutzer- und Gruppenstruktur. Die nächste Stufe einer Interoperabilität und Systemkonvergenz betrifft sicherlich plattformübergreifende Interaktionen der Lernenden und Lehrenden. Erst wenn es gelingt Lernmaterialien unabhängig der Grenzen der beteiligten Lern- und Arbeitsplattformen zu verwalten und für die Lernenden manipulierbar machen zu können, kann von wirklichen virtuellen Wissensräumen (vgl. [Ha02] und [KHE05]) gesprochen werden. Ziel sollte sein, die Limitierungen medialer Handlungsmöglichkeiten bedingt durch die beteiligten Systeme auf ein Minimum zu reduzieren. Die Reduzierung von Medienbrüchen ist hierzu ein wesentliches Kriterium. Literaturverzeichnis [BHM02] Baumgartner, P., Häfele, H. & Maier-Häfele, K.: E-Learning Praxishandbuch, Studien Verlag, Innsbruck, 2002. [Bo06] Bopp, T., Hampel, T., Hinn, R., Lützenkirchen, F., Prpitsch, C. & Richter, H.: Alltagstaugliche Mediennutzung erfordert Systemkonvergenz in Aus- und Weiterbildung. In: Seiler Schiedt, E., Kälin, S. & Sengstag, Ch. (Hrsg.), E-Learning – alltagstaugliche Innovation?. Waxmann, Münster, 2006, Bd. 38, S. 87-96. [Ha02] Hampel, T.: Virtuelle Wissensräume. – Ein Ansatz für die kooperative Wissensorganisation, Universität Paderborn, Informatik, Dissertation, 2002. [KHE05] Keil-Slawik, R., Hampel, T., Eßmann, B.: Re-Conceptualizing Learning Environments: A Framework for Pervasive eLearning. In: Proceedings of the Third IEEE International Conference on Pervasive Computing and Communications Workshops, IEEE Press, 2005, S. 322-326. [Sc03] Schulmeister, R.: Lernplattformen für das virtuelle Lernen: Evaluation und Didaktik. Oldenbourg Verlag, München, 2003. [SH06a] Steinbring, M. & Hampel, T.: Nachfragerorientierte Lizenzierung in e-LearningUmgebungen – Eine Klassifikation typischer Lizenzmodelle. In: Mühlhäuser, M., Rößling, G., Steinmetz, R. (Hrsg): DeLFI 2006, Darmstadt, 2006, Lect. Notes Inform., Proc. (Vol. 87), S. 363-374. [SH06b] Steinbring, M & Hampel, T.: Finanzierungsalternativen und Dienstleistungsmodelle von Open-Source-Software in webbasierten Umgebungen. In: Christian Hochberger, Rüdiger Liskowsky (Hrsg): Informatik 2006, Informatik für Menschen, Dresden, 2006, Lect. Notes Inform., Proc. (Vol. 94), S. 71-76. 220 koaLA – Integrierte Lern- und Arbeitswelten für die Universität 2.0 Alexander Roth, René Sprotte, Daniel Büse, Thorsten Hampel Universität Paderborn {roth, renspr, dbuese, hampel}@uni-paderborn.de Abstract: Geleitet von der Fragestellung, wie sich die aktuellen inhaltlichen und technologischen Konzepte des sog. Web2.0 auf universitäre Infrastrukturen übertragen und dabei neue Potenziale sowohl für traditionelle als auch informelle Lernkontexte umsetzen lassen, wurde an der Universität Paderborn die ko-aktive Lern- und Arbeitsumgebung koaLA entwickelt. In diesem Papier beschreiben wir, welche Überlegungen und Architekturkonzepte dazu beigetragen haben, Medienbrüche in den Prozessen der Wissenstransformation aufzuheben, Partizipationsbarrieren herabzusetzen und koaLA Hochschulweit als Lernplattform einzuführen. 1 Einleitung Die Vision des kooperativen Lernens mit neuen Medien ist so alt wie die Diskussion um kooperationsunterstützende Werkzeuge und Systeme. Spätestens seit dem Entstehen des Fachgebiets der Computer-gestützten kooperativen Zusammenarbeit (CSCW) (vgl. [Gr88]) existiert die Vorstellung mehr oder weniger konstruktivistische Formen des Lernens durch digitale Medien geeignet unterstützen zu wollen. Einer Phase der Entwicklung von so genannten CSCW-Werkzeugen (kooperative Editoren, Shared Whiteboards etc.) folgte eine Phase des Entwurfs zumeist geschlossener Groupware Systeme mit ihren spezifischen Ausprägungen als kooperative Lernsysteme. In dieser ersten Phase waren meist spezielle Zugangswerkzeuge (Clients) des jeweiligen Herstellers notwendig um die Lernumgebung den Lernenden zugänglich zu machen. In der zweiten Phase erlauben WWW-Schnittstellen den Nutzern einen einheitlichen browsergestützten Zugang zu den genannten Systemen. Letztgenannte Systeme weisen in Bezug auf ihre Funktionalität oftmals große Ähnlichkeiten auf. Es existieren Mechanismen zur Kommunikation und Koordination der Lernenden sowie Möglichkeiten der kooperativen Ablage von Materialien. Unterschiede finden sich in den genutzten Metaphern (Lernräume, Schreibtisch, Kurs) und den unterstützten Fähigkeiten der Abgrenzung von Zuständigkeiten durch Rollen und Rechte. Auch differieren kooperative Lernumgebungen in den zum Teil integrierten didaktischen Modellen. Trotzdem kann für die Klasse der kooperativen Lernumgebungen von einer Konvergenz der angebotenen Funktionalität gesprochen werden. Neue Impulse erhalten kooperative Systeme und Lernumgebungen durch die Diskussion um das Web 2.0 oder auch E-Learning 2.0 (bspw. [Al06], [Ba06]). Neben dem breiten 221 Einsatz inzwischen gereifter Technologien wie RSS, Web Services und Asynchronous JavaScript and XML (AJAX) zur Implementierung offener Umgebungen und benutzungsfreundlicheren Oberflächen haben auch die Möglichkeiten zur Kooperation zugenommen: Werkzeuge wie Wikis, Weblogs und Podcasts stellen in Verbindung mit sozialen Netzwerken den Benutzer als Produzent von Inhalten respektive seine kooperativen Aktivitäten deutlich in den Mittelpunkt (vgl. [BD05]). Ein Einfluss, der nicht nur beim Arbeiten, sondern auch beim Lernen weg von vollständig vorgegeben Strukturen und geschlossenen Systemen hin zu wissens- und individuumzentrierten, offenen Umgebungen führt (vgl. [Ro06], [NMC06], [KS03]). Im Rahmen des Paderborner Projekts Locomotion1 wurde die ko-aktive Lern- und Arbeitsplattform koaLA2 geschaffen, die diesen Fokus auf Individuen und indivuelle Kooperationskontexte aufgreift und mit den herkömmlichen Funktionen des klassischen Kursmanagements kombiniert. Über virtuelle, je nach Kontext selbst organisierbare Lern- und Arbeitsräume werden die wichtigsten Elemente und Notwendigkeiten des Lernens, der Organisation des Studiums und des Aufbaus sozialer Strukturen integriert. Grundlegend ist dabei die konsequente Orientierung an den individuellen Anforderungen der Studierenden. Unsere Erfahrungen im ersten Semester Testbetrieb haben gezeigt, dass die Umsetzung von koaLA als offenes System und der Fokus auf individuell gestaltbare Lern- und Arbeitskontexte von Studierenden sehr gut angenommen wird3 . Aber auch von Dozierende, die das System dazu nutzen, neue didaktische Konzepte auszuprobieren und eine stärkere Mischung von vorstrukturierten und von Studierenden selbst organisierten Szenarien in verschiedenste Veranstaltungsformen einzubinden. Auf den folgenden Seiten möchten wir zunächst die Konzepte und Funktionen erklären, die es ermöglichen, sowohl formale als auch informelle Kontexte auszugestalten und zu kombinieren und dabei die sozialen Strukturen der Lernenden zu fördern. Danach veranschaulichen wir die technische Umsetzung anhand einer typischen Web2.0-Architektur und zeigen auf, wie durch Integration auf verschiedenen Ebenen mediale Brüche in der universitären Informationsarchitektur aufgehoben werden. Unsere ersten Erfahrungen in einem Semester Testbetrieb sowie die Überführung der Plattform in die etablierten hochschuleigenen Supportstrukturen für einen nachhaltigen Einsatz beschreiben wir im vierten Abschnitt. Das Papier endet mit einem Ausblick auf die anstehende Pilotierungsphase und die Ausweitung auf den universitätsweiten Betrieb. 1 Low Cost Multimedia Organisation and Production, siehe http://locomotion.uni-paderborn.de. koaLA: ko-aktive Lern- und Arbeitsumgebung“ der Universität Paderborn, siehe http://koala. ” uni-paderborn.de. 3 Pro Tag wurden durchschnittlich 1700 Besucher mit einer durchschnittlichen Verweildauer von 9 Minuten verzeichnet. 2 222 2 Die Unterstützung formaler und informeller Lernkontexte in der Praxis In der Wissenschaft hat sich die Erkenntnis durchgesetzt, dass man beim Lernen – wenn möglich – verschiedene Sozialformen und Methoden abwechseln sollte (vgl. [We05]). Individuelle Phasen sollten mit kooperativen Phasen kombiniert werden, strukturierte Settings (z. B. Kurse und Seminare) mit selbstorganisierten (bspw. Lerngruppen, Arbeitsgruppen, Projektgruppen). Lernende bewegen sich entsprechend ihrer jeweiligen Lebens- und Lernphase, z. B. als Studierende der Universität, in einem komplexen Geflecht aus sozialen und organisatorischen Beziehungen. Soziale Beziehungen sind in kooperativen Lernumgebungen meist durch starre Lerngruppen repräsentiert, welche sich an der Veranstaltungsform/Organisationsform der Lehrveranstaltung orientieren. In vielen Fällen repräsentiert diese Organisationsform jedoch nicht die von den Lernenden selbst gewählten Gruppenstrukturen wie Lerngruppen und Lerngemeinschaften. Soll der Lernende im Zentrum einer Lern- und Arbeitsumgebung stehen, muss dieser seine eigenen Prozesse der Wissensschaffung koordinieren und leicht zwischen verschiedenen individuellen, kooperativen sowie strukturierten und selbstorganisierten Kontexten wechseln können. Hierzu wird ein physikalischer, virtueller oder mentaler Kontext benötigt, in dem neues Wissen geschaffen werden kann (vgl. [NTK01], S. 11). Das Konzept virtueller Wissensräume4 beschreibt dabei die Anreicherung von Orten durch virtuelle Kontakte und Kommunikation sowie die Ergänzung derer gemeinsamen Erfahrungen und Ideen auf mentaler Ebene. Weiterhin vereinen virtuelle Wissensräum synchrone und asynchrone Formen der Zusammenarbeit mit der Verwaltung hypermedialer Dokumente. Dem Ort wird zudem ein Ad-hoc-Charakter zugeschrieben: Er ist immer offen und kann durch die Beteiligten nach Belieben betreten und verlassen werden (vgl. [Ke07] und [Ha02]). koaLA wurde grundlegend auf dem Konzept des virtuellen Wissensraums entwickelt und integriert über dieses Modell Funktionen des klassischen Kursmanagements sowie – je nach Kontext – selbst organisierbare Lern- und Arbeitsräume für Gruppen und Individuen. 2.1 Gruppen sind Kurse sind Gruppen Sämtliche Arbeitsbereiche (individuelle Arbeitsräume, kooperative Arbeitsräume und Kursräume) werden in koaLA über das Konzept einer Gruppe realisiert. Eine Gruppe bildet die Umgebung in der Kommunikationsobjekte, Materialien, soziale Strukturen und zusätzliche Funktionen dargestellt und organisiert werden. Kurse bzw. Kursräume sind in diesem System nur eine besonders ausgezeichnete Form einer Gruppe, erben jedoch deren Funktionen. Dadurch kann leicht von einem individuellen Arbeitsraum einer privaten Gruppe in den kooperativen Arbeitsraum eines Kurses gewechselt werden. Insbesondere für den Wechsel zwischen informellen und formalen Lernkontexten bietet dieses Kon4 In der Literatur finden sich verschiedene Bezeichnungen für dieses Konzept: Streitz et al. nannten es Activity ” Spaces“ (vgl. [SHT89]), Nonaka et al. nennen es ba“ aus dem Japanischen für Ort“ (vgl. [NTK01]), Wessner ” ” nennt es einfach kooperativer Kontext“ (vgl. [We05]). ” 223 strukt Lernenden die Möglichkeit, Dokumente und andere Materialien ohne Medienbrüche innerhalb von koaLA zu transportieren. Abbildung 1: koaLA zeigt die Startseite einens Gruppen- / Kursraums Gruppen (und damit Kurse) sind immer gleich aufgebaut. Abbildung 1 zeigt den Aufbau eines typischen Gruppenraums. Jeder Gruppenraum besteht aus einer Startseite mit einer Beschreibung der Gruppe und einer Liste von Personen, die diese Gruppe betreuen. Im Fall von Kursen sind dies Dozierende und/oder Mitarbeitende der Dozierenden. Unter dem Punkt Kommunikation“ stehen unterschiedliche Kommunikationsfunktionen ” zur Verfügung. koaLA stellt derzeit Foren, Blogs (inkl. Podcasts) und Wikis bereit. Diese Werkzeuge sind direkt im Gruppenkontext eingebettet. Die Zugriffsrechte zu diesen Werkzeugen können von den Betreuern einer Gruppe beliebig gesteuert werden. So lassen sich öffentliche Foren, Wikis und Blogs betreiben, in denen jeder Nutzer in koaLA lesen, schreiben und kommentieren kann. Andere Nutzungsformen erlauben nur das Lesen und Kommentieren oder den vollen Zugriff, jedoch beschränkt auf die Teilnehmer der Gruppe. Der Punkt Lektionen“ stellt zur Zeit eine klassische Materialverwaltung bereit. Zukünftig ” sollen unter diesem Punkt auch Funktionen für spezielle didaktische Szenarien zu finden sein (vgl. Abschnitt 5). Die Materialverwaltung bietet jedoch neben den klassischen Funktionen zur Organisation von Dokumenten erweiterte Funktionen der Bearbeitung und Erschließung von Dokumenten über die Strukturierung von Diskursen oder das Bewerten und Ordnen von Materialien bis zur Koordinierung von räumlich und zeitlich verteilten Aktivitäten. Insbesondere können sich die Lernenden in Kleingruppen selbst organisieren und ihre eigenen Dokumente untereinander austauschen und mit den veranstaltungsbezogenen Materialien verknüpfen. 224 koaLA erlaubt es jedem Nutzer eigene Gruppen anzulegen. Dabei werden drei Ausprägungen von Gruppen unterschieden. Diese unterscheiden sich jedoch nicht in den Funktionen, sondern nur in der Sichtbarkeit anderen Nutzern gegenüber. Öffentliche Gruppen sind für jeden Nutzer im Gruppenverzeichnis sichtbar. Der Zugang zu öffentlichen Gruppen kann dabei völlig offen sein oder ein gesondertes Passwort erfordern. Öffentliche Gruppen mit Einladung sind ebenfalls für jeden Nutzer sichtbar, jedoch erfolgt die Teilnahme ausschließlich über die Einladung eines Gruppenbetreuers. Die dritte Form einer Gruppe ist die private Gruppe. Private Gruppen sind nicht öffentlich sichtbar und eigenen sich sowohl als individueller Arbeitsraum als auch für private Übungsgruppen. Die Mitgliedschaft anderer Nutzer erfolgt hier ausschließlich über die Einladung eines Gruppenbetreuers. Unabhängig von der Form einer Gruppe haben Gruppenbetreuer erweiterte Möglichkeiten der Rechtesteuerung innerhalb der Gruppe. Z. B. können in der Materialverwaltung Bereiche eingerichtet werden, die für andere Nutzer nicht bzw. explizit schreibbar sind. Kurse werden in koaLA manuell durch Semesterbetreuer oder halb-automatisch durch den Abgleich mit dem Prüfungsverwaltungssystem5 angelegt. Wie oben bereits erwähnt sind Kurse nur eine besondere Form einer Gruppe (vgl. öffentliche Gruppen, private Gruppen), die an einer gesonderten Stelle im System ausgewiesen werden. Der Mechanismus der Rechtesteuerung verhält sich daher analog zu Gruppen. Durch diese Flexibilität können unterschiedlichste Veranstaltungsformen abgebildet werden: Große Veranstaltungen mit hunderten von Teilnehmern bedingen oft durch die didaktische Vorgehensweisen andere Rechtekonfigurationen als kleine Projektseminare mit 10-20 Teilnehmern (vgl. Abschnitt 4). Die Teilnehmer einer Gruppe bzw. eines Kurses haben über die Funktion Teilnehmer“ ” (vgl. Abbildung 1) Zugriff auf eine Teilnehmerliste. Diese Liste sowie die mit Nutzern verknüpften Aktionen (Foreneinträge, Kommentaren an Materialien, etc.) bilden die Basis für die Wahrnehmung der anderen Teilnehmer und damit für die virtuelle Zusammenarbeit. 2.2 Soziale Netzwerke Nutzerprofile bilden die Basis für den Aufbau sozialer Netzwerke innerhalb von koaLA und stellen damit eine Form der Awarness innerhalb des virtuellen Systems sicher (s. Abb. 2). Die Profile können von den Nutzern mit Informationen über sich selbst gefüllt werden, wobei die Angabe der Daten keinesfalls verpflichtend ist. Das Profil erlaubt die Eingabe von Informationen zum Studium, dem Studienschwerpunkt, dem Fachbereich etc. Darüber hinaus können Kontaktdaten wie E-Mail Adressen, Telefonnummern und IMDaten anderen Nutzern zugänglich gemacht werden. Der Netzwerkgedanke wird durch das Profil über Kontakte und Gruppen realisiert. Zu jedem Profil ist sichtbar welche Kontakte dieser Nutzer hat und in welchen öffentlichen Gruppen dieser teilnimmt. Über die Funktion als Kontakt hinzufügen“ kann jeder Nutzer eine Beziehung ersten Grades zu ” jedem anderen Benutzer aufbauen und so sein Kontaktnetzwerk kontinuierlich ausbauen. 5 In diesem Fall wird die SOAP-Schnittstelle der HIS genutzt (vgl. [GR07]). Eine flexiblere Nachrichten-basierte (echtzeit) Kopplung ist über die derzeit verfügbaren HIS-Schnittstellen nicht möglich. 225 Abbildung 2: koaLA zeigt die typische Profilseite eines Nutzers Sämtliche Aktionen eines Nutzers, z.B. Einträge in Foren, Blogs, Wikis, Kommentare an Dokumenten, E-Mails etc. werden mit dem Profil des entsprechenden Autors verknüpft. Das Ziel ist es, hierbei eine möglichst hohe Transparenz der Informationen bezogen auf den Urheber zu gewährleisten. Durch die Verknüpfung der Nutzerprofile mit Aktionen bzw. mit den Gruppen und Kursen ergeben sich im Umkehrschluss interessante Funktionen bezogen auf die Kommunikation via E-Mail. So können E-Mails innerhalb von koaLA an eine Gruppe (bzw. auch an Kurse) gesendet werden, die dann automatisch alle Teilnehmer der Gruppe erreichen. 3 Ein Web2.0-Rahmenwerk als Baukasten für koaLA Neben den eingangs erwähnten inhaltlichen Trends zu mehr Selbstorganisation seiner Nutzer bringt das Web 2.0 auch gereifte Technologien, die diesen Trends durch offenere und benutzerfreundlichere Systemen Rechnung tragen. Im Hinblick auf entsprechende Softwarearchitekturen sind die aktuellen Anforderungen nach Weiterverwendbarkeit von Inhalten (remixability), Medienunabhängigkeit (convergence), und stärke Einbindung der Be- 226 nutzer (participation) in den unterschiedlichsten Schichten zu berücksichtigen. In diesem Abschnitt wollen wir die Architektur skizzieren, mit der wir in koaLA eine Reihe neuer Dienste wie RSS und Podcasts, Blogs, soziale Netze und Awareness mit den Funktionalitäten klassischer Lernmanagementsysteme kombiniert und Verwaltungs-, Bibliotheksund Contentsysteme angebunden haben. 3.1 Die Softwarearchitektur Die ko-aktive Lern- und Arbeitsplattform koaLA basiert als Anwendungsschicht auf dem CSCL-Server open-sTeam6 , welcher grundlegende Funktionen kooperativen Arbeitens und Lernens über Programmierschnittstellen bereitstellt. In seinem Kern implementiert der Server ein Objektmodell virtueller Wissensräume. Darauf aufbauende Anwendungen basieren also auf persistent verknüpfte Raumstrukturen. Hier können verschiedene Dokumente und Kontexte verwaltet werden, in denen sich Nutzer aufhalten und bewegen können. Damit dieses Konzept als grundlegend in einer heterogenen Umgebung dienen kann, bezieht der Server einige gängige Kommunikations- und Infrastrukturprotokolle des Internets mit Hilfe von Protokolladaptern auf die Elemente der Wissensraummetapher und bettet somit sowohl synchrone als auch asynchrone Kommunikationswerkzeuge wie Instant Messaging, Whiteboarding, eMail und Shared Annotations in Wissensräume ein (vgl. Abb. 3). Der Server stellte in der Vergangenheit bereits mehrfach die Basisdienste für verschiedene Lern- und Community-Plattformen. Neu in koaLA ist jedoch der zentrale Fokus auf soziale Netzwerkfunktionen und die Einbettung neuer kooperativer Werkzeuge wie Weblogs und Podcasts neben Wikis und Foren. In der Anwendungsschicht werden mit Hilfe dieser funktionalen Komponenten dynamische Lern- und Arbeitskontexte ausgebaut, die zwar oftmals die gleichen fachlichen Funktionen benötigen, sich aber letztendlich durch den Freiheitsgrad der Selbstorganisation voneinander unterscheiden (vgl. [RH05]). Ebenfalls in der Anwendungsschicht erfolgt die Integration von zentralen Basis- und Komplexdiensten der universitären Informationsarchitektur über offene Service-Schnittstellen. Die Präsentationsschicht von koaLA wurde mit Hilfe von AJAX-Funktionen derart ausgestaltet, dass eine einheitliche und einfache Bedienung in Verbindung mit einer visuell ansprechenden Oberfläche gewährleistet ist. Dies soll Nutzungsbarrieren senken und Nutzerakzeptanz erhöhen. So kann zum Beispiel die Reihenfolge von Lektionen durch das Verschieben (Drag & Drop) einzelner geändert werden, ohne dass die Seite gespeichert und neu geladen werden muss. 6 Weitere Informationen zum sTeam-Server unter http://www.open-steam.org. 227 Erweiterte Benutzerschnittstellen Bibliothekssysteme Web Services AJAX / Rich Client Applikation Identitätsmanagement Lernszenarien Unified Messaging User Awareness eMail Verwaltungssysteme Anwendungsschicht Kursverwaltung Social Software RSS and Podcasts Weblogs Instant Messaging SMS Wikis Web-Konferenzen Groupware Tagging Voice Over IP ToDo-Lists Whiteboarding Kalender Content Repositories Foren Communities Dateiaustausch Shared Annotations Virtuelle Wissenräume Web 2.0 Technologien sTeam Applikationen Client Technologien Infrastrukturkomponenten Abbildung 3: Das Web 2.0-Framework der ko-aktiven Lern- und Arbeitsumgebung koaLA 3.2 Medienbruchfreies Arbeiten mit digitalen Informationsträgern Der CSCW-Server open sTeam verwaltet neben den Wissensräumen beliebige Informationsobjekte7 über einem Objektmodell, sowie die Rechte von Benutzern und Gruppen an diesen Objekten und Räumen. Somit stellt diese Persistenzschicht eine Art Metaebene dar, in der Informationsobjekte verschiedenster Art und Herkunft generalisiert und gleichbehandelt werden können. Durch diese technische Umsetzung sind alle Informationsobjekte in koaLA grundsätzlich mit den gleichen Berechtigungskonzepten und Medienfunktionen ausgestattet. Auf dieser Ebene können alle Objekte z.B. Foreneinträge, Dateien oder Internetverweise gleichbehandelt werden. Auch Objekte externer Systeme – entsprechende Schnittstelle vorausgesetzt – können auf dieser Ebene integriert werden. Als Beispiel lassen sich hier der elektronische Seminarapparat der Bibliothek, anderer Lernplattformen oder Content-Repositories (vgl. Abschnitt 3.3) aufführen. Sie können also von Benutzern oder Benutzergruppen – entsprechende Berechtigung vorausgesetzt – zwischen vorstrukturierten Kursräumen und selbstorganisierten Arbeitsräumen hin- und herbewegt, kopiert, neu arrangiert, untereinander referenziert, annotiert und ausgezeichnet werden. Informationen können also aus ihren ursprünglichen semantischen Strukturen herausgelöst und mit diesen neue Wissensstrukturen in anderen Lern- und Arbeitskontexten geschaffen werden8 (vgl. hierzu [RHS05] und [Bo06]). 7 Zack definiert in [Za99], S. 48, diese Objekte ”as formally defined, atomic packet of knowledge that can be labeled, indexed, stored, retrieved, and manipulated. The format, size, and content of knowledge units may vary, depending on the type of explicit knowledge being stored and the context of its use” . 8 Das eingesetzte Objektmodell der Wissensraummetapher sieht dafür das Rucksackkonzept als temporäre Ablage für digitale Objekte vor, die der Benutzer hierüber von einem Wissensraum in einen anderen bewegen kann. 228 Hierdurch wird sowohl eine Weiterverwendung aller Inhalte der Umgebung erleichtert, aber auch eine Unabhängigkeit vom Träger der Information, dem Medium. Darüber hinaus bietet der sTeam-Server den koaLA-Benutzern eine Protokoll-Abstraktion auf Wissensraumstrukturen und Werkzeuge: Alle Wissensräume in koaLA können über das WebDAVProtokoll als virtuelles Laufwerk in das lokale Dateisystem des Benutzers eingehängt werden. Die Behandlung von Inhalten kann also bequem lokal erfolgen, wobei bei Bedarf selbst Foren oder Wikis als Dateiordner eingebunden werden können. Die einzelnen Beiträge sind dann als Textdatei verfügbar. Alle in koaLA eingesetzten kooperativen Werkzeuge wie Foren, Wikis und Weblogs besitzen einen XML-Nachrichtenkanal (sog. RSS-Feed), die der Benutzer bei Interesse abonnieren kann. Auf seiner persönlichen Startseite werden die abonnierten Nachrichten aggregiert und kontextübergreifend chronologisch sortiert, so dass der Benutzer sich nach dem Anmelden am System sofort ein genaues Bild davon machen kann, welche Aktivitäten in den für ihn wichtigen Kontexten während seiner Abwesenheit passiert sind: Seine Frage im Kursforum wurde beantwortet, das Tutorium morgen fällt aus, der Wiki-Eintrag von letzter Woche wurde geändert, die Ergebnisse der Klausur sind endlich online, im Weblog seiner Lerngruppe stellt sich ein neues Gruppenmitglied vor... Über einen direkten Link ist der betroffene Kontext sofort erreichbar. Diese Nachrichten können selbstverständlich auch von außerhalb des Systems mit entsprechenden RSS-Readern heruntergeladen und offline verfügbar gemacht werden. 3.3 Integration mit Verwaltung, Bibliothek und externen Content-Providern Defizitär erweist sich in der heutigen Praxis oftmals das Grundmerkmal kooperativer Lernumgebungen als in sich abgeschlossenes System mit nur geringen Anknüpfungspunkten zum Organisationskontext des Lernenden. Mit Kontext der Lernenden sind in diesem Zusammenhang weitere Systeme zur Studienorganisation und Verwaltung gemeint. Z.B. Systeme zur Anmeldung und Durchführung von Prüfungen und Veranstaltungen, elektronische Seminarapparate oder die (digitale) Bibliothek. Lernende bewegen sich notwendigerweise zwischen diesen verschiedenen Systemen. In koaLA wurden Service-orientierte Ansätze genutzt, um an bestimmten Stellen diese Systemgrenzen aufzuweichen und Funktionen oder Informationsobjekte anderer Systeme in einer kooperativen Lern- und Arbeitsumgebung zu integrieren. Zunächst einmal wurde ein einheitlicher Zugang zu den beteiligten Systemklassen über den universitätsweiten Authentifizierungsdienst hergestellt. Durch diese Anbindung ist sichergestellt, dass allen Hochschulangehörigen der Zugang ohne unnötige Barrieren wie das Anlegen eines separaten Zugangs zur Verfügung steht. Darauf aufbauend wurde der im Locomotion-Projekt ebenfalls eingeführte elektronische Seminarapparat der hiesigen Bibliothek angebunden. Damit sind die Informationen zu Büchern und digitalen Objekten des elektronischen Seminarapparates direkt in den jeweiligen Kursräumen verfügbar. Ein Systemwechsel ist für die Teilnehmer dieser Kurse nicht mehr erforderlich. Die können die digitalen Ausgaben z.B. direkt herunterladen oder die Verfügbarkeit der in der Bibliothek stehenden Exemplare prüfen. Wie im vorherigen Abschnitt beschrieben werden diese Informationsobjekte 229 über das persitente sTeam-Objektmodell um Medienfunktionen erweitert, so dass sie in koaLA in den verschiedensten Kontexten weiterverwendet werden können. Als drittes System wurde das Paderborner HIS-LSF-Portal9 angebunden, um eine doppelte Datenerfassung bei dem Anlegen von Kursen zu vermeiden und angemeldete Teilnehmer zu Veranstaltungen mit den Daten in der Lern- und Arbeitsplattform zu synchronisieren (vgl. [GR07]). An weiteren integrierten Szenarien mit Verwaltungssystemen wird derzeit noch gearbeitet (vgl. Abschnitt 5). Mit dem europäischen ARIADNE-Knowledge-Pool10 wurde bereits für den Testbetrieb ein externes Nachweissystem für eLearning-Inhalte angebunden, dessen Inhalte über standardisierte Metadaten abgerufen werden können. In diesem Fall wurde die Schnittstellendefinition SQI (Simple Query Interface, vgl. [Si05]) genutzt. Über Web-Services kann mit dem Repository kommuniziert und können Lerninhalte gesucht werden. Die Ergebnisse können als Informationsobjekte in der sTeam-Persistenzschicht abgelegt und mit den bereits erwähnten Medienfunktionen angereichert werden11 . 4 Erfahrungen aus einem Semester Testbetrieb Die hochschulweite Einführung der koaLA-Umgebung im Rahmen des Locomotion-Projektes ist über drei Stufen geplant – Testbetrieb, Pilotphase und hochschulweite Einführung – von denen die erste bereits abgeschlossen ist. Zunächst wurde koaLA zum Start des Wintersemesters 06/07 für interessierte Studierende und Dozierende im Rahmen eines Testbetriebs eingeführt und in 20 Veranstaltungen als Lernmanagementsystem, Kommunikationsplattform und Gruppenarbeitsplatz genutzt. Die Dozierenden migrierten zumeist von eigenverantwortlich betriebenen oder eigens entwickelten Plattformen zu diesem zentralen Angebot. Da die Zahl der Veranstaltungen ausreichend für einen Testbetrieb waren, wurde die neue Plattform innerhalb der Universität zunächst nicht aktiv beworben. Trotzdem wurde festgestellt, dass nach nur zwei Monaten ca. 200 der zu diesem Zeitraum 2000 Studierenden keine Kurse belegt hatten. Sie nutzten jedoch die Social Networking-Funktionen und das Angebot, sich in eigenen Arbeitsgruppen selbst organisieren zu können. Die Bandbreite der Nutzung im Rahmen der Lehre reichte von kleinen Projektseminaren mit ca. 20 Teilnehmern bis zu Massenveranstaltungen mit über 800 Teilnehmern. Hier wurden unterschiedliche didaktische Szenarien realisiert. Die kleineren Seminare stellten kooperative Funktionen wie eine gemeinsame Materialsammlung und Diskussionen an Dokumenten bereit, wobei die großen Veranstaltungen eher auf die reine Materialbereitstellung (Download) fokussiert waren und Foren eher zur Klärung organisatorischer Fragen einsetzten. 9 Informationen zur HIS-Software unter http://www.his.de/. Informationen zum ARIADNE-Projekt unter http://www.ariadne-eu.org. 11 Derzeit wird daran gearbeitet, virtuelle Wissensräume in der koaLA-Umgebung als Inhaltelieferant an das Netzwerk anzubinden, also Kontexte wie Kursräume oder Arbeitsräume von Projektgruppen auch für externe Systeme durchsuchbar zu gestalten. 10 230 Einige wenige Dozierende nutzten in der Testphase bereits Weblogs um Informationen zur Veranstaltung zu veröffentlichen und zu diskutieren. Diese Funktion wurde sowohl von Dozierenden als auch von Studierenden als geeignete Darstellungsform für organisatorische Informationen, Hilfestellungen bei Übungsaufgaben und Motivation beschrieben. Im Pilotbetrieb, der derzeit im Sommersemester 2007 läuft, wurde die Nutzung auf 70 Veranstaltungen und über 5000 Nutzer ausgebaut. Als Referenzstudiengänge sind dabei insbesondere der Zwei-Fach-Bachelor“ in den Kulturwissenschaften und die Informatik ” angesprochen. Punktuell haben die Systeme aber bereits auch in anderen Bereichen Nutzer gewonnen. Neben Betrieb und Weiterentwicklung der Systeme werden in der Pilotphase Schulungs- und Beratungsangebote bereitgestellt. Für die Studierende sind diese im etablierten Notebook-Cafe und bei der Schulungsinitiative doIT angesiedelt. Für die Lehrenden und Verwaltungsmitarbeiter wurde ein Schulungskonzept erarbeitet, das zusammen mit der Hochschuldidaktik umgesetzt werden soll. Im Anschluss daran soll im folgenden Wintersemester der hochschulweite Einsatz erfolgen. 5 Zusammenfassung und Ausblick koaLA setzt neben der klassischen Funktionalität eines Lernmanagementsystems Ideen des Web 2.0 und stellt die Bedürfnisse der Lernenden nach mehr Selbstorganisation in den Vordergrund. Das System basiert dabei auf der Open-Source-Umgebung open sTeam, die den Aufbau und die Pflege virtueller Wissensräume unterstützt. In koaLA lassen sich unterschiedlichste eLearning-Szenarien in einfacher Weise realisieren. Diese reichen von der Bearbeitung und Erschließung von Dokumenten über die Strukturierung von Diskursen oder das Bewerten und Ordnen von Materialien bis zur Koordinierung von räumlich und zeitlich verteilten Aktivitäten. Insbesondere können sich die Lernenden in Kleingruppen – unabhängig von Kurs oder Studiengang – selbst organisieren, ihre eigenen Dokumente untereinander austauschen und mit den veranstaltungsbezogenen Materialien verknüpfen. Der Pilotbetrieb soll quer zum Austesten der Systeme in der Praxis auch dazu dienen den Unterstützungsbedarf quantitativ zu erheben. Im Anschluss soll ein hochschulweiter Einsatz der Dienste- und Kooperationsinfrastruktur erfolgen, wobei gemäß der prozessorientierten Vorgehensweise im Projekt Locomotion Dienstleistungen kundenorientiert in so genannten Service Units“ zusammengefasst werden sollen. Diese stellen für die ” jeweiligen Interessenten eine einheitliche Ansprechstelle dar und bieten die entsprechenden Unterstützungsfunktionen integriert an. Dadurch sollen flächendeckend die verstärkte Nutzung von eLearning, eTeaching und eCollaboration erreicht, die Qualität von Lehren, Lernen und Prüfen nachhaltig gesteigert und die damit verbundenen Prozesse optimiert werden. 231 Literaturverzeichnis [Al06] B. Alexander. Web 2.0 – A New Wave of Innovation for Teaching and Learning. Educause Review, Seiten 33–44, 2006. [Ba06] P. Baumgartner. Web 2.0: Social Software & E-Learning. Computer + Personal (CoPers), 14(8):20–34, 2006. [BD05] W. Beuschel und S. Draheim. Potenziale kooperativer Medien für neue Lehr- und Lernformen – das Beispiel Weblogs. In K. Fellbaum, Hrsg., Grundfragen multimedialen Lehrens und Lernens, Seiten 225–236. Shaker Verlag, Aachen, 2005. [Bo06] T. Bopp, T. Hampel, R. Hinn, F. Lützenkirchen, C. Prpitsch und H. Richter. Alltagstaugliche Mediennutzung erfordert Systemkonvergenzen in Aus- und Weiterbildung. In E. Seiler Schied, S. Kälin und C. Sengstag, Hrsg., E-Learning – alltagstaugliche Innovation?, Jgg. Band 38 of Medien in der Wissenschaft, Seiten 87–96. Waxmann Verlag, Münster, 2006. [GR07] H. Gossen und A. Roth. Die Datenintegration zwischen HIS-LSF und universitären Lernund Arbeitsplattformen – Ein Praxisbericht aus dem Locomotion Projekt. Arbeitspapier WP073333, DS&OR-Lab, Universität Paderborn, Paderborn, 2007. [Gr88] I. Greif. Computer-Supported Cooperative Work: A Book of Readings. Morgan Kaufmann, 1988. [Ha02] T. Hampel. Virtuelle Wissensräume - Ein Ansatz für die kooperative Wissensorganisation. Dissertation, University of Paderborn, Paderborn, 2002. [Ke07] Reinhard Keil. Medienqualitäten beim eLearning: Vom Transport zur Transformation von Wissen. BIBLIOTHEK Forschung und Praxis, 31(1), 2007. [KS03] R. Keil-Slawik. Technik als Denkzeug, Lerngewebe und Bildungsinfrastrukturen. In R. Keil-Slawik und M. Kerres, Hrsg., Wirkungen und Wirksamkeit neuer Medien in der Bildung, Seiten 13 – 29. Waxmann Verlag, 2003. [NMC06] NMC. The 2006 Horizon Report. Bericht, The New Media Consortium, 2006. [NTK01] I. Nonaka, R. Toyama und N. Konno. SECI, Ba and Leadershp: A Unified Model of Dynamic Knowledge Creation. In I. Nonaka und D.J. Teece, Hrsg., Managing Industrial Knowledge: Creation, Transfer and Utilization, London, 2001. Sage Publications. [RH05] A. Roth und T. Hampel. Konfigurierbare Softwarekomponenten zur Unterstützung dynamischer Lern- und Arbeitsumgebungen für virtuelle Gemeinschaften. In Tagungsband zum Workshop GeNeMe 2005: Gemeinschaften in Neuen Medien, Seiten 373–384, 2005. [RHS05] A. Roth, T. Hampel und L. Suhl. Von serverzentrierten Lernobjekten zu kooperativen Wissensobjekten – Ein wissensbasierter Integrationsansatz verteilter Lernplattformen. In K. Fellbaum, Hrsg., Tagungsband des 3. Workshops Grundfragen multimedialen Lehrens und Lernens, Seiten 177–186. Shaker Verlag, 2005. [Ro06] M. J. Rosenberg. What Lies Beyond E-Learning? Pfeiffer, 2006. [SHT89] N.A. Streitz, J. Hannemann und M. Thüring. From Ideas and Arguments to Hyperdocuments: Travelling through Activity Spaces. In Conference on Hypertext and Hypermedia, Proceedings of the second annual ACM conference on Hypertext, Pittsburgh, Pennsylvania, 1989. ACM. [Si05] B. Simon, D. Massart, F. van Assche, S. Ternier und E. Duval. A Simple Query Interface for Interoperable Learning Repositories. In Proceedings of WWW 2005, Chiba, Japan, 2005. [We05] M. Wessner. Kontextuelle Kooperation – Unterstützung kooperativen Lernens auf Basis des Kontextes. In J. M. Haake, U. Lucke und D. Tavangarian, Hrsg., DeLFI 2005: Deutsche e-Learning Fachtagung Informatik, Lecture Notes in Informatics, Seiten 57–68, Bonn, 2005. Gesellschaft für Informatik. [Za99] M.H. Zack. Managing Codified Knowledge. In Sloan Management Review, Jgg. 40, Seiten 44–58, Cambridge, 1999. 232 Gibt es mobiles Lernen mit Podcasts? – Wie Vorlesungsaufzeichnungen genutzt werden Leonore Schulze, Markus Ketterl, Clemens Gruber, Kai-Christoph Hamborg Zentrum für Informationsmanagement und virtuelle Lehre Universität Osnabrück Schloßstraße 9 49069 Osnabrück {leonore.schulze, markus.ketterl, clemens.gruber, kai-christoph.hamborg} @uni-osnabrueck.de Abstract: Podcasts sind eine vieldiskutierte Möglichkeit kostengünstig Veranstaltungsaufzeichnungen zu erstellen und zu publizieren, und bieten somit potentiell vielen Personen die Möglichkeit zum mobilen Lernen. Im vorliegenden Artikel werden die bisherigen Erfahrungen zweier deutscher Hochschulen mit Veranstaltungspodcasts sowie die Ergebnisse von Befragungen studentischer (N=58) und hochschulexterner Nutzer/-innen (N=368) dargestellt. Es zeigt sich, dass die Podcasts vor allem extern auf breites Interesse stoßen, dass das Angebot aber meist zu Hause auf dem PC oder Laptop genutzt wird. Die Potenziale zum mobilen Lernen werden also aktuell noch nicht ausgeschöpft. Es ist zu erforschen, ob durch die erwartete Kostensenkung für mobile Geräte und mobilen Internetzugang die Potentiale mobilen Lernens durch die Nutzer/-innen verstärkt wahrgenommen werden. 1 Auf dem Weg zum mobilen Lernen Mobiles Lernen (M-Learning), nicht zuletzt vorangetrieben durch die stetig steigende Verbreitung von leistungsfähigen Mobilgeräten wie PDAs, Handys oder tragbaren Video/Audio-Abspielgeräten, wird auch an Universitäten und Fachhochschulen immer wichtiger. Neben den Vorteilen, die sich durch orts- und zeitunabhängiges Lernen mittels mobiler Endgeräte ergeben, gibt es viele Hürden für die Erstellung von M-Learning Inhalten zu beachten [TR03]. Typischerweise müssen Inhalte gerätespezifisch formatiert und konvertiert werden, um für verschieden Endgeräte angeboten werden zu können. Daher ist es in der Regel zu kostspielig für Universitäten, Lerninhalte speziell für mobile Endgeräte zu erstellen. In einem idealen Szenario sollten erstellte Lehr-/Lerninhalte sowohl für klassisches E-Learning als auch für M-Learning verwendet werden können. Ein anderer wichtiger Aspekt ist mit der Frage verbunden, wie potentielle Nutzer/-innen Zugang zu den Lernangeboten erhalten können. Die hohen Verbindungskosten, die entstehen, um beispielsweise mit einem Handy größere Daten von einem Internetportal zu übertragen, schrecken viele Anwender immer noch ab, obwohl die technischen Voraussetzungen und Rahmenbedingungen gegeben sind. 233 Eine vielversprechende Möglichkeit, universitäre Lerninhalte ohne größeren zusätzlichen Aufwand auch für mobile Endgeräte anzubieten, bietet die Podcasttechnologie. Podcasts sind eine neue Nutzungsform, die im Rahmen der so genannten „Social Software“ und des Schlagwortes Web 2.0 diskutiert werden. Gemeinsam ist diesen Entwicklungen, dass sie nicht die technischen Innovationen fokussieren, sondern die aktive Beteiligung der Benutzer in den Vordergrund stellen. Technisch gesehen sind Podcasts zunächst Mediendateien (Video und Audio), die über einen RSS-Feed leicht automatisch bezogen (abonniert) werden können. Ein einzelner Podcast ist eine Serie von Medienbeiträgen (Episoden), der sich am leichtesten mit dem Programm eines Radio bzw. Fernsehsenders vergleichen lässt. Der Hauptunterschied ist, dass die Sendungen nicht zu einem bestimmten Termin oder zu einer bestimmten Uhrzeit konsumiert werden müssen. Durch ein einmaliges Abonnieren des Programms (also des Podcasts) werden dem Anwender die jeweils neuesten Episoden bequem über einen Podcasts-Client (auch Podcatcher genannt) auf den eigenen PC übertragen. Der Podcatcher ermöglicht es dem Anwender, nicht nur bestimmte Sendungen zu abonnieren, sondern erledigt auch das automatisierte Herunterladen der neuesten Episoden auf die Endgeräte. Grundsätzlich gibt es derzeit aus technischer Sicht drei Hauptarten von Podcasts, die sich durch die verwendeten Dateiinhalte in den Episoden unterscheiden (s. Tabelle 1). Name Dateiinhalte Format Beispiele für Abspielgeräte Audio Podcast Ton MP3,AAC Enhanced Podcast Ton + Bilder (z.B. Folien) + Links Video Podcast Ton + Video MPEG-4 Container+ AAC Datei .MP4, .M4V, .MOV alle MP3-fähigen Geräte: PC, Handys, MP3-Player PC, Apple-Geräte (iPod), einige Mobiltelefone 1 PC, tragbare Audio-/ Videoplayer wie PDA, Handys etc. Tabelle 1: Übersicht über die Hauptarten von Podcasts Systematisch wird der Einsatz und der Nutzen von Podcasts in Lern- und Bildungsprozessen in einer Kooperation zwischen Universität und Fachhochschule Osnabrück seit Januar 2006 erprobt. Dabei werden verschieden Podcastarten in unterschiedlichen Veranstaltungsszenarien eingesetzt. Teile des Osnabrücker Angebotes stehen dabei nicht nur den Studierenden der beiden Hochschulen zur Verfügung, sondern Interessierte konnten auch von außerhalb der Hochschulen leicht Zugang zu den Inhalten erhalten. Testweise wurden drei unterschiedliche Veranstaltungen hochschulintern über Veranstaltungswebseiten und auch extern über den Apple Musicstore iTunes zur Verfügung gestellt. Im zweiten Abschnitt dieses Beitrags werden die Podcastproduktion und die Verteilungsmöglichkeiten von Podcasts in der universitären Lehre ausgehend von den Osnabrücker Erfahrungen beschrieben. In den weiteren Abschnitten wird gefragt, ob und wie 1 Mobiltelefone müssen Java unterstützen; erfordert technisches Verständnis 234 Podcasts, auch im Vergleich zu herkömmlichen Vorlesungsmitschnitten, von Nutzern und Nutzerinnen wahrgenommen und genutzt werden. Die berichteten Befunde zum ersten Osnabrücker „Podcastjahr“ beruhen auf insgesamt drei Evaluationsuntersuchungen. 2 Podcastproduktion und Einsatzmöglichkeiten innerhalb der universitären Lehre An vielen Universitäten werden Vorlesungen, Seminare etc. über Videosysteme aufgezeichnet und über Webseiten zur Verfügung gestellt. In Osnabrück wird dafür ein System mit dem Namen „virtPresenter“ eingesetzt [MKV06]. Motivation zur Entwicklung dieser Systeme war es, auf einfache Weise E-Learning Inhalte zu erstellen und auf PC Systemen über ein Webinterface (meist Webbrowser) zu betrachten. Die mit diesen Werkzeugen aufgenommenen Videodateien bzw. daraus extrahierte Audiodateien lassen sich auch über den Podcast-Mechanismus verteilen. Für die Studierenden wird es dadurch leichter, den Überblick zu behalten, da der Podcast-Client immer alle Episoden anzeigt und herunter lädt. Quasi als Nebeneffekt können diese Dateien nicht nur auf dem PC, sondern auch auf mobilen Geräten benutzt werden. In Osnabrück ist dieser Prozess mittlerweile weitgehend automatisiert. Dabei startet die Produktionskette beim PowerPoint-Vortrag der Dozent/-innen und endet mit einer Verlinkung auf den zugehörigen Veranstaltungswebseiten. Ein Konzept, das die Podcasttechnologie in diese Produktionskette integriert, ist in [Ke06a] beschrieben. Am Ende der Kette steht neben einem Webinterface, das eine fein granulierte Folien- und Videonavigation ermöglicht, auch eine Vorlesungsaufzeichnung für mobile Endgeräte in Form von Enhanced Podcasts bereit. Neben Podcasts in Form von Veranstaltungsaufzeichnungen wurden an den Osnabrücker Hochschulen (Fachhochschule und Universität) auch andere Podcasts in anderen Szenarien erzeugt. So wurden z.B. in Übungen und Seminaren von Studierenden eigens Podcasts zu bestimmten Themengebieten erstellt und für andere Studierende angeboten. Generell könnte eine Typologie des Podcast-Einsatzes an Universitäten folgende Punkte enthalten: Vorlesungsmitschnitte, Vorträge, Hörfunkbeiträge, Experimentelle Podcasts und Archivmaterial [Sc06]. Einige der Osnabrücker Hochschulpodcasts waren nicht nur internen Studierenden über das vorhandene Lern-Management-System Stud.IP vorbehalten, sondern es wurden auch Episoden über den sehr populären Musicstore von Apple („iTunes Musicstore“) einer breiten Masse von unterschiedlichen Personen öffentlich angeboten. Dieser Musicstore integriert sich nahtlos in die von Apple kostenlos vertriebene Musiksoftware iTunes. Innerhalb des Musicstores können Kunden einen großen Katalog von Musiktiteln, Fernsehserien und Filmen durchsuchen und Titel erwerben. Neben den kommerziell angebotenen Titeln können aber auch kostenlose Podcasts zu den verschiedensten Themen eingestellt, gefunden und abonniert werden. Technisch ist es relativ einfach, einen eigenen Podcast in dem umfangreichen Angebot im Musicstore zu platzieren. Es reicht, den eigenen Podcast über ein Webinterface an 235 Apple zu melden, und einige Tage später (nach einer redaktionellen Prüfung der Inhalte) finden sich die eigenen Sendungen schließlich auch im Musicstore Angebot. Für uns war hier die Frage interessant, wie sehr sich eine breite Öffentlichkeit für die Lehrangebote von Hochschulen interessieren und auch begeistern kann. Wie diese Angebote von den Abonnenten bewertet wurden und mit welchen Geräten Anwender die Angebote genutzt haben, wird in den folgenden Kapiteln näher untersucht. 3 Fragestellung Mit dem Angebot von Podcasts an den Hochschulen sowie über die Grenzen der Hochschulen hinaus waren verschiedene Forschungsfragen verbunden. In drei Befragungen wurden die Fragen zur Podcast-Nutzung untersucht und die Bewertung durch Studierende und durch externe Hörer/-innen evaluiert. Erstens ist die Frage der Nutzungshäufigkeit zu beantworten, d.h. ob das Angebot von Vorlesungsaufzeichnung überhaupt genutzt wird, und wenn, von wem es genutzt wird. Auf Seiten der Studierenden kann man einerseits von einer hohen Akzeptanz des Angebots ausgehen. So ergab eine Befragung an der Universität, dass sich 92% der befragten Studierenden zumindest vorstellen können, Veranstaltungsaufzeichnung in Form von Podcasts zu nutzen [Ke06b]. Andererseits werden von einem Pilotprojekt der ETH Zürich tatsächlich geringe Nutzerzahlen berichtet, wenn in einer Veranstaltung verschiedene Formen von Veranstaltungsaufzeichnungen angeboten werden [Af06]. Über die Nutzung von Veranstaltungsmitschnitten durch externe Hörer/-innen liegen unseres Wissens noch keine Daten vor. Das mag daran liegen, dass das Angebot von Veranstaltungspodcasts aktuell noch sehr gering ist. Interessant ist hier weiterhin die Frage nach der Zusammensetzung und den Motiven etwaiger Nutzer/-innen. Zweitens sollte die Art der Nutzung weiter untersucht werden, insbesondere wie Podcastaufzeichnungen von Vorlesungen durch Studierende und externe Hörer/-innen genutzt werden. Die folgenden drei Fragen standen hierbei im Vordergrund: Welche Abspielgeräte werden genutzt? Es wird untersucht, welche Geräte beim Ansehen von Veranstaltungsaufzeichnungen präferiert werden. Wie im ersten Kapitel dargestellt gibt es für die verschiedenen Podcast-Formen unterschiedliche Abspielgeräte, die auch unterschiedlich verbreitet sind. So kann man zumindest bei Studierenden von einer breiten Ausstattung von mobilen, mp3-fähigen Audioplayern ausgehen, jedoch wenigen Playern, die auch Video- oder Enhanced Podcasts mobil abspielen können [KSMM 06]. Über die Ausstattung mit mobilen Abspielgeräten in der Gesamtbevölkerung liegen unseres Wissens keine Daten vor. Werden Podcasts mobil genutzt? Obwohl Podcasts allgemein mit mobilem Lernen gleichgesetzt werden, ist die mobile Nutzung nicht selbstverständlich. Die Podcast-Formate können mit verschiedenen Geräten sowohl mobil als auch nicht mobil genutzt werden. Somit ist für die mobile Nutzung neben dem Vorhandensein von Abspielgeräten weiterhin nötig, dass die Potentiale von Podcasts zum MLearning erstens wahrgenommen und zweitens auch genutzt werden. 236 Werden Podcasts vollständig genutzt oder werden hauptsächlich gezielt einzelne Bereiche und Themen angesehen oder –gehört? Im Kontext der Präsentation von Veranstaltungsaufzeichnungen über Webinterfaces wurde besonders dem Aspekt der Navigierbarkeit der Aufzeichnungen große Bedeutung beigemessen. Auch für Podcasts gibt es inzwischen in Form der Enhanced Podcasts erweiterte Navigationsmöglichkeiten. Es erscheint daher sinnvoll, die die aktuell präferierten Nutzungsstile zu betrachten, um die Notwendigkeit weitergehender Navigationsmöglichkeiten einschätzen zu können. In einem dritten großen Bereich stellt sich zuletzt die Frage nach der Bewertung der Veranstaltungsaufzeichnungen per Podcast durch die unterschiedlichen Zielgruppen. Dabei ist die Einschätzung verschiedener Aspekte interessant: Voraussetzung für eine effektive Nutzung ist die wahrgenommene technische Qualität in Zusammenhang mit der technischen Zugänglichkeit des Angebots (Downloadzeiten). Weiterhin stellt sich auch die Frage nach der Beurteilung der Akzeptanz des Podcast-Angebots (neben veranstaltungsspezifischen Aspekten). Als ein Aspekt der Effektivität wird schließlich auch der selbst berichtete Lernerfolg betrachtet. Bisher liegen zur Lernwirksamkeit von Podcasts unseres Wissens nach noch keine Ergebnisse vor. Aufgrund der Erfahrungen mit anderen Formen der Veranstaltungsaufzeichnung kann allerdings, zumindest für veranstaltungsergänzende Angebote, ein positiver Effekt vermutet werden. 4 Methode Zu drei Veranstaltungen, die an der Universität und der Fachhochschule Osnabrück durchgeführt wurden, sind Podcast-Aufzeichnungen der einzelnen Termine erzeugt und den Studierenden sowie - über iTunes – auch externen Nutzer/-innen zur Verfügung gestellt worden. Dabei wurden teilweise parallel verschiedene Podcast-Arten erzeugt (vgl. Tabelle 1). Es handelt sich um eine Grundstudiumsveranstaltung der Informatik (Veranstaltung A, Video Podcast), eine Veranstaltung der Medieninformatik (Veranstaltung B, parallel als Video und Enhanced Podcast) sowie eine Veranstaltung der Erziehungswissenschaft (Veranstaltung C, parallel als Audio, Video und Enhanced Podcast). Im Folgenden werden die Auswertung der Serverstatistiken sowie drei Evaluationsuntersuchungen beschrieben. 4.1 Auswertung von Serverstatistiken Für diese Podcast-Angebote wurden die Serverstatistiken ausgewertet, d.h. die Anzahl der Downloads der einzelnen Episoden in den unterschiedlichen Formaten. Dabei überschätzt die Anzahl der Downloads möglicherweise die Zahl der tatsächlichen Hörer/-innen, da nicht geprüft werden kann, ob die einzelnen Episoden tatsächlich gesehen wurden. Dennoch kann man vermuten, dass die Mehrzahl der Abonnent/-innen die Angebote tatsächlich genutzt hat. 237 4.2 Befragung von Studierenden einer Veranstaltung In einer Vorlesung im Bereich Erziehungswissenschaften mit 94 Studierenden wurden neben der üblichen Vorlesungsaufzeichnung, die man über ein Webinterface (siehe Kapitel 2) betrachten kann, ergänzend auch Podcasts eingesetzt. Zum Ende des Semesters wurde die Veranstaltung mit Hilfe des Lern-Management-System Stud.IP evaluiert. An der Befragung nahmen 58 Studierende teil, das entspricht einer Rücklaufquote von 62 Prozent. Dabei wurden neben dem standardisierten „Fragebogen zur Evaluation von Vorlesungen“ (St00) einige Module des „Fragebogens zur Evaluation virtueller Lehrveranstaltungen“ (Sc07) eingesetzt sowie zusätzliche Fragen speziell zu Podcasts. Insgesamt umfasste die Befragung damit 32 Fragen der allgemeinen Lehrevaluation, 8 Fragen zu technischen Voraussetzungen, 13 Fragen zur Gesamtkonzeption der Veranstaltung (Kombination einzelner Veranstaltungselemente), 21 Fragen zur allgemeinen Veranstaltungsaufzeichnung und 24 Fragen zur Podcast-Nutzung. Die Fragen zur Podcast-Nutzung deckten allgemein die Bereiche Umfang und Art der Nutzung sowie die Bewertung des Angebots in Bezug auf die Technik, die Akzeptanz sowie die Effizienz hinsichtlich des eigenen Lernerfolgs ab. Diese Fragen wurden nur von dem Teil der Stichprobe beantwortet, die mindestens einen Podcast angesehen hatten. Die Fragen waren als Aussagen formuliert, die auf einer vierstufigen Likert-Skala (von „trifft nicht zu“ bis „trifft zu“) beantwortet wurden. 4.3 Befragungen externer Hörer/-innen Darüber hinaus wurden mit zwei Online-Erhebungen zusätzlich die externen Nutzer/-innen der beiden Informatik-Veranstaltungen befragt. Die Abonnent/-innen des Podcasts wurden einmal über die Beschreibung des Angebots in iTunes, zweitens jeweils im Rahmen einer eigenen Podcast-Episode, in der die Befragung vorgestellt wurde, um ihre Teilnahme gebeten. Dabei wurde in beiden Befragungen der gleiche Fragebogen in leicht abgewandelter Version mit 19 bzw. 20 geschlossenen und zwei offenen Fragen verwendet. Dabei wurde, im Gegensatz zur Studierendenbefragung, ein fünfstufiges Antwortformat mit einer Mittelkategorie verwendet. Inhaltlich wurden demographische Variablen erhoben sowie Fragen zu Häufigkeit und Art der Nutzung und zur Bewertung der Podcasts in Bezug auf die Technik, sowie zur Akzeptanz und zum wahrgenommenen Lernerfolg. Es nahmen insgesamt 310 Personen (Veranstaltung A) und 58 Personen (Veranstaltung B) an den Befragungen teil, das entspricht etwa 10 Prozent der geschätzten Nutzer/-innen. Da es bezüglich der nicht-veranstaltungsbezogenen Fragen keine signifikanten Unterschiede zwischen den Stichproben gibt, wurden die Daten der beiden Veranstaltungen zu einem Datensatz zusammengefasst (im Folgenden als Stichprobe externer Hörer/-innen bezeichnet) und werden gemeinsam berichtet. 238 5 Ergebnisse Im Folgenden werden, bezogen auf die in Kapitel 3 angesprochenen Fragestellungen, ausgewählte Ergebnisse berichtet. Dabei wird in Bezug auf jede Fragstellung zuerst auf die Studierenden und als zweites auf die externen Hörer/-innen eingegangen. 5.1 Nutzungshäufigkeit In der Studierendenstichprobe wurde das Angebot der Podcasts nicht sehr intensiv genutzt. 75% der Befragten hatten das Podcastangebot gar nicht in Anspruch genommen, und nur 6% der Befragten hatten mehr als 50% der Episoden gehört. Podcasts wurden somit seltener genutzt als die übliche Veranstaltungsaufzeichnung mit dem Webinterface virtPresenter (T=4,501, p<0,001). Abbildung 1 zeigt, wie häufig Veranstaltungsaufzeichnungen (a) und Podcasts (b) genutzt wurden. (b) Podcasts 20 15 10 5 0 19 11 7 7 10 Nennungen Nennungen (a) Veranstaltungsaufzeichnungen 40 30 20 36 10 0 7 2 3 Abbildung 1: Anzahl der angesehenen Episoden in der Studierendenstichprobe (a) der Veranstaltungsaufzeichnung mit dem virtPresenter und (b) der Podcasts Bei den externen Hörer/-innen ist ein Vergleich mit der Grundgesamtheit möglicher Nutzer/-innen nicht möglich, hier liegen lediglich die Serverstatistiken für die angebotenen drei Veranstaltungen vor. Die Episoden von Veranstaltung A (Video Podcasts) wurden durchschnittlich 3000mal herunter geladen. Die Video-Podcast-Episoden von Veranstaltung B wurden durchschnittlich 400mal herunter geladen, die Enhanced-PodcastEpisoden 1400mal. Die Audio-Podcast-Episoden von Veranstaltung C wurden durchschnittlich 200mal herunter geladen, im Vergleich dazu die Video Podcasts dieser Veranstaltung 300mal und die Enhanced Podcasts durchschnittlich 400mal. Damit stellten gerade die ersten beiden Veranstaltungen zwei der am häufigsten genutzten PodcastAngebote der Plattform iTunes dar und waren über mehrere Wochen unter den Top Ten der am meisten genutzten Angebote (über alle Podcastkategorien hinweg) zu finden. Es stellt sich weiterhin die Frage, aus welchen Personengruppen sich diese externen Nutzer/-innen zusammensetzen. Dieser Frage wurde in den am häufigsten genutzten Informatik-Veranstaltungen (Veranstaltung A und B) mit einer Online-Befragung nachgegangen. Es zeigte sich, dass die große Mehrzahl der Befragten männlich war (96%), 239 mit einem Alter zwischen 15 und 74 Jahren (M=32,4, Sd=12,7). Die meisten Befragten waren berufstätig (56%), es gab weiter auch größere Anteile an Studierenden (30%) und Schüler/-innen (13%) sowie einige wenige Rentner/-innen (1%). Als Motive für die Podcast-Nutzung gaben die meisten Befragten ein allgemeines Interesse am Thema an (56,8%), andere benötigten das Wissen aber auch für die Schule, Ausbildung oder ein Studium (18,8%) oder für den Beruf (22,4%). 5.2 Art der Nutzung Bezüglich der Art der Nutzung wurde zunächst gefragt, welche Abspielgeräte genutzt wurden. Hier zeigt sich, dass PCs bzw. Laptops am häufigsten genutzt wurden (Studierende: 85%; externe Hörer/-innen: 82 %). iPods und andere mobil nutzbare Geräte spielten eine vergleichsweise geringe Rolle (Studierende: 15%; externe Hörer/-innen: 18%). Abbildung 2 stellt die Antworthäufigkeiten zu diesen Fragen bezüglich der beiden Stichproben gegenüber. Analog zeigt sich, dass Podcasts sowohl von Studierenden als auch externen Hörer/-innen vorwiegend zu Hause genutzt wurden (Studierende: 75%; externe Hörer/-innen: 88%). Diesen Aspekt gibt Abbildung 3 einmal für die Studierenden und für die externen Hörer/-innen graphisch wieder. 12 10 8 6 4 2 0 (b) externe Hörer/-innen 11 0 2 Nennungen Nennungen (a) Studierende 300 250 200 150 100 50 0 270 57 4 Abbildung 2: Abspielgeräte (a) in der Studierendenstichprobe und (b) in der Stichprobe externer Hörer/-innen Drittens wurde gefragt, ob die Podcasts vollständig rezipiert werden oder ob einzelne Bereiche und Themen gezielt angesehen bzw. –gehört werden. Hier zeigt sich, dass sich die Mehrzahl der Befragten der Studierendenstichprobe nicht ganze Folgen ansieht (13%). 35% der Studierendenstichprobe gaben an, dass sie gezielt nach einzelnen Themen suchen. Im Gegensatz dazu gaben 84% der externen Hörer/-innen an, dass sie die gesamten Folgen anschauen. Entsprechend gaben lediglich 16% der externen Hörer/-innen an, sie sähen sich eher einzelne Teile einer Folge an. 240 6 5 4 3 2 1 0 (b) externe Hörer/-innen 6 2 Nennungen Nennungen (a) Studierende 300 200 304 100 0 40 Abbildung 3: Podcast-Nutzung zuhause oder unterwegs (a) in der Studierendenstichprobe und (b) in der Stichprobe externer Hörer/-innen 5.3 Technische Bewertung, Akzeptanz und Effektivität In Bezug auf die technischen Aspekte der Podcasts schätzten 57% der Studierendenstichprobe und 79% der externen Hörer/-innen die Bildqualität mindestens mit „eher gut“ ein. Die Tonqualität wurde von 77% der Studierendenstichprobe und 78% der externen Hörer/-innen als „eher gut“ bewertet. Die Downloadzeiten beurteilten entsprechend 79% der Studierenden als akzeptabel. 72% der externen Nutzer/-innen beurteilten die Downloadzeiten positiv, weitere 20% beurteilen sie als „mittelmäßig“. Bezüglich der Akzeptanz von Podcasts stimmten der Aussage „Allgemein halte ich das Angebot von Podcasts für sinnvoll.“ 76% der studentischen Nutzer/-innen zu bzw. eher zu, bei den externen Hörer/-innen betrug der Anteil zustimmender und ziemlich zustimmender Antworten 99%. Ähnlich stimmten 50% der Studierendenstichprobe der Aussage „Mit Hilfe der Podcasts habe ich viel gelernt.“ zu bzw. eher zu. Bei den externen Hörer/-innen betrug der Anteil mindestens ziemlich zustimmender Antworten 84%. Abbildung 4 verdeutlicht diese Ergebnisse noch einmal für die beiden Stichproben. 6 Diskussion Ein zentrales Ergebnis der vorliegenden Untersuchungen ist, dass Veranstaltungsaufzeichnungen in Form von Podcasts auch außerhalb der Hochschulen auf großes Interesse stoßen und auch neben technisch weit aufwändiger produzierten und inhaltlich massentauglicheren Angeboten wie den Podcasts der „Tageschau“ oder der „Sendung mit der Maus“ in den Top10 der beliebtesten Podcasts Deutschlands zu finden waren. Selbst ein eher randständiges Thema wie die „Theorie der Schule“ hat Downloadzahlen von mehreren hundert pro Episode erreichen können. Auch wenn die Downloadzahlen die tatsächlichen Hörer/-innenzahlen überschätzen, kann man allein aufgrund der regen Beteiligung an den Befragungen von beträchtlichen tatsächlichen Nutzer/-innen-Zahlen ausgehen. 241 6 5 4 3 2 1 0 (b) externe Hörer/-innen 5 3 6 2 Nennungen Nennungen (a) Studierende 200 150 100 174 111 50 0 1 4 49 !" Abbildung 4: Zustimmumg zur Aussage „Mit Hilfe der Podcasts habe ich viel gelernt.“ (a) in der Studierendenstichprobe und (b) in der Stichprobe der externen Hörer/-innen Zweitens wurden in den Veranstaltungen, wo verschiedene Podcast-Formate angeboten wurden, die Enhanced Podcasts den Video Podcasts vorgezogen. In Veranstaltungen, in denen mit PowerPoint-Folien gearbeitet wird, erscheinen diese den Nutzer/-innen offensichtlich informativer als das Bild des Dozenten. Die Frage, wie notwendig Videos für Veranstaltungsaufzeichnungen sind, ist in der Literatur umstritten. Bestehende Untersuchungen richten das Augenmerk auf Vor- und Nachteile der gleichzeitigen Präsentation von Folien bzw. Videos (z.B. [MM00], [BL01]), ein möglicher Unterschied in der Lernwirksamkeit von Videos und PowerPoint-Folien speziell auf mobilen Abspielgeräten ist dabei jedoch noch zu prüfen. Studierende präferierten die klassischen Veranstaltungsaufzeichnungen, in denen gleichzeitig das Video der Dozent/-innen als auch die PowerPoint-Folien gezeigt werden, und nutzten Podcasts eher wenig, was die Ergebnisse von [Af06] repliziert. Ob auch die externen Hörer/-innen die Veranstaltungsaufzeichnungen lieber mit dem Webinterface „virtpresenter“ angesehen hätten, das neben der erhöhten Media Richness auch bessere Navigationsmöglichkeiten bietet, ist eine offene Frage. Möglicherweise beruht die Beliebtheit der Podcasts bei den externen Hörer/-innen eher auf der guten Zugänglichkeit des Podcast-Angebots über den iTunes Musicstore. Der Vorteil von Podcasts gegenüber der virtPresenter-Nutzung liegt vor allem in der Möglichkeit zum mobilen Lernen, wobei diese Möglichkeit aktuell selten genutzt wird. Das könnte daran liegen, dass die Gelegenheit zum mobilen Lernen bei vielen eher selten gegeben ist (z.B. wenig lange Fahrtstrecken). Es könnte jedoch auch sein, dass die Befragten das mobile Lernen von komplexen Inhalten nicht für sinnvoll halten oder die Potentiale nicht wahrnehmen. Für letzteres spricht, dass als häufigste Antworten auf die Frage, was die Besonderheit von Podcasts als Lernmedium sei, die zeitliche Flexibilität (30,0%) und das Ansehen in eigenem Tempo (22,4%) genannt wurden. Die räumliche Flexibilität (9,2%) und speziell die Möglichkeit zum mobilen Lernen (5,0%) wurden, wie auch die Zugänglichkeit zu universitärem Wissen allgemein, seltener genannt. Eine dritte Erklärung für die geringe mobile Nutzung von Podcasts liegt in der nicht flächendeckenden Verbreitung von iPods oder vergleichbaren Geräten sowie in den bislang noch recht hohen Kosten für Internetverbindungen ausgehend von mobilen Abspielgeräten. Welche der drei Hypothesen möglicherweise zutreffend ist, sollte in Folgeuntersu242 chungen geklärt werden. Die große Beliebtheit von Podcatchern wie iTunes sowie die allgemeine Diskussion in der Fachliteratur aber auch in Funk, Fernsehen und Presse deuten darauf hin, dass eine positive Grundhaltung gegenüber mobilem Lernen besteht bzw. dass aktuell ein Einstellungswandel stattfindet. Gemeinsam mit dem Preisverfall mobiler Geräte sowie Handy-Flatrates ist dem mobilen Lernen durchaus ein Zukunftspotential einzuräumen. Die Technik, das Angebot an sich und der eigene Lernerfolg werden durch die Befragten allgemein positiv bewertet. Nichtsdestotrotz zeigt sich hier ein deutlicher Forschungsbedarf. So ist das Medium Podcast an der Universität Osnabrück derzeit Gegenstand mehrerer experimenteller Untersuchungen, die der Frage nach den technischen, pädagogischen und didaktischen Potenzialen des Mediums nachgehen. Ein interessanter technischer Ansatz zur Lernerfolgskontrolle ist dabei die geplante Verknüpfung der Podcasts mit Online-Assignments [Ke07]. Schließlich bedeutet die hohe Zahl an externen Nutzer/-innen für die Universität Osnabrück einen nicht unerheblichen Werbeeffekt, da sich die Universität erstens auch uniextern mit guter Lehre zu positionieren kann, zweitens herausragende Beispiele interessanter Veranstaltungen präsentiert werden und drittens besonders Schüler/-innen und Studierenden anderer Universitäten vermittelt werden kann, dass die Universität auch auf dem Gebiet innovativer Technologien eine Vorreiterrolle einnimmt. Viertens eröffnen Podcasts der Universität neue Zielgruppen auf dem Weiterbildungsmarkt. Literaturverzeichnis [Af06] Affolter, B.; Wilding, B.; Korner, M.; Lautenschlager, P.: Video-Streaming und – Podcasting – universitäre Bildung für unterwegs? In E. Seiler, S. Kälin, C. Sengstag (Hrsg.). E-Learning – alltagstaugliche Innovation? Münster: Waxmann, 2006, S. 276286. [BL01] Brünken R.; Leutner D.: Aufmerksamkeitsverteilung oder Aufmerksamkeitsforschung? In Unterrichtswissenschaften. Zeitschrift für Lernforschung, 4, 2001. [HWW06] Hürst,W.; Welte, M.; Waizenegger, W.: Podcasting von Vorlesungen in der universitären Lehre. Workshop AudioLearning 2006 im Rahmen der 4. e-Learning Fachtagung der GI (DeLFI), September 2006. S. 91-98. [Ke07] Ketterl, M.; Heinrich, T.; Mertens, R.; Morisse, K.: Enhanced content utilisation: Combined re-use of multi-type e-learning content on mobile devices. IMCL International Conference on Interactive Mobile and Computer Aided Learning 2007, Amman, Jordan, 18.-20. April 2007. [Ke06a] Ketterl, M.; Mertens, R., Morisse, K.; Vornberger, O.: Studying with Mobile Devices: Workflow and Tools for Automatic Content Distribution. World Conference on Educational Multimedia, Hypermedia & Telecommunications (ED-Media 2006), Orlando, FL, USA, June 2006, S. 2082-2088. [Ke06b] Ketterl, M.; Schmidt, T.; Mertens, R.; Morisse, K.: Techniken und Einsatzszenarien für Podcasts in der universitären Lehre. Workshop AudioLearning 2006 im Rahmen der 4. e-Learning Fachtagung der GI (DeLFI), September 2006. S. 81-90. [MM00] Moreno R.; Mayer R.: A Learner-Centred Approach to Multimedia. Explanations: Deriving Instructional Design Princilpes from Cognitive Theory. In Interactive Multimedia Electronic Journal of Computer-Enhanced Learning. 2(5), 2000. S. 1-7. 243 [MKV06] Mertens, R.; Ketterl, M.; Vornberger, O.: Interactive Content Overviews for Lecture Recordings. IEEE International Symposium on Multimedia 2006 Workshop on Multimedia Technologies for E-Learning (MTEL), San Diego, CA, USA, 11-13 Dezember 2006. pp. 933-937 [Sc07] Schulze, L.; Klostermeier, F.; Gruber, C.; Hamborg, K.-C.: If you can’t measure it, you can’t manage it! Evaluation elektronisch gestützter Lehre mit einem modularen Screening-Fragebogen. Universität Osnabrück: unveröff. Manuskript. [Sc06] Schmidt, T.: Typologie des Podcast-Einsatzes. learnmedia@uos, 2, 2006, S.12. http://www.virtuos.uni-osnabrueck.de/Content/LearnMedia. [St00] Staufenbiel, T.: Fragebogen zur Evaluation von universitären Lehrveranstaltungen durch Studierende und Lehrende. Diagnostica, 46, 2000, S. 169-181. [TR03] Trifonova, A.; Ronchetti, M.: Where is Mobile Learning Going?. In G. Richards (Ed.), Proceedings of World Conference on E-Learning in Corporate, Government, Healthcare, and Higher Education, 2003, pp. 1794-1801. 244 Ein Framework für die kooperative Wissensorganisation – Informelles semantisches Strukturieren und Einsatz in der Praxis Dominik Niehus, Patrik Erren, Thorsten Hampel Universität Paderborn niehus@hni.uni-paderborn.de erren@campus.uni-paderborn.de hampel@uni-paderborn.de Abstract: Das grafisch-semantische Arrangieren von Medien ist zentral für modernes E-Learning und Wissenskonstruktion in Gruppen. Aufbauend auf der Grundlage so genannter virtueller Wissensräume erlaubt der Medi@rena Composer “ das ” kooperative Positionieren und Strukturieren von vielfältigen Formen von Wissensobjekten. Ein konsequent objektorientiertes Arrangieren von Wissenselementen in einer Medienarena benötigt spezifische architektonische Grundlagen. Der vorliegende Beitrag stellt aufbauend auf diesen Grundlagen unser Eclipse-Rich-Client-basiertes BasisFramework mediarena“ vor. Anhand einer Reihe von Einsatzerfahrungen in der uni” versitären Lehre werden die Kernmerkmale semantischen Positionierens gegenüber klassischen Shared Whiteboard-Ansätzen herausgearbeitet. 1 Einleitung Moderne Ansätze der Erwachsenenbildung sehen die Lernenden im Zentrum eines aktiven Prozesses der Wissensorganisation. Wissensorganisation meint hierbei den selbstorganisierten Prozess der Strukturierung vielfältiger Wissensquellen und Lernmaterialien. Unabhängig von verschiedenen didaktischen Methoden und Herangehensweisen helfen digitale Medien und Werkzeuge diese Prozesse zu vereinfachen und zum Teil erst zu ermöglichen. Unter den Stichworten des Findens neuer Qualitäten von Mobilität oder auch neuer Interaktionsformen steht letztlich die schon seit den Anfängen der Forschung zum computergestützten kooperativen Lernen stehende Anspruch der zeit- und ortsübergreifenden Integration aller Orte und Situationen in denen Wissen verarbeitet wird. Die klassische Unterscheidung nach einem synchronen oder asynchronen Charakter dieser Dienste tritt unter dem Anspruch in verschiedensten Konstellationen zeit- und ortsübergreifend zusammenarbeiten und lernen zu wollen mehr und mehr in den Hintergrund. Um so spannender und dringlicher stellt sich die Frage nach der Integration geeigneter Werkzeuge zur Unterstützung einer lernzentrierten Wissensstrukturierung, welche der Vielfalt von Lernorten und Lernkontexten von individuell bis kooperativ gerecht wird. Speziell im Hinblick auf das Finden geeigneter Strukturierungsmittel zum Aufbau von 245 Erschließungsstrukturen, die den Lernfortschritt reflektieren und Wissensstrukturierungsprozesse geeignet unterstützen, scheint dieser Anspruch bislang nur in Ansätzen realisiert. Im Zentrum dieser Prozesse steht letztlich eine Zusammenfährung aus grafischsemantischen Visualisierungs- und Strukturierungstechniken mit klassischen Formen des Hypertext. Neue Qualitäten ergeben sich zum einen unter dem Stichwort social Software“ ” bzw Web 2.0“ in einer Generation neuer sozialer“ Formen der netzgestützten Kommu” ” nikation und Kooperation, wie Wikis und Weblogs, zum anderen in neuen technischen Möglichkeiten der Bereitstellung und Entwicklung netzgestützter interaktiver Werkzeuge, wie z.B. Rich Client Architekturen. Im vorliegenden Beitrag werden wir aufbauend auf den Paderborner Erfahrungen im Aufbau von Methoden der semantischen Strukturierung von Wissen [GHK04] und ihrer Einbettung in zukunftsweisende Lehr-/ Lernkonzepte unsere aktuelle Forschung und Praxis in der Schaffung einer neuer Generation semantischer Visualisierungs- und Strukturierungstechniken vorstellen. Das Synonym Medi@rena steht hierbei für ein Theatrum, eine Arena medialer Strukturierungsvielfalt in der Wissenskonstruktion. Der Medi@rena Composer schafft eine synchron wie asynchron nutzbare räumliche Sicht auf Wissensräume [Ha01]. In ihren technischen Grundlagen wie ihrer praktischen Einbettung in vielfältige Lehr/Lernprozesse markiert sie für uns den Übergang von der bislang praktizierten Wissenspräsentation zur kooperativ-visuellen Wissensstrukturierung. Eine neue Generation von Mechanismen der semantischen Wissensstrukturierung (Positionierung) steht für einen längerfristigen Prozess, bei dem Objekte, Dokumente und grafische Elemente so räumlich miteinander in Beziehung gesetzt werden, dass sich durch die räumliche Anordnung der Wissenselemente und die Visualisierung von semantischen Zusammen- hängen die unterliegende Wissensstruktur erschließen lässt. Dies schließt die Nutzung von hypertextuellen Wissenselementen (Wikis) als Teil der arrangierten und verknüpften Wissensstrukturen ein. Neu ist in diesem Zusammenhang eine Form des objektorientierten Umgangs mit Wissensobjekten auszugestalten. Wissensobjekte können in vielfältiger Art und Weise verknüpft und attributiert. An Wissensobjekten können sich Kommunikationskanäle bilden oder vielfältige weitere Werkzeuge festmachen. Wissensobjekte benötigen besonders in ihrer technischen Umsetzung hierzu spezifische architektonische Vorbedingungen. In den folgenden Abschnitten werden wir zunächst die technischen Grundlagen einer derartigen Infrastruktur zur Wissensstrukturierung basierend auf der Eclipse Plattform in Verbindung mit der Open Source Infrastruktur sTeam [Os07] vorstellen. Diese technischen Entwicklungen werden von der Open Source Community unter dem Stichwort Flywheel vorangetrieben. In einem zweiten Schritt werden wir kurz von unseren Erfahrungen aus der praktischen Einbettung derartiger Mechanismen der Praxis der Wissensstruklturierung in der Lehre berichten. 246 2 Technische Plattform open-sTeam (sTeam) wird als serverbasierte Plattform für kooperatives Arbeiten im Umfeld der Forschung und Lehre an der Universität Paderborn eingesetzt. Im Rahmen eines Projektes des Deutschen Forschungsnetz (DFN) am Heinz Nixdorf Institut entworfen, steht das Konzept des virtuellen Wissensraums zum objektgestützten Strukturieren im Mittelpunkt. Ein Wissensraum oder Areal nimmt sowohl Dokumente und Verzeichnisse, als auch komplexe Objekte wie Foren, Kalender, Chat, Gruppen und Benutzer auf. Flexible und gleichberechtigte Verwaltung von Objekten und Attributen ermöglicht die leichte Erweiterung und damit ständig neue Einsatzszenarien und Dienste von sTeam. Angepasste Benutzeroberflächen und Sichten auf Wissensräume in sTeam stehen zur Nutzung des CSCW/L Systems zu Verfügung. Neben einer umfangreichen Weboberfläche unterstützt sTeam gängige Protokolle wie FTP, IRC und Webdav. Abbildung 1 zeigt schematisch das Zusammenspiel der Protokolle und wie sie auf den virtuellen Wissensraum abgebildet werden. Als universelles Protokoll für verschiedene Client Anwendungen ist das COAL-Protokoll entwickelt worden. Es ermöglicht eine event-basierte, synchrone Kommunikation zwischen der Anwendung und sTeam. Für das COAL-Protokoll existieren unter anderem API Implementierungen für PHP und Java. Die Java API, JavaSteam, bildet die Netzwerkschnittstelle zum Medi@rena Composer . Client (synchron) WEBDAV FTP E-MAIL NEWS Browser Browser ... COAL Internet Webserver COAL object repository database HTTP IMAP FTP .... WEBDAV sTeam-Server LDAP Abbildung 1: open-sTeam Protokolle 2.1 Rich Client Das Ziel unserers Basis Frameworks flywheel“ ist es gleichermaßen eine flexibel er” weiterbare wie modulare, aber auch schnelle und Betriebsystem unabhängige Plattform 247 für Client-Anwendungen zu schaffen. Webtechnologien wie Ajax würden sich für die Umsetzung anbieten. Sie scheiden jedoch wegen ihrer asynchronen Arbeitsweise aus. Wir setzen auf eine Rich-Client-Architektur, die wir nach unseren Ansprüchen flexibel anpassen können. Das Eclipse-Projekt ist durch das Eclipse SDK, eine Java Entwicklungsumgebung (IDE), weit verbreitet. Neben dieser IDE ist Eclipse eine generische Entwicklungsplattform in die sich leicht Editoren und Werkzeuge für weitere Programmiersprachen und Systeme integrieren lassen. Grundlage dieser Entwicklungsumbegung ist die Eclipse Rich Client Plattform (RCP) [RCP07]. Die RCP ist ein universelles Framework für Komponeten-basiete Client-Anwendungen mit einer Vielzahl grundlegender Komponeten. Eclipse Plattform Help (optional) Update (optional) Text (optional) IDE Text Compare PDE (optional) Debug JDT (optional) Search Team/ CVS Eclipse SDK Java IDE andere Tools (CDT etc.) (optional) Rich Client Anwendung Rich Client Plattform IDE Generic Workbench (UI) Workspace (optional) JFace SWT Plattform Runtime (OSGI) Java VM Abbildung 2: Eclipse Rich Client Plattform in Komponeten Der Eclipse Rich Client ist seit Version 3.0 Teil der Eclipse Plattform. Die Struktur der Abhängigkeiten zwischen den einzelnen Komponenten in der Java-basierten Anwendungsplattform zeigt Abbildung 2. Eine Eclipse Anwendung wird durch den Zusammenschluss verschiedener Komponenten gebildet. Diese heißen im Eclipse Sprachgebrauch Plug-ins [Bi05]. Das Standard Widget Toolkit (SWT) [SWT07] gehört zu den Plug-ins, die fester Bestandteil des RCP Paketes sind. SWT bietet Java Bibliotheken für grafische Benutzeroberflächen. Im Gegensatz zu den Swing“ Paketen, bietet SWT Zugriff auf native UI ” Widgets (z.B. Fenster und Buttons) des umgebenen Betriebsystems. Das Ergebnis sind schnellere Reaktionszeiten der Anwendung und nahtlose Einbettung in das Look & Feel der Umgebung. Während SWT low-level Zugriff auf die einzelnen Widgets des Fenstersystem ermöglicht, bieten die JFace Pakete, welche als separates Plug-in vorliegen, highlevel Klassen für häufige Aufgaben in der GUI-Programmierung. Durch das UI Workbench Plug-in werden Schnittstellen und Klassen hinzugefügt, die für die grafische Repräsentation der Benutzeroberfläche verantwortlich sind. Entwurfsmuster für views, editors, perspectives und actions sind bereits vorbereitet und lassen sich einfach in die eigene Anwendung integrieren. Ein wichtiger Teil des Komponenten-Konzeptes von Eclipse sind die Erweiterungspunkte (extension points), die andere Plug-ins nutzen können, um ihrer- 248 Eclipse Plattform Rich Client Application Update (optional) Text (optional) Mediarena Editor Rich Client Plattform Model Generic Workbench (UI) Chat sTeam Copy Developer Tools Admin Tools flywheel Mediarena Help (optional) Workspace (optional) JFace SWT Plattform Runtime (OSGI) Java VM Abbildung 3: Der Medi@rena Composer in Komponeten seits bestehenden Plug-ins mit Funktionalität zu erweitern. Das Plug-in, das einen Erweiterungspunkt zur Verfügung stellt, definiert durch Java-Schnittstellen und ein XML-Schema eindeutig diesen Erweiterungspunkt. Dieses führt zu einem sehr flexiblen KomponentenModell, in dem Funktionalität in Plug-ins gekapselt wird. Durch diese Konzepte in Verbindung mit den Plug-ins SWT, JFace und UI Workbench ist die Eclipse Rich Client Plattform ein sehr leistungsstarkes Framework, welches wir für die Umsetzung einer interaktiven kollaborativen Wissensraum-Anwendung benötigen. Trotz einer aufwendigen Konfiguration ergibt sich ein sehr gut skalierendes Komponentensystem, das in der Basisversion aus etwa 60 Plug-ins besteht. Die Struktur von Medi@rena zeichnet sich besonders durch die Zergliederung in unterschiedliche Komponenten aus. Beim Softwareentwurf wurde besonders darauf geachtet, dass die Komponenten geeignete Funktionseinheiten bilden, um sich der Anforderung nach flexibler Austauschbarkeit und Erweiterbarkeit anzunähern [Ga94]. Zusammengefasste Komponenten bilden Funktionseinheiten und werden im Eclipse Sprachgebrauch als Features“ bezeichnet. Der Medi@rena Composer selbst besteht aus zwei Features, dem ” flywheel und mediarena Feature. Zur Ausführung werden allerdings noch weitere Features benötig, das Eclipse RCP Feature und einige weitere Infrastruktur Komponenten wie GEF und EMF. Die gemeinsame Schnittstelle zwischen den beiden Komponentengruppen flywheel und mediarena bildet die Model-Komponente, die Bestandteil von flywheel ist. Das Komponentenschema von Medi@rena (Abbildung 3) veranschaulicht, den Zusammenhang zwischen der Eclipse Rich Client Plattform und den mediarena Komponenten. Der in blau dargestellte RCP Unterbau umfasst alle zur Laufzeit notwendigen Komponenten. Grün gefärbt sind die Komponenten von mediarena. Sie betten sich genau wie die Eclipse IDE ein. Sehr deutlich wird an dieser Stelle die Regel der Gleichberechtigung von Komponenten in der Eclipse Hausordnung, da einer verhältnismäßig kleinen Anwendung wie der Medi@rena Composer die selben Schnittstellen zu Verfügung sehen, wie der sehr umfangreichen Eclipse Java IDE. 249 3 Medi@rena Composer Entsprechend unserer Anforderungen an Anwendungen im CSCW/L Bereich, haben wir mit flywheel ein flexibles und modulares Framework auf Basis der Eclipse Rich Client Plattform geschaffen. mediarena ist eine Anwendung, die auf flywheel aufsetzt. Unser Framework ist wiederum in verschiedene Plug-ins unterteilt. Sie übernehmen zum einen die Kommunikation mit dem sTeam Server und zum anderen bilden sie das Objektmodell ab und verwalten dieses. Zusammen mit der Eclipse Rich Plattform sind sie die Basis für Anwendungen, wie der Medi@rena Composer . Erweiterung Erweiterung Internet Chat Erweiterung Model BaseEditParts ... Erweiterung ModelManager Erweiterung Erweiterung SteamConnection open-sTeam Server ... IServerConnection Flywheel Mediarena Abbildung 4: Medi@rena im Zusammenspiel mit open-sTeam Beim Design von flywheel verwendeten wir ein gängiges Entwurfsmuster, die ModelView-Controller Sturktur (MVC) [KP88]. sTeam organisiert Wissensobjekte in virtuellen Räu- men. Auch Benutzer werden durch ein Objekte repärsentiert und befinden sich in dem Raum der aktuell betrachtet wird. Für die Repräsentation von Räumen auf der Seite unserer Rich Client Anwendung ist die Modell-Komponente zuständig ( flywheel.model“). ” Der Controller in flywheel.core“ hält das Modell synchron mit den Server. Für die Kom” munikation bindet er das Event-basierte COAL-Protokoll mit der Java API JavaSteam ein. Abbildung 4 illustriert darüber hinaus die definierten Erweiterungspunkte z.B. im fly” wheel.editor“. Anwendungen wie mediarena setzten auf die durch das flywhheel Framework geschaffene Model-Controller-Basis auf und fügen die für ihre Einsatzzwecke notwendigen Views und Editoren hinzu. Im Zentrum der grafischen Benutzeroberfläche des Medi@rena Composer steht der grafische Editor, der den Inhalt des aktuellen Raumes zeigt. Er ermöglicht das Arrangieren und Verknüpfen von Wissensobjekten über die Drag&Drop Funktionalität. Die Palette bietet die Möglichkeit neue grafische Objekte zu erzeugen. Die Objekt Outline listet alle Wissensobjekte im aktuellen Raum auf. Ebenen lassen sich durch Drag&Drop Operationen manipulieren. Der Navigator zeigt einen Gesamtüberblick über den aktuellen Wissensraum und ist eine Orientierungshilfe in großen Zoomstufen. Die Benutzerliste stellt eine Awareness- 250 Objekt-Übersicht grafischer Editor Navigator Chat und Benutzerliste Rucksack Abbildung 5: Medi@rena Benutzeroberfläche Komponente dar und zeigt alle Benutzer, die sich aktuell im aktiven Raum befinden. über das Chat-Fenster besteht die Möglichkeit Nachrichten mit einzelnen Benutzern oder allen Anwesenden im Raum auszutauschen. In seiner Grundkonstruktion bezieht sich der Medi@rena Composer sowohl aus Sicht der medialen Nutzungskonzeption als auch aus Sicht der gewählten Softwarearchitektur auf einen konsequenten Objektansatz. Sämtliche arrangierbaren Wissenselemente werden als identische Objekte behandelt, welche sich lediglich durch eine angepasste Attributierung (Metadaten) unterscheiden. Auf diese Weise lassen sich auch komplexe Elemente, beispielsweise ganze Wiki-Hypertexte, in identischer Weise behandeln wie einfache grafische Elemente (Linienelemente, Kreissegmente etc.). Bei einem Objekt kann es sich genauso um ein Office-Dokument handeln wie um eine einfache Grafik. Auf ihrer technischen Grundlage heraus erlaubt der Composer die Strukturierung beliebiger Objekte und ist daher für die gesamte Breite möglicher Medienformen geeignet. Ziel der Basisarchitektur ist es auf diese Weise eine Grundlage für das Strukturieren von Objekten zu schaffen, in der sich auch komplexe Elemente grafisch positionieren, in Unterstrukturen (Ordnern) strukturieren lassen und damit in verschiedene Kontexte setzten lassen. Der Rich Client mediarena verwaltet dahingehend eine echte, persistente Objektstruktur und Sicht auf einen virtuellen Wissensraum. Er unterscheidet sich in dieser Weise grundlegend von bekannten Shared Whiteboard-Systemen, die vereinfacht ausgedrückt eine synchrone Zeichenfläche mit verschiedenen Medienelementen bereitstellen. Ein Mechanismus zur Erweiterung des grafischen Editor ermöglicht es den Medi@rena Composer um neue Objekttypen zu erweitern oder bestehende Darstellungen auf einfache Weise auszutauschen. 251 Abbildung 6: Arbeiten mit dem Medi@rena Composer Insbesondere im Zusammenspiel mit klassischen grafischen Elementen eines Whiteboards lassen sich auf diese Weise echte Mehrwerte von Wissensräumen ausgestalten. - Die Grenze zwischen klassischem Hypertext und grafisch-semantsicher Wissensstrukturierung verschwimmt im virtuellen Wissensraum. 4 Komplexe Aussagen durch semantisches Positionieren Während im letzten Kapitel vornehmlich der technische Aufbau unseres Konzeptes beschrieben wurde soll der theoretische Rahmen und der Praxisbezug deutlich werden. Als semantisches Positionieren [EK06] bezeichnen wir eine grafische Strukturierungstechnik bei der Wissensobjekte wie z.B. Dokumente allein aufgrund ihrer Position in einem visuellen Arrangement bereits eine semantisch interpretierbare Bedeutung erlangen. Dabei nutzen wir ein grundsätzliches Framework das auf vier Methoden der Anordnung sowie Kombinationen derselben aufbaut. Es gibt Topologien welche eine Anordnung von Elementen in n-Dimensionen erlauben, üblicherweise in Form von benannten Achsen realisiert. Die zweite Kategorie sind Prädikatenlogische Mengenkonstrukte bei denen Enthaltensein die zentrale Objektbeziehung darstellt. Drittens gibt es Relationskonstrukte in Form von Graphen mit üblicherweise benannten Kanten, die unterschiedliche Beziehungen zwischen Objekten konkretisieren. Der letzte Arrangementtyp sind Kombinatoriken die sich als Matrizen darstellen und jedem Objekt eine Kombination von Eigenschaften 252 aus dem zugehörigen Zeilen- und Spaltenvektor zuordnen. Durch Nutzung dieses Konzeptes lassen sich visuelle Wissenstrukturierungen erstellen, die durch Kombination der Arrangementtypen erlauben komplexe Aussagen zu treffen. Solche Konstrukte bezeichnen wir als Overlays. Wir nutzen dieses Konzept im Zusammenhang mit verschiedenen weiteren Technologien aus dem Bereich des Web 2.0 um verschiedenste Lern- und Lehrszenarios an einer Universität zu kreieren. Das Szenario welches derzeit im Zusammenhang mit dem Konzept des semantischen Positionierens am stärksten von den grafischen Fähigkeiten der medi@rena Gebrauch macht ist das medi@thing (’thing’ bezieht sich dabei auf die altgermanischen Versammlungen bezüglich von Rechtsdingen). Dieses ist eine auf Erfahrungsbasis verbesserte Variante des ursprünglichen Jour Fixe Konzeptes [KH03] [EK06] für vorlesungsbegleitende Übungen welches in seiner Struktur eher Seminaren als klassischen Übungen mit Aufgabenblattabgaben entspricht. Die Studierenden erarbeiten sich dazu ein komplexes Themengebiet welches sie in Form einer visuellen Wissensstrukturierung basierend auf virtuellen Wissensräumen aufbereiten. Dieses präsentieren sie zu drei Zeitpunkten in der Entstehungsphase vor dem versammelten Kurs und stellen sich Diskussion und eventueller Kritik, die bei der Verbesserung der Struktur helfen soll. Das es tatsächlich möglich ist auf diese Weise durch semantisches Positionieren komplexe Aussagen zu treffen, soll in folgendem Beispiel gezeigt werden. Diese von Studenten erstellte Visualisierung zum Thema Atomkrieg aus Versehen nutzt eine neue Overlaystruktur aus Zeitstrahl und Mengenstruktur (letzteres aber nur inkonsequent), den Zeittunnel. Der Tunnel wurde als Mittel gewählt um problematische Phasen in der Geschichte als Verengungen des Tunnels zu visualisieren. Erklärende Dokumente zu relevanten Phasen wurden wie aus Abbildung 7 ersichtlich nur über und unter dem Tunnel angeordnet, wobei auch eine Anordnung innerhalb möglich wäre. Drei Einflussfaktoren nämlich Politik“, Mensch“ und Technik“ wurden bezüglich der Thematik identifiziert ” ” ” und durch wirr verwobene Bänder innerhalb des Tunnels dargestellt. Die Ersteller wollen damit nach eigener Aussage eine quantitative Gewichtung der einzelnen Faktoren als Grund einer Krise ausschließen. Allein schon diese Aufstellung erlaubt es Wissensobjekten in der Struktur Bedeutung zuzuweisen. Die wirkliche Komplexität der gemachten Aussagen zeigt sich aber oft erst in der Diskussion. Dabei ergaben sich hier die Kritikpunkte, dass durchaus Gewichtungen der Einflussfaktoren (meist versagende Technik als potentieller Auslöser eines versehentlichen Atomkrieges und menschliche Intervention um dies zu verhindern) möglich waren. Auf den dann geordneten Linien für Politik, Mensch und Technik könnten dann auch direkt innerhalb des Tunnels die erklärenden Dokumente angebracht werden um die Aussagekraft noch zu erhöhen. Der Vorteil einer solchen Wissensstrukturierung liegt aber auch darin, dass jemand der einen Wissensraum mit Dokumenten zu einem komplexen Thema betritt, rein aus der grafischen Aufbereitung heraus sehr schnell Einschätzungen darüber machen kann, was für einen Inhalt die enthaltenen Dokumente jeweils behandeln. Die Vermutung ist, dass dadurch die nicht-sequentielle Erarbeitung des Themas unterstützt wird. Dies muss aber noch empirisch belegt werden. Zumindest wurde aber bereits demonstriert, dass das semanti- 253 Abbildung 7: Wissensstrukturierung als Zeittunnel zum Thema Atomkrieg aus Versehen“ ” sche Positionieren mit Hilfe des Medi@rena Composer in ersten Ansätzen zur Prozessunterstützung von lebenslangem Lernen und der dafür nötigen Erweiterbarkeit geeignet ist. Weitere Lern- und Lehrszenarien die eine grafische Representation auf Basis von virtuellen Wissensräumen haben sich im Zusammenhang mit Web 2.0 Technologien wie Blogs und Wikis ergeben. Letztere können z.B. ebenfalls schon als Dokumente im Medi@rena Composer verwendet werden. Auch Bewertungs- und Verbesserungsverfahren, speziell Pyramidendiskussionen und Thesen-Replik-Verfahren [BS05], wie sie beispielsweise in der Diskursstrukturierung verwendet werden wurden auf Basis von virtuellen Wissensräumen schon realisiert. Eine Einbindung in den Medi@rena Composer steht hierbei allerdings noch aus und wird weiteren Implementierungsaufwand erfordern. 5 Verwandte Arbeiten Verschiedene andere Projekt setzen auf unterschiedlichen Umgang mit Wissenssturkturen. Einige davon stellen wir im folgenden kurz vor. 254 Groove Virtual Office [Gr07] ist ein Anwendung zur kooperativen Dokumentenverwaltung, die sich in die Windows Plattform integriert. Neben Chat und Voice Nachrichten zur Kommunikation bietet Groove kooperative Möglichkeiten wie z.B. gemeinsames Navigieren. Außerdem hat man hier die Möglichkeit zusätzliche Programmfunktionen über Erweiterungen zu ergänzen. Groove besitzt auch ein kooperatives Whiteboard, wobei dieses hier aber eher einer simplen Zeichen- und Skizzenfläche entspricht und nicht zur Dateiverwaltung dient. Die vornehmbaren Annotationen stehen demnach auch nur auf der jeweils angelegten Whiteboard-Seite zur Verfügung. Komplexe Arrangements und eine persistente Datenhaltung sind nicht vorgesehen, es geht vielmehr darum einen verteilten Kommunikationsprozess durch grafische Skizzen oder Highlights von Bildern zu unterstützen. Habanero [Ha07] ist ein Framework zur Konstruktion verteilter kollaborativer Anwendungen auf Basis von Java. Habanero bietet Werkzeuge für Chat, Whiteboard und Viewer für unterschiedliche Dateiformate. Eigene Erweiterungen können durch so genannte Hablets hinzugefügt werden. Auch hier entspricht das Whiteboard als eine grafische Aufbereitungsfläche aber eher einer Fläche für kurze Skizzen als einem Tool für aufwendige und persistente Wissensstrukturierung mit visuellen Arrangements. 6 Ausblick Die generelle Offenheit des Ansatzes und die Breite an Möglichkeiten zur Definition neuer Lernszenarien macht semantisches Positionieren im Zusammenhang mit virtuellen Wissensräumen und Web 2.0 Technologien zu einem Schwerpunkt der weiteren Entwicklung des Medi@rena Composer . So sollen weitere Lern- und Lehrszenarien innerhalb der grafischen Oberfläche ermöglicht werden. Einige Umsetzungen wie Pyramidensidkussionen und Wikis existieren bereits auf Basis virtueller Wissensräume und werden nun sukzessive in den Medi@rena Composer integriert. Eine weitere Perspektive sind sogenannte responsive Szenarien, bei denen Prozesse aufgrund der Platzierung von Objekten angestoßen werden. Dies könnte beispielsweise zur Entwicklung neuer Wissensabfragekonzepte ähnlich wie Multiple-Choice auf grafischer Ebene genutzt werden, wenn Auswertungen über das semantische Arrangement laufen, das ein Student zu einer Aufgabe vornimmt. Literaturverzeichnis [EK06] Erren, P., Keil, R. (2006): Semantic Positioning as a Means for Visual Knowledge Structuring. In: Nejdl, W.; Tochtermann, K. (Hrsg.): EC-TEL 2006, LNCS, Band 4227, S. 591596, Berlin, Heidelberg, Springer-Verlag. [GHK04] Geißler, S., Hampel, T., Keil-Slawik, R.: Vom virtuellen Wissensraum zur Lernumgebung - Kooperatives Lernen als intergrativer Ansatz für eine mediengestütze Bildung. i-com, 3.Jahrg., Heft 2 [Ha01] Hampel, T.: Virtuelle Wissensräume - Ein Ansatz für die kooperative Wissensorganisation, Universität Paderborn, Paderborn 2001 255 [Os07] open-sTeam Projektseite, http://www.open-steam.org [Juni 2007]. [Bi05] Birsan, D.: On plug-ins and extensible architectures, New York, USA, 2005, 40–46, ACM Press [Ga94] Gamma E., Helm R., Johnson R., M. Vlissides J.: Design Patterns: Elements of Reusable Object-Oriented Software, 1994, Addison-Wesley Professional. [RCP07] RCP (Eclipse Rich Client Plattform) Projektseite, http://www.eclipse.org/rcp [Juni 2007]. [SWT07] SWT (Standard Widget Toolkit) Projektseite, http://www.eclipse.org/swt [Juni 2007]. [KP88] G. E. Krasner and S. T. Pope. A cookbook for using the model-view controller user interface paradigm in Smalltalk-80. Journal of Object-Oriented Programming, pages 26-49, August/September 1988. [Gr07] Microsoft Office Groove 2007 Projektseite. http://www.groove.net/, [Juni 2007]. [Ha07] NCSA Habanero Projektseite. http://www.isrl.uiuc.edu/isaac/Habanero/, [Juni 2007]. [BS05] Blanck, B., Schmidt, C.: Erwägungsorientierte Pyramidendiskussion im virtuellen Wissensraum open sTeam. in: Djamshid Tavangarian, Kristin Nölting (Hrsg.): Auf zu neuen Ufern! E-Learning heute und morgen. Münster: Waxmann. 2005, S. 67-76. [KH03] Keil-Slawik, R., Hampel, T.: Neue Wege kooperativen Lernens - Das Paderborner JourFixe-Konzept. In: DFN Mitteilungen 63. Jahrg, Heft 11, 2003, S.16-20. 256 Zur Gestaltung der Aushandlungsunterstützung in CSCL-Systemen Andrea Kienle Fraunhofer IPSI Dolivostraße 15 64293 Darmstadt andrea.kienle@ipsi.fraunhofer.de Abstract: In vielen Prozessen computergestützten kollaborativen Lernens wird die Erarbeitung eines gemeinsamen Ergebnisses als Ziel genannt. Dazu werden in CSCL-Systemen Aushandlungsfunktionalitäten benötigt, die jedoch bislang nur selten realisiert wurden. Der vorliegende Artikel leistet einen Beitrag zu diesem Thema, indem er zum ersten Mal die Ergebnisse dreier Studien zusammenfasst, in denen verschiedene Aushandlungsunterstützungen in CSCL-Systemen evaluiert wurden. Ziel dieser Betrachtung ist die Ableitung allgemeiner Designprinzipien, die für die Gestaltung zukünftiger Systeme handlungsanleitend sind. Zunächst werden dazu Merkmale von Aushandlungsunterstützungen für CSCL-Systeme erarbeitet, an Hand derer die Aushandlungsfunktionalitäten von KOLUMBUS, BSCL und nBSCW vorgestellt werden. Anschließend werden zentrale Ergebnisse aus den Erprobungen dieser Systeme präsentiert und gegenübergestellt. Aus diesem Vergleich werden dann die Designprinzipien abgeleitet. 1 Einleitung In der Forschung zur elektronischen Unterstützung von Lernprozessen setzt sich zunehmend die Einsicht durch, dass Lernen gemeinsam durch das Zusammenwirken mehrerer Akteure erfolgt. Dementsprechend stellt der Ansatz des Computer Support for Collaborative Learning (CSCL) die Aktivität der Lernenden und das selbstorganisierte Lernen in den Vordergrund [Ko96]. In der Vergangenheit wurden unterschiedliche kollaborative Lernprozesse entworfen (für einen Überblick siehe [KH04]), die zu sehr ähnlichen Ergebnissen bzgl. der Aktivitäten der Lernenden kommen: dies sind Aktivitäten, die sich auf die Beschäftigung mit (gemeinsam erarbeitetem) Material, der Diskussion unter den Lernenden und auf die Einigung auf ein gemeinsames Ergebnis beziehen. Soll das kollaborative Lernen computergestützt erfolgen, sind für diese Aktivitäten entsprechende Funktionalitäten in CSCL-Systemen bereitzustellen. Insbesondere die gezielte Unterstützung der Einigung auf ein gemeinsames Ergebnis, oft als das Ziel kollaborativen Lernens genannt (siehe z.B. [SH99], [Di02]), fand in den letzten Jahren für die Gestaltung von CSCL-Systemen noch wenig Beachtung (vereinzelte Ausnahmen finden sich in [DB96], [Di02]). Stahl und Herrmann sehen hier insbesondere das Problem, dass 257 eine fehlende Systemunterstützung zu fehlenden Gruppenergebnissen führt und damit das Ziel kollaborativen Lernens nicht erreicht wird [SH99]. Um der Relevanz der Aushandlungsunterstützung Rechnung zu tragen, wurden aufbauend auf den Erfahrungen mit bestehenden Anwendungen drei prototypische Aushandlungsfunktionalitäten in CSCL-Systemen umgesetzt und evaluiert. In diesem Beitrag werden nun erstmals die Ergebnisse aus diesen Studien zusammengefasst und vergleichend gegenübergestellt. Ziel dieser Betrachtung ist es, aus diesem Vergleich allgemeine Designprinzipien für die Aushandlungsunterstützung in CSCLSystemen abzuleiten, die für die Gestaltung zukünftiger Systeme handlungsanleitenden Charakter haben. Dazu werden im folgenden Abschnitt 2 zunächst aufbauend auf verwandten Arbeiten zentrale Merkmale von Aushandlungsunterstützungen für CSCLSysteme erarbeitet. In Kapitel 3 werden konkreter die Ausprägungen dieser Merkmale in den drei Systemen KOLUMBUS [Ki06], [PR06], BSCL [St03] und nBSCW [Po02] vorgestellt. Kapitel 4 widmet sich den Evaluationsergebnissen aus realen Anwendungen dieser Systeme und stellt diese vergleichend gegenüber. In Kapitel 5 werden aus diesem Vergleich allgemeine Designprinzipien abgeleitet. Zusammenfassung und Ausblick in Kapitel 6 runden den Beitrag ab. 2 Merkmale von Aushandlungsunterstützungen für CSCL-Systeme Im Zusammenhang computergestützter kooperativer Arbeit (CSCW) hat die Unterstützung der Aushandlung bereits eine längere Tradition (vgl. z.B. [DS83], [DG87]) und wird zu unterschiedlichen Zwecken eingesetzt. Das Spektrum reicht dabei von der Aushandlung von Zugriffsrechten [SW98] über das Finden gemeinsamer Termine in Gruppenkalendern [EZR94] bis hin zu gemeinsamer Problemlösung [DS83]. Systeme, die zur Aushandlungsunterstützung eingesetzt werden, unterscheiden sich zunächst darin, ob sie sich ausschließlich auf die Aushandlung beziehen oder in einen größeren Zusammenhang eingebettet sind. Systeme der ersten Kategorie sind etwa Gruppenkalender [EZR94] zum Finden eines gemeinsamen Termins und Group Decision Support Systems [DG87] oder Negotiation Support Systems [BKM02] zur gemeinsamen Problemlösung. Der zweiten Kategorie sind zum Beispiel Funktionalitäten zur Aushandlungen von Zugriffsrechten wie im Projekt PoliTeam [SW98] zuzuordnen; die Aushandlung ist hier als Abstimmung (engl. Voting) realisiert. Bestehende Anwendungen im Bereich computergestützten kollaborativen Lernens beziehen sich auf die Lösung von Konflikten [DB96], das Aushandeln einer gemeinsamen Perspektive auf den Lerngegenstand [SH99], [Di02] und eines gemeinsamen Ergebnisses mittels Ko-Autorenschaft [PR06]. Die für computergestütztes kollaboratives Lernen eingesetzten Systeme lassen sich der zweiten Kategorie (Integration der Aushandlung in größerem Zusammenhang) zuordnen, da CSCL-Systeme idealerweise komplette Lernprozesse unterstützen, von denen ein Teil gerade die Einigung auf ein gemeinsames Ergebnisses ist (vgl. vorangegangenen Abschnitt). Merkmale für die Aushandlungsunterstützungen in CSCL-Systemen beziehen sich also einerseits auf eigens für die Aushandlung konzipierte Funktionalitäten und andererseits auf die Integration mit anderen Funktionalitäten des CSCL-Systems. Im Groben sind Bestandteile einer Aushandlung 258 das Einbringen von Vorschlägen (z.B. bzgl. Meinungen, Ideen, Lösungen), die von Gruppenmitgliedern kommentiert und diskutiert werden und über die die Gruppe schließlich abstimmt. Das Einbringen von Vorschlägen und die Abstimmung sind eigens zu konzipierende Funktionalitäten, während die Kommentierung und Diskussion Funktionalitäten darstellen, die auch für andere Aktivitäten des Lernprozesses genutzt werden. Basierend auf der Analyse der bestehenden Ansätze können für Aktivitäten im Rahmen einer Aushandlung detaillierter Merkmale genannt werden, nach denen die verschiedenen Unterstützungen konzipiert und unterschieden werden können:  Ziel der Aushandlung: Die einleitenden Beispiele zeigen unterschiedliche Ziele der Aushandlung wie Finden gemeinsamer Termine, Problemlösung, die Einigung auf Zugriffsrechte etc. Mit Blick auf kollaborative Lernprozesse zielt die Aushandlung auf ein gemeinsames Ergebnis.  Anzahl der Beteiligten: Angebotene Funktionalitäten können mitunter abhängig von der zu erwartenden Gruppengröße sein; so ist z.B. der Prozentsatz, bei dem ein Vorschlag als angenommen gilt, bei einer Gruppe von 3 Personen anders einzustellen als bei 100. In kollaborativen Lernprozessen, in denen in Kleingruppen gemeinsam Ergebnisse erarbeitet werden sollen, handelt es sich meist um Gruppen mit drei bis zehn Teilnehmern.  Einbringen von Vorschlägen: Hier kann unterschieden werden, wer Vorschläge, über die abgestimmt werden soll, einbringt. In kollaborativen Lernsituationen, in denen eine Gruppe selbst gemeinsame Ergebnisse erarbeiten soll, sollten die Vorschläge entsprechend auch von den Gruppenmitgliedern eingebracht werden können.  Auswahlmöglichkeiten für Stimmen (Voten): In [He95] werden folgende Auswahlmöglichkeiten vorgeschlagen: Zustimmung, Ablehnung, Enthaltung, Gegenvorschlag oder Ausweichen auf andere Kommunikationswege. Das Ausweichen auf andere Kommunikationswege ist immer dann notwendig, wenn Gruppenmitglieder z.B. ein Gespräch initiieren möchten, da sich für sie der betreffende Vorschlag noch nicht in dem Zustand befindet, so dass formal abgestimmt werden kann.  Transparenz über Voten anderer: Hier ist zu unterscheiden, ob es sich um eine geheime Wahl handeln soll oder ob die Voten anderer für die Nutzer angezeigt werden. Bei Transparenz über die Voten besteht für kollaborative Lernsituationen die Befürchtung, dass sich Gruppenmitglieder an den vermeintlich Besten in der Gruppe halten. Bei geheimer Wahl fehlt den Teilnehmern die Transparenz bzgl. der Beteiligung an dem Abstimmungsprozess.  Modus der Abstimmung (Voting): Je nachdem, ob das Abstimmen (Voting) als Zwischenschritt oder Abschluss eines kollaborativen Lernprozesses angesehen wird, kann man Voten zurücknehmen bzw. ändern oder nicht.  Integration von Aushandlung und Diskussion bzw. Kommentaren: Wie oben argumentiert, ist die Aushandlung ein Teil des Lernprozesses, der komplett vom 259 CSCL-System zu unterstützen ist. Deshalb wird dafür plädiert, dass eine enge Verknüpfung zwischen der Aushandlung und der Unterstützung von Diskussionen bzw. Kommentaren für kollaborative Lernsituationen sinnvoll sein kann [KH04]. 3 Aushandlungsfunktionalitäten in CSCL-Systemen In diesem Abschnitt werden drei Umsetzungen vorgestellt, die in eigenen Studien evaluiert wurden (siehe folgenden Abschnitt 4). Dabei wird zunächst jeweils überblicksartig der Aushandlungsablauf beschrieben und an Hand eines Screenshots verdeutlicht, bevor im zusammenfassenden Unterabschnitt die jeweiligen Ausprägungen der Merkmale gegenübergestellt werden. Dabei können aus Platzgründen nicht alle Details beschrieben werden. Hier sei auf die jeweiligen Primärquellen verwiesen. 3.1 KOLUMBUS In KOLUMBUS [Ki06] werden Gruppenergebnisse erzielt, indem gemeinsam Verantwortung für eine oder mehrere kleine Einheiten (Items) wie Materialsabschnitte etc. übernommen wird. KOLUMBUS stellt hier eine Aushandlungsfunktion zur Verfügung, bei der ein Urheber einem oder mehreren Teilnehmern die Mit-Urheberschaft vorschlägt. Alle vorgeschlagenen und auch die bereits festgelegten Mit-Urheber werden zu dem Aushandlungsprozess per E-Mail eingeladen. Sie können für oder gegen den Vorschlag stimmen, sich enthalten und weitere Diskussionen fordern (vgl. Abbildung 1 linke Seite). Abbildung 1: Abstimmung in KOLUMBUS (links) und Ergebnis (rechts) Dabei wird aus Gründen der Vereinfachung das Prinzip einer geheimen Wahl umgesetzt, d.h. Voten sind weder begründbar noch zurücknehmbar und Voten anderer können vor Ablauf der Aushandlung nicht eingesehen werden. Ein Grund für diese Entscheidung war die Überlegung, dass eine Diskussion mittels Annotationen dem Aushandlungsschritt vorangeht, so dass während der abschließenden Aushandlung Diskussionen nicht weiter zu unterstützen seien. Wenn ein bestimmter Prozentsatz, der vom Administrator eingestellt wird, dem Vorschlag zustimmt, wird die 260 Gruppe der Autoren erweitert (vgl. Abbildung 1, rechte Seite). Auf diesem Weg erreicht eine Gruppe Konvergenz hinsichtlich einer bestimmten Menge von Materialbausteinen. 3.2 BSCL BSCL, Basic Support for Collaborative Learning [St03], verfolgt den Ansatz, dass Artefakte von allen Nutzern so lange geändert werden können, bis eine Mehrheit oder alle Teilnehmer das Artefakt als gemeinsames Ergebnis akzeptieren. Einwände oder Diskussionen zu dem jeweiligen Stand des Artefakts werden in einem Diskussionsforum unterstützt. Die eigentliche Aushandlung findet also in der Diskussion des Artefaktes und nicht in der Abstimmung statt: „the real negotiation action is in the evolution of the knowledge artefact proposed for agreement, and not in the voting process itself” [St03]. Abbildung 2 zeigt auf der linken Seite die Aushandlung während der Diskussion, in der die Diskussionsbeiträge mittels sogenannter „Thinking Types“ (z.B. Vorschlag, Zustimmung, Ablehnung) klassifiziert werden können. In diesem Ansatz ist das eigentliche Voting Interface da sehr einfach (als Auswahl stehen nur Zustimmung oder Ablehnung zur Verfügung), da damit nur die schlussendliche Zustimmung realisiert wird (vgl. Abbildung 2, rechte Seite). Zudem ist hier eine Begründung zur Zustimmung verpflichtend und es werden die Voten der anderen Teammitglieder angezeigt. Abbildung 2: Abstimmung in BSCL aus [Mö03] 3.3 nBSCW nBSCW [Po02] basiert auf BSCW [AM99], einem Groupwaresystem, das Dokumente in einer Ordnerstruktur bereithält. Die Aushandlung eines gemeinsamen Ergebnisses stellt sich dementsprechend auch als ein Ordner dar: jedes Teammitglied hat die Möglichkeit, ein Artefakt zur Aushandlung vorzuschlagen. Dazu wird ein Negotation-Ordner angelegt, in dem sich neben dem auszuhandelnden Artefakt auch Informationen über die Aushandlung (inkl. Transparenz über die Voten anderer) und im Informationsthread die abgegebenen Kommentare befinden (siehe Abbildung 3, rechte Seite). Jedes Teammitglied kann über Zustimmung, Ablehnung oder Medienwechsel entscheiden oder einen Gegenvorschlag einstellen. Wird das Artefakt als gemeinsames Ergebnis bestätigt (d.h. 261 der Vorschlag angenommen), wird das Dokument aus dem Negotiation-Ordner in den übergeordneten Ordner kopiert. Kommentare können sowohl beim Starten der Aushandlung als auch beim Abstimmen (vgl. Abbildung 3, linke Seite) abgegeben werden. Abbildung 3: Abstimmung in nBSCW (links) und Informationen über die laufende Aushandlung (rechts), aus [Mö03] 3.4 Gegenüberstellung der Merkmale Tabelle 1 vergleicht die drei beschriebenen Umsetzungen an Hand der Merkmale aus Abschnitt 2. Aufgrund des identischen Einsatzes, nämlich die Einigung auf ein gemeinsames Ergebnis im Rahmen eines computergestützten kollaborativen Lernprozesses, in dem in einer Kleingruppe ein gemeinsames Ergebnis gefunden werden soll, haben die ersten drei Merkmale identische Ausprägungen. Die Gestaltung der Stimmenauswahl, ihre Transparenz sowie die Integration mit Kommentaren und Diskussionen sind hingegen unterschiedliche gestaltet. Merkmale Ziel der Aushandlung Anzahl der Beteiligten Einbringen von Vorschlägen Auswahlmöglichkeiten für Voten Transparenz über Voten anderer Modus der Abstimmung Integration von Kommentaren/Diskussion KOLUMBUS Gemeinsames Ergebnis in Form eines Dokuments mit Besitzergruppe 3-20 Jeder BSCL Gemeinsames Ergebnis in Form eines Artefakts nBSCW Gemeinsames Ergebnis in Form eines (gekennzeichneten) Artefakts 3-20 Jeder 3-20 Jeder Zustimmung, Ablehnung, Enthaltung, Diskussion Zustimmung, nung Ableh- nein ja Zustimmung, Ablehnung, Enthaltung, Medienwechsel, Gegenvorschlag, ja Ein Votum pro Person, keine Zurücknahme Nein, Diskussionen getrennt Ein Votum pro Person, keine Zurücknahme (Pflicht-)Kommentare, Diskussionen getrennt Ein Votum pro Person, keine Zurücknahme Kommentare, keine Diskussion Tabelle 1: Vergleich der drei Umsetzungsbeispiele 262 4 Erfahrungen mit den bestehenden Aushandlungsfunktionalitäten In diesem Abschnitt werden die Erprobungsfelder der verschiedenen Aushandlungsunterstützungen sowie Methoden und wesentliche Ergebnisse aus den Evaluationen beschrieben und diskutiert. Die Erprobungsfelder ähneln sich in der Größe der evaluierten Gruppen, den Laufzeiten der Aushandlungen und ihrem Ziel, das in der Einigung auf ein gemeinsames Gruppenergebnis lag. Zusätzlich waren alle als Feldexperiment konzipiert. Durch diese Ähnlichkeiten ist eine Vergleichbarkeit der Ergebnisse möglich. 4.1 Erfahrungen mit KOLUMBUS Die Aushandlungsunterstützung von KOLUMBUS wurde im Rahmen eines Feldexperimentes in vier Forscherteams mit jeweils drei bis fünf Teilnehmern erprobt. Die Teams hatten die Aufgabe, sich aufbauend auf ihren Projektarbeiten auf fünf Zukunftsthemen zu einigen, die dann im Rahmen einer zweitägigen Klausurtagung vertieft werden sollten. Zur Erreichung dieses Ziels wurden von den Teilnehmern in KOLUMBUS Vorschläge eingebracht, diskutiert und anschließend ausgehandelt. Für die Evaluation wurden Logfiles herangezogen, um Aufschluss über die prinzipielle Nutzung der jeweiligen Funktionalitäten zu erhalten. Die Inhaltsanalyse der entstandenen Bereiche mit vorgeschlagenen Themen, Diskussionen und Aushandlung zeigten die Struktur der Diskussions- und Aushandlungsprozesse. Zusätzlich wurden Interviews mit den Teilnehmern geführt und die Teilnehmer während ihrer Nutzung des Systems beobachtet, um subjektive Rückmeldung über die Eignung des Systems zur Aushandlungsunterstützung zu erhalten. Die Evaluation zeigte, dass die Teilnehmer keine Probleme hatten, Vorschläge einzustellen und diese zu diskutieren. Der eigentliche Aushandlungsschritt indes wies Unzulänglichkeiten auf. So wurde zunächst bemängelt, dass es keine Übersicht über laufende Aushandlungen gab. Da die Aushandlungen eng mit vorgeschlagenen Themen und Diskussionen verwoben sind, waren diese an unterschiedlichen Stellen innerhalb der Inhaltsstruktur platziert und konnten nicht immer gefunden werden. Zudem wurde deutlich gemacht, dass die fehlende Transparenz über die Voten Unsicherheit mit sich brachte, ob überhaupt andere Teilnehmer abgestimmt haben. Dies wurde erst transparent, wenn die Aushandlung abgeschlossen war (d.h. alle eingeladenen Teilnehmer abgestimmt haben) und die Liste der Urheber erweitert wurde. Die Optionen, die für ein Votum abgegeben werden konnten, wurden von den Teilnehmern positiv bewertet. Es wurde jedoch bemängelt, dass die Voten weder zurückgenommen noch kommentiert werden konnten. Die Teilnehmer behalfen sich schließlich damit, dass sie einen Diskussionsbeitrag an die Aushandlung hängten, in dem sie einerseits erwähnten, wie sie abgestimmt haben (und damit Transparenz über ihr Votum gaben) und schließlich begründeten, warum sie sich für dieses Votum entschieden haben. 263 4.2 Erfahrungen mit BSCL Die Aushandlungsunterstützung von BSCL wurde im Rahmen eines 10-wöchigen Kurses Human-Computer Interaction (HCI) an der Drexel University in Philadelphia (USA) evaluiert (vgl. [Mö03]). Es wurden vier Studierendengruppen mit drei bis fünf Mitgliedern mit insgesamt 15 Probanden evaluiert. Die Aufgabe war er, unter MenschComputer Gesichtspunkten einen Prototypen zu entwerfen, umzusetzen und anschließend unter Usabilitykriterien zu evaluieren. Die Nutzung der Aushandlung wurde insbesondere für den Schritt der Zusammenstellung eines Evaluationsplans gefordert. Hier wurden von den Teammitgliedern Vorschläge gesammelt, die zu einem gemeinsamen Artefakt zusammengestellt und ausgehandelt werden sollten. In der abschließenden Woche wurde BSCL als Plattform genutzt, um BSCL zur Unterstützung von Aushandlungen zu bewerten. Die Evaluation erfolgte mittels Logfileanalyse und einer Inhaltsanalyse der im System entstandenen Diskussionen und initiierten Aushandlungen samt ihrer Voten und dazugehörigen Kommentare. Darüber hinaus flossen auch die Aussagen der in der abschließenden Woche geführten Diskussion und Aushandlung der Eignung von BSCL in die Evaluation ein. Bezüglich des Diskussionsprozesses zeigte die Evaluation, dass an sehr unterschiedlichen Stellen im System (z. T. auch Diskussionen in den Kommentaren zu den Artefakten) und auch über andere Kommunikationswege (E-Mail, ICQ) diskutiert wurde. Die Teilnehmer kritisierten anschließend, dass sie durch diese Nutzung die Übersicht verloren, einige Diskussionen verpassten und ihnen so ein vollständiger Überblick fehlte. Gefordert wurde hier die explizite Nennung eines Diskussionskanals, der sowohl synchrone als auch asynchrone Kommunikation unterstützt. Bezüglich der eigentlichen Aushandlung zeigten die Logfiles, dass im Vergleich zu den anderen Studien sehr wenige Aushandlungen initiiert wurden, die dann alle zu einer Annahme des Vorschlages führten. Die Teilnehmer gaben während der Evaluationsphase an, dass ihnen der Sinn der expliziten Aushandlung zum Ende nicht deutlich war, da durch die Verwendung der Kategorien in Form von „Thinking Types“ (Vorschlag, Annahme, Ablehnung, vgl. Abb. 2, linke Seite) während der Diskussion die Meinungen aller ersichtlich waren. Diese Kategorisierung lässt in der Sicht der Teilnehmer mehr Raum zur Meinungsäußerung als die Aushandlung, da die Thinking Types vielfältiger waren als die Vote-Möglichkeiten (Zustimmung und Ablehnung) während der abschließenden expliziten Aushandlung. Zudem wären durch die Einstellung mehrerer Kommentare das Überdenken bzw. die Zurücknahme eine Meinung möglich. Um der expliziten Aushandlung einen höheren Stellenwert zu geben, wurden deshalb eine Reduzierung oder Ausschaltung der Thinking-Types und eine Erweiterung der Vote-Möglichkeiten vorgeschlagen. Schließlich wurde von einer Mehrheit der Teilnehmer eine Übersicht über laufende Aushandlungen gefordert und gewünscht, dass die Kommentierung des Votums optional und nicht verpflichtend sei. 264 4.3 Erfahrungen mit nBSCW nBSCW wurde von einer Forschergruppe aus einem Dozenten und acht Doktoranden und Diplomanden genutzt, um einen gemeinsamen Methodenfundus in Form von 20 Artikeln auszuhandeln. Der Aushandlungsprozess dauerte drei Wochen, die Gruppe vereinbarte, dass sich jeder mindestens alle zwei Tage beteiligte. Für die Aushandlung wurde ein eigener Experimentordner angelegt. In diesem Ordner initiierten die Teilnehmer ihre Aushandlungen durch Anlegen von Negotiation-Ordnern, (vgl. Abschnitt 3.3), in denen dann die Aushandlungen und Diskussionen stattfanden. Die Evaluation verlief ähnlich wie im Fall von KOLUMBUS (vgl. [Mö03]): es wurden Logfiles verwendet, eine Inhaltsanalyse der verschiedenen Ordner samt der darin enthaltenen Kommentare und Voten durchgeführt sowie die Teilnehmer interviewt und während ihrer Nutzung des Systems beobachtet. Die Evaluation zeigte, dass der Experimentsordner zunächst das Auffinden von Aushandlungen erleichterte. Bereits nach einigen Tagen führte die Vermischung von noch laufenden und bereits abgeschlossenen Aushandlungen jedoch zu einer von den Teilnehmern bemängelten Unübersichtlichkeit. So wurde im Verlauf der dreiwöchigen Nutzung eine Unterstruktur eingeführt, die laufende und bereits abgeschlossene Aushandlungen in verschiedenen Ordnern vorhält. Bezüglich der Aushandlungen innerhalb der Negotiation-Ordner wurden die vorhandenen Optionen für das Votum und die Transparenz über die Voten der anderen positiv bewertet. Gewünscht wurde hier die Abgabe vorläufiger Voten. Auch die Möglichkeit zur Kommentierung von Voten fand prinzipiell Anklang. Es wurde jedoch bemängelt, dass diese zum einen redundant zu den im BSCW sowieso schon vorhandenen Kommentarfunktionalitäten seien, so dass auch hier – ähnlich wie bei BSCL – zu viele unterschiedliche Kommentierungsmöglichkeiten vorhanden waren, die zu Kommentaren an unterschiedlichen Stellen innerhalb der Inhaltsstruktur führten. Zum anderen wurde kritisiert, dass die Kommentare von den eigentlichen Voten getrennt angezeigt werden, obwohl sie zusammen eingegeben wurden. Der Nachvollzug der Kommentare wurde dadurch erschwert. Zusätzlich wurde bemängelt, dass es keine Möglichkeit zu Diskussionssträngen gab. 4.4 Diskussion der Ergebnisse Vergleicht man nun die verschiedenen Anwendungen, so wird zunächst deutlich, dass der eigentliche Aushandlungsschritt nur dann als relevant eingestuft wird, wenn er mehr ist als nur ein simpler Votemechanismus wie im Fall von BSCL. Dies wird zum einen dadurch erreicht, dass mehr Auswahlmöglichkeiten für die eigentlichen Voten angeboten werden wie im Fall von KOLUMBUS und nBSCW, da dadurch mehr Meinungen zum Ausdruck gebracht werden können. Zum anderen dürfte eine Möglichkeit zur Zurücknahme von Voten dem Aushandlungsprozess einen noch höheren Stellenwert geben, da dadurch die Aushandlungsfunktionali- 265 täten schon zu einem früheren Zeitpunkt und häufiger (Votum setzen, ggf. revidieren statt einmal Votum setzen) genutzt wird. Aus allen hier beschriebenen Studien lässt sich aber nur der Wunsch nach einer solchen Funktionalität ableiten. Zum jetzigen Zeitpunkt liegen mit zurücknehmbaren Voten keine Erfahrungen vor, da keines der eingesetzten Systeme eine solche Möglichkeit bot. Zusätzlich ist eine enge Verzahnung mit einer optionalen Kommentarmöglichkeit sinnvoll. Ein Fehlen kann, wie im Fall von KOLUMBUS, zu alternativen Begründungswegen führen. Ein Zwang zur Kommentierung wie bei BSCL führt auf der anderen Seite zur Ablehnung. Um die Chance zu erhöhen, dass alle Kommentare wahrgenommen werden, sollte es nur eine Kommentierungsfunktionalität geben, auf die sich die Teilnehmer konzentrieren können. Die Konzentration auf eine Funktionalität gilt auch für eine zu fordernde Kommunikationsmöglichkeit, die eng mit der Aushandlung integriert werden sollte. Die Beispiele KOLUMBUS und BSCL zeigen, dass es eine Bereitschaft zur Diskussion gibt, die fehlende Integration zum Aushandlungsschritt aber bemängelt wird. Fehlt eine Möglichkeit zur Bildung von Diskussionen in Diskussionssträngen wie bei nBSCW, wird diese gewünscht. Schließlich zeigen die verschiedenen Studien, dass, wie bei vielen Gruppenanwendungen, der Transparenz ein hoher Stellenwert beigemessen wird. Dies betrifft zum einen die Übersicht über Aushandlungen, die dem nBSCW-Beispiel folgend in laufende und bereits abgeschlossene Aushandlungen unterteilen lassen sollten. Fehlende Transparenz führte bei KOLUMBUS und BSCL zu Problemen bei den Nutzern. Für CSCLAnwendungen kann zusätzlich festgehalten werden, dass eine Transparenz über die Voten wie in den Fällen BSCL und nBSCW sinnvoll ist, eine geheime Wahl wie im Fall KOLUMBUS hingegen zu Unsicherheit und der Transparenzschaffung auf anderen Wegen führt. Sofern Kommentare (und Diskussionen) möglich sind, sollten diese zum Nachvollzug auch mit dem jeweiligen Votum verknüpft sein. 5 Designprinzipien für Aushandlungsunterstützungen Aufbauend auf den zuvor beschriebenen Ergebnissen und der Diskussion lassen sich bezogen auf die Merkmale von Aushandlungsunterstützungen in CSCL-Systemen nun allgemeine Designprinzipien zusammenstellen. Diese beziehen auf die Merkmale bezüglich der Gestaltung der Aushandlungsunterstützung. Auf Ziele einer Aushandlung und die Anzahl der Beteiligten wird hier deshalb nicht mehr eingegangen:  Einbringen von Vorschlägen: Wie bereits eingangs deutlich gemacht und auch in den Studien realisiert, können Vorschläge von allen eingebracht werden. Es sollte eine Übersicht über laufende und abgeschlossene Aushandlungen dieser Vorschläge geben.  Auswahlmöglichkeiten für Stimmen (Voten): Es empfiehlt sich eine breite Palette an Auswahlmöglichkeiten, die über die Optionen Zustimmung und Ablehnung hinausgeht. Zusätzlich sind die Enthaltung sowie eine Ausweichmöglichkeit wie 266 Gegenvorschlag, Diskussion oder Medienwechsel anzubieten. Eine breite Auswahlmöglichkeit gibt dem Aushandlungsschritt einen höheren Stellenwert.  Transparenz über Voten anderer: Für CSCL-Systeme unbedingt zu realisieren.  Modus der Abstimmung (Voting): Die Studien zeigen Hinweise, dass Voten zurücknehmbar sein sollten. Dies würde den Stellenwert des Aushandlungsschrittes erhöhen, da Voten schon früher gesetzt und häufiger genutzt (setzen, zurücknehmen, ändern) werden.  Integration von Aushandlung und Diskussion bzw. Kommentaren: Dies ist ein entscheidendes Merkmal für den Erfolg einer Aushandlungsunterstützung in CSCLSystemen. Die Studien zeigen, dass Diskussionen notwendig sind, eine fehlende Integration oft bemängelt wird. Kommentare sollten optional sein und eng mit dem Votum verknüpft werden. 6 Zusammenfassung und Ausblick Dieser Artikel leistet einen Beitrag zur Gestaltung der Aushandlungsfunktionalität in CSCL-Systemen. Nach der Motivation zu diesem Thema wurden aufbauend auf verwandten Arbeiten zentrale Merkmale von Aushandlungsunterstützungen für CSCLSysteme erarbeitet. An Hand dieser Merkmale wurden die Aushandlungsfunktionalitäten der drei CSCL-Systeme KOLUMBUS, BSCL und nBSCW vorgestellt. Diese Systeme waren Gegenstand eigener Studien, deren Ergebnisse beschrieben und vergleichend gegenübergestellt werden. Aus diesem Vergleich wurden schließlich allgemeine Designprinzipien abgeleitet. Diese sehen vor, dass eine Transparenz über laufende und abgeschlossene Aushandlungen ebenso notwendig ist wie die Transparenz über Voten anderer. Bezüglich der Auswahloptionen für Stimmen empfiehlt sich eine breite Palette, die über Zustimmung und Ablehnung hinaus auch Enthaltung und Ausweichmöglichkeiten vorsieht; ferner kann die Zurücknahme und das Ändern von Voten sinnvoll sein. Als entscheidendes Merkmal hat sich jedoch eine enge Verzahnung von Diskussion und Kommentaren mit der Stimmenabgabe herausgestellt. Die hier gefundenen Designprinzipien sind durch die Umsetzungen und ihre Evaluationen gegründet. Keines der hier beschriebenen Systeme verfügt allerdings über die Kombination dieser Merkmalsausprägungen, so dass keine Hinweise bzgl. der Akzeptanz geliefert werden können. Zur weiteren Fundierung der Designprinzipien ist deshalb ein nach ihnen gestaltetes CSCL-System bzgl. der Wirksamkeit und Akzeptanz zu erproben. Literaturverzeichnis [AM99] Appelt, W.; Mambrey, P.: Experiences with the BSCW Shared Workspace System as the Backbone of a Virtual Learning Environment for Students. In Proceedings of ED Media ‘99’, Charlottesville, pp. 1710-1715. 267 [Be05] Beers, P. J.: Negotiating Common Ground: Tools for Multidisciplinary Teams. Heerlen: Open Universiteit Nederland, 2005. [BKM02] Bui, T.; Kertsen, G.; Ma, P.: Supporting Negotiation with Scenario Management. In: Proceedings of the 29th Annual Hawaii International Conference on System Sciences (HICSS), Los Alamitos: IEEE, 1996, pp. 209-218. [DS83] Davis, R.; Smith, R.G.: Negotiation as a Metaphor for Distributed Problem Solving. In: Artificial Intelligence, No. 20, 1983, pp. 63-109. [DG87] DeSanctis, G.; Gallupe, R. B.: A Foundation for the Study of Group Decision Support Systems. In: Management Science, Vol. 33, No. 5, 1987, pp. 589-609. [Di02] Dillenbourg, P.: Over-scripting CSCL. The risk of blending collaborative Learning with instructional design. In Kirschner, P.A. (Ed.): Three worlds of CSCL. Can we support CSCL Heerlen. Open University Nederland., 2002, pp. 61-91. [DB96] Dillenbourg, P.; Baker, M.: Negotiation Spaces in Human-Computer Collaborative Learning. In: Proceedings of the International Conference on Cooperative Systems, France, 1996, pp. 187-206. [EZR94] Ephrati, E.; Zlotkin, G.; Rosenschein, J.: Meet Your Destiny: A Non-manipulable Meeting Scheduler. In: Proceedings of the CSCW. New York: ACM, 1994, pp. 359-371. [He95] Herrmann, T.: Workflow Management Systems: Ensuring organizational Flexibility by Possibilities of Adaption and Negotiation. In: Comstock, Nora et al. (Hrsg.): COOCS´95. New York, ACM Press, 1995, pp. 83 - 95. [Ki06] Kienle, A.: Integration of Knowledge Management and Collaborative Learning by technical supported Communication Processes. In: Education and Information Technologies, Vol. 11, No. 2, 2006, pp. 161-185. [KH04] Kienle, A.; Herrmann, T.: Collaborative learning at the workplace by technical support of communication and negotiation. In: Adelsberger et al.: Multikonferenz Wirtschaftsinformatik (MKWI) 2004, Band 1, 2004, S. 43-57. [Ko96] Koschmann, T. (ed.) (1996), CSCL: Theory and Practice, New Jersey: Lawrence Erlbaum Associates [Mö03] Möller, E.: Computergestützte Aushandlungen – Vergleich, Evaluation und Verbesserungsmöglichkeiten. Universität Dortmund: Diplomarbeit, 2003. [Po02] Pohé, M.: A New BSCW, Aspects of Negotiation within BSCW, Universität Dortmund: Diplomarbeit, 2002. [PR06] Prilla, M.; Ritterskamp, C.: Collaboration support by co-ownership of documents. In: Hassanaly, P.; Herrmann, T.; Kunau, G.; Zacklad, M. (Eds.): Cooperative Systems Design. Seamless Integration of Artifacts and Conversations – Enhanced Concepts of Infrastructures for Communication. Amsterdam: IOS-Press, 2006, pp. 255-269. [SH99] Stahl, G.; Herrmann, T.: Intertwining Perspectives and Negotiation, In: Hayne, S. C.: Proceedings of Group’99 International Conference on Supporting Group Work, New York: ACM, 1999, pp. 316-325. [St03] Stahl, G.: Negotiating Shared Knowledge in Asynchronous Learning Networks. In: Proceedings of the 36th Annual Hawaii International Conference on System Sciences (HICSS), 2003. [SW98] Stiemerling, O.; Wulf, V.: Beyond `Yes` and `No` - Extending Access Control in Groupware with Awareness and Negotiation. In: Proceedings of the International Conference on Cooperative Systems, France, 1998, pp. 111-120. 268 Kontextualisierte Kooperationsinitiierung zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens Andrea Kienle1, Martin Wessner2, Robert Lokaiczyk3, Andreas Faatz3, Manuel Görtz3 Fraunhofer IPSI Dolivostr. 15, 64293 Darmstadt, Germany andrea.kienle@ipsi.fraunhofer.de 1 Ludwig-Maximilian-University Leopoldstr. 13, 80802 Munich, Germany martin.wessner@psy.lmu.de 2 SAP Research CEC Darmstadt Bleichstr. 8, 64283 Darmstadt, Germany {robert.lokaiczyk, andreas.faatz, manuel.goertz} @sap.com 3 Abstract: In diesem Beitrag werden ein Ansatz zur kontextualisierten Suche nach Kooperationspartnern bzw. geeigneten Experten für arbeitsplatzorientiertes kollaboratives Lernen sowie dessen Umsetzung präsentiert. Auf Basis bestehender Arbeiten zu Modellierung von Arbeitsprozessen sowie zur Rolle von Aufgaben- und Nutzerkontext werden die vier Schritte dieses Ansatzes vorgestellt. Der Ansatz sieht vor, dass zunächst der aktuelle Prozessschritt des Nutzers identifiziert wird (1). Die anschließende Identifikation relevanter Experten erfolgt bezogen auf die Parameter Kompetenz bezüglich des Prozessschrittes, Verfügbarkeit sowie organisatorische und soziale Distanz (2), die Anzeige erfolgt auf Basis dieser Liste sowie individueller Präferenzen des Nutzers (3). Informationen über die Kooperation reichern abschließend die vorhandene Wissensbasis an (4). 1 Einleitung Häufig wechselnde Arbeitskontexte, immer schnellere Prozess- und Produktlebenszyklen und sich ständig ändernde Anforderungen an die Mitarbeiter machen lebenslanges Lernen in der heutigen Zeit unabdingbar. Um diesen Entwicklungen gerecht zu werden, wird verstärkt auf arbeitsplatzorientiertes Lernen [BBS01], [MS05] gesetzt. Dabei steht die Aneignung jenes Wissen im Vordergrund, das zur Lösung einer bestimmten Arbeitsaufgabe notwendig ist und dessen Nutzen sich direkt an der Arbeitsaufgabe messen lässt (anders als beim Lernen „auf Vorrat“). Dazu werden Wissensmanagementplattformen eingesetzt, die in Dokumenten Wissen bereitstellen und Möglichkeiten des Wissensaustauschs zwischen den Mitarbeitern ermöglichen [HKT02]. Unter dem Schlagwort des geschäftsprozessorientierten Wissensmanagements hat sich die 269 Erkenntnis durchgesetzt, dass die Integration von Wissensarbeit und Geschäftsprozessen hilfreich ist [Di02]. Arbeitsplatzorientiertes Lernen findet nun zu einem großen Grad während sozialer Interaktion, z.B. während der gemeinsamen Bearbeitung eines digitalen Artefakts oder der Kommunikation darüber, statt. Hier zeigt sich, dass Personen in unterschiedlichen Rollen beteiligt sein können. In der Rolle des Wissensarbeiters entwickelt, bearbeitet oder nutzt die Person Artefakte, kommuniziert über sie etc. In der Rolle des Lernenden erwirbt eine Person zusätzliches Wissen. Dies kann auf unterschiedlichen Wegen wie z.B. Lesen von Dokumenten oder Interaktion stattfinden. In der Rolle des Lehrenden bzw. Experten gibt eine Person Wissen an eine andere weiter. Der Übergang zwischen diesen Rollen ist dabei fließend [LW91]. Eine Person, die die Rolle des Wissensarbeiters innehat, wird zum Lernenden, sobald ein Problem auftritt, dessen Lösung für die Weiterarbeit notwendig ist. Gibt die Person Wissen an andere weiter, wird sie zum Lehrenden. Beim geschäftsprozessorientierten Wissensmanagement werden diese Rollen je nach aktuellem Geschäftsprozess eingenommen. In diesem Beitrag widmen wir uns dem Problem, wie ein Lernender bei der Identifikation geeigneten Lehrender bzw. Experten unterstützt werden kann. Folgendes Beispiel verdeutlicht die Problemstellung: Beispiel: Anna soll zum ersten Mal einen Geschäftsprozess X bearbeiten. Für die Bearbeitung eines bestimmten Schrittes im Geschäftsprozess fehlt ihr das notwendige Wissen. Das vorhandene Wissensmanagementsystem bietet ihr zwar relevante Dokumente an, diese jedoch können ihre Fragen nicht zufrieden stellend beantworten. Sie benötigt den Rat relevanter Lehrender bzw, Experten, die sie bei der Wissensaneignung unterstützen. Aber wer ist das? Ob eine Person ein relevanter Experte ist, hängt von verschiedenen Parametern ab: zum einen muss sie relevant in Bezug auf den aktuellen Geschäftsprozess und zum anderen in Bezug auf den Hilfesuchenden (im Beispiel: Anna) sein. Daher werden im folgenden Abschnitt zwei Ansätze der Modellierung von Prozessen sowie (des Kontextes) einer Person betrachtet. Abschnitt 3 stellt den Ansatz zur kontextualisierten Kooperationsinitiierung vor. Dazu greifen wir das oben angeführte Beispiel auf und erläutern, wie der aktuelle Prozessschritt identifiziert werden kann (Abschnitt 3.1), wie geeignete Experten identifiziert (Abschnitt 3.2) und in eine Rangfolge gebracht werden können (Abschnitt 3.3) und wie Informationen aus einer Kooperation wiederum in die Wissensbasis zurückfließen (Abschnitt 3.4). Abschnitt 4 widmet sich der Umsetzung dieses Ansatzes. Der Beitrag endet mit einer Zusammenfassung und einem Ausblick (Abschnitt 5). 2 Verwandte Arbeiten Unter der Bezeichnung Business-Process Oriented Knowledge Management sind in den letzten Jahren verschiedene Ansätze zur Integration von Wissensmanagement- und Geschäftsprozessen entwickelt worden (z.B. [Ab04]). Dazu werden die jeweiligen Prozesse sowie die Nutzer bzw. der Kontext der Nutzung modelliert Für die kontextualisierte Suche nach Experten als Partner für arbeitsplatzorientiertes kollaboratives Lernen können wir auf diesen Ansätzen aufbauen. Im folgenden werden Arbeiten zur Modellierung von Prozessen sowie des Aufgaben- und Nutzerkontextes angesprochen, Kaum thematisiert wird bei bisherigen Ansätzen das kollaborative Lernen und der Rückfluss aus dem 270 kollaborativen Lernprozess in die Wissensbasis, um wiederum zukünftiges kollaboratives Lernen besser zu unterstützen. 2.1 Prozessmodellierung Zur Definition des Begriffes Task stützen wir uns auf van Welie und definieren „Task“ als eine Aktivität, die durchgeführt wird, um ein bestimmtes Ziel zu erreichen [WVE98]. Die klassischen Arbeiten zur Taskmodellierung lassen sich zwei Gruppen zuordnen. Zum einen sind dies ereignisbasierte Prozessmodellierungssprachen (1) und zum anderen zustandsorientierten Modellierungssprachen von denen wir jeweils einen Repräsentanten genauer betrachten. (1) Die Business Process Modelling Notation (BPMN) weist eine starke Verwandtschaft zu UML-Aktivitätsdiagrammen auf. BPMN ist in erster Line als graphische Standardisierung der Geschäftsprozessmodellierung zu verstehen [BPM06]. Neben der Erfassung elementarer Aktivitäten und ihrer zeitlichen und logischen Bedingungen kann in BPMN die Modellierung einzelner Akteure des Prozesses explizit durch die Übergabe von Werten zwischen sogenannten „Schwimmbahnen“ (swim lanes) und die Repräsentation von Artefakten des Prozesses durch sogenannte Data Objects erfolgen. Die BPMN ist ein Vertreter ereignisbasierter Prozessmodellierungssprachen, welche Ereignisse oder Aktivitäten als konstituierende Elemente verwenden. (2) Ein Petrinetz besteht aus Stellen, Marken, Transitionen und Kanten, die die Stellen und Transitionen miteinander verknüpfen [So00]. Die Verteilung der Marken auf den Stellen zeigt den Zustand des Petrinetzes an. Eine Transition (Feuern neuer Marken an die angrenzenden Stellen) ist dann ermöglicht, wenn alle eingehenden Stellen mit Marken belegt sind. Marken können verschiedenfarbig sein, um typisierte Ereignisse anzuzeigen. Van der Aalst hat die Vorzüge der Nutzung von Petrinetzen für die Arbeitsprozessmodellierung ausgiebig diskutiert [Aa96]. Insbesondere sind formale Verfahren bei der Überprüfung und Modellierung von Petrinetzen gut etabliert. Im Gegensatz zu BPMN sind Petrinetze zustandsbasiert, das heißt, dass neben Ereignissen oder Aktivitäten auch stets der aktuelle Zustand (durch die Belegung des Netzes mit Marken) zu den konstituierenden Elementen der Modellierung gehört. 2.2 Der Kontext einer Aufgabe und eines Nutzers Im Hinblick auf die kontextualisierte Identifikation relevanter Experten zur Unterstützung arbeitsplatzorientierten kollaborativen Lernens sollen hier verwandte Arbeiten aus zwei Bereichen betrachtet werden. Zum einen geht es um die Erfassung und Nutzung des Aufgabenkontexts (Taskkontexts) eines Ratsuchenden, da dieser mitentscheidend für die Auswahl passender Experten ist. Zum anderen wird – unter einem breiteren Blickwinkel – die Modellierung des Kontextes einer Person (Nutzerkontext) betrachtet und gezeigt, wie er zur Identifikation passender Kooperationspartner genutzt werden kann. 271 2.2.1 Taskkontext Ein System, das im Speziellen den Taskkontext berücksichtigt, ist CALVIN [BL01]. Bauer und Leake fassen den Taskkontext als Term-Vektor-Beschreibung des gerade betrachteten Dokumentes auf. Auf Basis einer Differenzanalyse werden Termmengen durch das darunterliegende System Wordsieve über die Zeit analysiert und Taskwechsel durch einen festgelegten Schwellenwert der Differenz in den Termmengen erkannt. Das System arbeitet ausschließlich dokumentenbasiert über den Webbrowser. [GS05] verwendet einen umfassenderen Begriff des Taskkontextes und fügt dem Task Faktoren wie u. a. Komplexität, Schwierigkeit und Abhängigkeiten hinzu, um mit einem BayesianBelief-Modell günstige Momente für Unterbrechungen des Arbeitsflusses zu finden. Die Strukturierung des Prozesses in Teilschritte geschieht durch geeignete Experten, die auch entsprechende Klassifizierungen der Tasks manuell nach obigen Faktoren vornehmen. Das Pinpoint-System [Bi05] liefert taskspezifische Empfehlungen von Dokumenten aus Wissensdatenbanken, wobei der Tasks ausschließlich durch eine manuelle Auswahl in einer Expertenontologie bzw. durch deren manuelle Erweiterung erfasst wird. Auch hier ist eine automatische Erkennung nicht vorgesehen. Damit betrachten bisherige Systeme meist nur dokumentenbasierte Unterstützung mit manueller Auswahl des Taskkontextes und sind auf eine Domäne fixiert. 2.2.2 Definition und Erfassung eines Nutzerkontextes Der Kontext eines Nutzers geht natürlich über den aktuellen Taskkontext hinaus. Im Hinblick auf die kontextualisierte Identifikation von Experten gehen hier beispielsweise vorhandene Kompetenzen, die Historie der Benutzung des Systems, verfügbare Werkzeuge und Nutzerpräferenzen mit ein. Solche Attribute des Kontextes werden dann – zusätzlich zum Taskkontext der ratsuchenden Person - zur Identifikation und Auswahl von Experten herangezogen. Systeme zur Empfehlung relevanter Experten benutzen in der Regel anwendungs- sowie domänenspezifische Heuristiken, um persönliche Profile zu vergleichen und Ähnlichkeiten festzustellen [Mc00]. Für das Gebiet des kooperativen Lernens bestimmt [We05] zunächst personenunabhängig den Kontext einer Kooperation u.a. durch Angaben des zugrundeliegenden didaktischen Modell, zum Ziel, zu den Instruktionen, zur Durchführung, zur Art der Gruppe und zum Verfahren ihrer Bildung, zu vorhandenen InputMaterialien, zur Dauer, zur Bewertung und zu den zu nutzenden Werkzeugen. Steht eine solchermaßen beschriebene Kooperation dann für eine bestimmte Person zur Durchführung an, wird der Kontext dieser Kooperation um Informationen und Rahmenbedingungen aus Sicht dieser Person erweitert. Es kommen dann u.a. Angaben zum Vorwissen, zu Präferenzen in Bezug auf Kooperationspartner, Zeiten und Werkzeuge hinzu. Auf Basis dieser Attribute werden dann passende Kooperationspartner zur Durchführung der Kooperation bestimmt. Um anwendungs- und domänenspezifische Heuristiken allgemein bei der Entwicklung von Expertise-Recommender-Systemen berücksichtigen zu können, schlägt [Mc00] eine flexible Architektur für derartige Systeme vor. Diese enthält u.a. folgende Komponenten: Ein „profiling supervisor“ erstellt und pflegt Benutzerprofile unter Nutzung konfigurierbarer Module und verschiedener Datenquellen. Ein „identification supervisor“ sucht eine Menge von geeigneten Resourcen bzw. Personen nach bestimmten konfigu- 272 rierbaren Heuristiken aus. Ein „selection supervisor“ filtert und sortiert die Liste gemäß konfigurierbarer Strategien und Präferenzen. Unser Ansatz greift diese flexible Architektur auf und passt sie den spezifischen Erfordernissen bei der Identifikation von Experten im Kontext des arbeitsplatzorientierten kollaborativen Lernens an. 3 Ansatz Der im Folgenden beschriebene Ansatz zur geschäftsprozessorientierten Expertenfindung wurde im Rahmen des Projektes APOSDLE erarbeitet (http://www.aposdle.org). APOSDLE ist ein Integrated Project (IP), in der Area Technology Enhanced Learning (TEL) und hat zum Ziel, das Paradigma des arbeitsintegrierten Lernens zu definieren und die drei Rollen Wissensarbeiter, Experte und Lerner konzeptuell und technisch nahtlos zu integrieren. Diese Integration, die durch die APOSDLE-Plattform ermöglicht wird, erfolgt innerhalb der computerbasierten Arbeitsumgebung des Nutzers. Der im Folgenden beschriebene Ansatz ist ein Ausschnitt aus diesem Projekt und ist im Wesentlichen in der Diskussion mit Anwendungspartnern entstanden. Er betrachtet den fließenden Übergang von der Bearbeitung eines wissensintensiven Arbeitsprozesses durch einen Wissensarbeiter zu einer Kooperationssituation zwischen dem Wissensarbeiter als Lernendem (im Folgenden der Deutlichkeit halber Ratsuchender genannt) und einem oder mehreren Experten. Abbildung 1: Übersicht über den Ansatz Abbildung 1 gibt nun einen Überblick über den Ansatz und greift das Beispielszenario aus Abschnitt 1 wieder auf. Oben links sehen wir Anna, die in ihrem Arbeitsprozess schon einige Schritte abgearbeitet hat. In dem aktuellen Prozessschritt jedoch treten Fragen auf, die ihr die weitere Bearbeitung unmöglich machen. Sie muss sich das notwendige Wissen aneignen und benötigt den Rat eines relevanten Experten. Die APOSDLE-Plattform kennt den Taskkontext, in dem sich Anna gerade befindet (1). Basierend auf dem Taskkontext sowie der in der APOSDLE-Plattform gespeicherten Nutzerkontexte (sowohl bezogen auf Anna als auch auf alle anderen Mitarbeiter des Unterneh- 273 mens) identifiziert die Plattform relevante Experten (2) und zeigt diese nach nutzerabhängigen Parametern an (3). In unserem Beispiel sind dies unter anderem Michael und Gerd. Michael arbeitet in der gleichen Abteilung wie Anna und hat den aktuellen Prozess bereits einige Male durchlaufen. Außerdem hat er schon mehrfach ein Dokument zur Beschreibung dieses Prozesses editiert. Gerd ist ausgewiesener Experte dieses Prozesses, da er mit seinem Team diesen Prozess definiert und im Unternehmen eingeführt hat. Die letztendliche Auswahl des oder der Kooperationspartner aus der vorgeschlagenen Liste wird vom Ratsuchenden (in unserem Beispiel von Anna) getroffen. Anna initiiert eine Kooperation mit Michael. Nach Abschluss der Kooperation werden relevante Informationen der Kooperation extrahiert und in der APOSDLE-Plattform gespeichert (4). Diese erweitern die Wissensbasis und stehen dann für spätere Expertensuchen zur Verfügung. In den folgenden Unterabschnitten werden diese vier Schritte umfassend erläutert. Die Nummerierung der Unterkapitel entspricht dabei der Nummerierung in der Abbildung. 3.1 Auswahl des Taskkontextes Für das Projekt APOSDLE umfasst Kontext neben dem expliziten Wissen um den gerade zu erfüllenden Prozessschritt (Task) des Wissensarbeiters und dem Thema des Tasks auch die Historie und die Kompetenzen des Nutzers sowie andere Zusatzinformationen. In das generische Konstrukt Kontext fließen also eine Vielzahl von Komponenten aus den getrennten Bereichen Nutzer- bzw. Taskkontext ein. Die Verwendung des aktuellen Tasks hängt von der Modellierung des Arbeitsprozesses ab. Daher muss zunächst für eine geeignete Modellierungssprache gefunden werden. Nach einer State-of-the-Art Analyse sowie anschließender Evaluation der Modellierungssprachen auf Erfüllung der Anforderungen wurde die auf Petri-Netzen basierende Modellierungssprache YAWL (Yet Another Workflow Language) ausgewählt. Im Gegensatz zu aktivitätsbasierten Modellierungssprachen wie BPMN ist bei zustandsbasierten Konstrukten wie Petrinetzen durch die explizite Unterscheidung von Stellen und Transitionen die Modellierung mit einem höheren initialen Aufwand verbunden. Petrinetze bieten aber auch den Vorteil der beschriebenen reichhaltigeren Möglichkeiten der Auswertung der Modelle zum Ziel der Expertensuche durch eine mächtige formale Semantik, Möglichkeiten der Tokentypisierung und Hierarchiebildung des Netzes. Der aktuelle Task wird dabei durch den Zustand des aktuellen Petrinetzes mit der Markenflussgeschichte darstellt. Gegenwärtig wird der Task manuell durch den Nutzer ausgewählt. Es ist im Verlauf des Projektes APOSDLE geplant dies durch die Aggregation und Klassifikation von Desktop-Events zu automatisieren. 3.2 Identifikation relevanter Experten Basierend auf dem Taskkontext (und weiteren Informationen über den Nutzer in Form des Nutzerprofils) können dem Nutzer geeignete Werkzeuge (Applikationen und Vorlagen), Dokumente (Arbeits- und Lerndokumente) sowie Personen (Experten und andere Personen) als Kooperationspartner vorgeschlagen werden. In diesem Abschnitt wird die Identifikation potentiell sinnvoller Kooperationspartner beschrieben. Da eine ausführliche Darstellung der der Identifikation zugrunde liegenden Verfahren den Rahmen dieses 274 Beitrags sprengen würde, soll hier das Verfahren nur grob skizziert und exemplarisch auf einige Aspekte eingegangen werden. Die Eignung eines Nutzers B als Kooperationspartner für einen Nutzer A wird durch die Kontexte der Nutzer A und B bestimmt. Dabei haben die einzelnen Bestandteile des Kontextes je nach Rolle des Nutzers (Ratsuchender bzw. potentieller Experte) eine unterschiedliche Wichtigkeit. Beispielsweise ist für die Identifikation relevanter Experten der aktuelle Task des Ratsuchenden von zentraler Bedeutung, der aktuelle Task des potentiellen Experten ist aber von geringerer Bedeutung. Für die Beantwortung der Frage, ob ein Nutzer B ein potentieller Kooperationspartner für den ratsuchenden Nutzer A ist, betrachten wir folgende Parameter:  Kompetenz: B hat den Task, den A gerade ausführt, bereits mehrfach erfolgreich durchlaufen, d.h. B verfügt über die zur Durchführung dieses Tasks notwendigen Kompetenzen (siehe dazu den vorangegangenen Abschnitt).  Verfügbarkeit: B ist aktuell für eine Kooperation verfügbar. Dieses Kriterium ist insbesondere dann von entscheidender Bedeutung, wenn schnell Hilfe benötigt wird. Informationen über die Verfügbarkeit kommen aus zwei unterschiedlichen Quellen:  Automatische Erkennung der Verfügbarkeit: Ähnlich wie aus anderen synchronen Kommunikationsmedien (z.B. Instant Messaging) bekannt, kann automatisch ermittelt werden, ob ein potenzieller Experte in der APOSDLEPlattform angemeldet ist oder nicht. Ist ein Experte nicht angemeldet, ist er auch nicht verfügbar.  Manuelles Setzen der Nicht-Verfügbarkeit: Aus unterschiedlichen Gründen möchte ein Experte, der zwar faktisch verfügbar ist, evtl. nicht als verfügbar gelten. Gründe sind beispielsweise eine hohe eigene Arbeitsbelastung oder (zu) viele Anfragen von Ratsuchenden. Dem Experten muss also eine Möglichkeit eingeräumt werden, seinen Status manuell auf nicht-verfügbar einzustellen. In unserem Beispiel sind sowohl Michael als auch Gerd verfügbar. In zukünftigen Versionen kann auch der Kalender eines Nutzers in die Erkennung der Verfügbarkeit einbezogen werden. Ist im Kalender beispielsweise ein ein in Kürze beginnendes Meeting eingetragen, steht der Nutzer voraussichtlich nicht für eine Kooperation zur Verfügung.  Organisatorische Distanz: Die organisatorische Distanz von A und B ist geringer als ein gegebener Grenzwert dorg. Die organisatorische Distanz wird beispielsweise durch die (aktuelle oder frühere) Abteilungs- oder Projektzugehörigkeit von A und B bestimmt. Hierzu kann eine organisatorische Modellierung des Unternehmens herangezogen werden.  Soziale Distanz: Die soziale Distanz von A und B ist geringer als ein gegebener Grenzwert dsoz. Die soziale Distanz wird beispielsweise durch Vorlieben bzw. Abneigungen gegenüber Personen und Themen sowie Ausmaß von und Zufriedenheit mit bisherigen Kooperationen zwischen A und B bestimmt. Zur Bestimmung der sozialen Distanz kann ein soziales Netz herangezogen werden, welches Gruppen 275 und deren Interaktionsmuster darstellt [WF94]. In solchen sozialen Netzen werden die Teilnehmer als Knoten und die Sender-Empfänger-Beziehungen als Kanten angezeigt. Eine Sender-Empfänger-Beziehung ist zum Beispiel die Teilnahme an einer gemeinsamen Kooperation in der APOSDLE-Plattform, kann aber prinzipiell auch aus anderen automatisch zu verarbeitenden Quellen (z.B. E-Mail, Instant Messaging) gewonnen werden. In unserem Beispiel wurde für Michael eine stärkere soziale Verbindung zu Anna festgestellt, da diese schon mehrfach kooperiert haben, während Gerd bislang nie mit Anna kooperierte. Wir schlagen vor, dem sozialen Netzwerk einen hohen Stellenwert einzuräumen, da sich in vergangenen Studien gezeigt hat, dass das Wissen über den und die Vertrautheit mit dem Kooperationspartner für den Wissensaustausch eine entscheidende Rolle spielt [KMH03]. Für jedes dieser Kriterien kann nun die Erfüllung bestimmt und auf einen Wertebereich zwischen 0 und 1 abgebildet werden. Ferner wird für jedes Kriterium ein Schwellenwert festgelegt, oberhalb dessen das Kriterium als erfüllt betrachtet wird. Alle Nutzer, die die o.g. Kriterien erfüllen, werden als potentielle Kooperationspartner vorgesehen. Abhängig von dem Grad der Erfüllung der einzelnen Kriterien und der Nutzerpräferenzen wird in einem nächsten Schritt die Liste geeignet priorisiert und dem Nutzer zur Auswahl von Experten angezeigt. 3.3 Priorisierung der Liste potentieller Experten Nachdem nun potenzielle Experten identifiziert wurden, geht es in diesem Schritt um die geeignete Priorisierung der Kandidaten. Ziel ist es, dem Ratsuchenden eine absteigend nach Eignung geordnete Liste von potentiellen Kooperationspartnern anzubieten, aus der er dann den oder die gewünschten Partner manuell auswählen kann. Die Priorisierung der Liste potentieller Experten wird zum einen durch den Grad der Erfüllung der o.g. Kriterien (Kompetenz, Verfügbarkeit, organisatorische und soziale Distanz), zum anderen durch die Präferenzen des Ratsuchenden bestimmt. Die Präferenzen des Ratsuchenden geben die individuelle Wichtigkeit eines Kriteriums (Wertebereich 0 bis 1) an. Sie sind beispielsweise durch den Nutzer als Teil seines Nutzerprofils festgelegt worden. Sie können aber auch interaktiv zur Sortierung der Liste potentieller Experten festgelegt werden. Beispielsweise kann ein Nutzer festlegen, dass das Kriterium soziale Distanz für ihn absolut wichtig (Wert: 1) ist, während ihm die organisatorische Distanz völlig unwichtig ist (Wert: 0). Eine Ordnung auf der Liste kann nun definiert werden als Expertengrad: X= ( (Erfüllung des Kriteriums x * individuelle Wichtigkeit des Kriteriums x) / Anzahl der Kriterien Dies ergibt wiederum einen Wertebereich von 0 bis 1 für den Expertengrad. Dem Nutzer wird die Liste der Experten nun nach absteigendem Expertengrad sortiert dargestellt. 276 3.4 Rückfluss relevanter Informationen Nachdem für einen Ratsuchenden kontextbezogen Experten ermittelt (Abschnitt 3.2) und entsprechend sortiert präsentiert (Abschnitt 3.3) wurden, wählt er aus der Liste einen oder mehrere Experten aus, mit dem oder denen er in eine Kooperationsphase eintreten möchte. Die APOSDLE-Plattform bietet hierfür ein Werkzeug an, das synchrone Kooperation z.B. auf einem Whiteboard und textbasierte Kommunikation in Form eines Chats integriert [Mü06]. Für die Belange dieses Beitrages ist nicht so sehr die Phase der Kooperation an sich interessant, sondern die Frage, welche Daten aus einer solchen Kooperationssituation anschließend in die Plattform zurückfließen, wo sie dann wiederum für zukünftige Kontextermittlung zur Verfügung stehen. Mit Blick auf den Inhalt einer Kooperationssituation kann ein Transkript gespeichert werden, das u.a. die Kommunikationsbeiträge enthält. Dieses Transkript kann mit weiteren Kontextinformationen bzgl. des Tasks und auch der Nutzer verknüpft werden, damit es bei einer späteren (Experten-)Suche zielgenau gefunden werden kann.  Task/Prozess: Sofern die Kooperation, so wie in dem Beispiel in Abbildung 1 gezeigt, vor dem Hintergrund eines identifizierten Taskkontextes initiiert wurde, sollte die Information über den konkreten Prozesses und den konkreten Task in der Plattform gespeichert werden. Hat ein anderer Nutzer zu einem späteren Zeitpunkt beim gleichen Task im gleichen Prozess ein Problem, so kann er dieses möglicherweise durch das Lesen des korrespondierenden Kooperationstranskripts lösen. Eine Kooperation ist dann nicht mehr notwendig.  Themen der Kooperationsartefakte: Um ein Kooperationsartefakt auch inhaltlich zuordnen zu können, verfolgen wir hierbei zwei Wege. Zunächst bietet die Plattform eine automatische Verschlagwortung an, die den Kooperationstranskripten Themen aus einer vorhandenen Schlagwortliste zuordnet [Sc06]. Zusätzlich können nach Beendigung der Kooperation von den Beteiligten selbst weitere Schlagworte vergeben. Die so gewonnenen Themen ergänzen die Einordnung zu Aufgaben und können andererseits auch aufgaben- und prozessübergreifend genutzt werden.  Beteiligte: Die Speicherung der Beteiligten hat zwei Funktionen. Zum einen stellt sie eine Verbindung zwischen der Person und dem Task sowie der Person und zugehöriger Kompetenzen her. Für zukünftige Expertensuchen bezüglich des korrespondierenden Tasks kommen diese Personen dann eher als Experten in Frage. Zum anderen werden über die gemeinsame Beteiligung an einer Kooperation soziale Netzwerke aufgespannt, die wiederum Einfluss haben auf die Auswahl und Anzeige der für eine Person geeigneten Experten (siehe oben unter „soziale Distanz“).  Länge der Kooperationssitzung: Aus der Länge einer Kooperationssitzung kann (zumindest in einigen Fällen) auf die Intensität des Austausches geschlossen werden. Insbesondere sehr kurze Kooperationssitzungen sind oft für zukünftige ähnliche Situationen wenig hilfreich, weil sie wegen fehlender Ausführlichkeit und Explizitheit von anderen, nicht an der ursprünglichen Kooperation Beteiligten kaum nachvollziehbar sind. 277 4 Umsetzung des Ansatzes Innerhalb des ersten Projektjahres ist ein lauffähiger Prototyp entstanden, der arbeitsplatzorientiertes individuelles und kollaboratives Lernen realisiert. Der Prototyp ist in einer Client/Server-Architektur in Java und C# umgesetzt worden. Auf der Client-Seite interagiert der Nutzer mit einer Sidebar (siehe Abbildung 2), die ihm nach der Auswahl seines aktuellen Tasks und der abgestrebten Kompetenz relevante Lernressourcen und Kollaborationspartner zur Verfügung stellt. Abbildung 2: Sidebar zur Initiierung von Kollaborationen Die Auswahl der Kollaborationspartner sowie der Ressourcen erfolgt in einer Serverkomponente (Plattform). In dieser werden umfangreiche Nutzerprofile gehalten, die zur Berechnung der angezeigten Kollaborationspartner herangezogen werden. So werden unter anderem der aktuelle sowie alle bereits abgeschlossenen Tasks vorgehalten sowie erworbene Kompetenzen und die Kommunikationsverfügbarkeit. Die in Abschnitt 3.2 für die Auswahl der Experten notwendigen Informationen lassen sich in diesem Nutzerprofile ebenfalls speichern und für eine Auswertung abrufen. Aus der Sidebar heraus kann der Nutzer direkt eine Kollaboration mit einem Experten initiieren. Beide betreten danach einen virtuellen Kollaborationsraum, in dem sie Textnachrichten austauschen können sowie gemeinsam an einem Dokument oder am Whiteboard arbeiten können. Zusätzlich werden der aktuelle Task und weitere Kontextinformationen des Ratsuchenden mit angezeigt, so dass sich der eingeladene Experte schnell ein umfassendes Bild über den Kontext der Kollaboration machen kann. 5 Zusammenfassung und Ausblick In diesem Beitrag wurde ein Ansatz zur kontextualisierten Suche nach Kooperationspartnern bzw. geeigneter Experten zur Unterstützung arbeitsplatzorientierten kollabora- 278 tiven Lernens präsentiert. Dieser Ansatz integriert die Bereiche prozessintegriertes ELearning und gezielten Wissensaustausch und verbindet die Vorteile dieser beiden Bereiche. Zunächst wurden dazu mit Business Process Modelling Notation (BPMN) und Petrinetzen zwei Möglichkeiten der Prozessmodellierung vorgestellt. Zudem wurde auf verwandte Arbeiten zur Definition, Erfassung und Nutzung von Aufgaben- und Nutzerkontext eingegangen. Die Beschreibung des Ansatzes erfolgte entlang eines Beispiels und ging auf alle vier Schritte ein. Diese sind die Identifikation des aktuellen Prozessschrittes, die Identifikation und Rangfolgenbildung geeigneter Experten und der Rückfluss der Information aus einer Kooperationssituation in die Wissensbasis. Bezüglich der Identifikation des aktuellen Prozessschrittes streben wir eine automatische Erkennung des Tasks durch die Merkmale eines Nutzerarbeitsplatzes (wie z.B. geöffnete Programme oder Dokumente) an. Die Identifikation relevanter Experten erfolgt auf Basis der Parameter Kompetenz, Verfügbarkeit sowie organisatorische und soziale Distanz. Dem Nutzer wird dann eine priorisierte Liste potentieller Experten angezeigt, die auf Basis der gefundenen potenziellen Experten sowie der individuellen Präferenzen des Nutzers ermittelt wird. Der Kreis schließt sich mit dem Rückfluss relevanter Informationen über eine Kooperationssituation in die Wissensbasis. Diese Informationen beziehen sich auf den Taskkontext (Task, Prozess, Themen der Kooperation) und den Nutzerkontext (Beteiligte, Kompetenzen, Länge einer Kooperationssitzung). Aufbauend auf diesem Ansatz wurde die APOSDLE-Plattform konzipiert und entwickelt, die automatisch nutzer- und prozessschrittrelevante Experten ermittelt. Aktuell wird das System bei den Anwendungspartnern des Projektes evaluiert, um Hinweise auf die Praxistauglichkeit des Ansatzes zu erhalten. Wir planen in der Endfassung dieses Beitrags, zumindest aber im Vortrag auf der DeLFI 2007, detaillierter auf die Evaluation einzugehen. Danksagung APOSDLE ist teilweise gefördert durch das 6. Rahmenprogramm (FP6) für Forschung und Entwicklung der Europäischen Kommission im Information Society Technologies (IST) Arbeitsprogramm 2004. Literaturverzeichnis [Aa96] van der Aalst, W. M. P.: Three Good Reasons for Using a Petri-net-based Workflow Management System. In: Proceedings of the International Working Conference on Information and Process Integration in Enterprises, pp. 179-201, 1996. [Ab04] Abecker, A. (2004). Business-Process Oriented Knowledge Management: Concepts, Methods and Tools. Dissertation Universität Karlsruhe. [BBS01] Back, A.; Bendel, O.; Stoller-Schai, D. (2001). E-Learning im Unternehmen: Grundlagen, Strategien, Methoden, Technologien. Zurich: Orell Füssli. [BL01] Bauer, T., Leake, D.: WordSieve: A method for real-time context extraction. In: Modeling and Using Context: Proceedings of the Third International and Interdisciplinary Conference, Context 2001, Berlin, Springer. 279 [Bi05] Birnbaum, L.; Hopp, W.; Iravani, S.; Livingston, K.; Shou, B.; Tirpak, T.: Task Aware Information Access For Diagnosis of Manufacturing Problems. In: Proceedings of IUl 2005. online verfügbar: http://cs.northwestern.edu/~livingston/papers/pinpoint-iui05.pdf [BPM06] OMG-Spezifikation der BPMN, Version 1.0: www.bpmn.org/Documents/ OMG%20Final%20Adopted%20BPMN%201-0%20Spec%2006-02-01.pdf [BMM03] Bienzeisler, B.; Menold, N.; Mambrey, P.: Wissensmanagement – Begriffliche und konzeptionelle Anknüpfungspunkte. In: Herrmann, T.; Mambrey, P.; Shire, K. (Hrsg.): Wissensgenese, Wissensverteilung und Wissensorganisation in der Arbeitspraxis. Wiesbaden: Westdeutscher Verlag, 2003. [Di02] Diefenbruch, M.; Goesmann, T.; Herrmann, T.; Hoffmann, M.: KontextNavigator und ExpertKnowledge – Zwei Wege zur Unterstützung des Prozesswissens in Unternehmen, In: Abecker, A.; Hinkelmann, K.; Maus, H.; Müller, H.-J.: Geschäftsprozessorientiertes Wissensmanagement - Effektive Wissensnutzung bei der Planung und Umsetzung von Geschäftsprozessen. Berlin: Springer, 2002, S. 275-292. [GS05] Gievska, S.; Sibert, J.: Using Task Context Variables for Selecting the Best Timing for Interrupting Users. In Joints of EUSAI conference 2005, Grenoble. Online verfügbar: http://interruptions.net/literature/Gievska-sOc-EUSAI05.pdf [HKT02] Hinkelmann, K.; Karagiannis, D.; Telesko, R.: PROMOTE: Methodologie und Werkzeug für geschäftsprozessorientiertes Wissensmanagement. In: Abecker, A.; Hinkelmann, K.; Maus, H.; Müller, H.-J.: Geschäftsprozessorientiertes Wissensmanagement Effektive Wissensnutzung bei der Planung und Umsetzung von Geschäftsprozessen. Berlin: Springer, 2002, S. 65-90. [KMH03] Kienle, A.; Menold, N.; Herrmann, T.: Technische und organisatorische Gestaltungsoptionen für unternehmensinterne Wissensmanagementprojekte. In: Herrmann, T.; Mambrey, P.; Shire, K. (Hrsg.): Wissensgenese, Wissensverteilung und Wissensorganisation in der Arbeitspraxis. Wiesbaden: Westdeutscher Verlag, 2003, S. 109-153. [LW91] Lave, J.; Wenger, E. (1991): Situated learning. Legitimate Peripheral Participation, Cambridge University Press. [MS05] Mattauch, W.; Schmidt, M. (2005): E-Learning in der Arbeitsprozessorientierten Weiterbildung (APO). In M. H. Breitner, & G. Hoppe (Hrsg.), E-Learning - Einsatzkonzepte und Geschäftsmodelle (pp. 383-394). Heidelberg: Physika. [Mc00] McDonald, D.W.: Supporting Nuance in Groupware Design: Moving form Naturalistic Expertise Location to Expertise Recommendation. PhD Thesis, University of California, Irvine, 2000. [Mü06] Mühlpfordt, M.: Dual Interaction Spaces: Integration synchroner Kommunikation und Kooperation. In M. Mühlhäuser, G. Rößling, R. Steinmetz (Hrsg.), DeLFI 2006, 4. eLearning Fachtagung Informatik, S. 99-110. [Sc06] Scheir, P.; Hofmair, P.; Granitzer, M.; Lindstaedt, S. N.: The OntologyMapper plug-in: Supporting Semantic Annotation of Text-Documents by Classification. Semantics 2006, Vienna. [So00] Sowa, J.F.: Knowledge representation: logical, philosophical, and computational foundations, MIT Press, 2000. [WF94] Wasserman, S. & Faust, K. (1994): Social Network Analysis. Cambridge: Cambridge University Press. [WVE98] van Welie, M.; van der Veer, G. C.; Eliens, A.: An Ontology for Task World Models, Design, Specification and Verification of Interactive Systems '98, Springer, 1998. [We05] Wessner, M.: Kontextuelle Kooperation in virtuellen Lernumgebungen. Lohmar, Eul Verlag, 2005. 280 OSOTIS – Kollaborative inhaltsbasierte Video-Suche Harald Sack, Jörg Waitelonis Friedrich-Schiller-Universität Jena D-07743 Jena {sack, joerg}@minet.uni-jena.de Abstract: Die Video-Suchmaschine OSOTIS ermöglicht eine automatische inhaltsbezogene Annotation von Videodaten und dadurch eine zielgenaue Suche auch innerhalb einzelner Videoaufzeichnungen. Neben objektiv gewonnenen zeitabhängigen Deskriptoren, die über eine automatische Synchronisation von ggf. zusätzlich vorhandenem textbasiertem Material mit den vorliegenden Videodaten gewonnen werden, können kollaborativ zusätzlich eigene, zeitbezogene Schlagwörter (Tags) und Kommentare innerhalb eines Videos vergeben werden (sequentielles Tagging), die zur Implementierung einer verbesserten und personalisierten Suche dienen. 1 Einleitung Die Informationsfülle des World Wide Webs (WWW) ist gewaltig. Milliarden von Dokumenten in hunderten von Sprachen machen es unmöglich, sich ohne Hilfsmittel darin zu orientieren. Suchmaschinen wie Google1 verfolgen das Ziel, den erreichbaren Teil des WWWs, möglichst vollständig zu indizieren und so durchsuchbar zu machen. Noch immer stellen Textdokumente den größten Anteil des WWWs dar, aber immer mehr Multimedia-Dokumente in Form von Bildern, Grafiken oder Video-Clips kommen täglich hinzu. Google allein verwaltet derzeit in seinem Suchindex mehr als 1,2 Milliarden Bilder und mehrere Millionen Videos (Stand: 05/2007). Insbesondere der Anteil an Videodaten im WWW steigt auf Grund vielfältiger Content Management Systeme zur Produktion, Nachbearbeitung und Bereitstellung, sowie der stetig wachsenden zur Verfügung stehenden Bandbreite. Spezialisierte Portale und VideoSuchmaschinen wie etwa YouTube2 oder Google Video3 erleichtern das Auffinden von Videodaten im WWW. Gegenüber traditionellen Suchmaschinen, d. h. Suchmaschinen für textbasierte Dokumente, unterscheiden sich Video-Suchmaschinen typischerweise in der Art der Indexerstellung. Traditionelle Suchmaschinen wenden Methoden des Information Retrieval auf Textdokumente an, um aus diesen aussagekräftige Deskriptoren zur Beschreibung und Verschlagwortung des untersuchten Dokuments zu gewinnen. Diese vollautomatische Suchindexgenerierung ist im Falle von multimedialen Daten in der Regel 1 2 3 Google, http://www.google.com/ YouTube, http://www.youtube.com/ Google Video, http://video.google.com/ 281 schwierig oder erst gar nicht möglich. Mit klassischen Methoden des Information Retrieval angewandt auf multimediale Daten ist es lediglich möglich, charakteristische Eigenschaften wie z. B. dominante Farben, Farb- und Helligkeitsverteilungen in Einzelbildern oder die Bewegungen der Kamera innerhalb einer Bildfolge zu bestimmen bzw. einzelne Objekte zu identifizieren oder zu verfolgen. Zwischen diesen charakteristischen Eigenschaften und dem tatsächlichen Inhalt der multimedialen Daten und dessen Bedeutung besteht eine semantische Lücke [Sm00]. Schlussfolgerungen aus den charakteristischen Eigenschaften auf deren inhaltliche Bedeutung sind heute nur in geringem Maße möglich. Ebenso ist eine automatische Extraktion inhaltsbezogener Deskriptoren, die den semantischen Inhalt einer Videodatei auf einer abstrakteren Ebene beschreiben, aus den Videodaten allein nicht zufriedenstellend möglich. Die inhaltliche Beschreibung multimedialer Daten und insbesondere von Videodaten erfolgt über eine Annotation mit zusätzlichen Metadaten, die entweder vom Autor der Daten selbst, von ausgewiesenen Experten oder aber auch von allen Nutzern gemeinsam erfolgen kann. Letztere sind auch verantwortlich für den Erfolg von Web-2.0-Video-Suchmaschinen wie YouTube, da diese dem Nutzer eine einfache Annotation der Videos über das so genannte Tagging ermöglichen, d. h. die Nutzer vergeben eigene, frei gewählte Schlüsselwörter (Tags), die den Inhalt der Videodaten beschreiben. Betrachtet man speziell den Anteil an Lehr- und Lernmaterialien in Video-Suchmaschinen, ist dieser heute sehr gering. Dies hat verschiedene Gründe: Einerseits liegen Lehr- und Lernmaterialien oft auf spezialisierten Portalen oder Lernplattformen vor, die entweder aus den bereits oben genannten Gründen bzw. auf Grund eines dezidierten Rechtemanagements nicht von Video-Suchmaschinen indiziert werden können. Andererseits liegt ein weiteres Problem in der Natur der Videomaterialien selbst begründet: Die Videoaufnahme einer Lehrveranstaltung hat in der Regel eine Länge zwischen 45 und 90 Minuten. Dabei werden in einer Lehrveranstaltung oft unterschiedliche Themen behandelt. Einzelne Themen nehmen in der gesamten Lehrveranstaltung oft nur wenige Minuten in Anspruch und sind nur schwer darin wiederzufinden. Zwar können durch Autor oder Nutzer Tags bereitgestellt werden, die alle in der Vorlesung angesprochenen Themen beschreiben, doch ist deren zeitliche Zuordnung innerhalb des zeitgebundenen Mediums Video ebenso wie eine direkte zeitliche Adressierung bei der Wiedergabe der Suchergebnisse noch nicht realisiert. Im vorliegenden Beitrag beschreiben wir die Video-Suchmaschine OSOTIS4 , die eine zeitabhängige, sequentielle Indizierung von Videodaten und damit eine direkte Suche auch innerhalb dieser Videodaten ermöglicht. Insbesondere dient OSOTIS dabei der Archivierung und der Annotation von videobasierten Lehr- und Lernmaterialien, wie z. B. Vorlesungsaufzeichnungen. OSOTIS kombiniert zwei unterschiedliche Ansätze: Zum einen werden Vorlesungsaufzeichnungen, zu denen eine Desktopaufzeichnung des Dozenten und zusätzliche Daten wie z. B. eine Präsentation, ein Handout oder eine Vorlesungsmitschrift vorliegen, automatisch mit dem Inhalt dieser Zusatzinformationen synchronisiert und annotiert. Zum anderen gestattet OSOTIS jedem Benutzer die Vergabe von zeitabhängigen Tags, d. h. eine bestimmte Stelle des Videos kann während des Abspielens von den Nutzern mit eigenen Tags oder ganzen Kommentaren annotiert werden, die dann wieder 4 OSOTIS, http://www.osotis.com/ 282 gezielt abgerufen werden können. Eigene Tags ermöglichen dem Benutzer eine personalisierte Suchfunktion und mit Hilfe der gemeinsamen Tags aller übrigen Benutzer wird die herkömmliche Suche ergänzt. OSOTIS bietet dem Benutzer die Möglichkeit, aus einem stetig wachsenden Datenbestand an Vorlesungs- und Lehrvideos, zielgerichtet und nach persönlichen Vorgaben, eigene Vorlesungen aus einzelnen Videosequenzen entsprechend seinen persönlichen Bedürfnissen zusammenzustellen. Nachfolgend soll die Arbeitsweise von OSOTIS detaillierter beschrieben werden: Kapitel 2 untersucht Eigenschaften und Defizite aktueller Video-Suchmaschinen. Kapitel 3 zeigt die Möglichkeiten einer automatischen Annotation von Video-Daten, während Kapitel 4 näher auf die kollaborative Annotation zeitabhängiger Daten eingeht. Kapitel 5 gibt einen Einblick in die Arbeitsweise der Video-Suchmaschine OSOTIS und Kapitel 6 beschließt die Arbeit mit einem kurzen Ausblick auf deren Weiterentwicklung. 2 Aktuelle Video-Suchsysteme Video-Suchsysteme können auf unterschiedliche Art zu dem in ihnen repräsentierten Datenbestand gelangen: Crawler-basierte Systeme durchsuchen in der Art traditioneller Suchmaschinen das WWW aktiv nach Videodaten und verwenden zum Aufbau ihres Suchindexes neben den aufgefundenen Videodaten ebenfalls verfügbare Kontextinformation (z. B. Hyperlink-Kontext bei Google Video). Upload-basierte Systeme ermöglichen registrierten Nutzern als Publikationsplattform das Einstellen eigener Videodaten (z. B. YouTube). Daneben existieren redaktionell gepflegte Systeme, die es lediglich einem ausgewählter Kreis von Nutzern ermöglichen, eigenes Videomaterial einzustellen (z. B. Fernsehsender, Nachrichtenredaktionen und digitale Bibliotheken5 an Universitäten und anderen Bildungseinrichtungen). Analog zu traditionellen Suchmaschinen können auch im Falle von Video-Suchmaschinen indexbasierte Suchmaschinen und Suchkataloge unterschieden werden. Indexbasierte Suchmaschinen liefern auf die Eingabe eines oder mehrerer Suchbegriffe eine nach internen Relevanzkriterien hin sortierte Ergebnisliste. Viele redaktionell gepflegte Systeme dagegen arbeiten nach dem Prinzip des Suchkatalogs, d. h. sie erlauben lediglich das Blättern und Navigieren in vordefinierten Kategorien. überschreitet das angebotene Videomaterial eine bestimmte Dauer, ist eine inhaltsbasierte Recherchemöglichkeit unverzichtbar. Inhaltsbasierte Suche nach und in Videodaten erfolgt nach unterschiedlichen Kriterien. Man unterscheidet hier die Suche über Kategorien, Schlüsselwörter, Schlagworte/Tags, eine semantische Suche, Suche nach analytischen Bildeigenschaften oder die Suche nach dem gesprochenen Wort. Aktuelle Suchmaschinen stellen kategorien- und schlüsselwortbasierte Suche sowie die Suche nach Tags bereit. Des weiteren kann nach der Suchgranularität unterschieden werden. Dies betrifft Sammlungen (Kollektionen) von Videos, ein einzelnes Video, ein Videosegment, eine Szene (Group of Pictures), den Teilbereich einer Szene (Objekt-Verfolgung), ein Einzelbild oder den Teilbereich eines Einzelbildes. Die aktuellen Video-Suchdienste wie Google-Video und YouTube sind lediglich in der 5 z. B. Digitale Bibliothek Thüringen, http://www.db-thueringen.de 283 Lage, nach einzelnen Videos als Ganzem zu suchen. Einen Ansatz mit feinerer Granularität verfolgen die Systeme TIMMS6 , Slidestar7 und OSOTIS. Mit diesen Systemen ist es möglich, auch den Inhalt einzelner Videos zu durchsuchen. Die Unterschiede zwischen den Systemen liegen in der Medienaufbereitung und Metadatengewinnung. Während bei TIMMS Videodaten manuell mit großem Aufwand segmentiert und annotiert werden, verwendet Slidestar das proprietäre Lecturnity8 Format, um eine automatische Indizierung der Videodaten zu realisieren. Dazu müssen Metadaten wie Folientext und Autorenannotationen bereits während der Produktion in das Lecturnity Format eingebettet werden, um von Slidestar zur inhaltsbasierten Suche genutzt werden zu können. Dagegen ist es mit OSOTIS möglich, beliebige Videoformate mit vorhandenem textuellen Präsentationsmaterial (z. B. im PDF9 oder PPT10 Format) vollautomatisch zu resynchronisieren, um positionsabhängige Metadaten zu generieren, die die Grundlage für die Indizierung bilden [SW06a]. Aus Effizienzgründen erstellen Suchmaschinen einen Suchindex, der einen schnellen Zugriff auf die Suchergebnisse mit Hilfe von Deskriptoren gestattet, die direkt aus den zu durchsuchenden Daten bzw. aus zusätzlichen Metadaten (Annotationen) gewonnen werden. Deskriptoren sind zum einen analytische/syntaktische Merkmale (z. B. Farbe, Form, Objekte), semantische Eigenschaften (z. B. Beziehungen zwischen Objekten) oder auch Zusatzinformationen. Der Grad an Automatisierbarkeit bei der Erzeugung der Deskriptoren fällt in der genannten Reihenfolge ab. Deskriptoren können sich dabei auf einzelne Teile der Videodaten (z. B. Videosegmente, Einzelbilder, Bereiche) beziehen. Zur Ermittlung geeigneter Deskriptoren für den speziellen Fall der Suche in Aufzeichnungen von Lehrveranstaltungen stehen inhaltliche, semantische Gesichtspunkte im Vordergrund, also z. B. welches Thema wird zu welchem Zeitpunkt oder in welchem Videosegment behandelt. Allerdings enthält der Videodatenstrom einer Lehrveranstaltungsaufzeichnung keine geeigneten charakteristischen Merkmalsausprägungen über den Zeitverlauf hinweg. Jedes einzelne Videosegment ähnelt jedem anderen visuell so stark – in den meisten Fällen ist ausschließlich ein Vortragender zu sehen – dass bei alleiniger Betrachtung eines einzelnen Videosegments oft nicht festzustellen ist, zu welchem Zeitpunkt der Aufzeichnung dieses gehört. Objektidentifikation, Objektverfolgung und eine Segmentierung entsprechend der Schnittfolge eines Videos sind in diesem Falle ebenfalls nicht sinnvoll, da nicht auf den semantischen Inhalt der Vorlesung geschlossen werden kann, höchstens auf eine Person, die sich z. B. nach links oder rechts bewegt. Merkmalausprägungen von besserer Separierungsfähigkeit können aus den zugehörigen Audiodaten gewonnen werden. Eine Segmentierung kann in diesem Fall z. B. bzgl. der Sprechpausen erfolgen. Die einzelnen Audio-Segmente werden hierzu einer automatischen Sprachanalyse unterzogen, deren Ergebnis die gewünschten Merkmale hervorbringt (vgl. Kap. 3). Systeme, die Aufzeichnungen von Lehrveranstaltungen verwalten, müssen in der Lage sein, auch den Inhalt einzelner Videos zu durchsuchen. Lehrveranstaltungen stellen beson6 Tübinger Internet Multimedia Server, http://timms.uni-tuebingen.de/ Slidestar IMC AG, http://www.im-c.de/Produkte/170/4641.html. Eine Beispielanwendung ist das eLecture Portal der Universität Freiburg: http://electures.informatik.uni-freiburg.de/catalog/courses.do 8 Lecturnity IMC AG, http://www.lecturnity.de/ 9 Adobe - Portable Document Format, nahezu alle textuellen Formate lassen sich in das PDF umwandeln. 10 Microsoft PowerPoint 7 284 dere Ansprüche an ein Retrievalsystem. Traditionelles Multimedia Retrieval, das versucht charakteristische, statistische Merkmale zu indizieren, ist in diesem Falle nicht geeignet. 3 Automatische Annotation von Video-Daten Lehrveranstaltungsaufzeichnungen bestehen heute oft aus synchronisierten Multimediapräsentationen, die eine Videoaufzeichnung des Dozenten, eine Aufzeichnung der Präsentation des Dozenten und einen Audiodatenstrom beinhalten (siehe Abb. 1). Diese können z. B. mit Hilfe der Standards Synchronous Multimedia Integration Language“ 11 ” (SMIL) oder MPEG-4 XML-A/O“ [ISO05], aber auch über andere, proprietäre Techno” 12 logien kodiert werden. Eine synchronisierte Multimediapräsentation enthält bedeutend mehr Informationen als die Videoaufzeichnung des Vortragenden allein. Diese zusätzliche Information wird von OSOTIS genutzt, um eine Vorlesungsaufzeichnung über automatisch generierte Annotationen in eine durchsuchbare Form zu bringen. Abbildung 1: Synchronisierte Multimediapräsentation bestehend aus Dozentenvideo, Desktopaufzeichnung und interaktivem Inhaltsverzeichnis (links) in Verbindung mit kollaborativem Tagging (rechts) als Ergebnis einer OSOTIS Suchoperation. Mit einer Aufzeichnung der Präsentation des Dozenten (Desktopaufzeichnung) geht die Verwendung von textuellem Präsentationsmaterial13 einher. Die aus dem synchronisierten Präsentationsmaterial gewonnene Annotation enthält alle wichtigen Informationen, die über den Inhalt des Videos in Erfahrung zu bringen sind. Die Annotation schließt neben textbasierten, inhaltlichen Zusammenfassungen, Stichpunkten und Beispielen auch Vorschaubilder und andere Multimediainhalte mit ein. 11 12 13 SMIL – Synchronized Multimedia, http://www.w3.org/AudioVideo/ z. B. Lecturnity IMC AG, http://www.lecturnity.de/ z. B. Adobe PDF, Microsoft PowerPoint, o.a. 285 Der Prozess der Annotation erfolgt entweder bereits online während der Produktion (wie in [ONH04] gefordert) oder auch offline in einem Nachverarbeitungsschritt. Soll eine automatische online-Annotation erfolgen, ist das Führen einer speziellen Log-Datei auf dem Präsentationsrechner des Dozenten erforderlich, in der Ereignisse wie z. B. Folienwechsel aufgezeichnet werden. Aus dieser Log-Datei lässt sich leicht eine zeitliche Synchronisation zwischen Videoaufzeichnung und textuellem Präsentationsmaterial gewinnen. Die Zeitpunkte der jeweiligen Folienwechsel segmentieren die Videoaufzeichnung und die textuellen Inhalte einer Folie werden dem Videosegment als Deskriptor zugeordnet. Textauszeichnungen wie z. B. Schriftschnitt sowie Textposition innerhalb einer Folie (z. B. Kapitelüberschrift) werden dabei zur Relevanzgewichtung der Deskriptoren herangezogen. Oft ist das Führen einer Log-Datei auf dem Präsentationsrechner nicht möglich oder auch nicht erwünscht. In diesem Fall oder auch für den Fall der Aufbereitung von bereits archiviertem Videomaterial, muss ein analytisches (Retrieval-)Verfahren zur Synchronisation von Videoaufzeichnung und textbasiertem Material verwendet werden. Dies erfolgt bei OSOTIS über Schrifterkennung (Intelligent Character Recognition, ICR) und Bildvergleichanalyse (vgl. [SW06a] für eine ausführlichere Beschreibung der technischen Details). Wird ein ICR-Verfahren allein auf die Präsentationsaufzeichnung angewendet, liefert diese auf Grund oft unzureichender Videoqualität nur eine fehlerhafte Analyse der darin enthaltenen Information [NWP03, KHE05]. Dennoch ist die Qualität dieser Information ausreichend, um eine Synchronisation von Videoaufzeichnung und textuellem Präsentationsmaterial zu gewährleisten. Sollten dabei auf einer Folie keine Textinhalte sondern lediglich Illustrationen und Grafiken enthalten sein, löst ein einfacher analytischer Bildvergleich14 des Präsentationsmaterials mit der Präsentationsaufzeichnung diese Aufgabe. Neben dieser bereits realisierten Synchronisation steht derzeit die direkte Synchronisation von Vorlesungsaufzeichnungen mit zusätzlich vorhandenem textuellem Material im Vordergrund der Entwicklung (vgl. [Re07]). Diese Synchronisation basiert auf einer automatischen Spracherkennung (ASR) der aufgezeichneten Audiodaten [CH03, YOA03]. Das Verfahren unterscheidet sprecherabhängige und sprecherunabhängige Spracherkennung. Sprecherabhängige ASR (z. B. Dragon Naturally Speaking15 ) sieht eine Trainingsphase des Systems auf einen bestimmten Sprecher vor. Da eine derartige Trainingsphase des Systems sehr aufwändig ist und mit wachsendem Datenbestand nicht skaliert, liegt der Schwerpunkt der Entwicklung derzeit in der Weiterentwicklung einer sprecherunabhängigen Spracherkennung (z. B. SPHINX [Hu93]). Aktuelle Systeme zur Spracherkennung erreichen eine Fehlerrate (word error rate) von etwa 10 % für englischsprachige16 und etwa 20 % für deutschsprachige17 Texte. Zur Verbesserung der Erkennungsrate wird daher ein vorab definiertes, reduziertes Vokabular (Korpus) aus Fachbegriffen zu jeder Vorlesung bereitgestellt, die im Audiodatenstrom zeitlich lokalisiert werden (Term Spotting) [KY96]. Dieses Korpus kann etwa aus dem textuellen Präsentationsmaterial oder aus einer Sammlung von dem Wissensgebiet zugehöriger Fachbegriffe (Lexikon, Ontologien) generiert werden. 14 15 16 17 realisiert über imgSeek, http://www.imgseek.net/ Nuance – Dragon Naturally Speaking, http://www.nuance.com/dragon/ http://cslr.colorado.edu/beginweb/speech recognition/sonic main.html http://www-i6.informatik.rwth-aachen.de/web/Research/SRSearch frame.html 286 Die Annotation des Videomaterials erfolgt also entweder durch Resynchronisation des Präsentationsmaterials mit der Desktopaufzeichnung mittels ICR oder durch Resynchronisation mit dem Audiodatenstrom vermittels ASR. Laut [HLT06] stufen Rezipienten eine Desktopaufzeichnung und die Folien der Präsentation beim Lernen als wichtiger ein als die Aufzeichnung des Dozenten selbst, woraus abzuleiten ist, dass das Anfertigen einer Desktopaufzeichung in Zukunft auch mehr Akzeptanz finden wird. 4 Kollaborative Annotation von Video-Daten Neben den vielfältigen Möglichkeiten der automatischen Annotation von Multimediadaten, wie sie im vorangegangenen Kapitel besprochen wurden, soll in diesem Kapitel auf eine kollektive Verschlagwortung von Multimediadaten als Ganzem (traditionelles Tagging) bzw. eine synchrone Verschlagwortung von zeitabhängigen Multimediadaten (sequentielles Tagging) näher eingegangen werden. Unter dem Begriff Tagging“ wird eine Verschlagwortung verstanden, d. h. die Annota” tion von Daten (in unserem Falle Multimedia-Daten) mit Begriffen, die den Inhalt oder die Funktion der annotierten Datei markieren [Je95]. Formal ist ein Tag ein Tripel der Form (u, l, r) wobei u für den Benutzer (user), l für das Schlagwort (label) und r für die Ressource stehen. Die Schlagworte können dabei vom Autor der verschlagworteten Ressource selbst, von einem dazu bestimmten Experten, oder aber auch von allen Benutzern (kollaboratives Tagging oder Social Tagging) der Datei gemeinsam vergeben werden. Aktuelle kollaborative Tagging Systeme wie z. B. delicious18 , bibsonomy19 , My Web 2.020 oder das deutschsprachige mister-wong21 verschlagworten Ressourcen derzeit als Ganzes und sind nicht in der Lage, einzelne Abschnitte dieser Ressource (sofern diese nicht über einen URI identifiziert werden können) gezielt zu annotieren. Man unterscheidet generell zwischen deskriptiven (auch objektiven) Tags, die eine Ressource oder deren Eigenschaften objektiv beschreiben (hierzu zählen inhalts-basierte Tags, kontext-basierte Tags und attributive Tags), und funktionalen Tags, d. h. Tags, deren Bedeutung in der Regel einen ganz bestimmten Zweck anzeigt, der mit der Ressource in Verbindung steht, und der sich meist lediglich dem Tag-Autor allein erschließt und Nutzen bringt (differenziert in subjektive Tags und organisatorische Tags). Siehe [GH06] und [Xu06] für eine detaillierte Übersicht der unterschiedlichen Tag-Kategorien und ihrer Funktion. Ressourcen jeglicher Art lassen sich vermittels Tags verschlagworten. Diese Schlagworte können dann im Rahmen einer Suche zusätzlich zu den bereits vorhandenen Deskriptoren (Metadaten) genutzt werden. Dabei ist zu beachten, dass kollektives Tagging und die Einbeziehung kollektiv vergebener Tags in die Suche veränderte Rahmenbedingungen für die Suche schaffen, die bereits eingehend untersucht worden sind [Ha06]. Funktionale (subjektiv vergebene) Tags sind in der Regel nur für den Tag-Autor zum Wiederauffinden einer 18 19 20 21 delicious, http://del.icio.us/ bibsonomy, http://www.bibsonomy.org/ My Web 2.0 http://myweb2.search.yahoo.com/ mister-wong, http://www.mister-wong.de/ 287 verschlagworteten Ressource von Nutzen, während deskriptiv vergebene Tags objektiveren Ansprüchen genügen und auch allgemein für alle in der Suche von Nutzen sind, um neue, bislang unbekannte Ressourcen zu entdecken. Die Verteilung kollektiv vergebener Tags folgt einem Potenzgesetz [GH06], d. h. für eine bestimmte Ressource werden einige wenige Tags sehr oft verwendet, während der Hauptanteil der übrigen Tags für diese Ressource im so genannten Long Tail“ -Bereich der Tagverteilung liegt, d. h. nur sehr selten ” vergeben wurde. Diese Eigenschaft kann dazu genutzt werden, zuverlässige Suchergebnisse zu gewinnen bzw. bei Miteinbeziehung der Long Tail“ -Ergebnisse auf ungeahnte ” Assoziationen und Querverbindungen zu schließen. Ein typischer Vertreter einer Suchmaschine mit kollektiv verschlagworteten Multimediadaten ist die bekannte Videosuchmaschine YouTube. Benutzer können dort eigenes Videomaterial einstellen und alle darin vorhandenen Videoclips kollektiv verschlagworten. Kollektive Tags und zusätzlich vom Autor eingegebene Metadaten werden dann bei einer Suche in YouTube in Kombination genutzt. Neben den Suchergebnissen, die durch einen eingegebenen Suchbegriff erzielt wurden, ist YouTube in der Lage, zu einem angezeigten Video anhand der kollektiven Tags weitere ähnliche Videos aus seinem Datenbestand herauszusuchen. Die kollektive Annotation in der Suchmaschine YouTube oder anderen auf diesem Prinzip basierenden Suchmaschinen (z. B. Google Video oder yahoo! video search22 ) ist stets darauf beschränkt, die vorhandenen Ressourcen als Ganzes zu verschlagworten. Während diese Einschränkung bei zeitunabhängigen Medien nur selten von Nachteil ist – auch wenn ein langes Textdokument als Ergebnis zurückgeliefert wird, kann der Suchbegriff darin leicht mittels einer daran anschließenden Volltext-Suche gefunden werden – kommt dieser Nachteil bei zeitabhängigen Medien voll zum Tragen. Die anschließende Suche innerhalb einer gefundenen Videodatei nach einem bestimmten Suchbegriff gestaltet sich als schwierig. Daher liegt der Schluss nahe, die kollektive Annotation synchron zu einem zeitabhängigen Medium durchzuführen. Zu diesem Zweck wird bei OSOTIS zu jedem vergebenen Tag zusätzlich zum Namen des Nutzers, der das Tag vergeben hat, der Zeitpunkt innerhalb einer Videodatei, zu dem das Tag vergeben wurde, notiert. Diese Art der kollektiven Verschlagwortung bezeichnen wir als synchrones oder sequentielles Tagging. Formal wird das Tripel (u, l, r) also mit einer Funktion c(r) um eine zeitliche Koordinate innerhalb der Ressource erweitert zu (u, l, c(r)). Soll ein Tag nicht nur einen Einzelzeitpunkt sondern ein definiertes Intervall beschreiben, muss jeweils ein Anfangs- und ein Endzeitpunkt zusammen mit dem Tag vermerkt werden. Dieser kann entweder durch den Benutzer selbst oder aber auch durch eine automatische Kontextanalyse bestimmt werden. Die Funktion c(r) kann also auch einen Abschnitt innerhalb einer Ressource beschreiben. Sequentielles Tagging sowie die automatisierte Resynchronisation des verwendeten Präsentationsmaterials bilden die Basis der Video-Suchmaschine OSOTIS. Die gewonnenen semantischen Annotationen werden als Metadaten parallel zu den Multimediadaten im MPEG-7 Format [CSP01] kodiert. Die Kodierung sequentieller Tags mit Hilfe des MPEG- 22 yahoo! video search, http://video.search.yahoo.com/ 288 7 Standards wird in [SW06b] näher beschrieben. Aus den MPEG-7 Metadaten wird ein Suchindex aufgebaut, ohne dass ein erneutes Retrieval notwendig ist. 5 OSOTIS – eine kollaborative, inhaltsbasierte Video-Suchmaschine OSOTIS als Video-Suchmaschine und Web-2.0-Social-Tagging-System hat sich auf die Verwaltung, Annotation und Suche von Lehr- und Lernvideos, und insbesondere von Lehrveranstaltungsaufzeichnungen spezialisiert. Dabei kommen verschiedene Konzepte zum Tragen, um die Recherchierbarkeit der Videodaten mit höherer Feinheit als bisher zu ermöglichen. OSOTIS verwendet zur Suche sowohl Standard-Suchkriterien, wie z. B. Name des Autors oder andere autorenbezogene Metadaten sowie darüber hinaus eine schlüsselwortbasierte Suche sowohl auf Basis des synchronisierten Präsentationsmaterials als auch mit Hilfe des kollektiven, sequentiellen Taggings. Auf Grund einer Vorabanalyse des textuellen Präsentationsmaterials mit Berücksichtigung von Schriftschnitt und Position in Verbindung mit TF/IDF Metriken23 [PC98] wird die Relevanzgewichtung und damit auch die Qualität der erzielten Suchergebnisse verfeinert. So werden z. B. Videodaten, bei denen das gesuchte Wort in einer Überschrift auftritt, als relevanter eingestuft als Videodaten, bei denen dieses Wort lediglich in einem Nebenkommentar vorkommt. Dies bekräftigt unseren Ansatz, das textuelle Präsentationsmaterial als Grundlage der Schlüsselwörter zu verwenden, da dort der semantische Inhalt des Videos direkt und in kompakter Form niedergeschrieben steht. OSOTIS präsentiert sich dem Benutzer mit einer einfachen Eingabemaske, in der ein oder mehrere Suchbegriffe eingegeben werden können. Nach inhaltlicher Relevanz wird daraufhin eine Liste mit Suchergebnissen präsentiert und nach Auswahl eines Ergebnisses wird dieses direkt und genau ab der relevanten Stelle wiedergegeben (vgl. Abbildung 2). Neben der inhaltsbasierten Suche bietet OSOTIS angemeldeten Benutzern die Möglichkeit, das verfügbare Videomaterial mit eigenen sequentiellen (zeitbezogenen) Tags zu annotieren. Auf diese Weise können bestimmte, besonders interessante Abschnitte innerhalb eines Videos besonders hervorgehoben und kategorisiert werden. Eine so genannte Tag-Cloud“ ” (siehe Abb. 1, rechts oben) gibt einen Überblick wahlweise über alle aktuell verwendeten Tags und deren Häufigkeit oder gestattet eine nutzer- bzw. mediumbezogene Filterung der angezeigten Tags. Dadurch kann sich der Benutzer auf einen Blick darüber informieren, welche Themen (1) der komplette Videodatenbestand von OSOTIS beinhaltet, (2) ein bestimmtes Video aufweist oder (3) ein bestimmter Nutzer vergeben und annotiert hat. Die in der Tag-Cloud notierten Begriffe selbst können ebenfalls direkt durch einfaches Anklicken zur Suche und Filterung genutzt werden. Darüber hinaus bietet OSOTIS angemeldeten Benutzern die Möglichkeit, ohne HTMLKenntnisse eine eigene Webseite zu gestalten, auf der ausgewählte Videos zusammengestellt und präsentiert werden können. So kann der Nutzer z. B. interessante Videos ei23 TF - Term Frequency, IDF - Inverse Document Frequency 289 Abbildung 2: Suchergebnis für den Begriff Hieroglyphen“. Es wird dabei angezeigt, an welcher ” Stelle im Video der Suchbegriff auftritt. Mit einem Klick auf die hervorgehobenen Segmente, wird das Video an dieser Stelle wiedergegeben. ner Vorlesungsreihe zu eigenen Kollektionen gruppieren. Neben der Vergabe eigener Tags können auch Kommentare und Diskussionen an ausgewählte Video-Positionen gehef” tet” werden, in denen mehrere Nutzer den betreffenden Videoausschnitt diskutieren und beurteilen können. Diese Diskussionen erweitern die Annotation und können ebenfalls durchsucht werden. Das Anmelden von durchsuchbarem Videomaterial bei OSOTIS kann aktuell auf drei unterschiedliche Arten erfolgen: (1) Eigenes Videomaterial kann direkt hochgeladen werden bzw. kann der URL einer oder mehrerer Videodateien direkt angegeben werden. Diese Daten werden nachfolgend direkt durch OSOTIS verwaltet. (2) Videomaterial kann auch über die Angabe der URL einer oder mehrerer Videodateien, die über einem Streaming-Server erreichbar sind, angemeldet werden. OSOTIS lädt diese Daten dann nicht ins eigene System, sondern nutzt lediglich den Link dorthin. Das spart zwar eine redundante Datenhaltung, macht jedoch ein regelmäßiges Überprüfen der betreffenden URLs auf Konsistenz notwendig. (3) Parallel zu den Videodaten kann auch textuelles Präsentationsmaterial24 hochgeladen werden, das zur automatischen Annotation verwendet wird. Aktuell (Stand: 05/2007) hält OSOTIS ca. 1700 Videos in englischer und deutscher Sprache vor, von denen ca. 50 % automatisch mit Hilfe des verfügbaren Präsentationsmaterials annotiert worden sind. Der Aufwand der technischen Analyse inklusive der automatischen Annotation benötigt in Abhängigkeit vom vorliegenden Videoformat ca. 3–10 Minuten pro Medienstunde. Das gesamte Videomaterial kann kollaborativ verschlagwortet werden. Aktuell erfolgt dies durch ca. 500 aktive Nutzer. Hierzu ist anzumerken, dass eine aussagekräftige Evaluation der Suchergebnisse von OSOTIS derzeit noch nicht zufriedenstellend durchgeführt werden konnte, da die bislang vorhandene Menge an kollaborativ erstell24 aktuell nur in Form von Adobe PDF- Dokumenten 290 ten Schlagworten noch zu gering ist. Aktuell werden die an der FSU Jena aufgezeichneten Lehrveranstaltungen wöchentlich in OSOTIS eingestellt und von den Studierenden rege verschlagwortet. Wie für ein Web 2.0 System üblich, wächst der Nutzen des Systems mit der Anzahl der daran aktiv teilnehmenden Benutzer. OSOTIS ist unter dem URL http://www.osotis.com frei zugänglich. 6 Zusammenfassung und Ausblick OSOTIS ermöglicht eine automatische inhaltsbezogene Annotation von Videodaten und dadurch eine zielgenaue Suche auch innerhalb von Videos. Neben objektiv gewonnenen zeitabhängigen Deskriptoren, die über eine automatische Synchronisation von ggf. zusätzlich vorhandenem textuellen Material mit den vorliegenden Videodaten gewonnen werden, können registrierte Nutzer eigene, zeitbezogene Schlagwörter und ganze Kommentare innerhalb eines Videos vergeben, die zur Implementierung einer personalisierten Suche verwendet werden. Die aktuelle Weiterentwicklung von OSOTIS erstreckt sich neben einer weiteren, qualitativen Verbesserung der damit erzielten Suchergebnisse auf den Bereich des Social Networking und einer Erweiterung des Konzeptes des sequentiellen Taggings. Wie andere SocialNetworking-Systeme auch, sollen Benutzer OSOTIS ebenfalls als Kommunikations- und Organisationsplattform nutzen können. So ist z. B. die Bildung von speziellen Lerngruppen angestrebt, die ein gemeinsames Programm an Lehrveranstaltungen absolvieren, diese annotieren, darüber diskutieren und mit Anmerkungen versehen können. Die persönlich vergebenen Tags ermöglichen die Generierung von Nutzerprofilen. Nutzer mit ähnlichen Profilen haben mit hoher Wahrscheinlichkeit ähnliche Interessen oder Expertise. Auf diese Weise lassen sich zuvor ungeahnte Querverbindungen zwischen dem vorhandenen Videomaterial knüpfen und auf Ähnlichkeit basierende Suchfunktionen realisieren. Den Nutzern wird es ermöglicht, eigene Kompetenznetzwerke aufzubauen. über das zeitbezogene, sequentielle Tagging mit einfachen Schlagwörtern hinaus, werden auch zeitbezogene Annotationen in Form von Diskussionen oder Fragestellung ermöglicht. Dadurch ergeben sich neue Formen der Nutzer-Nutzer-Interaktion, die eine Evaluation der begutachteten Videoinhalte gestatten. Neben der zeitlichen Dimension sollen auch Ortsund Positionsangaben innerhalb eines Videobildes in Form von multidimensionalem Tagging realisiert werden. Auf diese Weise lassen sich spezielle Bildinhalte eines Videos im Rahmen eines bestimmten Beobachtungszeitraumes hervorheben und mit Annotation versehen. Literaturverzeichnis [CH03] Y. Chen und W. J. Heng. Automatic Synchronization of Speech Transcript and Slides in Presentation. In Proceedings of the IEEE International Symposium on Circuits and Systems (ISCAS), Seiten 568–571. Circuits and Systems Society, May 2003. 291 [CSP01] S. F. Chang, T. Sikora und A. Puri. Overview of the MPEG-7 Standard. IEEE Trans. Circuits and Systems for Video Technology, 11(6):688–695, 2001. [GH06] S. Golder und B. A. Huberman. The Structure of Collaborative Tagging Systems. Journal of Information Science, 32(2):198–208, April 2006. [Hu93] X. Huang, F. Alleva, H. W. Hon, M. Y. Hwang und R. Rosenfeld. The SPHINX-II speech recognition system: an overview. Computer Speech and Language, 7(2):137–148, 1993. [HLT06] C. Hermann, T. Lauer und S. Trahasch. Eine lernerzentrierte Evaluation des Einsatzes von Vorlesungsaufzeichnungen zur Unterstützung der Präsenzlehre. In DeLFI, Seiten 39–50, 2006. [Ha06] P. Han, Z. Wang, Z. Li, B. Kramer und F. Yang. Substitution or Complement: An Empirical Analysis on the Impact of Collaborative Tagging on Web Search. In Web Intelligence, Seiten 757–760. IEEE Computer Society, 2006. [ISO05] ISO/IEC 14496-11, Information technology - Coding of audio-visual objects - Part 11 Scene description and application engine, 2005. [Je95] L. H. Jeng. Organizing Knowledge (2nd ed.), by Jennifer E. Rowley. JASIS, 46(5):394– 395, 1995. [KHE05] S. Kopf, T. Haenselmann und W. Effelsberg. Robust Character Recognition in LowResolution Images and Videos. Bericht TR-05-002, Department for Mathematics and Computer Science, University of Mannheim, 04 2005. [KY96] K. Knill und S. Young. Fast Implementation Methods for Viterbi-based Word-spotting. In Proc. ICASSP ’96, Seiten 522–525, Atlanta, GA, 1996. [NWP03] C. W. Ngo, F. Wang und T. C. Pong. Structuring lecture videos for distance learning applications. In Proceedings of the Fifth International Symposium on Multimedia Software Engineering, Seiten 215–222. IEEE Computer Society, December 2003. [PC98] J. M. Ponte und W. B. Croft. A Language Modeling Approach to Information Retrieval. In Research and Development in Information Retrieval, Seiten 275–281, 1998. [Re07] S. Repp, J. Waitelonis, H. Sack und C. Meinel. Segmentation and Annotation of Audiovisual Recordings based on Automated Speech Recognition. In Proc. of 11th European Conf. on Principles and Practice of Knowledge Discovery in Databases (PKDD), Warsaw, Springer, to be published 2007. [SW06a] H. Sack und J. Waitelonis. Automated Annotations of Synchronized Multimedia Presentations. In Proceedings of the ESWC 2006 Workshop on Mastering the Gap: From Information Extraction to Semantic Representation, CEUR Workshop Proceedings, june 2006. [SW06b] H. Sack und J. Waitelonis. Integrating Social Tagging and Document Annotation for Content-Based Search in Multimedia Data. In Proc. of the 1st Semantic Authoring and Annotation Workshop (SAAW2006), Athens (GA), USA, 2006. [Sm00] A. W. M. Smeulders, M. Worring, S. Santini, A. Gupta und R. Jain. Content-Based Image Retrieval at the End of the Early Years. IEEE Trans. Pattern Anal. Mach. Intell., 22(12):1349–1380, 2000. [ONH04] J. v. Ossenbruggen, F. Nack und L. Hardman. That Obscure Object of Desire: Multimedia Metadata on the Web, Part 1. IEEE MultiMedia, 11(4):38–48, 2004. [Xu06] Z. Xu, Y. Fu, J. Mao und D. Su. Towards the semantic web: Collaborative tag suggestions. Collaborative Web Tagging Workshop at WWW2006, Edinburgh, Scotland, May, 2006. [YOA03] N. Yamamoto, J. Ogata und Y. Ariki. Topic Segmentation and Retrieval System for Lecture Videos Based on Spontaneous Speech Recognition. In Proceedings of the 8th European Conference on Speech Communication and Technology, Seiten 961–964. EUROSPEECH, September 2003. 292 Ein Werkzeug zur Unterstützung der Anpassung existierender E-Learning-Materialien Birgit Zimmermann1, 2, Christoph Rensing2, Ralf Steinmetz2 1 SAP AG SAP Research CEC Darmstadt Bleichstr. 8 64283 Darmstadt Birgit.Zimmermann@sap.com 2 Fachgebiet Multimedia Kommunikation Technische Universität Darmstadt Merckstr. 25 64283 Darmstadt {Birgit.Zimmermann, Christoph.Rensing, Ralf. Steinmetz}@kom.tu-darmstadt.de Die Wiederverwendung bereits existierender Lernmaterialien ist eine Möglichkeit, die hohen Kosten der Erstellung hochwertiger E-Learning Materialien zu senken. In vielen Fällen wird eine sinnvolle Wiederverwendung aber erst durch eine vorherige Anpassung der Materialien an deren neue Einsatzkontexte ermöglicht. Diese Anpassung ist eine komplexe Aufgabe Damit Autoren sie sinnvoll durchführen können, ist es notwendig, eine geeignete Unterstützung anzubieten. In [ZRS06a] stellen wir ein Konzept für eine derartige Unterstützung vor. Es basiert darauf, Nutzern gezielt das zur Durchführung der Anpassungen benötigte Wissen zur Verfügung zu stellen und da, wo dies sinnvoll möglich ist, Benutzer durch Automatisierung die durchzuführenden Aufgaben zu erleichtern. Grundidee dieses Konzeptes ist es, Laien und Novizen das Wissen von Experten bezüglich Anpassungen verfügbar zu machen. Das Tool soll format- und dateigrenzenübergreifend arbeiten. Dadurch wird erreicht, dass Benutzer nicht etliche verschiedene Werkzeuge bedienen müssen, um eine Anpassung durchzuführen. Nicht alle Anpassungen lassen sich sinnvoll automatisieren [ZRS06a]. Dennoch ist es wichtig für alle Anpassungen, unabhängig vom Grad der möglichen Automatisierung eine Unterstützung anzubieten. Da bereits Hilfestellungen eine wichtige Unterstützung für Laien darstellen, soll in jedem Fall eine Erläuterung angeboten werden, wie die jeweilige Anpassung durchzuführen ist. Das für dieses Konzept zentrale Expertenwissen wird in Form von Patterns bereitgestellt [ZRS06b]. Patterns sind aufgrund ihrer natürlichsprachlichen Notation auch für Personen ohne IT Kenntnisse gut verständlich. Dennoch weisen sie eine feste Notation auf, die das Verständnis erleichtert und eine spätere maschinelle Verarbeitung ermöglicht. Somit stellen sie eine geeignete Möglichkeit dar, Wissen verfügbar machen zu können. Das von uns umgesetzte Anpassungstool realisiert die oben genannten Anforderungen des Konzeptes. Es ist Bestandteil des im Projekt Content Sharing entwickelten Modul- 293 editors [Me06]. Das Anpassungstool wurde in Form eines Wizards umgesetzt, der Benutzer schrittweise durch eine von ihnen gewählte Anpassung führt. Dabei erhalten Benutzer Hinweise, wie sie eine Anpassung durchzuführen haben. Dort wo es möglich ist, wird außerdem eine Automatisierung der zur Durchführung der Anpassung nötigen Tätigkeiten angeboten. Der Wizard beruht auf den eben erwähnten Patterns. Diese können von den Experten mittels eines einfachen Eingabewerkzeuges erstellt werden. Dieses Werkzeug überführt die Patterns in eine XML Notation, die als Grundlage für eine Reihe von Informationen dienen, die im Wizard angezeigt werden. Beispielsweise werden der Name und eine Kurzbeschreibung des aktuell dargestellten Anpassungsschrittes im oberen Bereich der Seiten des Wizards aus den Informationen generiert, die in den Patterns abgelegt sind. Auch der Ablauf einer Anpassung sowie Abhängigkeiten zwischen unterschiedlichen Anpassungen sind in den Patterns ausgedrückt und werden vom Tool berücksichtigt. Das Anpassungstool unterstützt derzeit 5 Anpassungen: Übersetzung, Anpassung an ein verändertes (Corporate) Design, Anpassung, um eine druckoptimierte Version zu erhalten, Terminologieanpassung und Anpassung, um eine barrierefreie Version zu erhalten. Von diesen Anpassungen sind 4 teilweise automatisiert. Lediglich zur Anpassung an Barrierefreiheit existiert momentan noch keine automatisierte Unterstützung. Diese ist aber für die Zukunft geplant ebenso wie die Erweiterung des Tools um zusätzliche Anpassungen, die bisher nicht berücksichtigt wurden. Danksagung Das diesem Beitrag zugrunde liegende Forschungsprojekt Content Sharing wurde mit Mitteln des Bundesministeriums für Wirtschaft und Technologie gefördert. Literaturverzeichnis [Me06] Meyer, M. et al.: Requirements and Architecture for a Multimedia Content Re-purposing Framework. Proceedings of First European Conference Technology Enhanced Learning (EC-TEL), 2006. [ZRS06a] Zimmermann, B., Rensing, C., Steinmetz, R.: Formatübergreifende Anpassungen von elektronischen Lerninhalten. Proceedings of DeLFI 2006: 4. e-Learning Fachtagung Informatik, Darmstadt 2006. S. 15 – 26. [ZRS06b] Zimmermann, B., Rensing, C., Steinmetz, R.: Patterns for Tailoring E-Learning Materials to Make them Suited for Changed Requirement. Proceedings of VikingPLoP 2006, Helsingör 2006. 294 Werkzeuggestützte Untersuchung der Vorgehensweisen von Lernenden beim Lösen algorithmischer Probleme Ulrich Kiesmüller, Torsten Brinda Didaktik der Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Martensstraße 3 91058 Erlangen {ulrich.kiesmueller, torsten.brinda}@informatik.uni-erlangen.de Abstract: Um Lernende der Sek. I beim Lösen algorithmischer Probleme unter Verwendung von Lern- und Programmierumgebungen besser zu unterstützen, wird untersucht, inwieweit deren Vorgehensweisen automatisch erfasst und bewertet werden können, mit dem Ziel die eingesetzten Umgebungen lernergerechter zu gestalten. Dazu wurde für die Umgebung Kara Aufzeichnungs- und Diagnosesoftware entwickelt und in empirischen Vorstudien auf ihre Praxistauglichkeit hin untersucht. 1 Motivation und Ziel Die in der Sekundarstufe I in der Informatikanfangsausbildung eingesetzten Systeme zum Erlernen algorithmischer Grundkonzepte (z. B. Karol, Kara) geben den Lernenden nicht an deren individuelle Vorgehensweisen angepasste, oft rein „technische“, wenig schülergeeignete Fehlermeldungen aus. Die Hypothese für das hier skizzierte Forschungsprojekt lautet, dass sich die eingesetzten Lern- und Programmierumgebungen bei genauerer Kenntnis der individuellen Vorgehensweisen bei der Bearbeitung algorithmischer Problemstellungen besser an die Bedürfnisse der Lernenden anpassen lassen. Untersuchungen zu den Vorgehensweisen von Programmieranfängern fanden bislang überwiegend auf Hochschulebene statt (z. B. [Hu06]). Hierbei wurde häufig mit Videoaufzeichnungen gearbeitet, die nachträglich aufwändig manuell ausgewertet werden mussten, um das jeweilige Vorgehen zu analysieren. Um sowohl zu quantitativen als auch zu qualitativen Aussagen zu gelangen, werden im Rahmen der hier vorgestellten Studie einerseits Aufzeichnungs- und Diagnosesoftware konzipiert und entwickelt und andererseits Einzelinterviews mit Lernenden zu ihren spezifischen Vorgehensweisen durchgeführt. Angestrebt wird, automatisch diagnostizierte Vorgehensweisen von Lernenden für die Gestaltung von individualisierten Systemrückmeldungen zu verwenden. 2 Entwicklung von Aufzeichnungs- und Diagnosesoftware Grundlage für die ersten Arbeiten bildete die Lernumgebung Kara [Re03]. Für die automatisierte Erfassung quantitativer Daten wurde in einem ersten Schritt eine Aufzeich- 295 nungssoftware (TrackingKara) entworfen und implementiert, die den zeitlichen Verlauf aller relevanten Aktionen eines Lernenden für diesen unsichtbar in einer Textdatei protokolliert. Hierzu wurde vom Kara-Team (insbesondere R. Reichert) eine spezifische Programmschnittstelle bereitgestellt, wofür die Autoren herzlich danken. Aufgezeichnet werden alle Aktionen, die die Weiterentwicklung und die Ausführungsversuche eines Kara-Programms durch den Lernenden dokumentieren. Endet ein Ausführungsversuch eines Kara-Programms mit einer Fehlermeldung, so wird auch diese protokolliert zusammen mit der Information, wie die Bearbeitung anschließend fortgesetzt wird. Um einerseits die Vorgehensprotokolle einzelner Lernender grafisch aufbereitet (z. B. relevante Ausbaustufen des Kara-Programms, Aktionen im Zeitverlauf) analysieren zu können und um andererseits kumulative Aussagen über die Verläufe mehrerer Probanden treffen zu können, wurde eine zusätzliche Diagnosesoftware (EvalKara) entwickelt und implementiert, in der die Protokollinformationen in einer Datenbank verwaltet werden. 3 Erste Untersuchungen, Ergebnisse und Ausblick Im 1. Halbjahr 2007 wurde die Praxistauglichkeit der entwickelten Analyse- und Diagnosesoftware in Fallstudien untersucht. Hierbei nahmen in Einzelfallstudien ca. 10 Personen mit sehr unterschiedlicher informatischer Vorbildung (keine bis erhebliche) sowie ca. 100 Lernende aus der Jgst. 7 des bayerischen Gymnasiums teil. Hierbei zeigte sich, dass durch die Aufzeichnung der zeitlichen Veränderung der Anzahl der Programmelemente sowie der gewählten Aktionen Schlussfolgerungen im Hinblick auf Vorgehensmuster (z. B. evolutionäres/Versuch-Irrtum-Verfahren, strategisches Vorgehen) möglich sind. Erkenn- und bewertbar ist weiterhin, wie viel Zeit ein Lernender mit welchen Aktivitäten (Editieren von Zuständen und Übergängen, der Modellwelt, Ausführen) verbringt sowie Fehlerart und -häufigkeit pro untersuchter Aufgabenstellung. Die Qualität des erreichten Bearbeitungsergebnisses eines Lernenden wird durch systemunterstützte Überprüfung der Lösung für vorgegebene Testdaten erfasst. Hier ist im Weiteren noch ein Abgleich mit den Erkenntnissen aus dem Bereich der automatischen Überprüfung von Programmieraufgaben geplant. In weiteren Arbeiten soll die Erfassung der Vorgehensweisen verfeinert und mit Empfehlungen für die Lernenden verknüpft werden. Hierzu ist auch der Einsatz weiterer Lern- und Programmierumgebungen geplant. Die Auswirkung der Einbindung der Empfehlungen in die Software auf die Lernprozesse ist Gegenstand weiterer empirischer Arbeiten. Literaturverzeichnis [Hu06] [Re03] 296 Hundhausen, C. D.: A Methodology for Analyzing the Temporal Evolution of Novice Programs Based on Semantic Components. In: Proceedings of ICER '06, ACM Press, New York, 2006, pp. 59-71. Reichert, R.: Theory of Computation as a Vehicle for Teaching Fundamental Concepts of Computer Science. Dissertation 15035, ETH Zürich, 2003. Ein prozessorientiertes und dienstbasiertes Sicherheitsmodell für elektronische Prüfungen an Hochschulen Andreas Hoffmann Fachgruppe Betriebssysteme / verteilte Systeme Universität Siegen, Hölderlinstraße 3, 57068 Siegen andreas.hoffmann@uni-siegen.de Abstract: Dieser Beitrag beschreibt ein Sicherheitsmodell für elektronische Prüfungen an Hochschulen. Das Konzept basiert auf einer prozessorientierten Sicht, das die Schutzmechanismen für elektronische Prüfungen in Abhängigkeit ihrer Geschäftsprozesse betrachtet. Denn der Schutzbedarf der einzelnen Prozesse bestimmt das Niveau der anzuwendenden Sicherheitsmaßnahmen. 1 Sicherheitsanforderungen an elektronische Prüfungen Elektronische Prüfungen werden mittlerweile an vielen Hochschulen erfolgreich eingesetzt. Die einzelnen Prozessphasen sind die Prüfungsvorbereitung (Planung, Erstellung), Prüfungsdurchführung (Durchführung, Auswertung) und die Prüfungsnachbereitung (Einsicht, Archivierung). Elektronische Prüfungssysteme bestehen häufig aus einzelnen Komponenten wie Autorensystem, Nutzer- und Klausurverwaltung, einer Durchführungskomponente sowie einer Auswertungskomponente, die diese Prozesse abbilden. Was bei der Umsetzung der bisherigen elektronischen Prüfungssysteme nur unzureichend betrachtet wurde, sind die unterschiedlichen Sicherheitsanforderungen, die an die einzelnen Prozessphasen einer elektronischen Prüfung gestellt werden. Dazu zählen vor allem die Authentizität der Prüfungsteilnehmer, die Verbindlichkeit der Prüfungsangaben (Nichtabstreitbarkeit), die Betrugssicherheit, Anonymität, Integrität, Vertraulichkeit und die Verfügbarkeit. Die Sicherheitsanforderungen an elektronische Prüfungen sind abhängig vom Einsatzzweck der Prüfung [St06]. Grundsätzlich unterscheidet man Prüfungen in summative (bewertete Klausuren) und formative Prüfungen (Selbsttests, etc.), wobei den summativen Prüfungen eine juristische Bedeutung zukommt. Hierbei sind die eindeutige Authentifizierung der Teilnehmer und die Verbindlichkeit der Prüfungsangaben Voraussetzung für eine rechtssichere Durchführung. Bei formativen Prüfungen hingegen wird eine anonyme Durchführung gefordert. Auch bei der Auswertung ergeben sich Unterschiede: Die Auswertung der formativen Prüfungen wird dem Teilnehmer unmittelbar nach der Prüfung mitgeteilt. Bei den summativen Prüfungen hingegen, muss dem Prüfenden u.a. die Möglichkeit zur Nachkorrektur gegeben werden. Die Nachbereitung einer summativen 297 Prüfung beinhaltet die Klausureinsicht durch den Teilnehmer und die Archivierung der Prüfung für mindestens 5 Jahre. Für formative Prüfungen dagegen existiert keine Archivierungspflicht. 2 Ein Sicherheitsmodell für elektronische Prüfungen Ziel ist es, ein Sicherheitsmodell zu entwickeln, das die Sicherheitsdienste in Abhängigkeit des jeweiligen Prozesses der entsprechenden Prüfungsart zur Verfügung stellt (siehe Abb.1). Ein solches dienstbasiertes Konzept erlaubt es Sicherheit adaptiv zu gestalten. Ein Beispiel sind die verschiedenen Formen der Authentifizierung. Je nach Anwendungszweck kann die Authentifizierung mittels Passwort oder TAN oder durch Besitz und Wissen (Zweifaktor-Authentifikation) mittels Smartcard realisiert werden. Welche Authentifizierungsart verwendet wird, ist abhängig von der Prüfungsart und von dem entsprechenden Prozess. Elektronisches Prüfungssystem N utzer -/Klausur verw altung Autorentools Externe Werkzeuge D urchführungs komponente - Ausw ertungs komponente Archivierungs komponente - Text verarbeitung SPSS Tabellen kalkulation ... Sicher heitsmodell nutzen Sicherheitsdienste - Authentifizierung - D atenintegrität - Verbindlichkeit - Anonymität - Betrugssicherheit - Verfügbarkeit - Vertraulichkeit verwenden Sicherheitsmechnismen - C lustering / Load - Balancing - Qualif . digitale Signaturen erzeugen / prüfen / anw enden - Zugriffskontrollmechanismen - Prüfungsumgebung definieren - H ashw erte erzeugen /prüfen - ver -/entschlüsseln - Anonymisierungsmechanismen werden angewendet auf Sicherheitsobjekte (Prüfungsfragen , Benutzer -D aten , Prüfungsangaben Teilnehmer , Zertifikate , etc .) Abbildung 1: Sicherheitsmodell für elektronische Prüfungen Die Sicherheitsobjekte sind die Objekte, die einer möglichen Bedrohung ausgesetzt sind. Die Sicherheitsobjekte werden durch Sicherheitsmechanismen geschützt. Die Sicherheitsdienste verwenden diese Mechanismen in Abhängigkeit von der Durchführungsart der Prüfung (online, offline), der verwendeten Prüfungsart und des jeweiligen Prozesses. Die externen Werkzeuge können durch die einzelnen Komponenten des Prüfungssystems genutzt werden. Dadurch sind z.B. Werkzeuge die während der Lehrveranstaltung eingesetzt werden, auch für die Prüfungsdurchführung einsetzbar. Literaturverzeichnis [St06] 298 Steinberg, M.: Organisatorisches Konzept für Online-Prüfungsverfahren – Ein Stufenmodell für die Realisierung von Online-Assessment, http://www.sra.unihannover.de/fileadmin/uploads/Mitarbeiter/Steinberg/Publikationen/ AP7_Org_Konzept_screen_V1.pdf, 2006 Zur Unterstützung kontextadaptiven E-Learnings in Echtzeit am Arbeitsplatz durch maschinelles Lernen auf Sensorendaten des Computerdesktops Robert Lokaiczyk, Eicke Godehardt, Manuel Görtz, Andreas Faatz SAP Research CEC Darmstadt Bleichstr. 8 64283 Darmstadt, Germany {robert.lokaiczyk, eicke.godehardt, manuel.goertz, andreas.faatz}@sap.com Abstract: Die Zielsetzung einiger aktueller E-Learning-Ansätze ist die Unterstützung des Lerners direkt am Arbeitsplatz während des tatsächlichen Arbeitsprozesses. Wir verfolgenden diesen Ansatz des Echtzeit-E-Learnings, bei dem dem Nutzer spezifische Lernressourcen passend zum aktuellen Bedarf in der elektronischen Arbeitsumgebung angeboten werden. Ein zentraler Erfolgsfaktor für diesen aufgabenorientierten E-Learning-Ansatz ist der Kontext des Nutzers. Um dem Nutzer passende Lernressourcen bereitzustellen, die sowohl auf den Bedarf abgestimmt als auch hilfreich sind, bedarf es daher immer der Betrachtung der aktuellen Arbeitssituation, der Kompetenzen und der Historie des Nutzers. Hier stellen wir eine Architektur zur Vorhersage der Arbeitsaufgabe am elektronischen Arbeitsplatz vor, welche auf maschinellen Lernverfahren beruht und diskutieren die Integration des Verfahrens in unsere E-LearningUmgebung. Das Ziel des E-Learning-Systems APOSDLE1 (siehe [LLM05]) ist die Steigerung der Produktivität des Wissensarbeiters durch die Integration von Lernen und Lehren in den Arbeitsprozess. Der traditionelle Ansatz des “auf Vorrat Lernens” und später (möglicherweise nie) Anwenden scheint der heutigen dynamischen Unternehmenswelt nicht mehr angemessen und sollte durch ein arbeitsplatz-integriertes Lernparadigma ersetzt werden. APOSDLE zielt darauf ab, verschiedene Rollen des Nutzers zu integrieren. So kann zum Beispiel der erfahrene Benutzer als informeller Lehrer in Form einer elektronischen Kontaktmöglichkeit zur Verfügung stehen. Es besteht die Möglichkeit den Informationsaustausch während der Kollaboration zwischen Lerner und Lehrer mit Metainformation anzureichern und selbst als eigene Lerneinheit abzuspeichern und später anzubieten. Dadurch muss Lernmaterial nicht mehr zeitaufwendig und kostenintensiv erstellt werden. Der Lerner vertraut informellem Lernmaterial in Form von Dokumenten, welches genau auf den Arbeitsschritt abgestimmt ist, den dieser gerade erledigen will. Um diesen und weitere Aspekte der Integration des Lernens und Arbeitens zu unterstützen, muss das APOSDLE sich immer der aktuellen Arbeitsaufgabe des Lerners bewusst sein. Diese Information soll unaufdringlich und automatisch vom Arbeitsplatz erhoben werden. Wir verwenden dazu systemnahe Desktopereignisse und prüfen die Anwendbarkeit 1 APOSDLE ist teilweise gefördert durch das 6. Rahmenprogramm (FP6) für Forschung und Entwicklung der Europäischen Kommission im Information Society Technologies“ (IST) Arbeitsprogramm 2004 unter der Ver” tragsnummer IST-027023. 299 maschineller Lernverfahren zur Vorhersage der aktuellen Nutzeraufgabe (Task). Als Hypothese wird dabei angenommen, dass die aufgezeichneten Sensordaten der Bildschirmarbeit gute Indikatoren für die Abarbeitung eines abstrakter definierten Arbeitsschrittes darstellen. Denn diese technisch automatisch erfassten, systemnahen Ereignisse, welche sich aus der Nutzerinteraktion und dem Systemstatus ergeben, dienen später als Eingabedaten für Vorhersagealgorithmen. Die Kontextinformation wird zumeist durch sogenannte Softwarehooks – auf Betriebssystemebene operierende Funktionen – erfasst. Zum Beispiel wird beim Auslösen eines Mausklicks die betroffene Anwendung über eine Systemnachricht informiert. Der APOSDLE Kontextmonitor fängt die betreffende Nachricht durch das Setzen eines Softwarehooks mittels einer Kernel-Funktion in die Nachrichtenwarteschlange ab um sie dann nach der Aufzeichnung dieses Ereignisses unverändert an die Zielanwendung weiterzuleiten. Dadurch kann dieser systemnahe Benutzerkontext im Vergleich zu anderen Ansätzen ohne Einschränkung für den Anwender erfasst werden. Das Problem der automatischen Taskbestimmung anhand von Systemindikatoren kann dann als Aufgabe des maschinellen Lernens (ML) aufgefasst werden. Bei der ersten Benutzung des APOSDLE-Systems ist die Anwendung untrainiert und der Benutzer muss seinen aktuellen Task aus einer vordefinierten Liste an Arbeitsaufgaben auswählen (manuelle Bestimmung). Während des Arbeitsprozesses zeichnet der APOSDLE Kontextmonitor die Ereignisse am Computerdesktop auf, welche die Nutzerinteraktionen reflektieren. Dies inkludiert zum Beispiel Tastatureingaben, Programmstarts und die Textrepräsentation von geöffneten und bearbeiteten Dokumenten. Auf diese Weise wird kategorisiertes Trainingsmaterial des Nutzerarbeitsprozesses gewonnen, welches mit dem Tasknamen als Kategoriebezeichner versehen wird. Sobald genug Trainingsmaterial gewonnen wurde, wird daraus ein ML-Modell des Nutzertask automatisch abgeleitet. Im optimalen Fall wird dann eine manuelle Auswahl des Task durch den Nutzer überflüssig, da die Taskvorhersage aus dem gewonnenen Modell anhand des permanent aufgezeichneten Ereignissstroms des Desktops den richtigen, aktuellen Task bestimmen kann (automatische Bestimmung). Sobald die Taskvorhersage dann einen Taskwechsel bemerkt, werden durch die integrierte APOSDLE E-Learning-Umgebung kontextualisierte Lernmaterialien angeboten, welche auf den aktuellen Task abgestimmt sind. Eine Evaluation der Vorhersagegüte auf einem domänenspezifischen Prozess unter Anwendung eines automatischen Lernverfahren aus dem Bereich Support Vector Machines lieferte vielversprechende Ergebnisse. Dennoch muss das Konzept sich noch in größeren Nutzertests beweisen. Darunter sollten verschiedene inhaltliche Anwendungsdomänen und Arbeitsprozesse genauso getestet werden wie Nutzer mit unterschiedlichen Erfahrungsstufen und Kompetenzen. Über den Projektfortschritt hält die Webseite www.aposdle.org auf dem Laufenden. Literaturverzeichnis [LLM05] S. N. Lindstaedt, T. Ley und H. Mayer. Integrating Working and Learning with APOSDLE. In Proceedings of the 11th Business Meeting of Forum Neue Medien, 10-11 November 2005, Vienna. Verlag Forum Neue Medien, 2005. 300 CLab – Eine web-basierte interaktive Lernplattform für Studierende der Computerlinguistik Simon Clematide, Michael Amsler, Sandra Roth, Luzius Thöny, Alexandra Bünzli Institut für Computerlinguistik Universität Zürich Binzmühlestr. 14 8050 Zürich {siclemat,mamsler,sroth,lthoeni,buenzli}@cl.uzh.ch Das CLab1 ist eine mittlerweile 3 Jahre im Einsatz stehende Lernplattform für die Studierenden des Fachs Computerlinguistik. Sie geht aus einem früheren Projekt [CH03] hervor, das aus einer E-Learning-Initiative der Universität Zürich [Se03] entstanden ist, und wird laufend von Studierenden im Rahmen von Hilfsassistenzen weiterentwickelt. Inhaltlich lässt sich das CLab als eine Sammlung von thematisch selbstständigen Modulen beschreiben zu Themen wie „Reguläre Ausdrücke“, „Tokenisierung“, „Chunking“ oder „Satzähnlichkeit“. Diese Module werden Lerneinheiten genannt. Jede Lerneinheit basiert auf einem Lehrtext (PDF), welcher die inhaltliche Grundlage bildet. Er kann ausgedruckt, durchgearbeitet und leicht durchsucht werden. Letzteres hat eine UsabilityStudie mit 5 Probanden zu 2.5h als nützliches Feature bestästätigt. Eine Pilot-Migration des Inhalts vom eigenen „troff“-basierten Publikation-System in das XML-basierte Format <ML>3 (Multidimensional Learning Objects and Modular Lectures Markup Language)2 wird im 2007 durchgeführt. Nebst der Eignung für multimediale Inhalte ist insbesondere die Modellierung von Stofftiefe (Dimension der Intensität) für benutzeradaptiveres E-Learning interessant. Die interaktivsten Bausteine des CLab sind die Lernapplikationen (ILAP). Diese bieten den Lernenden die Möglichkeit, an realistischen Problemstellungen ein Thema in einer einfachen, webbrowser-basierten Umgebung und daher ohne technische Installationshürden zu bearbeiten. Studierende können so Methoden und Instrumente der Computerlinguistik ausprobieren und ihre erworbenen Kenntnisse in die Praxis umsetzen. Dies ist inspiriert vom Ansatz des Problem-Based Learning [Sa06], wo die Lernenden mit konkreten Problemen konfrontiert werden, ihnen aber kein exakter Lösungsweg aufgezeigt wird. Hingegen werden die Mittel und Instrumente zur Verfügung gestellt, welche zur Lösung des Problems angewendet werden sollen. Die Lernenden sollen die ILAP zum explorativen Experimentieren mit Lösungsansätzen nutzen. Bei der Weiterentwicklung der ILAP hat uns die neuere Tradition der „Shared Tasks“ inspiriert, welche in der Forschungsmethodik der Sprachtechnologie eine innovative und antreibende Form geworden ist. Bei diesen wissenschaftlichen Wettbewerben werden 1 2 http://www.cl.uzh.ch/clab Vergleiche dazu die Leitseite http://www.ml3.org. 301 konkrete Aufgaben 3 gestellt wie „Erkennung von Eigennamen“, zu denen die Veranstalter annotierte und validierte Daten zur Systementwicklung anbieten. Die Leistung der teilnehmenden Systeme wird dann an Testdaten evaluiert und verglichen. Analog dazu werden in einigen ILAP automatische quantitative Evaluationen gemacht, deren Ergebnisse erlauben, sich an anderen Lernenden zu messen oder eine bestimmte Vorgabe zu erreichen. Weiter gibt es interaktive Selbstevaluationen, die den Studierenden den Stand ihrer Lernphase rückmelden: Die von uns entwickelten Satzergänzungstests (SET) erlauben ein automatisches Kommentieren von Texten, welche die Lernenden aus Textbausteinen inkrementell auswahlgesteuert kombiniert haben. Sie erhalten dabei adäquate Kommentare, die sich aus den verwendeten Bausteinen berechnen. Damit lassen sich differenziertere Zwischenstufen als nur „falsch“ und „korrekt“ erfassen und rückmelden. Zu allgemeine oder zu spezifische Verständnisse von Begriffen lassen sich diagnostizieren und korrigieren. So erfahren die Lernenden, welche Teile des Lernstoffes sie können und welche Teile sie repetieren sollen. Zum Erstellen der SET haben wir ein graphisches Authoringtool entwickelt, das dem Test-Autor den komplexen Aufbau eines SET visualisiert und komfortable Such-, Editier- und Konsistenzüberprüfungsfunktionen anbietet. Schliesslich bietet das CLab als zweite Form der Selbstevaluation klassische Multipleund Single-Choice-Tests an. Zusätzlich ist es den Lernenden möglich, über ein einfaches Web-Interface eigene Tests zu verfassen, die (nach Überprüfung) anderen Lernenden zur Verfügung stehen. Nebst den oben erwähnten Grundlagentexten und den interaktiven Elementen enthält das CLab direkte Verknüpfungen zu Einträgen des institutseigenen Glossars, einer häufig genutzten Online-Ressource. Das CLab ist somit ein Portal für Inhalte und Aktivitäten, welche durch diese Schnittstelle einheitlich präsentiert, integriert und thematisch verknüpft werden. Das CLab wird im Sinne des „blended learning“ in Zukunft noch vermehrt in den Übungsbetrieb von Vorlesungen eingebunden, dessen Bedeutung mit der Einführung des Bologna-Systems an der Universität Zürich gewachsen ist. Literaturverzeichnis [CH03] Kai-Uwe Carstensen and Michael Hess. Problem-based web-based teaching in a computational linguistics curriculum. Linguistik Online, 17:7–22, 2003. [Sa06] John R. Savery. Overview of problem-based learning: Definitions and distinctions. The Interdisciplinary Journal of Problem-based Learning, 1(1):9–20, 2006. [Se03] Eva Seiler-Schiedt. E-Learning-Strategie - vier Jahre Erfahrung an der Universität Zürich. SWITCHjournal, 1:23–25, 2003. 3 Vergleiche dazu etwa die Leitseite der „Conference on Computational Natural Language Learning (CoNLL) http://www.cnts.ua.ac.be/conll/, welche seit 1999 jährlich solche Wettbewerbe organisiert. 302 E-Learning als ein Baustein der Hochschul- und Fakultätsentwicklung der Fachhochschule Kaiserslautern Simone Grimmig Fachhochschule Kaiserslautern | e-Learning Support-Einheit (e-LSE) Amerikastr. 1 66482 Zweibrücken simone.grimmig@fh-kl.de 1 Einleitung Die erfolgreiche und nachhaltige Integration neuer Medien in die Lehre ist für die Weiterentwicklung und Zukunftsfähigkeit der Fachhochschule Kaiserslautern (FH-KL) von großer strategischer Bedeutung, gerade auch im Hinblick auf die stetig wachsenden Anforderungen zur Wahrung der nationalen und internationalen Wettbewerbsfähigkeit und der kontinuierlichen Verbesserung der Lehrqualität. Um diese Entwicklung zu unterstützen wird von Seiten der Hochschulleitung eine integrierte (hochschulinterne und hochschulübergreifende) Doppel-Strategie, mit dem Ziel der nachhaltigen Medienentwicklung und durchgängigen Mediennutzung, verfolgt, die gemeinsam mit der eLearning Support-Einheit (e-LSE) umgesetzt und weiterentwickelt wird. 2 Hochschulinterne und hochschulübergreifende Strategie Der Aufbau lokaler Support-Strukturen durch die Etablierung einer e-LSE als erster Schwerpunkt der integrierten Doppel-Strategie schafft hochschulintern alle Voraussetzungen, um eine höchstmögliche Akzeptanz unter den Dozierenden der FH-KL zu erreichen und die bestmöglichen Rahmenbedingungen für den Einsatz und die Integration neuer Medien in der Lehre aufzubauen. Die e-LSE als eine zentrale Einrichtung der FHKL bietet breitgefächerte kostenfreie Dienstleistungen an. Interessierte Dozierende der FH-KL können kollektive und individuelle Beratungsleistungen sowie eine Vielzahl von Schulungs- und Weiterbildungsangeboten zum Auf- und Ausbau von E-Kompetenzen wahrnehmen. Zusätzlich stellt ein umfangreiches Service-Angebot, wie Bereitstellung mobiler Hard-/Softwaretechnologien, Realisierungsbegleitung von E-Learning-Projekten und Vor-Ort-Betreuung, eine erfolgreiche Umsetzung der einzelnen Vorhaben sicher. Studierende werden im Rahmen der sog. Semestereinführungstage in der Benutzung der zentralen Lernplattform durch die e-LSE geschult. Zudem steht für sie während des gesamten Studiums ein Forum für asynchrone Support-Anfragen zur Verfügung. Das Projekt „Kompetenzentwicklung für den Einsatz neuer Medien in der Fachhochschullehre“ (KE-FH) ist ein vom Land Rheinland-Pfalz gefördertes Verbund-Projekt an dem sich die FH-KL (in Kooperation mit weiteren Fachhochschulen und dem Virtuellen 303 Campus Rheinland-Pfalz (VCRP)) beteiligt und stellt den zweiten Schwerpunkt der integrierten Doppel-Strategie der FH-KL dar. Das Projektziel besteht in der flächendeckenden Ausweitung des Einsatzes neuer Medien in der Lehre. Die im Projektteam von einzelnen Arbeitsgruppen entwickelten Werkzeuge, Wissens- und Erfahrungsbestände werden in einen großen Ressourcen-Pool eingestellt, aus dem sich die Projektbeauftragten der beteiligten Fachhochschulen zur lokalen Weiterverwendung bedienen können. Somit werden erhebliche Synergieeffekte generiert und ein optimaler Erfahrungs- und Wissensaustausch zwischen den Fachhochschulen ermöglicht und gefördert. 2.1 Ready for E-Learning „Ready for E-Learning“ als ein Produkt des KE-FH-Projektes ist eine 6-wöchige praxisbezogene hochschulübergreifende Weiterbildungsmaßnahme für Fachhochschullehrende, die sich intensiv mit den grundlegenden Themen des E-Learnings auseinandersetzt. Das Programm vermittelt E-Learning-Basisinformationen anhand eines integrativen Gesamtkonzeptes. Onlinephasen werden mit einigen speziellen Präsenzlernkomponenten ergänzt. Der Schwerpunkt des Programms liegt auf einem asynchronen Lehr-/Lern- und Kommunikationsprozess. 2.2 Interne und externe Vernetzung und Kooperation Begrenzte Ressourcen erfordern bei einer geplanten flächendeckenden und langfristig orientierten Integration neuer Medien in die Lehre, den Aufbau umfassender Kooperationsnetzwerke, zur Erzielung eines höchstmöglichen Synergieeffekts und Informationsaustauschs. Durch die strategische hochschulleitungsnahe Verankerung der e-LSE kann eine zentrale Schnittstellen-Funktion zum Zwecke einer optimierten Vernetzung und Kooperation mit anderen (internen/externen) Einrichtungen wahrgenommen werden, die Zugriff auf einen umfassenden Ressourcenpool ermöglicht und zusätzlich die ELearning-Strategie der eigenen FH in die landesweite Multimedia-Strategie integriert. 3 Weitere strategische Schritte und Ausblick Nach dem Auf- und Ausbau lokaler Support-Strukturen und der Entwicklung des hochschulübergreifenden Weiterbildungsprogramms müssen nun weitere Mechanismen (z.B. Zielfestlegung/-vereinbarungen, Schaffung von Anreizstrukturen) entwickelt werden, die eine permanente Nutzung der neuen Medien in der Lehre gewährleisten und somit zu einer kontinuierlichen Weiterentwicklung der FH-KL beitragen. Darüber hinaus sollen die einzelnen Fachbereiche bei der Integration neuer Lehr-/Lernformen durch Umsetzung von, mit Hochschulleitung, Fachbereichen und e-LSE gemeinsam entwickelter, fachbereichsspezifischer/-definierter Programme zur Kompetenzentwicklung im Prozess der Fakultätsentwicklung unterstützt werden. 304 E-Learning in der Sekundarstufe II – Evaluation eines Modellversuchs an sportbetonten Gymnasien Thomas Köhler (1), Jens Drummer (2), Claudia Börner (1) (1) Technische Universität Dresden, Media Design Center Weberplatz 5, D-01062 Dresden Thomas.Koehler@tu-dresden.de (2) Sächsischer Bildungsserver / Sächsisches Bildungsinstitut drummer@www.sn.schule.de 1 Darstellung des Schulversuches In Sachsen existieren sechs Spezialschulen für Schüler mit besonderen Fähigkeiten im sportlichen Bereich. Für Schüler, die während der Schulzeit regelmäßig an sportlichen Aktivitäten wie Trainingslehrgängen und Wettkämpfen teilnehmen, musste eine Möglichkeit geschaffen werden, um den versäumten Schulstoff nachzuholen. Im Jahr 2004 wurde daher der Schulversuch „E-Learning an sportbetonten Schulen“ gestartet1 um mit dem Einsatz von E-Learning die Qualität des Lernens zu verbessern. Im Rahmen des Schulversuches werden zwei Lernplattformen eingesetzt (WebCT und BSCL2) und den Schulen als zentrale Installationen auf dem Sächsischen Bildungsserver zur Nutzung bereitgestellt. Der Schulversuch teilte sich in drei Phasen über je ein Schuljahr (Erstellung von Lehrinhalten, Testlauf an ausgewählten Schulen und Überführung in den Regelbetrieb). Dabei wurden im Zeitraum 2004 - 2006 insgesamt 16 Kurse unterschiedlicher Fächer für die sportbetonten Gymnasien entwickelt, die schrittweise einer Nutzung zugeführt werden. 2 Evaluation des Modellversuchs Die wissenschaftliche Begleitung des Schulversuches wird im Zeitraum 2005-2007 durch das Media Design Center der Technischen Universität Dresden ausgeführt3. Zweck der wissenschaftlichen Untersuchung war und ist zu prüfen, ob das Hauptziel des Schulversuches - die Verbesserung der unterrichtlichen Unterstützung für sportlich stark belastete Schüler an sportbezogenen Schulen durch den Einsatz von E-Learning - in einem ökonomisch vertretbaren Rahmen erreicht wird. Weiterhin sollte die Untersuchung feststellen, inwieweit die Arbeit mit Onlinelernumgebungen die Selbstlernkompetenz der Schüler verbessert. Die Evaluation ist als Längsschnitt angelegt und in 2 Schritte aufgeteilt. Schritt 1 (2005/06) umfasst die erste Datenerhebung und Vorbereitung der begleitenden Evaluation. Dazu gehört die Datenerhebung zur Analyse der Situa1 2 3 http://www.sn.schule.de/index.php?auswahl=elearn&u_auswahl=eleas http://www.webct.com und http://bscl.fit.fraunhofer.de/ http://tu-dresden.de/ unter Forschung und Projekte 305 tion vor dem Einsatz von E-Learning im Rahmen von ELeaS. Schritt 2 (ab 2006/07) umfasst die sogenannte begleitende Evaluation, d.h. die Datenerhebung und Auswertung, einschließlich notwendiger Tests und Anpassung der Fragebögen, zur Bestimmung der Veränderung in Bezug auf die erzielte unterrichtliche Verbesserung, die erworbene Selbstlernkompetenz, die Mediennutzung und -kompetenz sowie den ökonomischen Aufwand. Die Bestimmung der unterrichtlichen Verbesserung hat das Ziel, zu ermitteln, ob neben den in der Ausschreibung aufgeführten zwei Problemen (keine unmittelbaren Rückkopplungsmöglichkeiten und zeitliche Entfernung zum eigentlichen Unterrichtsthema) weitere Probleme bestehen, die für die gegenwärtig unbefriedigende Situation verantwortlich sind. Zu fragen war hier insbesondere nach Motivation, Strukturierung des Unterrichtsverlaufs, mangelnder Verfügbarkeit von Hilfsmitteln und nach Mängeln in der Aufarbeitung des Lehrstoffes, die durch das Medium Arbeitsblätter bedingt sind. Auf Basis der bisher vorliegenden Daten des ersten Erhebungszeitpunktes zeigt sich, dass auf keiner der unterschiedlichen Dimensionen des Selbstlernens (Selbststeuerung, Dozentenverhalten, intrinsische Motivation, extrinsische Motivation, Handlungsspielraum, Kognitive Strategie, Regulation) ein signifikanter Unterschied zwischen der Nutzung von Arbeitsblättern versus eLearning im Hinblick nachgewesen werden konnte. Insofern bedeutet das eLearning auf keinen Fall eine Verschlechterung der Unterrichtsqualität gegenüber dem Lernen mit Arbeitsblättern. Zudem wird bei der Arbeit mit Arbeitsblättern nur von 35% der Schüler bestätigt, dass im Falle eines Problems der Lehrer schnell zu erreichen ist. Auch betonen 36,3% der befragten Schüler, dass die gegenüber dem Unterricht zeitversetzte Nutzung der Arbeitsblätter mehr oder weniger problematisch sei. Insofern zeigt sich, dass die Unterrichtssituation beim Lernen im Trainingslager besonders anspruchsvoll ist. Auf die Frage „Was sind aus Ihrer Sicht die drei größten Probleme beim Lernen mit Arbeitsblättern?“ antworten alle befragten 256 Schüler! Allerdings ist relativierend anzuführen, dass bisher nur ein kleiner Teil (12,9%) der befragten Schüler mit ELearning-Modulen überhaupt in Berührung gekommen sind. Typisch sind für die Schüler-Lehrer-Kommunikation zudem eher als klassisch zu bewertende Kommunikationsformen (Fax zum Dokumentenaustausch, Telefon), das Internet spielt dabei (noch) keine wesentliche Rolle, Email für Kommunikation und Dokumentenaustausch wurden weniger als halb so häufig genannt, das Lernmanagementsystem nur ein mal. Ob es tatsächlich zu einer unterrichtlichen Verbesserung durch das eLearning kommt, kann erst durch den längsschnittlichen Vergleich beantwortet werden. Bei einer weiteren Differenzierung der beiden Lernmethoden nach dem Kaderstatus wird deutlich, dass mit höherem Kaderstatus (A) das Lernen mit E-Learning als auch das Lernen mit Arbeitsblättern als weniger anstrengend von den Schülern empfunden wird, als bei Schülern ohne oder mit geringerem Kaderstatus (C & D). Schließlich zeigt die Differenzierung der unterschiedlichen Schulstufen (10-13), dass die Anstrengung beim Lernen mit E-Learning mit zunehmender Schulstufe höher eingeschätzt wird. Bei dem Lernen mit Arbeitsblättern zeigt sich diese Systematik nicht. 306 E-Learning im Spannungsfeld Schule Jens Drummer drummer@www.sn.schule.de 1 Einsatzfelder von E-Learning in der Schule Der Nutzung von E-Learning, insbesondere die Verwendung von online basierten Lernplattformen, ist an Hochschulen und Universitäten weitestgehend in den Regelbetrieb überführt. Die Nutzung dieser online basierten Lernangebote verlangt von den Studenten neue Kompetenzen für das Lernen. Schüler müssen in der Schule auf diese neuen Lernformen vorbereitet werden. In einigen Schulen wird das online basierte Lernen schon jetzt auf der verschiedener Ansätze. Zum einen sind dies kollaborative Lernszenarien, in denen Schüler und Lehrer gemeinsam ein Thema bearbeiten und durch Kollaborationstechniken neues Wissen erwerben, zum anderen stehen Schülern aufbereitete Lernkomplexe in Lernplattformen zur Verfügung1. Die derzeit existierenden online basierten Lehr- und Lernumgebungen ermöglichen es, eine Vielzahl von didaktischen Szenarien umzusetzen. Es existiert bisher noch keine Lernplattform, welche in der Lage ist, die Vielfalt von möglichen Szenarien zu realisieren. Wesentlich bei der Auswahl der Lernplattform ist das Ziel, welches durch deren Einsatz verfolgt wird. 2 Sichten auf Lernumgebungen Die Erfahrung hat gezeigt, dass für die Anwendung in der Schule eine andere Sichtweise (als z. B. beim Einsatz in der universitären Lehre) auf die Lernplattformen sinnvoll ist. Bei der Sicht auf die Lernplattformen sollte vorrangig der pädagogische Nutzen der online basierten Lernplattform im Vordergrund stehen. Diese Sichten werden hier kurz beschrieben 2. Bisher wurden Lernumgebungen in der Regel nach dem technischen Realisierungen (vgl. [BHM02]) bzw. nach didaktischen Ansätzen (vgl. [SBH01]) unterschieden. Nutzen Schüler Lernplattformen, haben Sie eine – vom Lehrenden vorgegebene – eigene Sicht auf die Lernumgebung. 1 vgl. https://www.selgo.de/selgoportal/index.php und http://www.sn.schule.de/index.php?auswahl=elearn&u_auswahl=eleas 2 Eine ausführliche Beschreibung finden Sie unter: http://www.lernen-online.org/vortraege/delfi2007.pdf 307 Es eröffnet sich somit eine neue Sicht auf Lernumgebungen, die von der Person ausgeht, welche die Lerninhalte wahrnimmt. Grundlegend können zwei verschiedene Sichten auf die Nutzung von Lernplattformen unterschieden werden:  Sicht I: Primär kollaboratives System – Gruppenlernsystem (PKS): Lerner vertiefen und erweitern sowohl ihre Fähigkeiten und Fertigkeiten sowie ihre Kenntnisse durch Zusammenarbeit mit anderen Lernern;  Sicht II: Sekundär kollaboratives System – Individuallernsystem (SKS): Lerner vertiefen und erweitern sowohl ihre Fähigkeiten und Fertigkeiten als auch ihre Kenntnisse mithilfe der Lernplattform selbstständig. Diese beiden Sichten ergeben sich aus dem Blickwinkel der Lerner innerhalb der genutzten Lernplattformen. Während die Sicht II dem Schüler vorrangig die Lerninhalte präsentiert, er aber nur mittelbar Kontakt zu den anderen Lernern (welche den selben Stoff bearbeiten) aufnehmen kann, wird dem Schüler in Sicht I vordergründig den Blick auf die anderen Lerner innerhalb der Lernplattform eröffnet. Im Fokus der Sicht I steht die Kommunikation zwischen den Lernern während dieser Fokus bei der Sicht II auf eine individuelle Bearbeitung der Lerninhalte gerichtet ist. Beide Sichten stellen als Ziel die Wissensaneignung in den Vordergrund, welche jedoch auf unterschiedlichen Wegen erreicht werden soll. Während bei der Sicht I – die der Lerner wahrnimmt – die Notwendigkeit der selbstständige Wissensaneignung durch die gewählten Werkzeuge vorgegeben ist, wird beim Gruppenlernen (Sicht II) ein gemeinsames Lernen mit oder ohne Lehrersteuerung angestrebt. In beiden Sichten kann der Lehrende mehr oder weniger stark steuernd eingreifen, jedoch wird der Schüler beim Individuallernen (Sicht I) dazu angehalten, sich die Lerninhalte weitestgehend selbstständig anzueignen. Die Kommunikationstools, welche die Lernplattform bereitstellt, dienen bei dieser Sichtweise dem Hinterfragen von Problemen, während dieselben Tools bei der Sichtweise des Gruppenlernens dazu dienen, dass der Lerner sich Lerninhalte zusammen mit anderen Gruppenmitgliedern erarbeitet und diskutiert. Diese beiden Sichten sollen dem Lehrer helfen, die für das jeweils geplante Szenario richtige Lernplattform auszuwählen. Unterstützt eine Lernplattform beide Sichtweisen, ist es dem Lehrer so besser möglich, die eigenen Lehrinhalte zu planen und somit den Unterricht effizienter zu gestalten, da er sich in diesem Fall nicht mehr auf die technischen Basis sondern auf der didaktischen Umsetzung konzentrieren kann. Literaturverzeichnis [BHM02] Baumgartner, Peter; Häfele, Hartmut; Maier-Häfele, Kornelia: Evaluierung von Lernmanagement-Systemen. Theorie - Durchführung - Ergebnisse. In (Hohenstein, A. et al. Hrsg.): Handbuch E-Learning. Expertenwissen aus Wissenschaft und Praxis. Dt. Wirtschaftsdienst. Köln: Fachverlag Deutscher Wirtschaftsdienst, 2002. [SBH01] Seufert, Sabine; Back, Andrea; Häusler, Martin: E-Learning. Weiterbildung im Internet. Kilchberg: Smartbooks Publishing AG (= SMARTBOOKS); 2001. 308 Autorenverzeichnis A Amsler, Michael 301 B Baker, Ashraf Abu 79 Baumgartner, Peter 57 Bernstein, Abraham 103 Börner, Claudia 305 Brinda, Torsten 295 Bünzli, Alexandra 301 Büse, Daniel 221 C Clematide, Simon 301 D Dording, Carole 91 Drummer, Jens 305, 307 E Effelsberg, Wolfgang 33 Erren, Patrik 245 F Faatz, Andreas 269, 299 Fenske, Wolfram 185 Frankfurth, Angela 115 Fredrich, Helge 139 G Godehardt, Eicke 299 Görtz, Manuel 269, 299 Grimmig, Simone 303 Gruber, Clemens 233 Gurevych, Iryna 45 H Haake, Jörg M. 9 Hamborg, Kai-Christoph 233 Hampel, Thorsten 209, 221, 245 Hauske, Stefanie 103 Hermann, Christoph 151 Hoffmann, Andreas 297 Huerst, Wolfgang 151 I Iske, Stefan 21 K Ketterl, Markus 233 Kienle, Andrea 257, 269 Kiesmüller, Ulrich 295 King, Thomas 33 Köhler, Thomas 305 Kolbe, Harald 173 Kopf, Stephan 33 L Lampi, Fleming 33 Latocha, Johann 151 Lehmann, Lasse 139 Linckels, Serge 91 Lokaiczyk, Robert 269, 299 Lucke, Ulrike 197 M Meinel, Christoph 91 Mühlhäuser, Max 45 N Niehus, Dominik 245 Nikolopoulos, Alexander 173 309 O Ojstersek, Nadine 67 P Piotrowski, Michael 185 Probst, Malte 33 R Reinecke, Katharina 103 Rensing, Christoph 139, 293 Roth, Alexander 221 Roth, Sandra 301 S Sack, Harald 281 Schellhase, Jörg 115 Schulze, Leonore 233 Sprotte, René 221 Steimle, Jürgen 45 Steinbring, Marc 209 Steinmetz, Ralf 139, 293 310 T Tavangarian, Djamshid 197 Thomas, Ludger 127 Thöny, Luzius 301 Tillmann, Alexander 79 Topcuoglu, Hülya 103 W Waitelonis, Jörg 281 Wannemacher, Klaus 161 Welte, Martina 151 Wessner, Martin 269 Wolk, Christoph 151 Z Zauchner, Sabine 57 Zimmermann, Volker 139 Zimmermann, Birgit 293