Skip to content

Die Lernenden, die unbekannten Wesen

20120826-212617.jpg

Sie sind allgegenwärtig: Wenn der Autor das Konzept schreibt, der Grafiker den Screen gestaltet oder der Entwickler die Anwendung programmiert – die Lernenden. In jeder Phase eines E-Learning Projektes versuchen Produzenten zu erahnen, wer die Lernenden sind und was sie wollen. Aber wie gut können sie Menschen verstehen, denen sie nie begegnen?

Der direkte Kontakt ist nicht mittelbar
Als Bindeglied zwischen den Produzenten und den Lernenden steht der Kunde, zumeist in der Gestalt eines Fachexperten. Ihn kann der Produzent über die Lernenden ausfragen, über ihre Berufe, ihr Vorwissen, ihre E-Learning Erfahrung. Hierzu finden sich im Netz zahlreiche Fragenkataloge. Doch so ergiebig so eine Befragung auch sein mag, so macht sie den Produzenten doch immer nur mittelbar mit den Lernenden bekannt. Er erfährt nicht, was der Lernende will, sondern was der Fachexperte denkt, dass er will – oder wollen sollte. Es mag Projekte geben, bei denen die Rahmenbedingungen eine ausführlichere Auseinandersetzung mit den Lernenden nicht hergeben. Jenseits solcher Projekte kann der Produzent jedoch versuchen einen direkten Kontakt zu den Lernenden herzustellen. Am einfachsten wäre es, sich im Anschluss an den Kick-off Termin beim Kunden, mit einem kleinen Kreis der Zielgruppe zusammen zu setzen. In ungezwungener Runde könnte der Produzent so von den Lernenden selbst hören, welche Erwartungen sie an die E-Learning Anwendung haben. Alternativ könnte der Produzent dem Kunden schon vor dem Termin einen Fragebogen zuschicken, den der Kunde unter einigen Probanden verteilt und dessen Ergebnisse er anschließend im Termin mit dem Produzenten bespricht.

Mehr Lernerfreundlichkeit durch kontinuierliches Testen
Ob nun Gesprächsrunde oder Fragebogen, beiden ist eine Schwierigkeit gemeinsam: Der Produzent kennt viele Fragen, die sich ihm Laufe des Projektes stellen werden noch gar nicht. Denn auch beim E-Learning steckt der Teufel im Detail. Nur zu gerne würde sich der Produzent hin und wieder einen Lernenden hinzu holen und ihn fragen: „Sag mal, verstehst du das? Willst du das so haben?” Natürlich ist das kein gangbarer Weg, aber es besteht die Möglichkeit die Anwendung in einem Entwurfsstadium an den Lernenden zu testen. Solche Tests sind im Bereich des Usability Engineering bereits üblich. Mit Hilfe standardisierter Verfahren wird hier die Benutzerfreundlichkeit zum Beispiel einer Website untersucht und das häufig auch unter Einbezug der Nutzergruppe. Im Idealfall werden im Verlauf der Entwicklung mehrere solcher Test durchgeführt. Gemäß einer formativen Evaluation werden die Nutzer gebeten den aktuellen Stand der Anwendung durchzuspielen, um die Ergebnisse in die weitere Entwicklung mit einzubeziehen. Solche Test ließen sich auch mit E-Learning Anwendungen umsetzen, allerdings müsste dann eben nicht nur die Benutzerfreundlichkeit evaluiert, sondern auch die Lernerfreundlichkeit überprüft werden. Der indische E-Learning Anbieter KERN hat hierzu einen Ansatz veröffentlicht und dafür den etwas unglücklichen Namen des Learnability-Testing gewählt. Unglücklich deshalb, weil Learnability auch ein Ausdruck der ISO-Norm für Usability ist, dort aber nicht die Erlernbarkeit des Inhaltes, sondern der Anwendung bezeichnet. Dennoch zeigt der Ansatz sehr schön, dass eine Evaluation der Lernerfreundlichkeit zwar mit den gleichen Verfahren wie ein Test der Usability erfolgen kann, inhaltlich aber weit mehr abfragen muss. Hier stellt sich einmal mehr die Gretchenfrage der Weiterbildung, wie der Lernerfolg eindeutig bewertet werden kann. Zusätzlichen Aufschluss darüber, ob die Anwendung den Bedürfnissen der Lernenden entsprochen hat, gibt eine summative Evaluation des fertigen Produktes. Dabei ist zu beachten, dass die Lernenden ihren Lernerfolg erst nach dem versuchten Transfer in ihren Arbeitsalltag abschließend beurteilen können.

Keine faulen Ausreden!
Wenn diese Gespräche und Tests nun tatsächlich helfen können die Lernenden zu verstehen und somit die Lernerfreundlichkeit zu steigern, warum sind sie dann nicht Alltag in der E-Learning Entwicklung? Zu allererst wohl deswegen, weil sie zusätzlichen Aufwand bedeuten. Aufwand, der nicht notwendig ist, um ein alle Beteiligten zufriedenstellendes Produkt herzustellen. Die Lernenden sind hier natürlich nicht mit inbegriffen. Kunden und Produzenten argumentieren vielleicht auch, dass sie ja ausreichend Expertise bzw. Sachkenntnis hätten, um eine gute Anwendung zu entwickeln. Dass aber jede Fachkompetenz nur so gut ist wie die Datenlage, auf der sie aufsetzt, scheinen sie hier zu vergessen. Sicher ist eine ungetestete Anwendung nicht zwangsläufig eine schlechte Anwendung. Aber das Risiko, dass sie an den Bedürfnissen der Lernenden vorbei geht, ist deutlich größer als bei einem getesteten Kurs. Noch ein Grund mag sein, dass sich Kunden und Produzenten nicht die Blöße geben möchten vor einem vernichtenden Testergebnis zu stehen. Was, wenn die Lernenden die Anwendung rundherum ablehnen? Hat der Produzent schlechte Arbeit geleistet oder der Kunde den falschen Input geliefert? Ein weiteres Problem betrifft den richtigen Testzeitpunkt. Die Ergebnisse einer frühen Evaluation, etwa eines Prototypen, lassen sich noch leicht einarbeiten, beziehen sich aber, anders als die einer späte Evaluation, nicht auf alle Details der Anwendung. Zu guter Letzt steigern Befragungen und Tests die Fixkosten einer Produktion und machen E-Learning so für kleinere Weiterbildungsbedarfe weniger attraktiv.
Doch sollten Produzenten aufgrund dieser Widrigkeiten gar nicht erst versuchen die Lernenden zu verstehen? Natürlich nicht. Nur weil sich der Idealfall von Befragung, formativen und summativen Tests nicht realisieren lässt, bedeutet das nicht, dass gleich auf alle Ansätze verzichtet werden muss. Es lohnt sich auch über möglichst praktikable Umsetzungsformen nachzudenken. Der Kunde hat keine Zeit den Fragebogen auszuteilen und wieder einzusammeln? Der Produzent könnte doch einen Online-Fragebogen aufsetzen, was nicht nur die Auswertung erleichtert, sondern auch die Wiederverwendbarkeit erhöht. Einen Prototypen zu produzieren ist zu aufwändig? Eine Papierversion mit ausgedruckten Screenentwürfen, mit welcher der Produzent die Anwendung für den Lernenden simuliert, tut es auch. Die Lernenden zu verstehen ist keine Frage der Mittel, sondern eine Frage des Wollens.

Bild: tumpikuja (istockphoto)

2 Comments Post a comment
  1. Ausgezeichnete Beobachtungen, die ich absolut nachvollziehen kann.
    Doch woran liegt das geringe Interesse an der Nachverfolgbarkeit des Lernerfolges?
    Idee: Die Kunden der E-Learning Produktionen sollten hier deutlicher ihre Ansprüche an die Agenturen anmelden.
    Hieße: Die Agenturen nehmen die Abfrage der User mit in ihr Portfolio auf.

    September 5, 2012
    • Im Grundsatz stimme ich mit Ihnen überein. Allerdings sehe ich in der Umsetzung einige Schwierigkeiten. Zum einen fehlt das Bewusstsein für dem Unterschied zwischen Lernerfolg und Transfererfolg und den jeweils geeigneten Messmethoden. Zum anderen lässt sich weder der eine noch der andere Erfolg eindeutig auf das E-Learning zurückführen, da die Wirkzusammenhänge gelungenen Lernens schlicht zu vielfältig sind. Möglich wird eine seriöse Bewertung erst, wenn jemand die komplette Weiterbildung langfristig begleitet, was die Agentur hier praktisch ausschließt, sofern sie keine ganzheitliche Qualifizierungsberatung anbietet. Was aber auf jeden Fall ins Portfolio der Agenturen passt, sind der besagte Fragebogen sowie eine an das LMS geknüpfte Zufriedenheitsabfrage.

      September 5, 2012

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: