Skip to content

Evaluation der Inhaltsanalyse-Veranstaltung

August 17, 2011

Evaluation der Vorlesung/Übung Inhaltsanalyse

Über meine Vorlesung/Übung Inhaltsanalyse hatte ich ja vor kurzem schon geschrieben. Mittlerweile ist auch die Evaluation der Veranstaltung abgeschlossen. Leider liefen die Lehrevaluationen an unserer Fakultät in diesem Jahr aus Gründen, die ich hier gar nicht diskutieren will, etwas seltsam, bzw. es gab überhaupt keine offiziellen Evaluationen. Ich habe daher, wie auch einige Kolleginnen und Kollegen, die Evaluation selbst vorgenommen. Statt des schriftlichen Fragebogens habe ich die wesentlichen Fragen in einer Online-Befragung in unserem E-Learning-System ILIAS umgesetzt. Vielleicht auch deswegen war die Teilnahmebereitschaft etwas geringer (leider nur 44 von 99 Studis), dafür konnte ich die Daten schnell auswerten. Sollten noch Studis diesen Text lesen, die noch nicht teilgenommen haben, können sie das gerne noch hier tun (Der Link funktioniert nur für die Teilnehmerinnen und Teilnehmer der Vorlesung).

Hier die Ergebnisse:

Die Itembatterie „Dozentenverhalten“ habe ich aus Gründen der Vergleichbarkeit der Evaluation der Uni entnommen.

Insgesamt kann ich damit ganz zufrieden sein.  Auf die Detailinterpretationen verzichte ich hier.

Danach einige Items zur Übung und den Übungsaufgaben, die ich aus den Standarditems der Uni-Evaluation so angepasst habe, dass sie besser zur Inhaltsanalyse-Veranstaltung passen.

Es wird deutlich, dass die Studis den Aufwand für die Übungsaufgaben gerne etwas verringert hätten. Das kann ich aus ihrer Sicht nachvollziehen (natürlich hätten wir alle immer lieber weniger als mehr Arbeit), ich bin mir aber nicht sicher, ob wir mit weniger Aufwand (im Prinzip wäre das nur durch Streichen einer Aufgabe möglich gewesen) denselben Lernerfolg erzielt hätten.

Und zur Gesamtbewertung:

Am meisten freut es mich, dass die Zustimmung zu „Ich habe in der Veranstaltung viel gelernt.“ so hoch ausfällt – denn letztendlich geht es doch genau darum. Außerdem deckt sich die Einschätzung der Studis ganz gut mit meiner eigenen, dass das Hybrid-Format aus Vorlesung und Übung sinnvoll ist, um etwas zur Inhaltsanalyse zu vermitteln. Ok, die Vorlesung an sich wurde dadurch etwas entwertet (bei Bedarf konnte man ja in der Übung auch noch das nachfragen, was man für die Lösung der Übungsaufgabe braucht und noch nicht verstanden hat), aber damit kann ich gut leben. Wie ich es ja auch schon in der Vorlesung selbst erklärt habe: mir persönlich ist es nicht wichtig, ob die Studis in die Vorlesung kommen. Ich würde mir nicht anmaßen zu behaupten, dass ich die Inhalte einer sehr allgemeinen Einführungsveranstaltung wesentlich besser erklären kann als ein Lehrbuch. Wer lieber ein Lehrbuch liest, kann das auch sehr gerne tun.

Und schließlich die „eine“ Zahl, die Bewertung der Veranstaltung mit einer Schulnote:

Für eine Methodenveranstaltung finde ich diese Evaluation ziemlich gut – die meisten Studis fanden die Veranstaltung ganz gut, ein paar sehr gut, ein paar eher so mittel. Insgesamt bin ich mit diesen Ergebnissen zufrieden.

Inhaltsanalyse 2009-2011

Außerdem habe ich noch ein wenig auf meiner Festplatte gekramt und die Evaluationen der 2009er und 2010er Inhaltsanalyse-Vorlesungen gefunden. Vergleichbar sind leider nur die Items zum Dozentenverhalten, zum wahrgenommenen Lernerfolg und schließlich zur Gesamtnote:


Es scheint so, als wäre im Prinzip in diesem Semester alles besser geworden als in den Jahren zuvor. Das möchte ich natürlich gerne glauben (und ein bisschen glaube ich es auch), allerdings vermute ich hinter diesen teils sehr großen Sprüngen auch eine non-response bias, verursacht durch Aufbau der Veranstaltung und den Erhebungsmodus, steckt.

In 2009 und 2010 wurde die Evaluation jeweils in der letzten Vorlesungssitzung vor der Klausur mit einem Papierfragebogen durchgeführt. Daraus ergibt sich, dass jeweils sehr viele Studis anwesend waren (jeweils ca. 2/3 aller Teilnehmer; klar, es geht in dieser Sitzung ja auch darum, was für die Klausur relevant ist), und die Teilnahme an der Papier-Evaluation kaum Aufwand erfordert. Durch den ILIAS-Modus in diesem Jahr ist die Annahme plausibel, dass vor allem die motivierten Studis, die die Veranstaltung zumindest ganz in Ordnung fanden, an der Evaluation teilgenommen haben – und die Veranstaltung auch recht gut bewerten. Diejenigen, die die Veranstaltung blöd fanden, hatten wahrscheinlich auch weniger Lust, auf den Link in einer Mail von mir zu klicken und dann an der Online-Befragung teilzunehmen. In der letzten Sitzung vor der Klausur wären auch diese Studis wahrscheinlich da gewesen und hätten an der Evaluation teilgenommen.

Schließlich könnte die bessere Bewertung auch am Misstrauen gegenüber der Anonymität der ILIAS-Befragung liegen. Immerhin müssen die Teilnehmer sich erst einloggen, bevor sie an der Umfrage teilnehmen können.  Dieses Misstrauen ist zwar völlig unbegründet: Die Daten liegen in ILIAS völlig anonymisiert vor, ich kann nicht auf die Profile der Befragten schließen. Dass dieses Misstrauen aber besteht, kann ich nachvollziehen.

Schließen möchte ich mit einem Zitat einer/eines anonymen Befragten aus den offenen Antworten: „Alles Gute für Sie & vielleicht bis bald in einer weiteren Veranstaltung! :)“

Das wünsche ich auch allen Teilnehmerinnen und Teilnehmern der Veranstaltung!

Advertisements

Zum Zusammenhang zwischen ‚theoretischen‘ Klausuren und praktischen Übungsaufgaben

Juli 28, 2011

In der Vorlesung Inhaltsanalyse, die ich in diesem Sommersemester mittlerweile zum dritten Mal gelesen habe, habe ich in diesem Jahr erstmals die Hälfte der benoteten Studienleistung als praktische, in Gruppen zu leistende Übungsleistungen erbringen lassen. Das Spannungsfeld bei der Veranstaltungsplanung besteht darin, dass die Vorlesung Inhaltsanalyse – also eine Einführung in eine wichtige (vielleicht die wichtigste) Methode der Kommunikationswissenschaft – im Hohenheimer Bachelorstudiengang eben als Vorlesung mit 80-100 Teilnehmerinnen und Teilnehmern gelehrt wird. Auf der einen Seite kann ich als alleiniger Lehrender (auch wenn ich seit der zweiten Runde Verstärkung durch hervorragende studentische Tutorinnen erhalten habe) mit dieser Anzahl von Studierenden keine eigenständigen praktischen Projekte durchführen – der Aufwand wäre einfach nicht zu leisten. Auf der anderen Seite ist eine reine Vorlesung im eigentlichen Sinne in einer Methodenveranstaltung meiner Meinung nach sinnlos, da die Studis vor allem lernen sollen, wie man die Inhaltsanalyse in der empirischen Kommunikationsforschung praktisch einsetzt.

Der Weg zur jetzigen Form mit einer Kombination von Vorlesung  (Leistung: Klausur) und Übung (Leistung: 4 Übungsaufgaben zu den Schritten der Inhaltsanalyse) war evolutionär. In der ersten Version habe ich alle Inhalte in klassischer Vorlesungsform vorgetragen, die Studis bekamen 4 Übungsaufgaben gestellt, die sie lösen konnten – oder auch nicht. Die 1-2 besten Lösungen wurden dann in der folgenden Vorlesungssitzung vorgestellt, dazu habe ich allgemeines Feedback pauschal für alle Lösungen gegeben. Der große Nachteil an diesem Vorgehen war, dass der größere Anteil der Studis, der sich nicht wirklich für die ‚aktive‘ empirische Forschung interessiert, die Übungsaufgaben nicht oder nur beiläufig gelöst hat. Der große Vorteil dieses Formats ist – das muss ich ehrlich zugeben – der verhältnismäßig geringe Aufwand auf Seiten des Dozenten. Hätte ich dieses Konzept beibehalten, hätte ich eine fertige Vorlesung ‚auf Tasche‘ gehabt, die ich in den darauf folgenden bisher zwei Jahren weiterhin hätte ‚vorlesen‘ können.

Da ich aber nicht wirklich davon überzeugt war, dass die meisten Studis nach dieser Vorlesung wirklich eine Inhaltsanalyse durchführen können, habe ich in der zweiten Runde von studentischen Tutorinnen gehaltene Übungen organisiert, in denen drei Übungsaufgaben gelöst und diskutiert wurden. Zusätzlich gab es zwei Kurzklausuren, eine zur ‚Theorie‘ der Inhaltsanalyse, eine zweite zur Praxis. In der zweiten Klausur wurde sehr konkret nach Dingen gefragt, die in den Übungsaufgaben vorkamen. Die motivierten Studis hatten hier also auf jeden Fall auch bei der Leistungserbringung einen Vorteil – und mal ehrlich: ein gewisser (großer?) Teil der Motivation vieler Studentinnen und Studenten kommt doch dadurch zustande, dass das Absolvieren einer Aufgabe später einen Vorteil bei der notenrelevanten Leistung ergibt. Dieses zweite Konzept führte meiner Ansicht nach schon zu besseren Resultaten, die Evaluation der Veranstaltungen zeigte jedoch trotzdem noch einige Schwächen. Die Teilnehmerinnen und Teilnehmern dieses zweiten Jahrgangs haben mit großer Mehrheit vorgeschlagen, dass statt der Praxis-Klausur direkt eine Benotung der Übungsaufgaben stattfinden sollte.

An diesen Vorschlag habe ich mich gehalten: Das Konzept der Vorlesung habe ich noch weiter auf den Praxisteil ausgerichtet. Nach einigen ‚theoretischen‘ Vorlesungen gab es wieder eine Kurzklausur, danach gab es 4 Übungsaufgaben – die in diesem Semester erstmals benotet wurden und zusammen 50% der Endnote ausmachen. Zusätzlich habe ich zu jeder Übungsaufgabe eine praktische Übungsveranstaltung durchgeführt (zusammen mit Catharina), in der die Studis damit beginnen konnten, die Lösung anzufertigen und sich direkt Feedback von uns holen konnten. Diese Variante war für mich (und, soweit ich das aus den Ergebnissen der noch nicht abgeschlossenen Veranstaltungsevaluation bisher herauslesen kann, auch für die Studis) natürlich sehr aufwändig. In jeder zweiten Woche hatte ich nicht nur die Vorlesung, sondern 3 weitere Übungssitzungen, also insgesamt 8 Stunden Lehre. Außerdem mussten wir alle zwei Wochen innerhalb eines halben Tages 20 Übungsaufgaben korrigieren, benoten und – was in dieser Struktur zentral ist – möglichst ausführlich mit konstruktivem Feedback versehen. Jedenfalls haben wir uns in diesem Semester diesen Aufwand gemacht und es hat sich nach meiner Einschätzung gelohnt. Viele der Lösungen waren wirklich gut, und – was aus meiner Sicht der zentrale Nutzen ist – auch die weniger erfolgreichen Übungsgruppen waren nicht so schlecht, als dass ich sagen würde, dass sie keine Ahnung haben, wie man nun in der Praxis eine Inhaltsanalyse durchführt. Den bisher größten Lernerfolg würde ich dem aufwändigen Konzept also zusprechen.

Offen bleibt für mich die Frage, ob es sich für die formale Diagnose der Leistungsfähigkeit der Studentinnen und Studenten – einfach gesprochen also für die Benotung der Leistungen – lohnt, diesen Aufwand auf sich zu nehmen. Die Hypothese, dass die ‚guten‘ und motivierten Studis sowohl bei einer Klausur als auch bei praktischen Übungsaufgaben gut abschneiden, während andere weder viel für die Klausur lernen noch viel Arbeit in die Übungen stecken (bzw. die Inhalte weder so gut verstehen noch in der Praxis anwenden können), ist nach meiner Erfahrung durchaus plausibel. Das Ergebnis (natürlich nur auf die Noten bezogen) wäre dann für eine einfache Klausur das gleiche wie für die aufwändigeren Übungsaufgaben.

Um mich dieser Frage empirisch zu nähern, habe ich mir einmal den Zusammenhang zwischen der Punktzahl in der ‚Theorie‘-Klausur in der ersten Semesterhälfte und dem Punktestand nach 3 der 4 Übungsaufgaben angesehen.

Das Diagramm zeigt die in der Klausur erreichte Punktzahl (x-Achse, maximal 30 Punkte) und die in den ersten drei Übungsaufgaben erreichten Punkte (y-Achse, maximal 3*18=54 Punkte) für 97 der 99 Teilnehmerinnen und Teilnehmer (2 Fälle mussten aus der Analyse ausgeschlossen werden). Der statistische Zusammenhang ist mit knappen 13% Varianzaufklärung erst einmal nicht sonderlich groß – es scheint also so, als ob Klausur- und Übungsleistung nicht übermäßig stark miteinander zusammenhängen würden. Die Grafik weißt aber auch schon auf das Problem der Datenanalyse (und in gewissem Maße auch der Leistungsdiagnose) hin: Es fällt auf, dass viele Punkte horizontal auf einer Linie liegen. Dies ergibt sich dadurch, dass die Übungsaufgaben in Gruppen von 4-6 Studis erbracht werden (die Betreuung und Korrektur von mehr als 20 Übungsgruppen wäre einfach nicht zu leisten). Die individuellen Klausurleistungen können sich also gar nicht voll in der für Gruppen vergebenen Übungspunktzahl niederschlagen. Um diesen Problem zu begegnen, habe ich den Mittelwert aller Übungsgruppenmitglieder in der Klausur berechnet und den Zusammenhang dieser mittleren Klausurleistung mit den Übungsleistungen dargestellt.

Berücksichtigt man die Gruppenmittelwerte anstatt der individuellen Klausurleistungen, so ist der Zusammenhang mit einem R² von .35 deutlich stärker. Gruppen, deren Mitglieder in der Klausur im Durchschnitt gut abgeschnitten haben, erreichen auch bei den Übungsaufgaben höhere Punktzahlen. Umgekehrt liefern die Gruppen, die im Mittel unterdurchschnittliche Klausurergebnisse erzielt haben, auch schwächere Lösungen für die praktischen Übungsaufgaben ab. Je näher eine Gruppe an der Regressionsgerade liegt, desto besser lässt sich ihre Punktzahl in der Übungsaufgabe durch die durchschnittliche Klausurleistung der Gruppenmitglieder vorhersagen – bzw. anders herum. Am besten lässt sich der Zusammenhang anhand der beiden Extremgruppen illustrieren: die Gruppe ganz rechts oben erreichte durchschnittlich die meisten Punkte in der Klausur und schaffte es bisher als einzige Gruppe, alle möglichen 54 Punkte in den Übungsaufgaben einzuheimsen. Unten links findet sich der Gegenpol: Die Gruppe sammelt nach Maßstab der Klausurpunkte durchschnittlich die schwächsten Studis und schneidet bisher auch bei den Übungsaufgaben am schwächsten ab.

Betrachtet man nur dieses Muster, so scheint sich der Aufwand der Übungsaufgaben für die Bewertung der Leistungsfähigkeit nicht übermäßig stark zu lohnen. Allerdings finden sich auch eine Reihe von Beispielen, die zeigen, dass der Test einer Kombination von ‚theoretischen‘ Fähigkeiten (Lesen, Verstehen, Merken, unter Zeitdruck schreiben, usw.) und praktischen Fähigkeiten (Durchführung einer Inhaltsanalyse, Arbeit in der Gruppe, Motivation zur Lösung der Aufgaben über mehrere Monate hinweg, usf.) sinnvoll ist, um allen Qualitäten der Studis gerecht zu werden. So finden sich rechts unten im Schaubild einige Gruppen, die zwar die theoretischen Inhalte in der Klausur gut wiedergeben konnten, die aber weniger gut in der Lage waren, diese Kenntnisse auch zur praktischen Durchführung einer Inhaltsanalyse zu nutzen – in einem zentralen Ziel der Veranstaltung schneiden sie weniger gut ab. Ihre Fähigkeiten würden also überschätzt, wenn das Wissen nur in einer Klausur abgefragt würde. Im Quadranten links oben findet sich die Gruppe, die mir persönlich die meiste Freude bereitet, weil sich für genau diese Studis der Aufwand der praktischen Übungsaufgaben am meisten lohnt. Während diese Gruppe die Klausur im Mittel eher unterdurchschnittlich abgeschlossen hat, konnte sie bisher in der Übung 53 der 54 möglichen Punkte erreichen und liegt damit in dieser Rangliste auf Platz 2.

Insgesamt fällt mein Fazit in Hinblick auf den Nutzen der Übungsaufgaben für die Benotung (und ausschließlich für die Benotung – vom Nutzen in Hinblick auf den praktischen Lernerfolg bin ich überzeugt!!!) – ambivalent aus. Es zeigt sich, dass durch den praktischen Teil einige Gruppen weniger gut abschneiden, als sie es wahrscheinlich in einer nur durch Klausuren geprüften Veranstaltung tun würden – diese Bewertung ist aus Sicht der Ziele einer Methodenveranstaltung durchaus gerechtfertigt. Einzelne Gruppen (davon nur eine einzige in größerem Umfang) schneiden in der Praxis besser ab, als es die Theorie vermuten ließe. Für den größten Teil der Gruppen gilt aber: Je besser ihre Mitglieder in der theoretischen Klausur abschneiden, desto besser sind sie auch in der praktischen Umsetzung. Dieses äußert plausible Ergebnis soll daher auch (fast) am Ende dieser Ausführungen stehen.

Ein letzter Punkt zum Andiskutieren: Die Auswertungen weisen mindestens genauso stark darauf hin, dass die (meiner Meinung nach mittlerweile zu häufig eingesetzten) Gruppenarbeiten, die in einer einheitlichen Gruppennote enden, durchaus nicht unproblematisch sind – oft werden die Noten der Leistungsfähigkeit der individuellen Studentinnen und Studenten nicht gerecht, mit positiven wie auch negativen Abweichungen. Meines Erachtens wären häufigere individuelle Leistungen in einer anderen als der Klausurform sehr wünschenswert. Leider scheitert dies oft am hohen Aufwand und/oder der mangelnden Zeit in den Lehrveranstaltungen. Eine Diskussion dieser Problematik würde an dieser Stelle aber zu weit führen.

Studiengebühren an der Uni Hohenheim – Visualisiert

Juni 12, 2010

Meine Uni, die Universität Hohenheim, gibt sich seit einiger Zeit redlich Mühe, die Verteilung von Studiengebühren möglichst transparent zu machen. Dazu gibt es hier eine Aufstellung sämtlicher Anträge für Mittel aus Studiengebühren, jeweils mit der Angabe, wer das Geld beantragt hat, ob es genehmigt wurde und wie viel des genehmigten Gelds bereits ausgegeben ist. Während der Versuch, möglichst große Transparenz herzustellen, definitiv zu loben ist, so ist die Liste leider etwas unübersichtlich. Hier wird zwar noch ein Diagramm zur Verfügung gestellt, dass aber von seiner Info-Reichhaltigkeit wohl eher so mittel ist.

Ich habe daher einmal versucht, die Mittel, die im Jahr 2009 aus Studiengebühren vergeben wurden, anders zu visualisieren. Herausgekommen ist dabei diese Treemap, die ich nach einem Tutorium meines favorisierten Visualisierungsblogs FlowingData erstellt habe.

treemap (PDF)

Das Diagramm liest sich wie folgt:

Alle Flächen repräsentieren den Anteil der Gelder für ein Institut bzw. ein Projekt am gesamten Budget, das aus Studiengebühren zur Verfügung stand (10.881.973,55 €). Die größeren, mit grauen Linien eingegrenzten Rechtecke fassen alle Mittel auf Ebene der beantragenden Institutionen zusammen. Hier findet sich also z.B. im Rechteck links oben die Angabe, wie groß der Anteil aller Mittel, die das Institut für VWL bewilligt bekam, an allen Mitteln aus Studiengebühren ist. Die kleineren, verschiedenfarbigen Rechtecke innerhalb der Institutionen repräsentieren die einzelnen Projekte, für die Mittel bewilligt wurden. Die Farben stellen dar, wie viel des Gelds schon ausgegeben wurde. Grün bedeutet, dass das Geld noch nicht ausgegeben wurde (bzw. die Ausgaben noch nicht gemeldet wurden), schwarz bedeutet, dass das Projektbudget ausgeschöpft ist. Wenn der Farbverlauf sich Richtung rot verändert, so heißt das, dass das Budget überzogen wurde.

Das Diagramm könnte sicherlich grafisch noch deutlich verschönert werden, doch da ich es nun seit zwei Monaten vor mir herschiebe, die grafische Attraktivität zu erhöhen, lasse ich es nun sein und veröffentliche es so, wie es ist. Die inhaltliche Interpretation möchte ich ebenfalls jedem selbst überlassen.

Hier die Legende für die kleinen Ausgabestellen rechts oben:

1    Inst. f. Agrarpolitik u. Landwirtschaftliche Marktlehre
3    Tropenzentrum
4    Inst. f. Genetik
5    Inst. f. Umwelt- u. Tierhygiene sowie Tiermedizin mit Tierklinik
6    Inst. f. Chemie
7    Zentrale Einrichtung für Biologische u. Biomedizinische Forschung mit Tierhaltung
8    Landessaatzuchtanstalt
9    Landesanstalt für Bienenku.e
10    Inst. f. Tierproduktion in den Tropen u. Subtropen
11    Inst. f. Tierernährung
12    Inst. f. Sozialwiss. des Agrarbereichs
13    Inst. f. Sonderkulturen u. Produktionsphysiologie
14    Inst. f. Physiologie u. Biotechnologie der Pflanzen
15    Inst. f. Pflanzenzüchtung, Saatgutforschung u. Populationsgenetik
16    Inst. f. Pflanzenproduktion u. Agrarökologie in den Tropen u. Subtropen
17    Inst. f. Pflanzenernährung
18    Inst. f. Landschafts- u. Pflanzenökologie
19    Inst. f. Bodenkunde u. Standortslehre
20    Inst. f. Berufs- u. Wirtschaftspädagogik
21    Inst. f. Angewandte Mathematik u. Statistik
22    Inst. f. Agrar- u. Sozialökonomie in den Tropen u. Subtropen
23    Fak. Naturwiss.

Disclaimer

Alle Daten wurden hier heruntergeladen: https://www.uni-hohenheim.de/studiengebuehren-online.html?&MP=77001-75225 – Irrtümer vorbehalten, die Universität Hohenheim hat nichts mit dieser Veröffentlichung zu tun.



Westerwelle-Reaktanz?

Januar 6, 2010

Eines meiner Forschungsfelder, die ich ein bisschen nebenbei bearbeite, ist die rezeptionsbegleitende Messung von Medienwirkungen, oft auch als Real-Time-Response (RTR) Messungen bezeichnet. Einfach ausgedrückt geht es darum, dass Versuchspersonen (VPN) ein Video sehen und währenddessen direkt ihren Eindruck dazu wiedergeben. Dazu können verschiedene technische Devices eingesetzt werden, in unserem Fall RTR-Dials. Das sind kleine Kästchen mit einem Drehregler. Die VPN können durch das Drehen eines Knopfs nach links angeben, dass sie gerade einen schlechten Eindruck von dem Video haben, wenn sie den Regler nach rechts drehen, finden sie das Video gerade gut. Die Bewertung wird von Sekunde zu Sekunde aufgezeichnet. Die Forscher können sich dann eine schöne Kurve ausgeben lassen, wie das Publikum zu jeder Sekunde das Video bewertet. Soweit eine kurze Idee davon, was eigentlich mit rezeptionsbegleitenden Messungen gemeint ist.

In meiner Vorlesung „Einführung in das wissenschaftliche Arbeiten“ habe ich kurz vor Weihnachten eine kleine RTR-Studie durchgeführt. Dabei haben sich die VPN (Erstsemester des Bachelor-Studiengangs KoWi an der Uni Hohenheim) unter anderem auch den Wahlwerbespot der FDP zur Bundestagswahl 2009 angesehen und während der Rezeption ihren Eindruck per RTR-Dial mitgeteilt. Hier erst einmal der Spot, der bewertet wurde:

Die RTR-Kurven zum Video sehen so aus: Auf der X-Achse ist die Zeit in Sekunden abgetragen (Vorsicht: sie stimmt nicht ganz genau mit dem YouTube-Video überein), auf der Y-Achse die Bewertung des Videos von 1 (sehr schlecht) bis 7 (sehr gut). Vor dem Video haben wir die VPN auch gefragt, was sie im Allgemeinen von der FDP halten. Da die Einstellung zur Partei natürlich auch beeinflusst, wie ein Werbespot dieser Partei bewertet wird, werden in der Grafik drei Werte ausgewiesen. Die grüne Linie zeigt die durchschnittliche Bewertung der VPN, die viel von der FDP halten (n=13), die blaue Linie steht für die Neutralen (n=49), die rote Linie für die VPN, die wenig von der FDP halten (n=29).

Zuerst einmal zeigt sich das erwartete Bild. Die VPN, die die FDP generell positiv bewerten, haben auch über die gesamte Dauer einen sehr guten Eindruck von dem Video. Die Neutralen bewegen sich im leicht positiven Bereich zwischen 4 und 5, und auch die VPN, die eigentlich wenig von der FDP halten und daher das Video ablehnen sollten, äußern sich im Schnitt nur neutral bis leicht negativ. Auf den ersten Blick könnte man also urteilen, dass der Wahlwerbespot aus Rezipientensicht recht gelungen ist.

Auf dem zweiten Blick fällt jedoch ein weniger positives Muster auf. Immer wieder fallen alle drei RTR-Kurven rapide ab und erholen sich dann wieder — hier scheinen einige Inhalte des Videos unter den Zuschauern auf Ablehnung zu stoßen. Ein Vergleich der Kurven mit den Inhalten des Spots zeigt einen klaren Zusammenhang: Jedes Mal, wenn Guido Westerwelle eingeblendet wird, gibt es einen negativen Knick in den RTR-Kurven. Besonders auffällig ist, dass bei der 2., 3. und 4. Einblendung des FDP-Chefs auch die Bewertung der VPN, die der Partei eigentlich positiv gegenüberstehen, signifikant schlechter wird.

In der hier untersuchten Zielgruppe scheint es also eine Art Westerwelle-Reaktanz zu geben, die auch vor den FDP-Anhängern nicht halt macht. Für dieses Ergebnis kann es verschiedene Erklärungen geben. Zum einen kann es wirklich an Guido Westerwelle liegen, der Außenminister gilt als relativ polarisierender Politiker. Für diese Erklärung spricht auch, dass die Studie erst nach der Bundestagswahl durchgeführt wurde. Im Rahmen der Regierungsbildung hatte Westerwelle einige weniger gelungene Auftritte, die seiner Beliebtheit wahrscheinlich eher geschadet haben. Hier bin ich gespannt auf einen Vergleich meiner Daten mit denen meiner Kollegin Stephanie Geise, die die Wahlwerbespots vor der Wahl mit RTR-Messungen untersucht hat. Gegen die Erklärung spricht jedoch, dass sich das Reaktanz-Phänomen kontinuierlich (wenn auch schwächer) auch bei den FDP-nahen Teilnehmern zeigt. Wenn es sich hier ’nur‘ um eine polarisierende Wirkung Westerwelles handeln würde, müssten die FDP-Anhänger keine oder nur eine deutlich geringere Reaktanz zeigen (Es sei denn, Westerwelle ist auch bei den FDP-Anhängern sehr unbeliebt, was ich für sehr unwahrscheinlich halte).

Als zweite Erklärung kann meiner Meinung nach die Machart des Videos herangezogen werden. Der Spot ist eine Aneinanderreihung schöner Imagebilder, unterlegt von [eigenes Urteil einfügen] Popmusik. Dazu werden Slogans eingeblendet, die weniger politisch kontroverse Aussagen als vielmehr wünschenswerte Allgemeinplätze darstellen. Dieser bunte Bilderreigen wird relativ willkürlich durch Einblendungen von Westerwelle (teilweise zusammen mit anderen FDP-Politikern) unterbrochen. Diese Einschübe wirken überraschend und sind nur wenig in das Gesamtkonzept des Spots eingebettet. Vielleicht bewirkt dieser Kontrast von schönen Bildern und Politischem (bzw. Politikern) intuitiv einen negativeren Eindruck bei den Rezipienten.

Einschränkend möchte ich hier noch einmal auf die Limitationen der Studie hinweisen. Die Gruppe der FDP-nahen VPN ist mit n=13 sehr klein. Studentinnen und Studenten einer Veranstaltung sind natürlich keine repräsentative Stichprobe. Und die Bewertung eines Wahlwerbespots nach der Bundestagswahl ist bestimmt keine natürliche Rezeptionssituation. Die Ergebnisse sollten vor dem Hintergrund dieser Limitationen gesehen werden. Das Muster in den RTR-Bewertungen erklären sie jedoch nicht.

Was auch die Erklärung für die abrupt abfallende Bewertung beim Erscheinen Westerwelles im Werbespot sein mag — weder für Westerwelle noch für die Macher des Spots ist das Ergebnis besonders schmeichelhaft. Das Ergebnis weist auch darauf hin, dass Politik sich nicht einfach durch schöne Bilder inszenieren lässt. Die Rezipienten unterscheiden offensichtlich situativ zwischen den gelungenen Image-Präsentationen und der Darstellung von Politik und Politikern. Einen Politiker einfach zwischen schöne Bilderstrecken zu platzieren reicht nicht aus, um ein positives Ergebnis zu erzielen.