Dr. Wolfgang Schulz

Hilfreicher Irrtum - Anmerkungen zur Kritik an der Evaluation des Jugendschutzes


Gerade wer evaluiert, muss sich auch selbst der Evaluation stellen. Jede kritische Auseinandersetzung mit unserer Begutachtung des Jugendmedienschutzes ist als Beitrag zur Qualitätssicherung zu begrüßen.

Gerade wer evaluiert, muss sich auch selbst der Evaluation stellen. Jede kritische Auseinandersetzung mit unserer Begutachtung des Jugendmedienschutzes (http://www.hans-bredow-institut.de/forschung/recht/071030Jugendschutz-Endbericht.pdf) ist als Beitrag zur Qualitätssicherung zu begrüßen; so auch der Beitrag von Altenhain et al. in MMR 1/2008, S. V.

Nicht einzugehen ist auf die Kritik, einige thematisch einschlägige - z.T. von den Kritikern selbst publizierte - Texte seien nicht explizit erwähnt. Nicht bei jeder ausgewerteten Publikation ist eine Zitierung geboten. Die Globalkritik beruht aber zudem auf einem Irrtum über die Methodik der Evaluation, der aufgeklärt werden muss, damit dieses sich entwickelnde Forschungsfeld nicht von vornherein mit Missverständnissen belastet wird.

Eine Evaluation soll messen, ob eine Regulierung erfolgreich ist. Zu ermitteln, wie eine Norm nach Regeln der Auslegung verstanden werden muss, ist nur ein Teil der dafür erforderlichen Prüfung; die richtige Auslegung von Normen garantiert nicht, dass die Regulierung das angestrebte Ziel erreicht. Insofern geht es bei der Erörterung von Normen des JMStV, die im Beitrag beispielhaft angeführt werden, nicht darum, mit rechtswissenschaftlichen Argumenten für die beste Auslegung zu streiten. Vielmehr sollen Unklarheiten identifiziert werden, die das Funktionieren des Systems beeinträchtigen können. Dass sich eine Auslegung in der Wissenschaft als herrschend herausschält, hilft mit Blick auf die Effektivität wenig, wenn sich die Entscheidungspraxis daran nicht orientiert. Soweit rechtlich argumentiert wird, gibt die Evaluation den unterschiedlichen Auffassungen Raum (so werden etwa die im Beitrag von Altenhain et al., a.a.O., erwähnten Ausführungen zu einem "weiten" Anbieterbegriff bei Mynarik, Jugendschutz in Rundfunk und Telemedien, 2006, S. 83 ff., im Gutachten dargestellt). Insgesamt muss aber die Literaturauswertung anders erfolgen als etwa bei Kommentarliteratur. Zudem spielen bei der Betrachtung von Optionen des Gesetzgebers bei der Änderung von rechtlichen Vorgaben neben rechtlichen Argumenten auch rechtspolitische Erwägungen eine Rolle.

Was die empirische Basis angeht, ist die Fokussierung auf Experten, die zu großen Teilen Interessenvertreter sind, methodisch gewollt. Die Befragungsergebnisse sollen keine rechtswissenschaftlichen Argumente ersetzen; vielmehr geht es darum, handlungsrelevante Gemeinsamkeiten und Unterschiede bei den Akteuren des Jugendschutzsystems herauszuarbeiten, die das Funktionieren i.S.d. gesetzlichen Steuerungsprogramms beeinträchtigen können. Daher kann schon eine einzelne Einschätzung, die Auswirkungen auf das Handeln der betreffenden Organisation im System hat, für die Evaluation relevant sein. Die empirischen Erkenntnisse zu Nutzung und Akzeptanz, die als schmal kritisiert werden, basieren auf einer umfangreichen Metaanalyse vorhandener Studien, keineswegs nur auf der Befragung weniger Jugendlicher und Eltern. Die i.R.d. Evaluation durchgeführten Befragungen ergänzen die bekannten Befunde, um Gründe und Argumentationsmuster zu identifizieren. Letztere erfährt man nicht durch repräsentative Befragungen, sondern durch qualitative Methoden.

Für den Anstoß, diese grundsätzliche methodische Besonderheit von Evaluationen noch klarer darzustellen, gebührt den Kolleginnen und Kollegen Dank - auch wenn sich die Kritik als unbegründet erweist und ungeachtet ihrer irritierenden Form. I.Ü. ist der Prozess auch dieser Evaluation noch offen, sollten neue inhaltliche Argumente vorgebracht werden.

Dr. Wolfgang Schulz, Hans-Bredow-Institut, Hamburg.


MMR 2008, Heft 2, XI