Nicht-Probabilistische Stichprobe Beispiel Essay

Wenn Mediendarbietungen Antwortleistung und Antwortdisposition gleichzeitig bestimmen. Ursache-Wirkungs-Konvergenz als Problem der medien- und werbepsychologischen Forschung und Item-Response-Analyse als ein Lösungsvorschlag

by Jens Woelke & Steffen Kolb

In der Medien- und werbepsychologischen Forschung übliche Analysemodelle untersuchen Effekte durch direkten Vergleich der Häufigkeiten oder Durchschnitte manifester Indikatorvariablen. Zentral für sogenannte True-Score-Analysen nach der klassischen Testtheorie (KTT) ist die Annahme, dass Schwankungen in den individuellen Ausprägungen der manifesten Indikatorvariable, die nicht auf Variationen der angenommenen Verursachungsgröße (wahrer ‚Prädiktor’) zurückgehen sondern durch Drittvariablen (‚Fehler’) verursacht werden, stochastisch unabhängig davon sind. Da diese Voraussetzung in der empirischen Praxis regelmäßig verletzt ist, kommen Kovarianz-, Interaktionseffekt- und Mehrebenenanalysen immer häufiger zum Einsatz. Die folgend diskutierte Re-Analyse von zwei medienpsychologischen Studien verweist theoretisch und empirisch auf eine Problematik, die in der Arbeit mit Häufigkeiten und Durchschnitten manifester Indikatorvariablen selbst bei Anwendung der oben genannten komplexen Analyseverfahren auftritt. Wertet man z.B. Wiedererkennungsaufgaben nach der Logik probabilistischer Testtheorien aus und trennt unter Anwendung der Signalentdeckungstheorie (SDT) zwischen der Antwortleistung sowie der Antwortdisposition, wird deutlich: die Drittvariable Antwortdisposition, verstanden als individuelle Neigung, in der Klassifikation von Objekten und Personen bestimmte Fehler zuzulassen und andere vermeiden zu wollen, ist mit der Antwortleistung verknüpft. Indem beide Aspekte situativ von Bedingungen abhängen, die das zu testende Medienangebot vorgibt, lässt sich der manifeste Indikator ‚Wiedererkennungsraten’ nicht durch Kovarianzanalysen oder Forschungsdesigns wie Testwiederholungen bzw. Vergleich von Gruppen um die Einflüsse der Drittvariable ‚Antwortdisposition’ bereinigen und als True-Score-Effekt interpretieren. Wenn Informationsangebote aus der Gesellschafts- und Wirtschaftskommunikation zunächst bestimmte Antwortdispositionen aktivieren und diese sodann das Ergebnis der Verarbeitung dieser Informationsangebote mitbestimmen, wenn also Ursache und Wirkung in introspektiven Daten konvergieren, sind Verfahren und Auswertungsmodelle wie die Signalentdeckungstheorie oder IRT-Modelle für die Analyse von eigentlich interessierenden Medieneffekten hilfreich.

Schlüsselbegriffe: Differentielle Werbewirkungsforschung, Item-Response-Analyse, Signalentdeckungstheorie, Diskriminationsleistung und Antwortneigungen

1 Ausgangspunkt: Testen und Messen nach klassischer versus probabilistischer Testtheorie

Informationsangebote öffentlicher Kommunikationsmedien ‚wirken’ grundsätzlich nicht auf alle NutzerInnen gleich, sondern abhängig von Persönlichkeitseigenschaften sowie vom situativen Kontext des Medienhandelns. Diese Annahme ist Konsens in der medienpsychologischen wie in der Werbeforschung (vgl. Suedfeld & Tetlock, 2003; Richter 2007; Woelke, 2008) – ungeachtet der Tatsache, dass die Frage nach durchschnittlichen kausalen (Werbe)Effekten1 aus medienethischen, medienpolitischen oder medienökonomische Gründen nach wie vor relevant ist und bearbeitet wird
(vgl. Russel, 2002; Mackay, Ewing, Newton & Windisch, 2009; Dardis, Schmierbach & Limperos, 2012). Zwei Gründe lassen die Kritik an medien- und werbepsychologischen Projekten mit Begrenzung auf nur durchschnittliche kausale (Medien)Effekte jedoch gerechtfertigt erscheinen: Medienwirkungen entstehen nicht allein durch additive Verknüpfung von zwei oder mehr Einflussfaktoren, weshalb sich Einflüsse einer einzelnen, als Verursachungsbedingung angenommenen Größe ohne simultane Beobachtung anderer erheblicher Einflussgrößen (‚Drittvariablen’) kaum valide beurteilen lassen und Kovarianz- und Moderatoranalysen der Auswertung getrennter Gruppen vorzuziehen sind (vgl. Cohen, Cohen, West & Aiken, 2002).

Allerdings sind die ‚anderen Einflussfaktoren’ in Kovarianz- oder Moderatoranalysen (vgl. Nicovich, 2005; Schemer, 2007; Klein, 2009; Slater, Hayes, Reineke, Long & Bettinghaus, 2009; Taylor, Strutton & Thompson, 2012) meist nur quasi-experimentelle Faktoren, sodass Verteilungsvoraussetzungen und die Annahme der Unkorreliertheit von ‚True Score’ und Fehlern in der klassischen Testtheorie nicht nur in Beobachtungsstudien (Steyer, Partchev, Kroehne, Nagengast & Fiege, 2010), sondern regelmäßig auch in experimentellen Analysen nicht erfüllt sind.

Abgesehen davon, dass die Berücksichtigung von Interaktionseffekten und von Verteilungsvoraussetzungen quasi-experimenteller Faktoren einen methodischen Fortschritt bedeutete, findet ein zumindest bekanntes und relevantes Problem empirischer Forschung damit noch immer eher geringe Beachtung – es wird folgend unter dem Stichwort ‚Ursache-Wirkungs-Konvergenz’ adressiert. Angesprochen ist der in Item-Response-Theorien (IRT) bzw. der Latent-Trait-Analyse (LTA) bearbeitete Umstand, dass ein Testwert Y (z. B. ‚Wiedererkennungsraten’) nicht nur den um eine Fehlerkomponente ergänzten ‚True Score’-Effekt X (z. B. den tatsächlichen Gedächtniseffekt eines Informationsangebotes) repräsentiert, sondern neben der vom Informationsangebot bestimmten (zunächst latenten) Fähigkeit X1 einer Person (z. B. zuvor dargebotene Reize wiedererkennen zu können) zugleich auch deren Antwortdisposition X2 misst (Steyer & Eid, 2001).

Diese Annahme bedeutet einen wesentlichen Unterschied zu Analysen nach der klassischen Testtheorie (KTT): Antwortdispositionen wie z. B. das Verwechseln von Namen, auch wenn man sich Personen grundsätzlich gut merken kann, die Neigung auf schwierige, Unsicherheit erzeugende Aufgaben eher mit ‚raten’ oder ‘keine Antwort geben’ zu reagieren, oder bestimmte Fragen eher zu verneinen als zu bejahen, werden in Haupteffektanalysen und mit der Wiedererkennungsrate als manifester Indikator über die Annahme einer Unkorreliertheit von Fehlern und ‚True Score’ durch Vergleiche zwischen Gruppen (unter der Voraussetzung homogener Fehlervarianzen) oder mit wiederholten Beobachtungen derselben Person quasi ausgeblendet oder in der Moderatoranalyse in einen separaten und einen gemeinsamen Erklärungsanteil zerlegt (wobei es im Fall des Recognition-Tests keine essentielle Multikollinearität zwischen Wiedererkennungsraten und Antwortneigung geben dürfte).

In der IRT/LTA liegt der Fall etwas anders: Bei der Ableitung empirisch testbarer Bedingungen kommt man auch hier nicht ohne Unabhängigkeitsannahme aus, allerdings wird keine generelle, sondern nur eine bedingte stochastische Unabhängigkeit angenommen. Bedingte oder lokale stochastische Unabhängigkeit bedeutet, dass die Informationsfunktion eines Tests maximal ist, wenn dessen Schwierigkeit bzw. die damit wahrscheinliche individuelle Antwortdisposition mit der latenten Fähigkeit oder anderen latenten Eigenschaften einer Person (θ) übereinstimmt bzw. abnimmt mit größer werdender Differenz zwischen Schwierigkeit der Testaufgabe und latenten Lösungsfähigkeit. Am Beispiel einer Skala wie der CSII-D (vgl. Woelke & Dürager, 2012) aus der Persuasionsforschung, die eine Anfälligkeit für interpersonale Beeinflussungsversuche misst und sich in der Prognose differentieller Werbeeffekte als zielführend erwiesen hat (vgl. Woelke, 2008), bedeutet das: Die individuellen Messwerte auf den einzelnen Items der CSII-D geben nicht generell, sondern abhängig von den Ausprägungen der latenten Eigenschaft ‚Beeinflussbarkeit’ (X1) einer Person auch die Antwortdispositionen X2 von Befragten wieder, diese Items z. B. deutlicher ‚abzulehnen’. Befragte mit einer etwas höheren latenten Ausprägung von Beeinflussbarkeit (in Tabelle 1 als θ bezeichnet) sehen die Anfälligkeit für interpersonale Beeinflussung u.U. gar nicht als ‚Problem’ und stimmen CSII-Items ‚eher zu’. Personen mit einer etwas geringeren latenten Ausprägung von Beeinflussbarkeit fassen die Anfälligkeit für interpersonale Beeinflussung dagegen möglicherweise als individuelle Eigenschaft auf, die sozial negativ gesehen wird – entsprechend dürften diese Personen CSII-Items deutlicher ablehnen, als aufgrund ihrer latenten Ausprägung von Beeinflussbarkeit vorhersagbar. Wenn Items eines Tests in der sozialen Realität über die Bandbreite von manifesten Antworten tatsächlich nicht gleich gut messen, ist es zielführend, die Informationsfunktion von Items zu ermitteln.

Tabelle 1: Item-Informations-Werte der CSII-D (Woelke & Dürager 2012) im Graded-Response Model.

Nur so kann beurteilt werden, wie gut oder schlecht manifeste Indikatorvariablen (z. B. ‚Wiedererkennungsraten’) das interessierende Phänomen (das fragliche Gedächtnispotential eines Informationsangebotes) bei bestimmen Ausprägungen der zunächst latenten Fähigkeit einer Person (z. B. Reize potentiell wiederzuerkennen) messen – Auswertungen gemäß IRT-Modellen wie dem von Rasch, Mokken oder anderen (vgl. Mokken, 1997; Scheiblechner, 2007) liefern die dazu nötigen Informationen.

2 Warum man bei Werbewirkungstests zwischen Aufgabenschwierigkeit und Personenfähigkeit trennen sollte – zur situativen Abhängigkeit von Antwortleistung und Antwortdisposition in verbalen Daten

Für die Anwendung des Konzepts lokaler stochastischer Unabhängigkeit gibt es mehrere Gründe: In der Bildungsforschung werden probabilistische Testmodelle (z. B. Raschlogistisches Modell, 2PL oder GRM) nicht nur aus forschungsökonomischen Gründen angewendet sondern vor allem aufgrund der Tatsache, dass sich von den vielen Aufgaben, die valide Schulleistungstest erfordern, tatsächlich nur eine begrenzte Anzahl praktisch umsetzen lässt. Zur Auswahl geeigneter Testaufgaben ist allerdings die Information unerlässlich, wie schwierig deren Lösung in welchen Bereichen latenter Personenfähigkeit ist. Gemäß dieser Information können Aufgaben ausgewählt werden, die in einem definierten Fähigkeitsbereich hinreichend schwierig sind und dort feindifferenziert messen (zielführend z. B. bei Auswahltests unter Piloten) oder Aufgaben, die jeweils nur mittelmäßig schwierig sind, dafür aber einen breiten Bereich von Personenfähigkeit abdecken (notwendig etwa in der Berufsberatung) (vgl. Kubinger 2005).

Man könnte einwenden, dass die methodisch aufwändige und voraussetzungsreiche Trennung von Aufgabeschwierigkeit und (latenter) Fähigkeit einer Person eine Fingerübung darstellt, die im Grunde nur dann relevant wird, wenn Tests erhebliche Konsequenzen für die Handlungsfreiheit von Menschen haben, z. B. in der angesprochenen Schulleistungsforschung. So gesehen wäre der praktische Nutzen des Konzepts lokaler stochastischer Unabhängigkeit für die medien- und werbepsychologische Forschung fraglich, wo solche Entscheidungen nicht getroffen werden und mit dem Ansatz der Moderatoranalyse mittlerweile recht differenzierte Erkenntnisse möglich sind.

Studien aus anderen Forschungsbereichen zeigen aber, dass die Trennung von (latenter) Personenfähigkeit und (spezifischer) Aufgabenschwierigkeit höchst bedeutsam ist, wenn diese zwei Aspekte eine gemeinsame, im Test selbst liegende Ursache haben. In der Intelligenzforschung z. B. wird aktuell diskutiert, in wie weit mentale Geschwindigkeit und mentale Kapazität als zwei korrelierende Aspekte (Sheppard & Vernon, 2007) unabhängig sind und – gemäß gängiger Intelligenztestmodelle (z. B. BIS und APM; vgl. Neubauer & Knorr, 1998) – tatsächlich separat oder extern gemessen werden können. Anhand mehrerer fMRT-Studien kommen Rypma und Prabhakaran (2009) zu dem Schluss, dass weder ‚Kapazität’ noch ‚Geschwindigkeit’ ‚Trait’-Eigenschaften repräsentieren, sondern beide im Grunde ‚State‘-Merkmale sind, die vom jeweils anderen, als Mediator fungierenden Merkmal abhängen. Mit anderen Worten: Mentale ‚Kapazität’ ist ein latenter Teilaspekt von Intelligenz, dessen Beitrag zu einem manifesten IQ-Testwert von den Bedingungen abhängt, die der Test in Bezug auf mögliche Ausprägungen des anderen (latenten) Teilaspekts mentale ‚Geschwindigkeit’ vorgibt.

Folglich halten Partchev und de Boeck (2012) die sogenannte ‚cognitive correlates method’ als wenig geeignet zur Kontrolle von IQ-Testwerten und schlagen aus der IRT abgeleitete Auswertungsmodelle vor. Ähnliche Hinweise finden sich in der Persönlichkeitsforschung: In der Diskussion um Aggressionsreaktionen nimmt man aktuell an, dass deren Messung über manifeste Indikatoren zugleich eine individuelle Traiteigenschaft ‚Agressivität’ (im Sinne von Fähigkeit’) und als auch das Statemerkmal ‚situationale Sensitivität’ (als personenspezifische Interpretation einer Situation) erfasst (Schmitt et al., 2008).

Die Möglichkeit, einen Teilaspekt von Handlungen (z. B. komplexe Aufgaben schnell versus korrekt versus vollumfänglich zu lösen) als separates Merkmal unkonfundiert zu erfassen und den Einfluss auf den jeweils anderen Teilaspekt per Moderatoranalyse oder Kovarianzanalyse zu kontrollieren, fehlt aber nicht nur bei Intelligenz- oder Persönlichkeitstests: Im ‚Eurobarometer’ finden sich regelmäßig Länderunterschiede, z. B. bezüglich des Interesses an aktuellen wissenschaftlichen Entdeckungen und technologischen Entwicklungen3. Studien wie diese sind ein typischer Fall, in dem die Antworten von Befragten nicht nur ihre (latenten) Einstellungen bezüglich des fraglichen Sachverhaltes wiedergeben, sondern zugleich auch generelle Antwortdispositionsunterschiede abbilden (z. B. dass Befragte aus Österreich regelmäßig kritischer sind, d.h. seltener Zustimmung äußern als Befragte aus der Schweiz oder Deutschland). Im Ländervergleich beobachtete Unterschiede hinsichtlich manifester Indikatoren sind daher noch vorsichtiger zu interpretieren als ohnehin angeraten wird – eine Forderung, die über die gängigen Analysen von Konstrukt- und Itemäquivalenz hinausgeht (Kolb & Beck, 2011).

Das im vorliegenden Beitrag als Ursache-Wirkungs-Konvergenz bezeichnete Problem, das beide für das Zustandekommen eines manifesten Testwertes ursächliche Aspekte, also nicht nur die (latente) Fähigkeit einer Person, ‚korrekt‘ antworten zu können (hier als Antwortleistung adressiert), sondern auch die Schwierigkeit einer Testaufgabe (hier Antwortdisposition genannt) State-Merkmale2 sein könnten, sollte auch in der medien-, markt- und werbepsychologischen Forschung nicht unterschätzt werden.

Ob die übliche Annahme der persönlichkeitspsychologischen Forschung (vgl. Schmitt, 2004), das zentrale Eigenschaften einer Person und damit auch deren Antwortdisposition(en) zeitlich und über verschiedene Handlungen hinweg stabile Merkmale (‚Trait’) sind, deren Realisation als konkreter Zustand (‚State’) im Grunde die Form einer Konstante aufweist, auch für die Antwortdisposition in Gedächtnistests gilt, wird in einer Re-Analyse von zwei Studien zur Werbewirksamkeit verschiedener Informationsdarbietungen geprüft.

3 Zur Unterscheidung von Antwortleistung und Antwortdisposition in Gedächtnistest

Gedächtnisleistungen gehören neben Einstellungen, Emotionen und Verhaltensdispositionen zu den zentralen Analyseebenen in der Werbewirkungsforschung. Nach einer Metaanalyse von Wirth und Kolb (vgl. 1999) über 255, zwischen 1970 und 1997 in 11 deutschsprachigen und internationalen kommunikationswissenschaftliche Fachzeitschriften erschienen Studien setzen sowohl Rezeptions- als auch Wirkungsforschung schwerpunktmäßig Gedächtnismessungen ein: 52 Prozent der erhobenen Indizes sind gestützte oder ungestützte Recall-Tests oder Recall-Test-Mischtypen, ein weiteres Zehntel der untersuchten Studien verwendeten unterschiedliche Retrieval-Typen. Auch die Aktualisierung der Studie ergibt ähnliche Ergebnisse, wenngleich die Werte zu Gunsten von Recognition-Tests zurückgehen: Im Zeitraum von 1998 bis 2005 erheben die Autoren nur noch 36 Prozent reiner Recall-Messungen und sieben Prozent Mischtypen (vgl. Wirth, Heydecker & Kolb, 2006). In der Praxis der Marktkommunikation ist ‚Gedächtnis’ ebenfalls eine zentrale Ziel- und Planungsgröße (vgl. Engelhardt, 1999) und auch hier sind die Gedächtnismessungen meist eindimensional konzipiert: Die Testergebnisse werden uni-sono als Medienwirkung bzw. kommunikative Leistung des Informationsangebotes gewertet. Zwischen der Antwortleistung und den Bedingungen ihres Zustandekommens wird meist nicht unterschieden – ein Umstand, der angesichts des Verbreitungsgrads von Gedächtnistests mit Erinnerungshilfen (gestützter Recall oder Recognition-Test) verwundert.

Die Anwendung der Signalentdeckungstheorie (SDT) auf Wiedererkennungsdaten macht die aus der Anwendung der KTT folgende Bedingung obsolet, dass andere für das Zustandekommen der individuellen Testwerte ebenfalls verantwortliche Drittvariablen (hier die ‚Antwortneigung’ verstanden als individuelle Disposition, in der Entdeckung oder Klassifizierung von Objekten und Personen Fehler eher zuzulassen oder eher vermeiden zu wollen) zufällig verteilt und von der vermeintlichen Ursache (hier dem Gedächtnispotential eines Informationsangebotes) stochastisch unabhängig sein müssen.

Um die Signalentdeckungstheorie anwenden zu können, ist ein Wiedererkennungstest a) als ja/nein-Recognition zu konzipieren und sind b) die Antworten der Befragten zu den zwei Typen von Itemvorgaben (‚alte’ Items = im medialen Angebot bereits vermittelte Reize und ‚neue’ Items = erstmals im Wiedererkennungstest präsentiert) in einem Vier-Felder-Schema aufzuschlüsseln: Das Wiedererkennen eines im Medienangebot zuvor tatsächlich gezeigten Reizes ist ein ‚Treffer’ und dessen Nicht-Wiedererkennung ein ‚Verpasser’, das Wiedererkennen eines zuvor nicht gezeigten Reizes ein ‚falscher Alarm’ und das richtige Nicht-Wiedererkennen desselben eine ‚korrekte Zurückweisung’ (siehe Kategorien in Abbildung 1). Die SDT beschreibt Gedächtnisleistungen als Funktion der Empfindungsstärke eines zu erinnernden oder wiederzuerkennenden Items (vgl. Velden, 1982). Beim Vergleich mehrerer Personen oder alternativ von mehreren Reizen streuen die Empfindungsstärken gemäß dem Modell des sensorischen Kontinuums um eine mittlere Empfindungsstärke. Werden in einem Wiedererkennungstest nicht nur ein zuvor bereits präsentierter Reiz (‚altes Item’), sondern ein zusätzlicher, bisher nicht präsentierter Reiz vorgelegt (‚neues Item’), streuen die Empfindungsstärken in zwei separaten Verteilungen (mit  1 für ‚neue’ und  2 für ‚alte’ Items). Im Idealfall, z. B. wenn Reize eindeutig unterscheidbar sind oder bei Medienangeboten mit wenigen ausgewählten Informationen, sind die beiden Verteilungsfunktionen (nahezu) überlappungsfrei.


Abbildung 1: Ergebnisse im Wiedererkennungstest nach dem Modell des sensorischen Kontinuums.

Im Alltag jedoch, wenn Personen komplexe multimediale und multimodale Informationsangebote mit vielen ähnlichen Reizen wenig aufmerksam rezipieren oder die Abfrageliste eines Gedächtnistests viele Items enthält, überlagern sich die Verteilungsfunktionen für die Empfindungsstärken von ‚alten’ und ‚neuen’ Items. Löst nun ein ‚altes’ Item, d.h. bereits zuvor dargebotener Reiz einen kleineren Empfindungswert aus als ein ‚neues’ Item, kommt es zu fehlerhaften Zuordnungen: Der neue, zuvor nicht gezeigte Reiz wird fälschlich wiedererkannt (‚falscher Alarm’), der zuvor tatsächlich gezeigte Reiz jedoch übersehen (‚Verpasser’). Die Fähigkeit von Personen, zwischen ‚alten’ und ‚neuen’ Items unterscheiden zu können – sie ist z. B. abhängig von der Stärke einer Reizdarbietung und damit ein Maß für das Aufmerksamkeits- bzw. Gedächtnispotential eines Medienangebotes – wird in der SDT als Diskriminationsleistung bezeichnet.

Die Entscheidung, ein Item in der Vorlagenliste des Wiedererkennungstests als ‚alt’ oder als ‚neu’ zu markieren, ist aber nicht nur eine Frage der Diskriminationsfähigkeit. Die Empfindungsstärke, die Reize bei wenig aufmerksamer Rezeption, bei einer Vielzahl von Informationen im Medienangebot und/oder bei einer großen Anzahl von Items in der Abfrageliste des Wiedererkennungstest hervorrufen, lässt selten nur eine, sondern meist zwei in gleicher Weise plausible Entscheidungen zu – jene, dass der Reiz in der vorherigen Mediendarbietung bereits vorkam (‚altes’ Item), aber auch die gegenteilige Entscheidung, dass es sich um einen bisher nicht präsentierten Reiz (‚neues’ Item) handelt. Den Wert der Empfindungsstärke, ab dem sich Personen bei Unsicherheit für die Antwort ‚altes’ Item statt ‚neues’ Item entscheiden, markiert die in Abbildung 1 als Reaktionsneigung bezeichnete senkrechte Linie. Die Reaktionsneigung von Personen (IRT = Aufgabenschwierigkeit, hier auch als Antwortdisposition bezeichnet) lässt sich zunächst als individuell ‚festgelegt’ vorstellen:

Aufgrund bestimmter Prädisposition (vermutlich handelt es sich um offene, spontane und selbstbewusste Menschen mit geringer externaler Kontrollüberzeugung) neigen manche Personen grundsätzlich dazu, Reize auch bei kleiner Empfindungsstärke als ‚alt’ zu markieren, während andere Personen (vermutlich ängstlichere und weniger selbstbewusste Menschen mit höherer externaler Kontrollüberzeugung) solche Reize eher als ‚neu’ einstufen. Vorstellbar ist aber auch, dass die Ursachen für unterschiedliche Reaktionsneigungen situativ sind: Wer in einem Quiz mit einer richtigen Antwort eine Runde weiter kommt, wird sich frühzeitig äußern, auch wenn subjektiv noch große Unsicherheit über die Korrektheit der Antwort besteht. Wenn eine falsche Antwort dagegen Punktabzug bedeutet, den Kontrahenten einen Punkt bringt oder in Spielshows wie MILLIONENSHOW oder WER WIRD MILLIONÄR sogar zum Verlust des Gewinns führt, warten Quizteilnehmer eher länger mit ihrer Antwort ab – und zwar so lange, bis sie sicherer sind, damit richtig zu liegen.

4 Informationsgehalt der SDT

Das ‚Wiedererkennen’ von zuvor nicht präsentierten (‚falscher Alarm’) bzw. das ‚Übersehen’ von zuvor präsentierten Reizen (‚Verpasser’) steht offenbar nicht nur im Zusammenhang mit der kognitiven Leistungsfähigkeit – wenn die Entscheidung für die Antwortkategorien ‚alter Reiz’ versus ‚neuer Reiz’ unter Unsicherheit fällt, geben Wiedererkennungsraten ebenso die Antwortdisposition von Personen wieder. Wie Abbildung 2 verdeutlicht, ist deren Ausprägung von erheblicher Konsequenz für das Ergebnis einfacher Gedächtnistests: Bei der Antwortdisposition ‚progressives Rating’ ist die Wahrscheinlichkeit geringer, in einem Medienangebot tatsächlich dargebotene Reize im Wiederkennungstest als ‚nicht wiedererkannt’ zu markieren (‚Verpasser’). Allerdings ist dadurch die Gefahr größer, dass zuvor nicht dargebotene Reize fälschlich wiedererkannt werden (‚falscher Alarm’) – die Wiedererkennungen sind wenig korrekt. Umgekehrt stellt sich die Situation für Personen mit der Antwortdisposition ‚konservatives Rating’ dar: Die Wahrscheinlichkeit, im Medienangebot nicht enthaltene Stimuli fälschlich als ‚wiedererkannt’ zu markieren (‚falscher Alarm’) ist wesentlich geringer. Allerdings ist bei einem ‚konservativem Rating’ die Gefahr größer, im Medienangebot tatsächlich enthaltene Stimuli als ‚nicht wiedererkannt’ einzuordnen‚ d.h. einen ‚Verpasser’ zu erzielen.


Abbildung 2: Reaktionsneigung und Fehler in der Wiedererkennung: ‚progressives versus konservatives Rating.

Mit der Unterscheidung von Diskriminationsleistung und Reaktionsneigung in der Signalentdeckungstheorie wird deutlich, vor welchem Problem die medien- und werbepsychologische Forschung steht, die allein Wiedererkennungsraten (Anzahl der als wiedererkannt markierten, im Medienangebot tatsächlich präsentierten Stimuli) bzw. die Anzahl von Nennungen in einem Recall-Test als Gedächtnisleistung begreift und darüber Aussagen über das kognitive Potential von Medienangeboten trifft. Unbestritten ist, dass hohe Wiedererkennungsraten bzw. viele Nennungen in einem Recall-Test zunächst auf ein erhebliches Aktivierungspotential von Medienangeboten hinweisen; ebenso ist es aber auch möglich, dass Befragte einen Gedächtnistest ‚progressiv’ bearbeiten, d.h. Antworten geben, ohne sich über das tatsächliche Rezeptionserleben ‚sicher’ zu sein. Umgekehrt lassen sich geringe Wiedererkennungsraten oder wenige Nennungen in einem Recall-Test als minimales Aktivierungspotential von Medienangeboten deuten; allerdings kann die Ursache auch hier im Antwortverhalten (= Antwortdisposition) liegen: Das Medienangebot kann genauso viel Aktivierungspotential entfaltet haben wie im Fall zuvor, nur haben die Befragten im Gedächtnistest vielleicht ‚konservativer’ entschieden.

5 Antwortleistung und Antwortdisposition als ‚State’-Variablen in Wiedererkennungstests – eine Reanalyse von zwei medienpsychologischen Studien

Um die empirische Relevanz der theoretisch plausiblen Unterscheidung von Messwerten in einen Leistungsaspekt und eine Antwortdisposition für die medien- und werbepsychologische Forschung zu verdeutlichen, wurden zwei frühere Medienwirkungsstudien reanalysiert. In beiden Studien wurden Gedächtniseffekte über ja/nein-Wiedererkennungstests erfasst – entsprechend lassen sich unter Anwendung der SDT die tatsächliche Wiedererkennungsleistung (IRT = Personenfähigkeit) und die Antwortdisposition (IRT = Aufgabenschwierigkeit) einer Person beim Lösen der Wiedererkennungsaufgabe getrennt berechnen und ausweisen.

5.1 Skizze der Ursprungsstudien mit Wiedererkennungsaufgaben

Studie 1, eines von drei Experimenten in der Studienreihe zur Analyse kommunikativer Abgrenzungen von Zuschauern am Beispiel Programmintegration (vgl. Woelke, 2004), wurde im Wintersemester 2000 an der Universität Jena durchgeführt. Es handelte sich um ein Zwei-Gruppen-Experiment mit zufälliger Zuteilung der Untersuchungsteilnehmer4: In beiden Gruppen war Stimulus eine aus Originalszenen und Originalwerbespots erstellte Fassung der Show DIE DICKSTEN DINGER (RTL 2, 1997-2001), die von drei Werbeblöcken unterbrochen wurde und wie in der Originalversion Moderation, Spotpräsentationen, Charts und ein Gewinnspiel enthielt. In der ersten Experimentalgruppe (‚Sendungsgruppe‘) waren die sechs Zielwerbespots (GMX-Internet, IKEA-Möbel, CONTINENTAL-Reifen, TUI-Flugreisen, SWATCH-IRONY-Uhren und TUBORG-Bier) innerhalb der Sendung zu sehen, abgestimmt auf die Anmoderation.

Für die zweite Experimentalgruppe (‚Werbungsgruppe‘) wurden die Stimuli rotiert: Hier waren die sechs Zielspots Element der Werbeblöcke, welche die Sendungen zwischen den drei Sendungsteilen unterbrachen. Die Position der Zielspots, die in der Stimulusfassung für die Sendungsgruppe als Teil der Show DIE DICKSTEN DINGER nach der Anmoderation ausgestrahlt wurden, übernahmen jene Spots, die in der ersten Stimulusfassung die Stellen im Werbeblock ausfüllten, die hier in Stimulusfassung zwei von den sechs Zielspots eingenommen wurden.

Studie 2 war eine ebenfalls experimentelle Untersuchung zur Wirksamkeit von Product Placement, die im Frühjahr 1996 an der Freien Universität sowie an der Technischen Universität Berlin durchgeführt wurde (vgl. Woelke, 1998). Die Untersuchungsteilnehmer5 , per Zufallsverfahren aufgeteilt in zwei Gruppen, sahen einen Ausschnitt (Dauer ca. 55 Minuten) des Spielfilms BIS ANS ENDE DER WELT (Regie: Wim Wenders, 1987). In diesem Film waren zahlreiche Produkte und Marken zu sehen, die aktuelle Angebote aber auch Zukunftstechnologien bekannter Marken (wie BOSS, BAUKNECHT, COCA COLA, LUFTHANSA, SONY-CAR-INFORMATION-SYSTEM, SONY-MOBILE-BILD-TELEFONE; SHARP-NETBOOK) vorstellten: Gruppe A sah den Film in der Originalfassung mit Product Placements, allerdings mit geänderter Anzahl von Platzierungen: Einblendungen von Produkten und Marken aus der realen Konsumwelt (BOSS, BAUKNECHT und COCA-COLA) wurde entfernt, ebenso einige sehr kurze Einblendungen von LUFTHANSA, SONY (2x: Mobil-Bild-Telefon und Car-Informationssystem) und SHARP, die zusätzlich zu langen und ausreichend erkennbaren Darbietungen für diese vier Produkte/Marken in so genannten Product-Placement-Inseln im Spielfilm vorkamen. In der Stimulusfassung für Gruppe B kam keines der vier Produkte als Product Placement im Spielfilm vor; die dazu entfernten Szenen wurden zu Werbespots umgeschnitten und zusammen mit anderen Werbespots in zwei Unterbrecherwerbeblöcken (anstelle der Product-Placment-Inseln) innerhalb von BIS ANS ENDE DER WELT gezeigt.

5.2 Ermittlung von Leistungsaspekt (d’) und Antwortdisposition (B’’) und Interpretation der Kennwerte

Um Leistungsaspekt (SDT: Diskriminationsleistung) d’ und Antwortdisposition (SDT: Reaktionsneigung) B” bestimmen zu können, wurden zunächst die Wahrscheinlichkeiten von ‚Treffer (H)’ und ‚falscher Alarm (FA)’ ermittelt und anhand dieser zwei Informationen der Leistungsaspekt d’ (bzw. AG) und die Antwortdisposition (B”) berechnet (siehe Abbildung 3). Für den nicht-parametrischen Fall des ja/nein-Recognition-Tests wird die Berechnung von AG nach Craig anstelle von d’ vorgeschlagen (Shapiro, 1994).Für die Interpretation von AG und B” gilt: Je größer AG, desto besser kann eine Person zwischen zuvor bereits gezeigten (‚alte Items’) und in der Abfrageliste erstmals vorkommenden Stimuli (‚neue Items’) unterscheiden. B” kann Werte im Bereich von –1 bis +1 annehmen. Positive Werte von B” verweisen auf ein konservatives Entscheidungsverhalten, d.h. eine Person, die fälschliche Wiedererkennungen (ein ‚neues’ Items wird als ‚alt’ bezeichnet = ‚falscher Alarm’) zu vermeiden versucht und


Abbildung 3: Formeln zur Berechnung von Leistungsaspekt (AG) und Antwortdisposition (B’’)( Shapiro, 1994, S. 144).

damit riskiert, die Zahl der korrekten Wiedererkennungen (‚Treffer’) zu reduzieren. Negative Werte von B” verweisen auf ein progressives Entscheidungsverhalten: Personen die so raten, wollen möglichst viele ‚Treffer’ erzielen, wodurch sie das Risiko für fälschliche Wiedererkennungen (‚falscher Alarm’) erhöhen.

5.3 Ergebnisse

In Studie 1 zeigte sich kein Effekt der unterschiedlichen Programmintegration von Werbespots (siehe Tabelle 2): Die Wiedererkennungsraten unterschieden sich nicht, egal ob Werbespots für die sechs untersuchten Produkte/Marken innerhalb oder in Werbeblöcken zwischen Teilen der Unterhaltungsshow Die dicksten Dinger vorkamen. Nach der statistischen Analyse der Wiedererkennungsdaten zeigte sich selbiger Befunde für die Fähigkeit der Befragten, die Marken- oder Produktnamen im Fragebogen in alte (Marke- oder Produkt wurden zuvor im TV-Mitschnitt präsentiert) und neue Items (Marke- oder Produkt war nicht im TV-Mitschnitt enthalten) einzuteilen: In beiden Gruppen waren die Wiedererkennungsraten für die im Werbeblock bzw. in der Show gezeigten Zielmarken und -produkte (‚alte Reize’) ebenso ausgeprägt wie AG als Maß für die Fähigkeit, zwischen diesen und den in der Abfrage des Wiedererkennungstests als Distraktoren präsentierten ‚neuen’ Reizen unterscheiden zu können. Dieses Ergebnis legt nahe, beiden Darbietungsformen ein ähnliches Aktivierungs- und Wahrnehmungspotential zu unterstellen. Gemäß Signalentdeckungstheorie ist aber auch eine Interpretation derart vorstellbar, dass es tatsächlich eine Differenz im sensorisch Aktivierungspotential der Darbietungsformen Show oder Werbeblock gab, die zunächst unterschiedliche latente Antwortleistungen befördert haben könnte, in der manifesten Indikatorvariable ‚Wiedererkennungsraten’ aber nicht sichtbar wurde, da in beiden Gruppen mit unterschiedlichen Dispositionen vorgegangen wurde. Die deskriptiven Werte für die Reaktionsneigungen deuten zunächst auf ein tendenziell progressiveres Entscheidungsverhalten (geringe Werte für B”) von Personen in der Sendungsgruppe im Vergleich zu Personen in der Werbungsgruppe hin. Allerdings sind die Unterschiede innerhalb der Gruppen bei Standardabweichungen von 0,73 (Sendungsgruppe) und 0,77 (Werbungsgruppe) höher als die Unterschiede zwischen den zwei Gruppen, so dass ein signifikanter Effekt der Darbietungsformen auf die Reaktionsneigungen auszuschließen ist.

Tabelle 2: Analyse des kognitiven Potentials von Informationsangeboten – ‚konventionelle’ Auswertung des Wiedererkennungstests und Auswertung gemäß SDT für Studie 1 (Nmax = 105).

Es ist also festzuhalten: Mit der Programmintegration von Werbespots wird das Wiedererkennungspotential der Marken- bzw. Produktinformationen weder verbessert noch verschlechtert – Werbespots in einem redaktionellen Programm statt in einem Werbeblock darzubieten ist unerheblich für die Wahrnehmung und das Wiedererkennen von Marken- und Produkten.

In Studie 2, dem Vergleich von Product Placements im Spielfilm BIS ANS ENDE DER WELT bzw. Werbespots im Werbeblock zwischen Teilen der Fernsehfassung dieses Spielfilms, fällt die Bewertung in Bezug auf die Wiedererkennungsraten dagegen anders aus als in Studie 1 (siehe Tabelle 3): Die Informationen zu einem Car-Info-Systems und einem Mobiltelefon von SONY sowie einem SHARP-Netbook wurden bei der Werbespotdarbietung aufmerksamer wahrgenommen und intensiver verarbeitet als bei einer Platzierung dieser Produkte im Spielfilm. Während knapp die Hälfte der Personen in Gruppe B (Werbespots) das SHARP-Netbook im Gedächtnistest korrekt wiedererkannte, war dies in Gruppe A (Product Placements) nur bei etwa jeder zehnten Person der Fall. Eine Ausnahme betrifft die Platzierung von LUFTHANSA im Spielfilm: Als sogenanntes Creative Placement war der LUFTHANSA-Airliner nicht nur Hintergrundkulisse, sondern selbst Handlungsträger und wurde deshalb ähnlich intensiv wahrgenommen wie bei der Werbespotdarbietung. Neben der besseren Gesamtwerte für die vier möglichen korrekten Wiedererkennungen (‚Wiedererkennungsrate gesamt’) konnten Personen aus der Werbespotgruppe in der Wiedererkennungsaufgabe auch besser zwischen alten (Marke- oder Produkt wurde zuvor präsentiert) und neuen Reizen (Marke- oder Produkt war nicht enthalten) unterscheiden (‚AG’) – ein Befund, der (abgesehen von dessen eingeschränkter Interpretierbarkeit aufgrund heterogener Fehlervarianzen) zunächst auf ein geringeres Aktivierungspotential von Product Placements im Vergleich zu Werbespots verweist. Wie zuvor diskutiert, lässt sich das Ergebnis des Wiedererkennungstests in Studie 2 aber auch ganz anders interpretieren: Wenn Personen in der ja/nein-Wiedererkennungsaufgabe zu Werbespotszenen einer anderen Antwortdisposition folgten als Personen in der ja/nein-Wiedererkennungsaufgabe zu Filmszenen, wäre die Darbietungsform der werblichen Botschaft in Bezug auf das Aktivierungspotential als ähnlicher einzuschätzen, auch wenn sich die Wiedererkennungsraten signifikant unterscheiden. Diese Annahme bestätigt sich aufgrund der Werte für die Reaktionsneigung: Personen in Gruppe A, also jene, die Marken und Produkte innerhalb des Spielfilms sahen, erweisen sich im Wiedererkennungstest eher als ‚konservative Rater’. Indem sie versuchten, fälschliche Wiedererkennungen (‚falscher Alarm’) zu vermeiden, war eine im Vergleich zu den anderen Items in der Vorlagenliste des Wiedererkennungstests deutlich erhöhte Empfindungsstärke notwendig, einen Reiz als ‚zuvor gesehen’ zu markieren. Die in den Filmszenen enthaltenen Marken-/Produktdarstellungen waren offenbaren nicht aufdringlich genug für eine elaborierte Verarbeitung und die Differenz zu einem ‚neuen’ Item in der Abfrageliste zu gering – in dieser Unsicherheitssituation auf Nummer sicher gehend entschieden sich die Befragten im Wiedererkennungstest bei der überwiegenden Zahl von Items für die Antwort ‚zuvor nicht gesehen’ und verpassten dadurch Items, für die eine Wiedererkennung korrekt (‚Treffer’) gewesen wäre. Ganz anders gingen die Befragten in Gruppe B vor, denen Marken und Produkte per Werbespot dargeboten wurden: mit einem um fast 0,5 Punkte geringeren Wert für die Reaktionsneigung (bei einem Wertebereich von B” von +1 bis -1) erweisen sich diese im Vergleich zu Personen in Gruppe A als deutlich ‚progressivere Rater’, wenngleich B” noch immer im konservativen Bereich und nahe dem theoretischen Mittel liegt.

Tabelle 2: Analyse des kognitiven Potentials von Informationsangeboten – ‚konventionelle’ Auswertung des Wiedererkennungstests und Auswertung gemäß SDT für Studie 1 (Nmax = 105).

Indem Personen in Gruppe B versuchten, möglichst viele Treffer zu erzielen, d.h. ‚gute Werbungsentdecker zu sein‘, entschieden sie sich bereits bei einer (im Vergleich zu anderen Items in der Vorlagenliste des Wiedererkennungstests) minimal erhöhten Empfindungsstärke für die Antwortkategorie ‚zuvor gesehen’ – auch wenn die Marken-/Produktinformationen in Gruppe B (Werbespots) gar nicht wesentlich aufdringlicher waren als jene in Gruppe A. Dadurch wurde zwar das Risiko eingegangen, einen Reiz als ‚zuvor gesehen’ zu identifizieren, der im zuvor dargebotenen Werbeblock gar nicht vorkam – oft genug war diese Entscheidung aber (zufällig) richtig und die Wiedererkennung korrekt (ein ‚Treffer’). So entstand unter dem Eindruck der höheren Wiedererkennungsraten in Gruppe B der Eindruck, das Aktivierungspotential von Werbespots (mit Ausnahme LUFTHANSA) sei höher als das von Product Placements. Als Folge der separaten Betrachtung von Antwortleistung (Diskriminationsfähigkeit) und Antwortdisposition (Reaktionsneigung) in Studie 2 erscheint der Befund eines höheren Aktivierungspotentials von Werbespots gegenüber Product Placements nicht mehr ausreichend gültig.

Kritiker dieser Auffassung könnten einwenden, dass die als Reaktionsneigungen gemessenen unterschiedlichen Dispositionen, in einem Wiedererkennungstest bei Unsicherheit über die vorherige Wahrnehmung mit ‚zuvor gesehen’ bzw. ‚zuvor nicht gesehen’ zu antworten, eine Frage der Persönlichkeit, d.h. eine ‚Trait’-Eigenschaft sind und damit a priori vorhanden gewesen sein müssten. Faktisch können die beobachteten Gruppenunterschiede in den Reaktionsneigungen zum Wiedererkennungstest aber nur situative Realisationen dieser potentiell unterschiedlichen Antwortdispositionen in Folge der Darbietung unterschiedlicher Formate werblicher Botschaften sein – denn a) waren die interessierenden auditiven und visuellen Reizen in der Ursprungsstudie zur Reanalyse nahezu identisch, b) gab es im Unterschied zur üblichen Vorgehensweise bei Detektionsaufgaben (vgl. Fahr & Noessing, 2006) zuvor nicht die Instruktion, auf Werbespots bzw. Szenen im Spielfilm mit Produktplatzierungen zu achten und c) handelt es sich um ein kontrolliertes Experiment mit Randomisierung, bei dem alle Personen per Zufall auf die zwei Gruppen aufgeteilt wurden. Im Durchschnitt von A- und B-Gruppe waren die für einzelne Personen potentiell vielleicht unterschiedlich ausgeprägten Antwortendispositionen vor der Stimuluspräsentation damit ähnlich und können die Mittelwertunterschiede im Wiedererkennungstest (Wiedererkennungsraten und Diskriminationsleistungen) nach der Stimulusdarbietung nicht erklären (vgl. Rasch, Verdooren & Gowers, 1999).

Diese Interpretation belegt auch eine moderierte Regression zum Test der Interaktion der beiden angenommenen Verursachungsgrößen ‚Format der Informationsdarbietung’ (Gruppe Product Placement versus Gruppe Werbespots) sowie ‚Reaktionsneigung’ in der Vorhersage des manifesten Indikators ‚Wiedererkennungsraten’. Die Darbietungsform werblicher Botschaften und die Reaktionsneigung sind zunächst statistisch unabhängig (kein Interaktionseffekt; siehe Abbildung 4) in ihrem Zusammenhang zu den Leistungen im Wiedererkennungstest: Product Placements werden schlechter wiedererkannt als Werbespots und konservative Rater (höhere Werte von B”) erkennen schlechter wieder als progressive Rater (geringere Werte von B”).


Abbildung 4: Test des Interaktionseffekts von ‚Format der Informationsdarbietung’ und ‚Antwortneigung’ in der Vorhersage von Wiedererkennungsrate.

Betrachtet man jedoch die bedingten Effekte wird deutlich, dass sich der Effekt der Darbietungsform des Informationsangebotes mit Veränderungen der Antwortdisposition in Richtung ‚konservatives Raten’ tendenziell verringert: Werbespots sind in Studie 2 zwar auch dann noch Product Placements überlegen, wenn Befragte statt viele Treffer (Items, die zuvor gezeigt waren, als ‚wiedererkannt’ markieren) zu erzielen lieber weniger Fehler (im Sinne von falscher Alarm, d.h. Items als ‚wiedererkannt markieren’, die zuvor nicht gezeigt waren) machen wollen (höhere Werte von B”) – im direkten Stichprobenvergleich, d.h. an den Stellen, die die durchschnittlichen Ausprägungen von Reaktionsneigungen in den jeweiligen Stimulusbedingungen markieren (Gruppe mit Werbespots = 0,05; Gruppe mit Product Placements = 0.54), ist die Differenz in den Wiedererkennungsraten mit 0.97 aber deutlich größer als der Unterschied, der für zwei Personen mit gleichen Reaktionsneigungen (z. B. 0,59 bei B”=0) feststellbar ist – faktisch ist der Unterschied in den kognitiven Potentialen der beiden Informationsdarbietungen Werbespot und Product Placement geringer als über den manifesten ) Indikator vorhergesagt.

Mit der moderierten Regression wurde zudem die kritische Frage untersucht, ob man Größen wie ‚Diskriminationsleistung’ und ‚Reaktionsneigung’ als Kontrollvariablen im Hinblick auf eine Kriteriumsvariable verwenden kann, wenn diese aus der manifesten Indikatorvariable abgeleitet sind. Sowohl bei der ‚Reaktionsneigung’ als auch beim Interaktionsterm ‚Format der Informationsdarbietung’ x ‚Reaktionsneigung’) wurden die Grenzen im Test der Multikollinearität (zum Prädiktor ‚Format der Informationsdarbietung’ als angenommenem Haupteffekt für die Wiedererkennungsraten) nicht überschritten (‚Reaktionsneigung’: Toleranz = 0.270; VIF = 3.709; ‚Format der Informationsdarbietung’ x ‚Reaktionsneigung’: Toleranz = 0.312; VIF = 3.2005). Damit lässt sich auch ausschließen, dass die Strategie, Wiedererkennungsraten in einen Leistungsaspekt und in eine Antwortdisposition aufzuteilen, um so eine Kontrolle des manifesten Indikators für den Medieneffekt zu erreichen, dadurch konterkariert wird, dass die Kontrollgröße selbst konfundiert ist.

6 Fazit der (Re)Analyse – Relevanz der Unterscheidung von Leistungsaspekt und Antwortdisposition in medien- und werbepsychologischen Studien

Der vorliegende Beitrag untersuchte, inwiefern die in Latent-Trait-Analysen (LTA) bzw. in der Item-Response-Theorie (IRT) übliche Aufteilung manifester Indikatoren in eine Aufgabenschwierigkeit und in eine Personenfähigkeit auf Messungen zum Gedächtnis übertragen werden kann. Wie gezeigt liefert die Signal-Entdeckungs-Theorie (SDT) einen geeigneten Ansatz, um Wiedererkennungsdaten analog zur IRT in zwei Informationen aufzuteilen:

In eine mit der (latenten) Personenfähigkeit vergleichbare Diskriminationsleistung (‚alte’ von ‚neuen’ Reizen unterscheiden zu können) sowie eine mit der Aufgabenschwierigkeit vergleichbare Neigung, bei Unsicherheit über die Vertrautheit mit ‚alten’ bzw. ‚neuen’ Reizen eher die Antwortkategorie ‚zuvor gesehen’ oder eher die Antwortkategorie ‚zuvor nicht gesehen’ zu wählen.

Auf Recall-Tests lässt sich das Modell der SDT prinzipiell ebenso anwenden; allerdings fehlt hier die Möglichkeit, analog zum ‚falschen Alarm’ bzw. zur ‚korrekten Zurückweisung’ in Wiedererkennungstests die nicht korrekte Erinnerung bzw. korrekte Nicht-Erinnerung zuvor nicht dargebotener Informationen über Kategorien mit prinzipiell gleicher Verteilungswahrscheinlichkeit aufzuzeichnen.

Die Erläuterungen zum Informationswert von Auswertungen gemäß SDT verdeutlichen den Erkenntnisgewinn, den die Anwendung des Konzepts lokaler stochastischer Unabhängigkeit grundsätzlich erbringt: Sie zeigen, dass es potentiell zwei und nicht nur eine Ursache für hohe Wiedererkennungsraten, d.h. für eine hohe Anzahl von korrekt wiedererkannten Reizen gibt: a) Medienangebote weisen tatsächlich ein hohes kognitives Potential auf (erhöhen Aufmerksamkeit, leiten das Lernen neuer bzw. den Abruf bekannter Konzepte an) und/oder b) Personen sind ‚progressive Rater’, d.h. sie markieren Items in Wiedererkennungstest bereits dann als zuvor gesehen, sobald sie eine minimale Vertrautheit mit entsprechenden Reizen empfinden und ohne sich sicher zu sein, dass ihre ‚Wiedererkennungen’ korrekt sind.

Während diese Erkenntnis für die mit Beobachtungsdaten arbeitende Medienpraxis im Unterschied zur Häufigkeit von Analysen nach der SDT schon immer hoch relevant war, erschien die Fokussierung auf Wiedererkennungsraten in experimentellen Studien bisher kein Problem. Unter der Annahme, die Antwortdisposition weise ähnlich wie Trait-Variablen in der Persönlichkeitspsychologie eine zeitliche und situative Konsistenz auf und sei mit der manifesten Antwortleistung unkorreliert, galt das Experiment als Methode der Wahl, potentielle Dispositionsunterschiede zu kontrollieren. Die Reanalyse von zwei experimentellen Studien mit ja/nein-Wiedererkennungsaufgaben zeigt aber, dass sich diese Annahme empirisch nicht halten lässt: Antwortdispositionen sind zumindest teilweise situativ, denn sie unterschieden sich trotz randomisierter Gruppenbildung, identischen Instruktionen aber unterschiedlichen Formaten der Darbietung werblicher Botschaften im Gruppenvergleich nach der Stimuluspräsentation. Wäre die Antwortdisposition ein ‚Trait’ und stochastisch unabhängig von der latenten Fähigkeit einer Person (einen konkreten Reiz wiederzuerkennen), hätte die Randomisierung vorab bestehende individuelle Unterschiede (z. B. Werbebotschaften leicht zu entdecken wegen höherer Coping-Kompetenz; ‚gesehen zu sagen’ egal ob man Fehler macht) egalisiert, sodass sie faktisch zwar immer noch die Ausprägung der manifesten Indikatorvariable bestimmen, das Basislevel der Wiedererkennungsraten aber synchron und ohne Unterscheide zwischen den Gruppen festlegen.

Forschungsdesigns, die Drittvariableneinflüsse durch Zufallsverteilung von Personen auf Gruppen oder mehrere Messungen an derselben Person zu kontrollieren versuchen, können das Problem der Mehrdeutigkeit von Wiedererkennungsraten ebenso wie Kovarianz- und Interaktionseffektanalysen aber nicht lösen, wenn die manifeste Antwortleistung (‚Wiedererkennungsraten’) und die Antwortdisposition (‚Reaktionsneigung’) eine gemeinsame Ursache haben, d.h. im Test konvergieren und nicht vollständig unabhängig voneinander erhoben werden können. Unterschiedliche Antwortdispositionen, die aus der Testaufgabe oder Hinweisen im Studienverlauf (z. B. die Art des Informationsangebotes) resultieren, dürften nicht nur Kennzeichen und untrennbarer Bestandteil des hier behandelten Wiedererkennungstests sein. Zwar erwiesen sich die Wiedererkennungsraten in der diskutierten Studie 2 mit wenigen Product Placements bzw. Werbespots im Informationsangebot und wenigen Items in der Vorlage zur ja/nein-Wiedererkennungsaufgabe als Indikator für Medieneffekte, den Diskriminationsleistungen und Antwortneigungen zwar relativieren, aber nicht widerlegen – bei anderen Informationsdarbietungen bzw. Testkonstellationen sind konträre Ergebnisse zu erwarten.

Wie eingangs beschrieben wurde, ist daher kritisch zu fragen, inwiefern die bisher weitgehende Nichtbeachtung der situativen Abhängigkeit der Antwortneigung von Darbietungs- und Testbedingungen als unproblematisch gelten kann. Das trifft insbesondere für Studien im Kontext globalisierter Marken- und Produktkommunikation zu, wo zu fragen ist, ob beobachtete Länderunterschiede in den Urteilen von Konsumenten tatsächlich eine substantielle Differenz anzeigen, oder nur auf unterschiedlichen Antwortdispositionen beruhen, für die kulturelle Unterschiede zwischen Ländern (vgl. Hofstede, 2001) maßgeblich sind. So gesehen ist die Annahme zielführend, dass eine Reihe von manifesten Indikatoren in medien- und werbepsychologischen Studien nicht nur Erkenntnisse über das persuasive oder lernbezogene Potential von Informationsangeboten (seien es Angebote im TV, Online-Medien, Büchern oder der interpersonalen Kommunikation) enthalten, sondern auch Ergebnis einer bestimmten Antwortdisposition sind. Antwortdispositionsunterschiede anzunehmen heißt nicht, jeden Test und jede Befragung zu problematisieren: man sollte die Bedingung der Möglichkeit des Auftretens aber bedenken und im Sinne eines ‚Differential Item Functioning’ (vgl. Embretson & Reise, 2000) nicht nur in Beobachtungsstudien, sondern auch in experimentellen Studien prüfen, um Effekte von Informationsangeboten zur Gesellschafts- und Wirtschaftskommunikation angemessen bestimmen zu können.


1Zur Unterscheidung von durchschnittlichen und individuellen kausalen Effekten siehe Neyman (1990).

2Zur Unterscheidung von Personeneigenschaften in ‚Trait’ oder ‚State’ in der medienpsychologischen Forschung siehe Schmitt (2004) und s.u.

3Ergebnisse im Eurobarometer 2010 (vgl. OQ1, 2010): Anteil der sehr interes-sierten Personen: Österreich = 21 Prozent, Deutschland = 32 Prozent, Schweiz = 33 Prozent oder für den Informationsstand über Wissenschaft und Technik (Anteil der Personen die angeben, schlecht informiert zu sein: Österreich = 51 Prozent; Schweiz = 35 Prozent; Deutschland = 36 Prozent).

4Merkmale der Stichprobe: N = 105; NFrauen = 80; MAlter = 21.4 Jahre.

5Merkmale der Stichprobe: N = 122 ; NFrauen = 90; MAlter = 24.8 Jahre.

7 Literaturverzeichnis

Cohen, J., Cohen, P., West. S. G. & Aiken, L. S. (2002). Applied Multiple Regression/Correlation Analysis for the Behavioral Sciences. Hillsdale: LEA.

Dardis, F. E., Schmierbach, M. & Limperos, A. M. (2012). The Impact of Game Customization and Control Mechanisms on Recall of Integral and Peripheral Brand Placements in Video-games. Journal of Interactive Advertising, 12, 1-12.

Embretson, S. E. & Reise, S. P. (2000). Item Response Theory for Psychologists. New Jersey: LEA.

Engelhardt, A. (1999). Werbewirkungsmessung : Hintergründe, Methoden, Möglichkeiten und Grenzen. München: Verlag R. Fischer.

Fahr, A. & Noessing, B. (2006). Werbung im Programm. Wie grenzen Zuschauer Werbung, Product Placement und Sponsoring während der Rezeption ab? Vortrag anlässlich der Münchner Medientage, München, 20. Oktober 2006.

Hofstede, G. (2001). Culture’s Consequences – Comparing Values, Behaviors, Institutions and Organizations Across Nations. Thousand Oaks: Sage.

Klein, B. (2009). Zur Werbewirksamkeit von In-Game-Advertising. München: FGM Verlag.

Kolb, S. & Beck, D. (2011). Vergleichbarkeit in der (international) vergleichenden Journalismusforschung auf der Basis von Sekundäranalysen. In T. Quandt & O. Jandura (Hrsg.). Methoden der Journalismusforschung (S. 351-366). Wiesbaden: Verlag für Sozialwissenschaften.

Kubinger, K. D. (2005). Psychological Test Calibration using the Rasch Model – Some Critical Suggestions on Traditional Approaches. International Journal of Testing, 5, 377-394.

Mackay, T., Ewing, M. Newton, F. & Windisch, L. (2009). The effect of product placement in computer games on brand attitude and recall. International Journal of Advertising, 28, 423–438.

Mokken, R. J. (1997). Nonparametric models for dichotomous responses. In R. K. Hambleton & W. J. Van der Linden (Hrsg.). Handbook of Modern Item Response Theory (P. 351-367). New York-Berlin: Springer-Verlag.

Neubauer, A. C. & Knorr, E. (1998). Three paper-and-pencil tests for speed of information processing: Psychometric properties and correlations with intelligence. Intelligence, 26, 123–151.

Neyman, J. (1990). On the application of probability theory to agricultural experiments. Essay on principles. Statistical Science, 5, 465–480.

Nicovich, S. G. (2005). The Effect of Involvement on Ad Judgment in a Video Game Environment: The Mediating Role of Presence. Journal of Interactive Advertising, 6, 29-39.

OQ1: Eurobarometer (2010). Science and Technology Report EB73.1. http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_en.pdf. (abgerufen am 02.07.2012).

Partchev, I. & De Boeck, P. (2012). Can fast and slow intelligence be differentiated? Intelligence, 40, 23–32.
Rasch, D., Verdooren, L. R. & Gowers, J. I. (1999). Fundamentals in the Design and Analysis of Experiments and Surveys. München und Wien: Oldenburg.

Richter, T. (2007). Wie analysiert man Interaktionen von metrischen und kategorialen Prädiktoren? Nicht mit Median-Splits! Zeitschrift für
Medienpsychologie, 19, 116-125.

Russel, C. A. (2002). Investigating the effectiveness of product placement in television shows: The role of modality and plot connection congruence on brand memory and attitude.Journal of Consumer Research, 29, 306-318.

Rypma, B. & Prabhakaran, V. (2009). When less is more and when more is more: The mediating roles of capacity and speed in brain-behavior efficiency. Intelligence, 37, 207–222.

Scheiblechner, H. (2007). A unified Nonparametric IRT Model for d-Dimensional Psychological Test Data (d-ISOP). Psychometrika, 72, 43–67.

Schemer, C. (2007). Wem Medienschönheiten schaden: Die differenzielle Anfälligkeit für negative Wirkungen attraktiver Werbemodels auf das Körperbild junger Frauen. Zeitschrift für Medienpsychologie, 19, 58-67.

Schmitt, M. (2004). Persönlichkeitspsychologische Grundlagen. In Mangold, R.; Vorderer, P. & Bente, G. (Hrsg.). Lehrbuch der Medienpsychologie (151-173). Göttingen: Hogrefe.

Schmitt, M., Gollwitzer, M., Baumert, A., Gschwendner, T., Hofmann, W. & Rothmund, T (2008). Traits as Situational Sensitivities. Psychometric and
Substantive Comments on the TASS Model Proposed by Marshall and Brown (2006).
Bericht aus der Arbeitsgruppe “Verantwortung, Gerechtigkeit, Moral” der Universität Koblenz-Landau, Fachbereich Psychologie. http://psydok.sulb.uni-saarland.de/volltexte/2009/2352/.

Shapiro, M. E. (1994). Signal detection measures of recognition memory. In A. Lang (Hrsg.). Measuring psychological responses to media (P. 133-148). Hillsdale: LEA.

Sheppard, L. D. & Vernon, P. A. (2007). Intelligence and speed of information processing: A review of 50 years of research. Personality and Individual Differences, 44, 247–259.

Slater, M. D., Hayes, A. F., Reineke, J. B., Long, M. & Bettinghaus, E. P. (2009). Newspaper Coverage of Cancer Prevention: Multilevel Evidence for Knowledge-Gap Effects. Journal of Communication, 59, 514–533.

Steyer, R. & Eid, M. (2001). Messen und Testen. Berlin: Springer.

Steyer, R., Partchev, I., Kroehne, U., Nagengast, B., & Fiege, C. (2010). Probability and Causality: Theory. Manuscript in preparation. Heidelberg: Springer. http://www.metheval.uni-jena.de/get.php?f=1032.

Suedfeld, P. & Tetlock, P. E. (2003). Individual differences in Information processing”. In A. Tesser & N. Schwarz (Hrsg.). Intraindividual processes (P. 284-304). Malden: Blackwell.

Taylor, D. G., Strutton, D. & Thompson, K. (2012). Self-enhancement as a motivation for sharing online advertising. Journal of Interactive Advertising, 12, 13-28.

Velden, M. (1982). Die Signalentdeckungstheorie in der Psychologie. Stuttgart: Kohlhammer.

Wirth, W. & Kolb, S. (1999). Wissensmessung in der Kommunikationsforschung. Vortrag auf der 1. Tagung der DGPuK-Fachgruppe Methoden, Leipzig 1999.

Wirth, W., Heydecker, A. & Kolb, S. (2006). Wissensmessung in der Kommunikationswissenschaft. Eine Vollerhebung der Konzeptualisierung und Operationalisierung von Wissen in zwölf nationalen und internationalen Fachzeitschriften von 1970-2005. Vortrag auf der 8. Tagung der DGPuK-Fachgruppe Methoden, Zürich.

Woelke, J. (1998). Product Placements oder Werbespots? Zwei Werbepräsentationsformen im Vergleich. Zeitschrift für Sozialpsychologie, 29, 165-174.

Woelke, J. (2004). Durch Rezeption zur Werbung. Kommunikative Abgrenzung von Fernsehgattungen. Köln: Halem Verlag.

Woelke, J. (2008). Nicht alle, aber einige mehr. Werbewirkungen unter dynamisch-transaktionaler Perspektive. In C. Wünsch, W. Früh, W. & V. Gehrau (Hrsg). Integrative Modelle in der Rezeptions- und Wirkungsforschung. Dynamische und transaktionale Perspektiven (S. 81-106). München: Fischer Verlag.

Woelke, J. & Dürager, A. (2011). Interpersonale Beeinflussbarkeit und Werbewirkung. Erstellung einer deutschsprachigen Version der ‚CSII’ und Test für die Medien- und Werbepsychologie. Journal of Business and Media Psychology, 2, 1-9.


Korrespondenzadresse:

Dr. Jens Woelke
Empirische Kommunikations- und Medienforschung
Universität Leipzig
Burgstraße 21
D-04109 Leipzig
GERMANY

jens.woelke@uni-leipzig.de

 

Inhaltsverzeichnis

1 Einleitung

2 Risiko und Gefahr im alpinen Schneesport - eine begriffssystematisierende Annäherung
2.1 Der alpine Schneesport als sportliches Handlungsfeld
2.2 Begriffsabgrenzung Risiko - Gefahr – Risikosport
2.2.1 Risiko vs. Sicherheit
2.2.2 Risiko und Gesellschaft
2.2.3 Risikosport
2.3 Unfall- und Gefahrensituation im alpinen Schneesport
2.3.1 Überblick über die Unfallsituation
2.3.2 Schnee- und Lawinenkunde
2.3.2.1 Schnee
2.3.2.2 Hangexposition und -neigung
2.3.2.3 Faktoren der Lawinenbildung
2.3.2.4 Lawinen

3 Risikomanagement als Interventionsansatz
3.1 Begriffsbestimmung und Abgrenzung
3.2 Von der Lawinenkunde zum strategischen Risikomanagement
3.3 Methoden des strategischen Risikomanagements
3.3.1 3x3 Filtermethode
3.3.2 Reduktionsmethode
3.3.3 DAV SnowCard
3.3.4 ‚Stop or Go’
3.4 Restrisiko
3.5 Perspektiven im Risikomanagement

4 Zur Psychologie des Risikomanagements: Das Risiko als Wahrnehmungs-, Bewertungs- und Entscheidungsprozess
4.1 Faktor „Mensch“ als Beobachtungsperspektive im Risikomanagement
4.2 Über die Beschränktheit menschlicher Wahrnehmung
4.3 Kognitionspsychologische Erkenntnisse
4.3.1 Heuristiken im Risikosport
4.3.2 Erfahrung als psychologisches Handlungskriterium
4.4 Sozialpsychologische Erkenntnisse
4.4.1 Gruppenverhalten und Rollendispositionen
4.4.2 ‚Sensation Seeking’ als Persönlichkeitsmerkmal

5 Empirische Untersuchung zu Wissen und Handeln abseits der Piste
5.1 Problemstellung und Zielsetzung der Untersuchung
5.2 Methodik
5.2.1 Datenerhebung
5.2.2 Durchführung
5.2.3 Bearbeitung der Daten
5.3 Darstellung der Ergebnisse
5.3.1 Allgemeine Daten
5.3.2 Ergebnisse: Wissen
5.3.3 Ergebnisse: Handeln
5.3.4 Ergebnisse: Unterschiede zwischen verschiedenen Personengruppen
5.3.4.1 Unterschiede zwischen Schneesportlehrern und Nicht-Schneesportlehrern
5.3.4.2 Unterschiede zwischen Variantenfahrern und Tourengehern
5.3.4.3 Unterschiede zwischen Gelegenheitsabseitsfahrern und riskanten Vielfahrern
5.3.4.4 Geschlechtsspezifische Unterschiede
5.4 Diskussion der Untersuchungsergebnisse
5.4.1 Diskussion der Methodik
5.4.2 Wissen
5.4.2.1 Kenntnis der Risikomanagementmethoden
5.4.2.2 Informationsgrad der Befragungsteilnehmer
5.4.3 Handeln
5.4.3.1 Anwendung der Risikomanagementmethoden
5.4.3.2 Mitführen der Notfallausrüstung
5.4.3.3 Gründe für die Nichtnutzung der Risikomanagementmethoden und der Notfallausrüstung
5.4.4 Gruppenverhalten und Kommunikation
5.4.5 Diskussion: Unterschiede zwischen verschiedenen Personengruppen
5.4.5.1 Unterschiede zwischen Schneesportlehrern und Nicht-Schneesportlehrern
5.4.5.2 Unterschiede zwischen Tourengängern und Variantenfahrern
5.4.5.3 Unterschiede zwischen Gelegenheits- und Vielfahrern
5.4.6 Geschlechtsspezifische Unterschiede

6 Mögliche Interventionsansätze
6.1 Reflexive Lawinenkunde –ein kognitionspsychologischer Interventionsansatz
6.2 ‚Risk´n´fun’- ein Beispiel für einen sozialpsychologischen Interventionsansatz

7 Schlussbetrachtung

8 Literaturverzeichnis

9 Anhang

Abbildungsverzeichnis

Abbildung 1: Systematik des Handlungsfeldes Abseitsfahren. Eigene Darstellung der Autorin in Anlehnung an Mayr 2006, 65; Hölzl 2005, 71; Deutscher Verband für das Skilehrerwesen 2006, 83; Örley 2005, 8.

Abbildung 2: Abbauende Umwandlung. Quelle: http://wa.slf.ch/index.php?id=118

Abbildung 3: Aufbauende Umwandlung. Quelle: http://wa.slf.ch/index.php?id=118

Abbildung 4: Verteilung der Lawinenunfälle nach Hangexpositionen. Quelle: http://www.ortovox.com/content/de/lawinen-know-how/faktoren/gelaende

Abbildung 5: Lockerschneelawine (links) und Schneebrettlawine (rechts). Quelle: Deutscher Skilehrerverband (2006) Fehler! Textmarke nicht definiert.

Abbildung 6: 3x3-Filtermethode. Quelle: http://www.ortovox.com/content/de/lawinen-know-how/faktoren/mensch/entscheidungsstrategien/

Abbildung 7: Professionelle Reduktionsmethode. Quelle : Munter 2005, 40.

Abbildung 8: DAV SnowCard, Vorder- und Rückseite. Quelle: http://www.av-snowcard.de/

Abbildung 9: 'Stop or Go' – Methode. Quelle: http://www.alpenverein.at/portal/ Download/Bergsport/stop_or_go__monitor_auswahl.pdf

Abbildung 10: Alter der Befragungsteilnehmer

Abbildung 11: Herkunft der Teilnehmer

Abbildung 12: Vorliebe Wintersportgeräte

Abbildung 13: Lawinenspezifisches Wissen

Abbildung 14: Risikomanagementspezifisches Wissen

Abbildung 15: Abseitsfahrerfahrung

Abbildung 16: Gründe für Nicht-Abseitsfahren

Abbildung 17: Befahrungsgebiete

Abbildung 18: Gewichtetes Risiko- und Fahrverhalten

Abbildung 19: Kenntnis der Lawinenwarnstufe und des LLBs

Abbildung 20: Kenntnis und Nutzung der Risikomanagementmethoden

Abbildung 21: Mitführung der Notfallausrüstung

Abbildung 22: Aussagen zum Gruppenverhalten

Abbildung 23: Schneesportlehrer

Abbildung 24: Lawinenspezifisches Wissen / Schneesportlehrer

Abbildung 25: Risikomanagementspezifisches Wissen

Abbildung 26: Risikoverhalten der Schneesportlehrer

Abbildung 27: Kenntnis der Lawinenwarnstufe und des Lawinenlageberichts

Abbildung 28: LVS-Gerätmitführung in Abhängigkeit bei Schneesportlehrern und Nicht-Schneesportlehrern

Abbildung 29: Methodenkenntnis und -nutzung bei Schneesportlehrern

Abbildung 30: Lawinen- und Risikospezifisches Wissen von Tourgehern und Variantenfahrern

Abbildung 31: Mitführung LVS-Gerät bei Tourengehern und Variantenfahrern

Abbildung 32: Kenntnis und Nutzung der Risikomanagementmethoden

Abbildung 33: Vorrausplanung der Aktivitäten bei Tourengehern und Variantenfahrern

Abbildung 34: Häufigkeitsverteilung der gewichteten Hangauswahl

Abbildung 35: Risikoverhalten / Geschlecht

Abbildung 36: Vergleich Skifahrer und Snowboarder in Abhängigkeit zur Auswahl risikoreicher Hänge

Abbildung 37: Risikoverhalten / Teilnahme am LVS-Lehrgang o. Freeridecamp

Abbildung 38: Abhängigkeit des Wissens vom Risikoverhalten

Abbildung 39: Kenntnis der Risikomanagementmethoden in Abhängigkeit zur Risikobereitschaft bei der Hangauswahl

Abbildung 40: Anwendung der Risikomanagementmethoden in Abhängigkeit zur Risikobereitschaft bei der Hangauswahl

Abbildung 41: Kenntnis des LLBs in Abhängigkeit zur Risikobereitschaft bei der Auswahl der Hänge

Abbildung 42: Mitführung des LVS-Gerätes in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 43: Nutzung eines Helmes in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 44: Kenntnisse der LVS-Gerätanwendung in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 45: Zustimmung zu der Aussage "Ich bin die Person, die Entscheidungen trifft“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 46: Zustimmung zu der Aussage "Ich fahre häufig als erster in den Hang“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 47: Zustimmung zu der Aussage „Ich fahre nur ungefährliche Hänge“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 48: Zustimmung zu der Aussage „Ich verfüge nur Halbwissen“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 49: Zustimmung zu der Aussage "Wir fahren so, wie es gerade passt“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 50: Zustimmung zu der Aussage „Wir diskutieren bevor wir einen Hang befahren“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 51: Risikoeinschätzung in Abhängigkeit zum Geschlecht

Abbildung 52: Methodenkenntnis in Abhängigkeit zum Geschlecht

Abbildung 53: Methodennutzung in Abhängigkeit zum Geschlecht

Abbildung 54: Kenntnis der Risikomanagementmethoden - Schneesportlehrer

Abbildung 55: Nutzung der Risikomanagementmethoden

Abbildung 56: Risikomanagementspezifisches Wissen in Abhängigkeit zur Lawinenlehrgang-und Freeridecampsteilnahme

Abbildung 57: Kenntnis der Lawinenwarnstufe und des LLBs in Abhängigkeit zum risikomanagementspezifischen Wissen

Abbildung 58: Kenntnis des LLBs im Verhältnis zum Risikoverhalten

Abbildung 59: Informationstafel mit generellen Risikomanagementinformationen und dem aktuellen LLB an einer Liftstation. Foto: Beratungsstelle für Unfallverhütung 2007

Abbildung 60: Ergebnisse von Mersch & Trenkwalder zur Methodennutzung (vgl. 2007, 50).

Abbildung 61: Nutzung der Methoden des strategischen Risikomanagements

Abbildung 62: Zustimmung zu der Aussage: „Ich fahre nur ungefährliche Hänge“ in Abhängigkeit zur Auswahl riskanter Hänge

Abbildung 63: Zustimmung zu der Aussage: „Das Restrisiko ist so klein, dass ich es für die Ausübung meiner Sportart gerne eingehe“ in Abhängigkeit zum Befahrungsverhalten

Abbildung 64: Zustimmung zu der Aussage: „Der Reiz einiger Hänge ist so groß, dass ich ohne zu überlegen hineinfahre“ in Abhängigkeit zum Befahrungsverhalten

Abbildung 65: Lawinen- und risikomanagementspezifisches Wissen in Abhängigkeit zur Hangauswahl

Abbildung 66: Zustimmung zu der Aussage: „Ich fahre immer nur in Gruppen, in denen immer mindestens eine Person Ahnung hat“ in Abhängigkeit zum Geschlecht

Abbildung 67: Lawinenlehrgangsteilnahme in Abhängigkeit zum Geschlecht

Abbildung 68: Wissensunterschiede in Abhängigkeit zum Geschlecht

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Während die globale Erwärmung die langfristigen Aussichten auf den Schneesport verschlechtert, wagen sich zunehmend mehr Sportler in das ungesicherte Gelände abseits der Pisten vor. Durch eine sich ständig weiter entwickelnde Technik der Schneesportgeräte und Aufstiegshilfen sowie einer höheren Mobilität der Akteure ist es immer mehr Menschen möglich ohne großen Aufwand in den ungesicherten Skiraum zu gelangen.

Wie in vielen anderen Trendsportarten auch, üben dabei die Kommerzialisierung und die Medien einen großen Einfluss auf die Entwicklung und das Image dieser sportlichen Aktivität aus. Bilder von tiefschneefahrenden Skifahrern[1] werben so z.B. für die Freiheiten, die Neuwagen zu bieten haben und Banken bedienen sich an ‚Backcountry Kicker’ - springenden Snowboarder, um die Unabhängigkeit neuer Kontoangebote zu bewerben. Das jugendliche und abenteuersuchende Image führt in Zusammenhang mit der Weiterentwicklung des Materials dazu, dass sich auch die Zielgruppe verändert hat und auf der Suche nach neuen Grenzen viele Menschen angesprochen werden, die mit dem Schnee ursprünglich wenig vertraut waren. Da beim Kauf der hochwertigen Ausrüstung jedoch selten über die Gefahren der Einsatzbereiche aufgeklärt wird, kann davon ausgegangen werden, dass die Akteure sich nicht nur im Dschungel der sich immer weiter ausdifferenzierenden Sportartikelindustrie zurechtfinden müssen, sondern vor allem häufig in einer völlig neuen alpinen Umgebung. Die Bedeutung der Auseinandersetzung mit dem Thema der winterlichen Gefahren wird immer dann deutlich, wenn in den Medien von Lawinenunfällen berichtet wird, in denen die Sportler sich vollkommen unbedacht im Gelände aufhielten oder aber besonders Erfahrene verunglücken. Die Ambivalenz der Medien wird dann durch laute Stimmen deutlich, die Verbote für dieses ‚lebensmüde’ Verhalten fordern und ihr Unverständnis äußern. Dabei sind die Zahlen der in Lawinen verunglückten Sportler im Vergleich zu Verkehrsopfern oder an den Folgen der Zivilisationskrankheiten sterbenden Menschen relativ gering: Jährlich sterben etwa 100-150 Sportler den ‚weißen Tod’, während ca. 50.000 Menschen europaweit in Verkehrsunfällen zu Tode kommen (vgl. Steudel 2008, 5; Brugger 2003b, 2; Engler 2001, 110). Es ist jedoch der häufig unüberlegte Umgang mit dem Risiko, der immer wieder für Aufsehen sorgt und das Image der Sportart überschattet. Die vorliegende Arbeit soll daher feststellen, ob der von den Medien vermittelte Eindruck, mit der Realität übereinstimmt. Es wird die Frage aufgeworfen, ob sich wirklich immer mehr Menschen „leichtfertig in Situationen begeben, über deren Gefahrenpotential sie sich nicht im Klaren sind (Lutz-Temsch 2008, 32). Mit anderen Worten: Wissen die Sportler überhaupt, was sie tun? Wissen sie, dass abseits der Pisten andere Gefahren lauern als im präparierten Gelände? Ist ihnen bewusst, dass es Risikomanagementmethoden gibt, die das Risiko, Opfer einer Lawine zu werden, deutlich reduzieren? Oder noch elementarer: Haben sie überhaupt ein Bewusstsein dafür, dass es etwas zu wissen gibt?

Die vorliegende Untersuchung möchte diesen Fragen auf den Grund gehen und dabei eine Lücke in der sportwissenschaftlichen Forschung schließen, indem nicht, wie in vielen Untersuchungen, nur Tourengeher, sondern allgemein alpine Schneesportler, die abseits der Piste fahren, mittels einer empirischen Onlinestudie in die Untersuchung einbezogen werden und mit der aktuellen Literatur verglichen werden.

Neben dieser Fragen soll herausgefunden werden, ob Strategien zur Risikominimierung angewendet werden oder aus welchen Gründen nicht. Erkennbare Muster sollen identifiziert und Ansätze für differenzierte Interventionspotentiale aufgezeigt werden.

Es gilt zu klären, wie sich die Wissens- und Handlungssituation der Schneesportler in Bezug auf lawinen- und risikomanagementspezifische Aspekte gestaltet. Für eine Interpretation der Ergebnisse sind zudem Gruppenverhalten sowie Einstellungen zur Sportausübung von Bedeutung. Anhand dieser Daten soll festgestellt werden, ob es Kriterien gibt, die das Wissen und die Handlungsstrukturen beeinflussen. Zudem gilt es Zusammenhänge aufzudecken und in Beziehung zu anderen Studien zu setzen.

Dazu wird sich zuerst das an diese Einführung anschließende Kapitel „ 2 Risiko und Gefahr im alpinen Schneesport - eine begriffssystematisierende Annäherung “ mit einer Beschreibung der Aktivitäten sowie der Akteure abseits der gesicherten Pisten befassen. Zudem werden die wichtigsten Begriffe wie Risiko und Risikosport erörtert, um eine Grundlage für den Verlauf der Arbeit zu liefern. Darüber hinaus sollen naive Vorstellungen von unreflektierter Selbstgefährdung im Risikosport entschärft und eine authentische Standortbestimmung vorgenommen werden. Eine kleine Schnee- und Lawinenkunde rundet das Kapitel ab und dient dem eventuell nicht näher mit dem Thema vertrauten Leser als Ausgangspunkt für das Verständnis der Materie.

Die im Kapitel „ 3 Risikomanagement als Interventionsansatz “ vorgestellten Strategien des alpinen Risikomanagements spiegeln den derzeitigen Forschungsstand zu diesem - sehr von Werner Munter dominierten - Bereich wieder und dienen als Anhaltspunkt für in der Untersuchung vorausgesetzte Kenntnisse zu diesem Thema. Gleichzeitig bildet das Kapitel eine Grundlage für das Verständnis der Arbeit, da die Entwicklung und Zielsetzung des Risikomanagements beschrieben und charakterisiert werden.

Im Kapitel „ 4 Zur Psychologie des Risikomanagements: Das Risiko als Wahrnehmungs-, Bewertungs- und Entscheidungsprozess “ werden die psychologischen Grundlagen, die menschliches Risikohandeln beeinflussen, beschrieben. Es wird deutlich, dass die defizitäre menschliche Wahrnehmung objektives Verhalten abseits der Pisten verhindert und rationale Entscheidungen durch heuristische Fallen behindert werden. Erklärungsansätze für Abweichungen vom rationalen Handeln bieten auch sozialpsychologische Erkenntnisse. So tragen Gruppenprozesse häufig dazu bei, dass in Gruppen Verantwortung an Andere abgegeben und reflektiertes Handeln erschwert wird. Für die Betrachtung der erhobenen Daten bietet dieses Kapitel eine wichtige Grundlage, da es hilft Zusammenhänge zu identifizieren und zu begründen.

Die Ergebnisse der Onlineuntersuchung werden im Kapitel „ 5 Empirische Untersuchung zu Wissen und Handeln “ erst einmal dargestellt und anschließend diskutiert. Dabei werden nicht nur die Ergebnisse als Gegenstand an sich von Interesse sein, sondern auch Gründe für eventuelle Abweichungen unterschiedlicher Personengruppen gesucht werden, um Diskrepanzen zu erklären und das Feld weiter zu spezifizieren.

In Kapitel „ 6 Mögliche Interventionsansätze “ schließlich werden Überlegungen zu möglichen Interventionsmaßnahmen dargestellt. Das Projekt ‚Risk´n´fun’ wird dabei als eine Möglichkeit dargestellt, das Thema Risikomanagement unter Jugendlichen populär zu machen, während Streichers Reflexive Lawinenkunde als Beispiel für eine stärkere Integration der psychologischen Komponente vorgestellt wird.

2 Risiko und Gefahr im alpinen Schneesport - eine begriffssystematisierende Annäherung

2.1 Der alpine Schneesport als sportliches Handlungsfeld

Um die Situation abseits gesicherter Pisten angemessen beschreiben zu können, ist es wichtig sich mit der Frage auseinander zu setzen, wer und mit welchen Motiven überhaupt abseits der gesicherten Pisten unterwegs ist. Aufgrund der rasanten Entwicklung im Trendsportbereich ist der Begriff der ‚Freerider’ weder in der vorhandenen Literatureindeutig definiert,[2] noch wird er im allgemeinen Sprachgebrauch trennscharf verwendet. Der folgende Versuch einer Systematik soll helfen die Ausdifferenzierung des Abseitsfahrens besser zu verstehen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Systematik des Handlungsfeldes Abseitsfahren. Eigene Darstellung der Autorin in Anlehnung an Mayr 2006, 65; Hölzl 2005, 71; Deutscher Verband für das Skilehrerwesen 2006, 83; Örley 2005, 8.

Für die vorliegende Arbeit ist lediglich die Unterscheidung zwischen Skitourengehen und Variantenfahrer von Bedeutung, da es sich um zwei unterschiedliche Sportarten handelt, die nicht nur verschiedene Sportgeräte erfordern[3], sondern auch von den Sportlern selbst sowie in der Literatur unterschieden werden. Eine stärkere Ausdifferenzierung ist im Rahmen der Untersuchung nicht zu erstellen, könnte jedoch wahrscheinlich für die Entwicklung differenzierter und zielgruppenangepasster Interventionsmöglichkeiten von Interesse sein. Aufgrund des fließenden Übergangs und der fehlender Differenzierung in der Literatur werden jedoch auch die Begriffe ‚Freerider’ und ‚Variantenfahrer’ im Folgenden synonym verwendet. Eine Abgrenzung kann nur modellhaften Charakter haben, zumal es auch Tourengänger gibt, die Varianten fahren, Freerider, die Tourengehen sowie Sportler die Mischformen praktizieren.

Heute gibt es kaum noch Bereiche im winterlichen Gelände, die nicht durch Wintersportler erschlossen sind (vgl. Margraf 1999, 3f.). Wie die meisten Trendsportarten ist auch das Freeriden eng mit der Materialentwicklung und den einhergehenden Einflüssen der Sportartikelbranche verbunden. Die steigende Popularität ist somit nicht zuletzt darauf zurückzuführen, dass die Freeride-Skier auch auf der Piste eine immer besser werdende Performance zeigen und Sportler somit ihr Sportgerät variabler einsetzen können (vgl. Penning 2007, 28).

Mit der Freeskiszene hat sich in den letzten Jahren ein neues Segment entwickelt, das mit denselben Codes arbeitet wie einst die Snowboardszene. Durch den ‚Style’ vereint, umfasst der Begriff ‚Freerider’ sowohl Skifahrer als auch Snowboarder, da die gegenseitige Abgrenzung und das rebellische Verhalten der Snowboarder zugunsten einer polysportiven Schneesportausübung konsumbedingt zurückgegangen ist (vgl. Tollinger et al. 2007, 199).[4] Zu unterscheiden sind die nach Abwechslung und Abenteuer suchenden Freerider jedoch von den Tourengängern, die meist offene, homogene Hänge suchen, um diese in weitgehend gleich bleibendem Rhythmus zu befahren (vgl. Örley, 2004, 6). Zudem spielt bei ihnen das Image der Sportart[5] eine wesentlich geringere Rolle, was unter anderem sowohl durch die Altersstruktur der Akteure, als auch anhand der vergleichsweise langsamen und weniger stark ausdifferenzierten Materialentwicklung deutlich wird.

Während dem Tourenskifahren eher der Gesundheitstrend unserer Gesellschaft zu Gute kommt und zu steigender Beliebtheit führt (vgl. Wäger & Zweifel 2008, 33), nimmt auch die Zahl der Freerider weiter zu, da sie in das Bild einer modernen Gesellschaft passen und dem Image der Werbung und modernen Kommunikationsmedien entsprechen. Um dem Image einer Risikosportart gerecht zu werden, halten sich Freerider meist in steilem und exponierterem Gelände auf und loten durch hohe Geschwindigkeiten und Sprünge immer wieder die persönlichen Grenzen neu aus (vgl. Mayr 2006, 65).

Aufgrund des gesellschaftlichen (Werte-) Wandels kommt es im Sport allgemein durch die Veränderung familiärer Strukturen, Bindungs- und Orientierungslosigkeit und Banalisierung des Alltags zu einer Motivneuorientierung, wie z.B. einer Suche nach Identität, Grenzerfahrungen, und der Wirksamkeit des eigenen Handelns sowie dem Wunsch nach Naturerlebnissen, welche die Popularität des Freeridens weiter vergrößert (vgl. Örley 2005, 35ff.).

Allerdings hat die Zeit, die dem Neuschnee gegeben wird, um sich zu setzen, durch die Zunahme der Sportler, die sich im Gelände aufhalten, proportional abgenommen, da jeder als erster „einen makellosen Hang befahren will“ (Weidemann 2008). Dabei sind die von oben kommenden Variantenfahrer höheren Anforderungen an die Gefahrenbeurteilung ausgesetzt, da sie nicht wie die aufsteigenden Skitourengeher während des Aufstieges in aller Ruhe die Hänge und Gefahrenstellen beobachten können (vgl. Engler 2001, 108). Die hieraus resultierenden Probleme werden im Abschnitt 2.3.2 sowie in Kapitel 3 charakterisiert.

2.2 Begriffsabgrenzung Risiko - Gefahr – Risikosport

Da im alltäglichen Sprachgebrauch die Begriffe Risiko, Gefahr, Sicherheit und Risikosport oft missverständlich oder mehrdeutig gebraucht werden, ist es für den weiteren Gebrauch in dieser Arbeit notwendig die Wortbedeutungen zu klären und voneinander abzugrenzen.

2.2.1 Risiko vs. Sicherheit

„Jede alpinistische Tätigkeit im winterlichen Gebirge ist grundsätzlich gezeichnet durch Unsicherheit und Risiko. Hier von Sicherheit zu reden, zeugt von Unwissenheit oder Unehrlichkeit.“ (Munter 2003, 125).

Der aus dem Lateinischen stammende Begriff Risiko (von ‚risicare’) bedeutete ursprünglich ‚Gefahr laufen’ oder ‚Klippen umschiffen’ und stand für Ereignisse und Tätigkeiten, die mit kritischen Situationen verknüpft waren (vgl. Warwitz 2001, 15). Heute wird der Begriff in den unterschiedlichen wissenschaftlichen Disziplinen stark divergierend verwendet, was zu Schwierigkeiten bei der Definition und zu Überschneidungen mit ähnlichen Begriffen führt (vgl. GÖRING 2006, 9ff.). Priest beschreibt das Risiko allgemein als „the potential to lose something of value“ (1990, 157), was jedoch auch die Bedeutung des Begriffs ‚Gefahr’ einschließt, der als „die menschliche Sicherheit bedrohendes Unheil“ (Brockhaus 1983 Bd. 2, 175) beschrieben wird. In der Psychologie wird das Risiko als Antonym zur Sicherheit als „eine Situation, die durch eine mangelnde Voraussehbarkeit des Kommenden bestimmt ist und zudem den Situationspartner bedroht“ (Dorsch 1998, 743) beschrieben. Luhmann setzt Risiko nicht in Opposition zu Sicherheit, sondern nimmt eine Abgrenzung zur Gefahr vor. „Von Risiken spricht man dann, wenn etwaige künftige Schäden auf die eigene Entscheidung zurückgeführt werden. [...] Bei Gefahren handelt es sich dagegen um von außen kommende Schäden“ (1988, 86). Nach Raithel sind Gefahren dabei subjektunabhängige Bedrohungen, die einer einheitlich negativen Bewertung unterliegen. Im Gegensatz dazu sind Risiken bipolar strukturiert da sie sowohl Bedrohung, als auch Chance bedeuten können. Die Herausforderung des Risikos verspricht dabei einen potentiellen Gewinn und regt den Sportler an, über sich hinauszuwachsen, während ihr ungewisser Ausgang gleichzeitig für Spannung und Ungewissheit sorgt (vgl. 2004, 24).

Wiedermann gesteht den Akteuren in seinem Risikokonzept unter der Annahme, dass sie ein Ziel trotz einer gewissen Gefährdung erreichen wollen, zwei Möglichkeiten zu: „Die Reduzierung des Schadenspotentials durch die Gefährdung oder die Verringerung der Eintrittswahrscheinlichkeit des Zielerreichens.“ (1993, 46f.).

Im Sprachgebrauch und in der sportwissenschaftlichen Literatur wird das sportliche Risiko häufig synonym mit den Begriffen ‚Wagnis’ und ‚Abenteuer’ verwendet. Diese Begriffe charakterisieren jedoch eine ganzheitliche Herausforderung, die (nur) durch den Einsatz der ganzen Person bewältigt werden kann und das Individuum als Entscheidungsträger in den Mittelpunkt rückt (vgl. Neumann 1999, 9).

Der Begriff Sicherheit wird in unserer Gesellschaft häufig als Komplementärbegriff zu Risiko verwendet und bedeutet dabei „das Freisein von Bedrohung“ (Meyers Taschenlexikon 2001, 318). Der Sozialwissenschaftler Cube geht dabei von der Annahme aus, dass der Mensch das Risiko aufsucht, um Sicherheit zu gewinnen. Wenn diese Sicherheit erreicht oder auch schon längere Zeit genossen wurde, dann treibt es den Menschen wieder zur Unsicherheit, zum Risiko (vgl. Cube, 1990, 12). Folglich ist der Sicherheitstrieb, wie jeder andere Trieb auch, nie dauerhaft befriedigt, d.h. es gibt keinen Endzustand an Sicherheit. Ist Sicherheit erreicht, wird wiederum Unsicherheit gesucht (vgl. Cube 1990, 41). Sicherheit und Risiko können somit nie absolut sein, sondern müssen immer im Zusammenhang mit dem Gegenpol gesehen werden (vgl. auch Luhmann, 1991, 37).

2.2.2 Risiko und Gesellschaft

„Ich träume von einer Risikokultur, wo man schon in der Schule lernt, dass Sicherheit eine Illusion ist und dass es darum geht, klug mit dem Risiko umzugehen und Maßnahmen zu treffen um es auf ein vernünftiges Maß zu senken. Der risikomündige Mensch checkt das Risiko und wählt das ihm angemessene Risiko selbst aus. Er ist aber auch vollumfänglich für dessen Folgen verantwortlich.“ (Munter in Munter & Larcher 2005, 19)

In der Öffentlichkeit stoßen Lawinenabgänge auf großes Interesse und die Akteure häufig auf Unverständnis für das Eingehen von Lebensgefahr. Eine mögliche Ursache hierfür könnte sein, dass sie den menschlichen Wahn der absoluten Kontrolle über die Natur relativieren oder weil es den Menschen schwer fällt, ihre eigene Machtlosigkeit zu akzeptieren. Vergleichsweise gering ist hingegen das Medieninteresse an Verkehrstoten oder Opfern von Alkohol und Nikotin, obwohl die Opferzahlen die ca. 100-150 Lawinentoten pro Jahr bei weitem übersteigen (vgl. Engler 2001, 110f.).[6] Gleichzeitig werden Menschen, die bereit sind ein erkennbares Risiko einzugehen, in unserer Gesellschaft häufig bewundert. Forciert wird dieses bilaterale Spannungsverhältnis durch die Medien, die heute einen großen Einfluss auf die Meinungsbildung der Öffentlichkeit haben(vgl. Pfister 2004, 84). In der Berichterstattung werden Risikosportler oft inszeniert und unreflektiert für ihr Verhalten glorifiziert. Auf der anderen Seite werden bei Unfällen die realen Sachverhalte häufig dramatisiert und die Ursachen auf mangelnde technische Sicherheit anstatt auf menschliches Versagen zurückgeführt (vgl. Schallberger 1995, 76). Zudem wird über Lawinenunglücke überregional berichtet, während andere Unfälle mit vergleichbaren Folgen nur im Regionalteil der Tageszeitungen erscheinen (vgl. Schwiersch 2004, 17).

Das Streben nach Sicherheit in einem abgesicherten Alltag wird dabei immer mehr zum gesellschaftlichen Standard, die Sicherheitsansprüche und –normen steigen in fast allen Bereichen. In diesem Zusammenhang erfreuen sich auch Warn- und Rettungssysteme einer immer größer werdenden Beliebtheit und steigende Kontrollen, Verbote und Überwachungsgeräte werden begrüßt (vgl. Töchterle 2007, 77). Trotzdem bleibt eine gewisse Anziehungskraft des Risikos erhalten, da es das emotionale Grundbedürfnis nach Spannung und Abenteuer anspricht (vgl. Mersch 2001a, 229).[7] Göring plädiert daher für eine Abkehr von „konstruierter Sicherheit“ (2006, 342) im Risikosport, da diese den Sinn der Handlung diskreditiere, keine Unfälle verhindere und den Menschen in seiner Suche nach selbstbestimmten Risiko und Unsicherheit einschränke. Vielmehr müsse es eine Unterscheidung der gesellschaftlichen Wertidee bezüglich unbeeinflussbaren Bedrohungen und individuellen Herausforderungen im Sport geben (vgl. ebd.).

2.2.3 Risikosport

„Bekennen wir uns dazu, das Risiko zu optimieren. Wer maximales Risiko sucht, ist dumm und bald tot. Wer maximale Sicherheit sucht, ist scheintot. Denn Risiko gehört zum Leben. Leben ist Risiko“ (Töchterle in Munter 2003, 179).

Um sich mit der Frage beschäftigen zu können, ob alpiner Schneesport abseits der Pisten als Risikosport anzusehen ist, muss erst einmal die Frage geklärt werden, welche Aspekte Risikosport ausmachen und wie dieser definiert ist. Seit den 1990er Jahren taucht der Begriff des Risikosports vermehrt in der sportwissenschaftlichen und öffentlichen Diskussion auf (vgl. Allmer 1998; Neumann 1999; Rupe 2000; Göring 2006). Für Gebauer & Alkemeyer ist das Risikoelement sogar ein zentraler Bestandteil unserer neuen Bewegungskultur (vgl. 2004, 12). Jedoch ist die Sportwissenschaft weit davon entfernt, eine eindeutige Begriffsbestimmung des Risikosports bieten zu können (vgl. Göring 2006, 19). Die Definitionen großer Wörterbucher grenzen ihn folgendermaßen ab:

„Risikosportart: Außergewöhnliche sportliche Disziplinen, die durch extreme physische und psychische Beanspruchung sowie durch ein objektiv vorhandenes und/oder subjektiv empfundenes Gesundheits- bis Lebensrisiko gekennzeichnet sind. Dabei wird das mit der sportlichen Aktivität verbundene Risiko bewusst gesucht und als Nervenkitzel genossen. Der Übergang von Risiko- zu Extremsportarten ist fließend.“ (Meyers Taschenlexikon 2001, 319). Bzw.:

“Beim Risikosport wird das mit der sportlichen Aktivität verbundene Risiko gesucht und als Nervenkitzel genossen.“ (Brockhaus, 2003, S. 315).

Hierzu muss angemerkt werden, dass jede sportliche Betätigung, die körperlichen Einsatz verlangt, ein gewisses Verletzungsrisiko in sich birgt. Jedoch wird vielfach das objektive Verletzungsrisiko und die Schwere der potentiellen Verletzungen zur Bewertung herangezogen, um riskante von weniger riskanten Sportarten zu differenzieren, wobei nicht das höhere Verletzungspotential, sondern die Schwere der Verletzungen und die möglichen tödlichen Folgen eine Rolle spielen (vgl. Schuhmacher & Sammelstein 2003, 150; Mehr 2007, 55).

Der Sportler setzt sich also objektiven Gefahren aus, wobei die Möglichkeit eines Unfalls untrennbar mit der ausgeübten Sportart verbunden ist und dies auch im Bewusstsein des Sportlers gegenwärtig ist. Die Haltung des Risikosportlers erweist sich durchweg als ambivalent: Einerseits sucht er die Gefahr und gibt seine Sicherheit preis, andererseits nimmt er alle Chancen wahr, die sich ihm zur Vermeidung von Misserfolgen und Unfällen bieten (vgl. Schleske 1977).

Das Bewusstsein des Sportlers darüber, dass bereits kleine Fehler fatale Konsequenzen haben könnten und das daraus resultierende kompetente und selbstbestimmte Risikohandeln, ermöglichen den Transfer von Gefahren in subjektive Risiken[8] und grenzen dadurch Risikosport von unreflektierter Selbstgefährdung ab.

In diesem Zusammenhang muss das oft beschriebene Restrisiko gesehen werden, denn charakteristisch für Risikosportarten ist, dass ein Teil des Risikos für Leib und Leben kalkulierbar ist, ein gewisser Teil sich jedoch der Kontrolle des Ausübenden entzieht (vgl. Örley 2005, 18). Diesen Teil versuchen die Akteure durch Erfahrung und Können zu minimieren (vgl. 3.4 Restrisiko).

Je nach Autor können unterschiedliche Sportarten dem Risikosport zugeordnet werden, woran deutlich wird, dass das Handlungsfeld Risikosport in seinen Grenzen noch nicht einheitlich erfasst ist und die kontroverse sportwissenschaftliche Diskussion weitergeht (vgl. Schallberger 1995, 76; Mehr 2007, 55; Göring 2006, 61). Erschwert wird die Definition dadurch, dass Risikosport immer von einer subjektiven Perspektive erlebt wird, so dass die Entscheidung über die Zugehörigkeit nur über den Abgleich zwischen kennzeichnenden Merkmalen und den vollzogenen Inhalten durch den Akteur geschehen kann, wobei davon ausgegangen werden muss, dass er die Herausforderung bewusst eingeht und in der Lage ist sie durch Einsatz seiner sportspezifischen Handlungskompetenz zu bewältigen.

Nähern wir uns nun der Frage, ob Schneesport abseits der Piste als Risikosport anzusehen ist. Mangels eindeutiger Begriffsbestimmung und Abgrenzung lässt sich die Frage nur aus subjektiver Sicht und mit Expertenmeinungen beantworten. Der Lawinenexperte Munter stellt diesbezüglich fest:

„Skifahren abseits der gesicherten Pisten gehört deshalb zu den Risikosportarten, weil die im Alltag geltenden Sicherheitsnormen im freien Skigelände nicht eingehalten werden können. Dieses erhöhte Risiko nimmt der Skitour- und Variantenfahrer bewusst und freiwillig in Kauf, andernfalls muss er im Hochwinter auf stiebende Pulverschneeabfahrten in Steilhängen verzichten und seine sportlichen Aktivitäten auf Bruchharsch beschränken.“ (Munter 2003, 179).

Er setzt das Skifahren abseits der Piste mit anderen Risikosportarten wie Wildwasserfahren, Gleitschirmfliegen, Höhlenforschen, Hochseesegeln sowie Tiefseetauchen gleich und konstatiert, dass eine Ausübung ohne eine seriöse Ausbildung lebensgefährlich sei (vgl. Munter 2003, 12). Auch Hölzl unterstützt die Einordnung des Fahrens im freien Skiraum als Risikosportart und argumentiert eher pädagogisch, dass nur so bei „allen Beteiligten Risikobewusstsein und Eigenverantwortung gefördert und entwickelt werden“ (2005, 71) könne.

Göring hingegen, der Risikosport als „eine sportliche Handlungssituation, die die handelnden Akteure als Risikosituationen wahrnehmen und sportliche Fähigkeiten zur Bewältigung einsetzen“ (2006, 44) definiert und sich in seinen Untersuchungen mit dem Tourengehen und nicht dem Freeriden beschäftigt, weist zu Recht darauf hin, dass es sich beim Tourengehen nicht um eine Risikooptimierung, sondern um eine Gefahrenminimierung handelt, da es sich beim Abseitsfahren eher um Gefahren handelt, die die Kernhandlung (Schneesportausübung) beeinflussen. Lawinen stellen jedoch weder beim Freeriden noch beim Tourengehen ein explizites Handlungselement dar, dessen Bewältigung eine Motivbefriedigung verursachen könnte. Sie werden vielmehr als Risiken akzeptiert oder aus Unwissenheit gar nicht als solche wahrgenommen, um andere Motive in der Handlungssituation zu befriedigen (vgl. Göring 2006, 352). Im Gegensatz dazu stehen Risiken, die um ihrer selbst Willen aufgesucht werden, weil das Erleben bestimmte (lustvolle) emotionale Zustände hervorruft (z.B. Free-Solo-Klettern) (vgl. Örley 2005, 14).

Örley differenziert den Begriff des Risikosports nach den Kriterien Geländewahl und dem Fahrstil der Schneesportler. Für ihn beginnt Freeriden Risikosport zu sein, wenn die Akteure „extrem steile Hänge befahren, über hohe Felsen springen und sich dabei bewusst der Lawinengefahr [...] aussetzen.“ (2005, 15). Denn in diesem Gelände muss der Athlet ein hohes Eigenkönnen vorweisen, sich über die Gefahren seiner Aktivitäten bewusst sein und die eingegangenen Risiken kalkulieren. Auch wenn die Anforderungen im Profibereich aufgrund der Sprünge, steilen Hänge und erforderlichen technischen Präzision auf jeden Fall dem Risikosport zugerechnet werden können, ist der Übergang zum Risikosport demnach beim Freeriden fließend und somit abhängig vom subjektiven Empfinden des Akteurs.

Es kann abschließend festgestellt werden, dass Abseitsfahren ein hohes Risikosportpotential birgt. Je nach Ausübungsart, Situation und subjektivem Empfinden der Sportler ist es mehr oder weniger eindeutig als Risikosport zu klassifizieren. Da die Literatur mehrheitlich von einer Zuordnung zum Risikosport ausgeht, wird im weiteren Verlauf der Arbeit jegliche alpine Aktivität abseits der Piste als Risikosport angesehen.

2.3 Unfall- und Gefahrensituation im alpinen Schneesport

Der folgende Abschnitt charakterisiert die Gefahrensituation abseits der Pisten. Dabei sind einerseits ein Überblick über die Unfallsituation und der Versuch einer Einordnung des individuellen Risikos von Interesse und andererseits gilt es die Gefahren abseits der Piste näher zu erklären. Hierfür dient eine kurze Schnee- und Lawinenkunde, die als Basiswissen für die mögliche Anwendung des Risikomanagements angesehen werden kann.

2.3.1 Überblick über die Unfallsituation

Bis hinein in die 1950er Jahre stellten Katastrophenlawinen[9] eine große Gefahr für die Bergbewohner dar. Im Laufe der Jahre lernten diese mit der Bedrohung umzugehen und technische Schutzbauten zu entwickeln, so dass Katastrophenlawinen immer seltener für Lawinenopfer verantwortlich sind (vgl. Brugger 2003b, 2). Dafür nahm, mit dem wachsenden Wohlstand in breiten Bevölkerungsschichten westlicher Gesellschaften in den 1970er Jahren, die Zahl der alpinen Wintersportler zu. Seither begeben sich immer mehr Menschen (bewusst oder unbewusst) in Gefahr, indem sie auf der Suche nach frischen Tiefschneehängen in nicht präpariertes Gelände vordringen. Da in den Medien meist nur über die Unglücke berichtet wird, werden Freeriden und Tourengehen häufig als ‚gefährlich’ wahrgenommen. Dem Leser bleibt jedoch verborgen, wie viele Wintersportler insgesamt im Gelände unterwegs sind. Versuche verschiedener Autoren das individuelle Risiko abseits der Piste zu berechnen, beruhen auf groben Schätzungen, Auswertungen kleiner Stichproben oder auf regionalen Hochrechnungen, da keine allgemeinen Daten zur Begehung erhoben werden. Munter z.B. errechnete ein Todesfallrisiko pro Tour pro Person von 1:50.000 (vgl. 2005, 40).[10] Mersch & trenkwalder errechneten, dass das individuelle Risiko beim Tourengehen oder Variantenfahren in einer Lawinen tödlich zu verunglücken, durchschnittlich um den Faktor fünf geringer ist, als das Todesrisiko beim alpinen Klettern. Die Wahrscheinlichkeit, bei einem Autounfall zu sterben, ist der Studie zufolge ein leicht höher, beim Bergwandern hingegen ein bisschen niedriger (vgl. 2007, 49).[11] Wäger & Zweifel hingegen kommen zu dem Ergebnis, dass Autofahren weniger gefährlich sei. Die Berechnungen beruhen jedoch auf pauschalen Hochrechnungen (vgl. 2008, 32ff.).[12]

Konkret fallen je nach Schneesituation in den Alpen jährlich 100-150 Sportler Lawinen zum Opfer (vgl. Steudel 2008, 5; Brugger 2003b, 2; Engler 2001, 110).[13] Diese Zahl der Lawinenopfer stagniert seit Ende der 1990er Jahre,[14] als Munter das strategische Risikomanagement[15] einführte und das, obwohl die Zahl der Wintersportler seitdem deutlich gestiegen ist (vgl. Larcher & Munter 2005, 16).[16] Würtl versucht nicht eine Basisrate oder ein individuelles Risiko zu errechnen, sondern konstatiert, dass es „grundsätzlich nicht möglich ist, mittels der vorliegenden statistischen Werte das individuelle Risiko eines Tourengehers oder Variantenfahrers zu bestimmen“ (2005, 20). Er betont, dass das individuelle Risiko in einer Lawine zu sterben vielmehr vom Verhalten der Akteure abhängig ist. Somit gehen Personen, die sich an die Empfehlungen der strategischen Lawinenkunde halten und gut ausgerüstet auf Tour gehen, ein geringeres Risiko ein, während jene, „die sich ohne Vorbereitung und ohne entsprechende Ausrüstung dem ‚weißen Rausch’ hingeben, ziemlich riskant unterwegs“ (ebd., 20) sind.

Erschwerend für die Berechnung wirkt es sich aus, dass meist nur tödliche Unfälle gemeldet werden. Daten zu glimpflich abgelaufenen Unfällen, die das Risiko spezifizieren könnten, sind nur aus der Region Davos bekannt.[17] Aus diesen regionalen Daten lässt sich ableiten, dass nur bei rund vier von zehn Lawinenauslösungen überhaupt eine Person erfasst wird, was zu einer recht hohen Dunkelziffer von Lawinenabgängen führt.

2.3.2 Schnee- und Lawinenkunde

Um sich mit dem Wissen und Handeln der alpinen Schneesportler abseits der gesicherten Pisten auseinandersetzen zu können, ist es wichtig darzustellen, über welches Basiswissen die Akteure verfügen müssen, um überhaupt in der Lage sein zu können, angemessenes Risikomanagement[18] durchführen zu können. Ein grundlegendes Verständnis von Schnee und von den an der Lawinenbildung beteiligten Faktoren ist auch im strategischen Risikomanagement von Bedeutung und wird somit an dieser Stelle kurz erläutert. Es wird jedoch darauf hingewiesen, dass es sich aufgrund des begrenzten Umfanges der Arbeit nur um eine grobe Zusammenfassung der Materie handelt und ambitionierte Geländefahrer vertiefende Literatur zu Rate ziehen sollten (vgl. u.a. Engler 2001; Munter 2003, Preuss 2007, Österreichischer Bergrettungsdienst 2006).

2.3.2.1 Schnee

„Schnee eignet sich hervorragend dafür, das in ihm zu sehen, was man sehen möchte. Im Gegensatz zu einer Felswand, einer Gewitterfront oder einem reißenden Bach drängt Schnee unserer Wahrnehmung keine Strukturen auf. Er zeigt weder Gefahren noch Sicherheiten“ (Schwiersch 2002, 14).

Die Eigenschaften der Schneedecke verändern sich ständig, da sie fortwährenden Wandlungsprozessen durch Strahlungs-, Wärme-, Dampf-, und Massenaustausch unterliegen. Festigkeit und Bruchbereitschaft variieren also permanent. Sobald sich der Neuschnee ablagert, beginnt die ‚abbauende Umwandlung’; wegen ihrer feinverzweigten Form haben Neuschneekristalle eine große Oberfläche im Vergleich zu ihrer Masse und sind daher bestrebt, diese abzubauen (vgl. Von Moos 2001, 11). Durch den Druck der Schneedecke und durch Verdampfung in den Randbereichen beginnen sich die spitzen Formen der Kristalle zu kleinen rundkörnigen Gebilden abzubauen und sich aneinander anzulagern.

Die ‚abbauende Umwandlung’ findet umso schneller statt, je höher die Temperatur ist (0°C bis -3°C) und je weniger sich der Schnee bereits im Vorfeld gesetzt hat.[19] Die Schneedecke verdichtet und verfestigt sich durch diesen Prozess (vgl. Preuss 2007, 239; Engler 2001, 278ff.).[20]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Abbauende Umwandlung. Quelle: http://wa.slf.ch/index.php?id=118

Wenn durch die Veränderung der Schneekörner neue Kristallformen entstehen, bezeichnet man diese als ‚aufbauende Schichten’. Die sich dabei bildenden kantigen Formen verändern sich bei fortschreitender Umwandlung zu Becherkristallen oder zu so genannten ‚Schwimmschnee’. Durch die Entstehung größerer Körner bilden sich Hohlräume, da die Kristalle weniger Kontaktpunkte untereinander besitzen (vgl. Ertl o.D., 6). Gefährlich wird der Schwimmschnee vor allem, wenn er eingeschneit wird, da die groben und lockeren Kristalle zu einer Instabilität der Schneeschichten untereinander führen und die Schneedecke schwach und wenig belastbar machen. Außerdem findet die Umwandlung verborgen im Inneren der Schneedecke statt und kann somit langfristig eine latente Gefahr darstellen. Die Ursache für die Umwandlung ist das Temperaturgefälle zwischen den Schneeschichten untereinander (Entstehung von Gleitebenen) und / oder zwischen Luft und Boden (bodennahe Schwimmschneebildung). Ein großes Temperaturgefälle zwischen diesen Faktoren beschleunigt die gefährliche Schwimmschneebildung, die außerdem durch lockere Zwischenschichten oder durch Hohlräume gebildet werden können (vgl. Preuss 2007, 240; Engler 2001, 284ff.).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Aufbauende Umwandlung. Quelle: http://wa.slf.ch/index.php?id=118

Wenn Schnee auf einer geneigten Oberfläche liegt, ist ein Fließen der Schneedecke zu beobachten. Während der Schnee an der Oberfläche dabei einen größeren Weg zurücklegt, bewegen sich die älteren, tieferen Schneeschichten relativ wenig. Durch diese verschiedenen temperaturabhängigen Geschwindigkeiten der Schichten können große Scherspannungen entstehen, die durch Belastung (z.B. durch Schneesportler oder Wild, Gewichtszunahme der Schneedecke usw.) möglicherweise das Maß ertragbarer Spannungen überschreiten, wodurch es zu einer Lawinenauslösung kommen kann. Von einem Gleiten der Schneedecke spricht man hingegen, wenn sich diese mit allen Schichten parallel auf einem geneigten Untergrund hangabwärts bewegt (vgl. Preuss 2007, 241; Engler 2001, 293).[21]

2.3.2.2 Hangexposition und -neigung

Der Ausdruck ‚Hangexposition’ bezeichnet die Himmelsrichtung die der Hang vom Gipfel aus gesehen besitzt. So sind Südhänge Sonnenhänge, während Nordhänge im Schatten liegen. Die Schneedeckenbeschaffenheit in diesen Hanglagen weist, bedingt durch verschiedene Umwandlungsprozesse, große Unterschiede auf (vgl. Engler 2001, 159).

In Untersuchungen konnte mit Hilfe von Rutschblocktests[22] festgestellt werden, dass sich etwa die Hälfte aller Schwachstellen in der Schneedecke im Sektor Nord (NW-N-NE) befinden (vgl. Munter 2003, 125). In Folge werden rund 56% der Lawinen in den schattigen Hängen ausgelöst. Der Rest der Auslösungen entfällt auf die Expositionen Westen (8%) und Osten (15%), im Süden werden immerhin noch 30% der Lawinen ausgelöst (vgl. Schweizer 2000b, 34; Engler 2001, 98).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Verteilung der Lawinenunfälle nach Hangexpositionen. Quelle: http://www.ortovox.com/content/de/lawinen-know-how/faktoren/gelaende

Zu erklären ist die starke Abhängigkeit dadurch, dass die abbauende Schneeumwandlung (vgl. Abschnitt 2.3.2.1) stark von der Exposition des Hanges beeinflusst wird. So stabilisiert sich die Schneedecke an Südhängen im Hochwinter[23] schneller als dies an Nordhängen der Fall ist. Grund hierfür ist sonnenbedingte kontinuierliche Setzung und Entspannung der Schneedecke. Aufgrund der fehlenden Sonneneinwirkungen bleiben die Temperaturen an Nordhängen tiefer und konservieren so die Gefahr, da sich sie Spannungen nicht abbauen können.

Jedoch gibt es saisonale Abweichungen, die die pauschalen Aussagen relativieren. Im Hochwinter sind die Unterschiede in Bezug auf die Exposition geringer, während ab Februar teilweise ausgeprägte Abhängigkeiten auftreten. Bei der Gefahrenstufe[24] ‚gering’ ist die Hangexposition dagegen ein zu vernachlässigender Faktor (vgl. Schweizer 2003, 56ff.).

Ziegeler (2005, 51) zeigt auf, dass die Empfehlungen zur Exposition nicht pauschal angewendet werden dürfen, da es regionale Unterschiede in Bezug auf die Exposition zu berücksichtigen gibt. So sind z.B. in Südtirol die meisten Lawinenopfer in der Exposition Südwest zu beklagen.[25] Er kritisiert, dass die Beurteilung des Gefahrenpotentials nicht durch Einbeziehung der Begehungsfrequenz bereinigt wird. Auch Mair/Würtl merken an, dass die Gefahr in den Südexpositionen nicht unterschätzt werden sollte (vgl. 2000, 29ff.).

Die Hangneigung[26] ist neben Wind, dem Schneedeckenaufbau und der Neuschneemenge einer der zentralen lawinenbildenden Faktoren. So werden mit zunehmender Hangsteilheit mehr Lawinen ausgelöst, da die Scherspannungen ansteigen (vgl. Schweizer 2006, 44). Die größte Lawinengefahr wird für Hänge mit einer Neigung zwischen 29-49 Grad angegeben, wobei nicht die Durchschnittsneigung, sondern die steilste Stelle im Hang maßgebend ist (vgl. Preuss 2007, 246). Die Auslösewahrscheinlichkeit nimmt bei einer Zunahme der Hangneigung von 30 auf 45 Grad um etwa 50% zu. So brechen die meisten durch Schneesportler ausgelösten Lawinen im Gelände an, dessen steilste Hangpartie etwa 37 bis 41 Grad steil ist.[27] Jedoch sind auch diese Daten nicht durch Befahrungszahlen bereinigt, so dass nicht auf Grundlage dieser Statistik direkt auf die Auslösewahrscheinlichkeit geschlossen werden kann (vgl. Schweizer 2006, 43f.).[28]

2.3.2.3 Faktoren der Lawinenbildung

An der Bildung von Lawinen sind eine Vielzahl von Faktoren beteiligt. Im Anschluss werden lediglich die Faktoren Wind und Temperatur näher skizziert. Weitere Faktoren wie Wetter, Neuschnee und Altschneeoberfläche sind zwar von großer Bedeutung, würden aber den Rahmen dieser Arbeit übersteigen und wurden zudem in der Onlinebefragung nicht abgefragt.[29]

Da der Wind an der Entstehung von Schneebrettern maßgeblich beteiligt ist, wird er nicht ohne Grund häufig als „Baumeister“ (Preuss 2007, 246) der Lawinen bezeichnet. Schon geringe Windgeschwindigkeiten von unter 30 km/h genügen, um trockene Schneeoberschichten aufzuwirbeln und zu transportieren. Beim Windtransport zerbrechen die Schneekristalle und die Bruchstücke lagern sich unter Spannung ab, wodurch es zu Wechtenbildung und zur Entstehung von Pack- und Pressschneebrettern kommt (vgl. u.a. Preuss 2007, 247; Munter 2003, 61). Der Schnee an der zum Wind hingewandten Seite des Bergrückens, genannt Luv, wird durch den schnelleren Wind abgetragen. Er setzt sich in Lee, der windabwandten Seite des Grates, durch den langsameren Wind oder auch durch Gegenströmungen am Boden wieder ab. Dies geschieht bevorzugt am Fuße von Steilstufen, in Mulden, im Windschatten von Gebirgskämmen und Erhebungen (vgl. Engler 2001, 261ff.; Munter 2003, 57).

Der Faktor Temperatur hat entscheidenden Einfluss auf die Stabilität der Schneedecke, da sich die Schneekristalle abhängig von der Temperatur bzw. den Temperaturveränderungen umwandeln. Bei tiefen Temperaturen verändert sich die Schneedecke nur langsam, aber die aufbauende Umwandlung wird begünstigt (vgl. Abschnitt 2.3.2.1). Besonders nach Neuschnee können tiefe Temperaturen jedoch das Verfestigen der Schneedecke verzögern und so die potentielle Gefahr konservieren. Steigende Temperaturen unter 0°C beeinflussen die Schneedeckenstabilität positiv, da sie den Setzungsprozess beschleunigen. Über 0°C verringert sich die Schneedeckenstabilität durch die Durchfeuchtung der Schneedecke. Deswegen fördert auch eine starke Erwärmung (z.B. durch intensive Sonneneinstrahlung im Frühjahr oder Föhn) die Gefahr von Nassschneelawinen (vgl. Engler 2001, 268 f.; Munter 2003, 62ff.; Preuss 2007, 247).

2.3.2.4 Lawinen

Von einer Lawine spricht man, wenn es zu einer schnellen Massenbewegung des Schnees mit einem Volumen von mehr als 100 Kubikmetern und einer Länge von mehr als 50 Metern kommt (vgl. http://wa.slf.ch/index.php?id=118#160). Es gibt verschiedene Möglichkeiten Lawinen zu klassifizieren, wie z.B. die Form des Anrisses, die Lage der Gleitfläche oder die Form der Bewegung. An dieser Stelle sollen lediglich die unterschiedlichen Arten der Auslösung beschrieben werden, da abgehende Schneebretter die Hauptursache für Wintersportlawinen sind.[30] Kennzeichnend ist das gleichzeitige Abgleiten einer ganzen Schneeschicht im Anbruchgebiet (vgl. Engler 2002, 130). Die beschriebenen Bewegungen in der Schneedecke (Gleiten und Kriechen) erzeugen Spannungen an den Rändern von Schneefeldern und Scherspannungen zwischen den unterschiedlichen Schneeschichten, so dass die Schneedecke reißt oder bricht, sollte die örtliche Spannung (durch Zug- Scher- oder Druckbelastung) größer als die entsprechende Festigkeit sein (vgl. Preuss 2007, 243; Abschnitt 2.3.2.1). Dabei wird die beim Bruch der Schneedecke freigesetzte Spannkraft in Bewegung umgesetzt, wodurch das Schneebrett vom ersten Moment an hohe Geschwindigkeiten erreicht. Voraussetzung für eine Schneebrettlawine ist, dass die Kräfte und Spannungen, die in der Schneedecke herrschen und oft über weitere Strecken übertragen werden können, größer als die Reibungskräfte der Scherfestigkeit sind. Das heißt, es muss eine Zwischenschicht, wie z.B. Oberflächenreif[31] oder Schwimmschnee existieren, die das Eigengewicht der oberhalb liegenden Schneeschicht nicht mehr halten kann.[32] Diese Stellen, die nur durch die Kräfte der umliegenden Schneemassen gehalten werden können, nennt man ‚Superschwachzonen’ oder auch ‚Hot Spots’ (vgl. Munter 2003, 78ff.).

Durch Erwärmung der Schneekristalle auf über 0°C kommt es zu einer Umwandlung von Neu- und Altschnee in Sulzschnee. In der Folge kommt es zu einer Abnahme der Schneedeckenfestigkeit. Jedoch verfügt der über Nacht gefrorene Sulzschnee über eine sehr hohe Festigkeit, so dass verharschte Hänge relativ lawinensicher sind und Firnhänge nur bis 12 Uhr befahren werden dürfen. Allerdings reicht die Kälte nur ca. 10-20 Zentimeter tief in die Schneedecke hinein. Unter dieser Schicht findet sich häufig nasser haltloser Faulschnee. Ein Hang gilt nicht mehr als lawinensicher, sobald man aufgrund der tageszeitlichen Erwärmung durch den Harschdeckel bricht, da sich lockere Nassschneelawinen bilden können (vgl. Preuss 2007, 241).

Da Lockerschnee einen losen inneren Zusammenhalt hat, bleibt er auf geneigter Unterlage nur bis zu dem für jede Schneeart spezifischen Böschungswinkel liegen. Wenn es durch Abnahme der inneren Reibung an einer Stelle zum Verlust des inneren Zusammenhangs kommt, setzt von einem punktförmigen Anbruch eine Kettenreaktion von Teilchen zu Teilchen ein. Dabei gewinnt die so genannte Lockerschneelawine an Breite und Tiefe, so dass sich die Lawinenbahn beim Abwärtsgleiten birnen- oder zungenförmig erweitert. Da die gleitende Reibung geringer ist als die haftende Reibung, genügt bei entsprechendem Gleitwinkel ein kleiner Anstoß, um eine Lockerschneelawine auszulösen (vgl. Preuss 2007, 242f.; Lange 1998, 5).

Da die Lockerschneelawine in der Unfallstatistik eine sehr untergeordnete Rolle spielt (vgl. Engler 2001, 117) wird das Thema an dieser Stelle jedoch nicht weiter vertieft.[33]

3 Risikomanagement als Interventionsansatz

Ende der 1990er Jahre gab es einen Paradigmenwechsel in der Lawinenbeurteilung. Seit der Einführung von Munters strategischem Risikomanagement hilft dieses den Schneesportlern die Lawinengefahr besser einzuschätzen und so regelbasiert zu entscheiden. Durch die Anwendung einfacher Algorithmen werden die Effekte der selektive Wahrnehmung und der heuristischen Fallen vermindert (vgl. Abschnitte 4.2 und 4.3.1). Das folgende Kapitel stellt das Konzept des Risikomanagements sowie seine Entstehung vor und schildert eventuelle Kritikpunkte und Perspektiven. Die im Folgenden vorgestellten Inhalte können als Informationsgrundlage für die effektive Anwendung des strategischen Risikomanagements gesehen werden. Es ist ein zentrales Anliegen der empirischen Untersuchung dieser Arbeit, ihre Kenntnis und Anwendung bei den Schneesportlern abseits der Piste zu untersuchen.

3.1 Begriffsbestimmung und Abgrenzung

„Riskantes Verhalten und Risiko fasziniert uns seit jeher. Risiko bewusst einzugehen und verantwortungsvoll zu kalkulieren lässt uns wachsen und bietet tiefe Erfahrungsmöglichkeiten.“ (Mersch 2001b, 226)

Der Ansatz des Risikomanagements ist in seinen Ursprüngen wirtschaftstheoretisch geprägt, da Unternehmen, z.B. aus dem Finanz- oder Versicherungswesen, unter unsicheren Bedingungen Entscheidungen mit zum Teil hohen Risiken treffen müssen (vgl. Rohwedder 2006, 34). Inzwischen findet er in vielen Wissenschaftsbereichen, wie z.B. der Sportwissenschaft, immer mehr Verwendung.[34] Es handelt sich dabei um einen präventiven Ansatz, bei dem, ausgehend von einem Basisrisiko, durch entsprechende Vorsichtsmaßnahmen und systematisches Denken und Handeln die verbleibenden Gefahren so gering wie möglich gehalten werden sollen (vgl. Wicky & Wassermann 2005, 39).

Risikomanagement beinhaltet den Prozess der Analyse und die Bewertung von Risiken und wie damit umgegangen wird. Dadurch soll der Mensch in die Lage versetzt werden, komplexe Situationen zu bewältigen. Hierbei werden die Bereiche maximiert, die beeinflussbar sind und jene Bereiche minimiert, die nicht bestimmt werden können und in denen der Zusammenhang zwischen Ursache und Wirkung verborgen bleibt. Dabei treten Strategien und konkrete Maßnahmen zur Unfallreduktion an die Stelle willkürlicher Entscheidungen (vgl. Würtl & Larcher 2007, 113).

Das Besondere am Konzept des Risikomanagements ist die zugrunde liegende Annahme, dass ein bewusster Umgang mit Risiken im Sport nur dann funktionieren kann, wenn das Spannungsfeld von Risikosuche und Sicherheitsbedürfnis nicht behindert, sondern bipolar verstärkt wird. Im Mittelpunkt steht deswegen die Förderung und Erweiterung der natürlichen Handlungsstruktur zwischen Motivbefriedigung (Risikotendenz) einerseits und Sicherheitsbedürfnis (Sicherheitstendenz) andererseits (vgl. Göring 2006, 341). Bestärkt durch die Ergebnisse wissenschaftlicher Untersuchungen, die belegen, dass Unsicherheit als subjektiv kalkuliertes Risiko durchaus unfallprophylaktische Wirkung entfaltet, kann somit festgehalten werden, dass es nicht Ziel von Risikomanagement sein soll, auf sportliche Risikoerfahrungen zu verzichten (vgl. Munter 2003, 12; Göring 2006, 341). Vielmehr sollen die lustvollen Erfahrungen, die Risikosportarten im Rahmen des immanenten Risikoerlebnisses bieten, möglichst uneingeschränkt verwirklicht und im Bestreben für mehr Sicherheit mit Hilfe des Risikomanagements optimiert werden (vgl. Würtl & Larcher 2007, 113). Das Konzept zur Unfallprophylaxe vermeidet daher den Begriff ‚Sicherheit’, da sich die assoziierte Bedeutung - im Sinne von risikolos - in diesem Zusammenhang als problematisch erweist. Es darf an dieser Stelle keinesfalls angenommen werden, dass dies einen Verzicht auf Sicherungs- und Sicherheitsmaßnahmen im Risikosport bedeutet. Jedoch soll die allgemein verbreitete Sicherheitsphilosophie der vergangenen Jahrzehnte langfristig zugunsten eines geschärften Risikobewusstseins und eines aktiven Risikomanagements aufgegeben werden (vgl. Munter 2003, 12). Dafür wird durch eine Optimierung zwischen maximalem Wagnis und maximaler Sicherheit sowie einer Annäherung des Verhaltens an gegebene Anforderungen (anstatt einer Anforderungsangleichung an gegebenes Verhalten) das Risiko auf ein bestimmtes persönliches oder gesellschaftlich akzeptiertes Maß gesenkt. Risikomanagement als solches dient damit als fundierte Grundlage, auf der das verbleibende Risiko gesellschaftlich akzeptiert werden kann (vgl. Würtl & Larcher 2007, 113). Hierfür ist es notwendig, die situativen Unsicherheiten transparent zu machen und Wahrnehmungs-, Bewertungs- und Entscheidungsprozesse zu verstärken, da ohne die Identifikation und Bewertung von Gefahrensignalen Situationen nicht angemessen eingeschätzt werden können (vgl. Musahl 1997, 102f). Hierbei müssen auch kognitionspsychologische Erkenntnisse berücksichtigt werden (vgl. Abschnitt 4.3.1). Nach Göring bilden die „ handlungsorientierte Informationsvermittlung, offene Kommunikation und verhaltensorientierte Reflexion die Eckpfeiler des Risikomanagements im Risikosport“ (vgl. 2006, 344). Hinzu kommen das Bewusstsein des Einzelnen für objektive Gefahren und subjektive Risiken sowie die Kenntnis alternativer Handlungsstrategien (vgl. ebd., 344).

3.2 Von der Lawinenkunde zum strategischen Risikomanagement

Dem Begründer des strategischen Risikomanagements, Werner Munter, wurde spätestens nach einer Serie von schweren Lawinenunfällen Ende der 1980er Jahre bewusst, dass die klassische Beurteilung der Lawinengefahr mit schweren Mängeln behaftet war und gerade dem Anfänger mangels konkreter Kriterien einen viel zu großen Ermessensspielraum offen ließ (vgl. Munter 2003, 120). Er beschloss die Sicherheitsphilosophie der 1970er und 1980er Jahre durch ein bewusstes Risikomanagement zu ersetzen und entwickelte ein Konzept, welches mit vielen alten und teilweise falschen Meinungen der analytischen Lawinenkunde aufräumte und auf Grundlage statistischer Überlegungen aufgebaut ist (vgl. ebd., 12). Es ersetzt den Ermessensspielraum durch eine Messlatte und verzichtet auf besondere nivologische[35] Kenntnisse. Es beschränkt sich dabei auf topographische Parameter wie Exposition und Steilheit des Geländes und setzt keine neue, teure Ausrüstung voraus (vgl. ebd., 120f.). Die von Munter vorgestellten Modelle der 3x3 Filtermethode[36] und der Reduktionsmethode[37] können als die ersten umfassenden Risikomanagementkonzepte im Bereich des Risikosports angesehen werden.

Munter baute die Methode auf umfassende Berechnungen und Analysen von Lawinenabgängen im Bezug auf Hangneigung, Hangexposition und deren Kombination mit Lawinenlageberichten auf. Durch verschiedene Maßnahmen (z.B. einzeln fahren, Beschränkung auf bestimmte Hangsteilheiten und -expositionen) lässt sich das individuelle Risiko reduzieren und damit eine allgemeine Handlungsfähigkeit aufrechterhalten (vgl. Göring 2006, 351). Die grundlegende Zielsetzung Munters war es, dem Umstand Rechnung zu tragen, dass die relevanten physikalischen Größen realistischerweise von Skitourengehern nicht erfasst werden können (vgl. Mersch 2001b, 230). Der Einzelne soll mit Hilfe der Methoden in die Lage versetzt werden, möglichst optimale Entscheidungen mit einem Minimum an Aufwand und Wissen treffen zu können (vgl. Streicher 2008, 75).

1992 legte Munter das Konzept einigen Experten vor, die ihm jedoch keine Beachtung schenkten, da es der Lehrmeinung des Schweizer Eidgenössischen Instituts für Schnee- und Lawinenforschung (SLF) widersprach. Erst Jahre später wurde das Konzept ernst genommen, vor allem weil in einigen spektakulären Gerichtsprozessen über Lawinenunfälle, das Gericht die Gutachten Munters und nicht die des renommierten Instituts herangezogen hatte (vgl. Witzler 2008, 5). Auch machten sich einige Bergführer die Mühe, ihre Standard-Routen durchzurechnen und bemerkten so, dass Bergerfahrung sich wenigstens teilweise formalisieren lässt. Das erst 1997 öffentlich vorgestellte Konzept löste in der Folge eine breite Diskussion über Prinzipien und Paradigmen der Lawinenkunde aus und initiierte zahlreiche Folgeprojekte (vgl. Göring 2006, 351). Seine Treffsicherheit und Effizienz konnte in einer kanadischen Untersuchung (vgl. McCammon et al. 2002), aber auch in Untersuchungen des Deutschen Alpen Vereins (DAV) belegt werden (vgl. u.a. Schwiersch et al. 2007).

3.3 Methoden des strategischen Risikomanagements

3.3.1 3x3 Filtermethode

Das von Munter vorgestellte Konzept bestand aus zwei prinzipiell unterschiedliche Ansätzen, die sich zwar aufeinander beziehen und zusammen publiziert wurden, jedoch Unterschiede in ihrer inhaltlichen Konzeption aufweisen. Die strikte Trennung von Beurteilen und Entscheiden sieht Munter dabei als einen essentiellen methodischen Grundsatz an, denn erst wenn alle Schlüsselvariablen (Gefahrenstufe, Hangneigung, Hangexposition, Häufigkeit der Befahrung, Gruppengröße und Befahrungsabstände) bestimmt worden sind, kann die Lawinensituation angemessen beurteilt werden (vgl. Munter 2003, 120). Die auch als ‚3x3-Zoomsystem’ bekannte Methode stellt hierbei eine Ablaufsystematik dar, die durch eine Vernetzung von subjektiven und objektiven Systemkomponenten gekennzeichnet ist und somit eine ganzheitliche Beurteilung ermöglicht (vgl. Göring 2006, 351). Es wird verkörpert durch ein Koordinatensystem, bei dem die drei Kriterien (Verhältnisse, Gelände, Mensch) auf drei geographische Ebenen (regional, lokal, zonal) angewendet werden. Die einzelnen Informationen und Beobachtungen müssen hierfür gewichtet und zueinander in Beziehung gebracht werden, da die Wechselwirkungen zwischen den Variablen in jeder Situation anders sind. Munter will durch die Beurteilung der komplexen und dynamischen Zusammenhänge ein flexibles, vernetztes und selbständiges Denken fördern (vgl. 2003, 120).

Da die Variablen in einer Reihe hintereinander geschaltet sind (grob, mittel, fein) und somit dem Sportler eine zunehmend differenzierte Betrachtung (vom Schreibtisch bis an den Ort der Befahrung) ermöglichen, werden die Ebenen häufig mit Filtern verglichen. Dabei darf ihre Reihenfolge nicht vertauscht werden, da das Verfahren hierarchisch-sequentiell ist (vgl. Munter 2003, 119). Durch den ständigen Abgleich vorausgehender Beurteilungen mit der aktuellen Situationseinschätzung wird Diskrepanzen zwischen situativen Konditionen und vorgefassten Bewertungen entgegengewirkt (vgl. Göring; 2006, 352). Zudem ist die Methode aufgrund der Überprüfung vorausgehender Antizipationen und dem dreistufigen Erkenntnisprozess fehlertolerant und die Kontrolle der situativen Faktoren sehr intensiv (vgl. Munter 2003, 119). Munter will letztendlich dem ‚ballistischen Denken’[38] entgegenwirken, da die Situationen immer wieder neu bearbeitet werden und Checkpunkte für die Tour festgelegt werden sollen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: 3x3-Filtermethode. Quelle: http://www.ortovox.com/content/de/lawinen-know-how/faktoren/mensch/entscheidungsstrategien/

Göring bewertet das 3x3 Zoomsystem als ein „pragmatisch anwendbares Risikomanagement-konzept für Tourenskifahrer“ (2006, 352), das den Handelnden zur Informationsaufnahme, Reflexion sowie Kommunikation zwingt und Spielräume für eigene Entscheidungen ermöglicht. Dabei werden mögliche Fehler durch spontane und intuitive Entscheidungen verhindert, da die Filtermethode durch die Fokussierung auf den Handlungsprozess eine dynamische Auseinandersetzung mit den Entscheidungsprozessen fördert. Ein möglicher Grund für die Nicht-Anwendung der Methode ist jedoch das hohe geforderte Maß an Reflexions- und Kommunikationsfähigkeit der Wintersportler (vgl. Abschnitt 5.4.4; Göring 2006, 353).

3.3.2 Reduktionsmethode

Während die 3x3- Filtermethode qualitative Anhaltspunkte zur Gefahreneinschätzung gibt, zielt die Reduktionsmethode[39] auf den Verzicht gefährlicher Bereiche. Erreicht werden soll dadurch, dass das persönliche Verhalten in Abhängigkeit zu der herrschenden Lawinensituation gesetzt wird. In der Quintessenz muss versucht werden, das Basisrisiko durch geeignetes Verhalten auf ein persönliches und gesellschaftlich vertretbares Restrisiko zu reduzieren (vgl. Preuss 2007, 248f.).

Ausgangspunkt für die Methode bilden umfangreiche Berechnungen und Analysen von Lawinenabgängen in Bezug auf Hangneigung, Exposition und deren Kombination mit Lawinenlageberichten, die auf den Begründer der Methode Werner Munter zurückgehen. Sein Ziel war es, mit Hilfe einfacher Überlegungen und kognitiven Kombinationen eine neuartige Beurteilung der Lawinengefahr vorzunehmen (vgl. Göring 2006, 351). Durch unkomplizierte Vektorenrechnung lässt sich demnach das Lawinenrisiko situativ adäquat berechnen und mit Hilfe entsprechender Maßnahmen minimieren, so dass eine allgemeine Handlungsfähigkeit aufrechterhalten bleibt. Munter akzeptiert bei dem Versuch die Anzahl der Lawinenopfer mit Hilfe der Wahrscheinlichkeitsrechnung zu begrenzen das (Rest-) Risiko, Opfer einer Lawine zu werden:

„Die beste Methode ist nämlich nicht diejenige, die am wenigsten Unfälle verursacht, sondern diejenige, bei der Risiko und Verzicht am besten ausgewogen sind.“ (Munter 2001, 35)

Bei konsequenter Anwendung der Reduktionsmethode lässt sich eine Halbierung der Lawinenopfer erreichen (vgl. Munter 2003, 122). Kraml & Fuhrer konnten in ihrer Untersuchung sogar eine Minderung der Lawinentoten um 70% feststellen (vgl. 2006, 39). 80-90% hätte man vermeiden können, wenn man die elementare Reduktionsmethode (ERM)[40] angewendet hätte (vgl. Munter 2001, 36). Bei der ERM kommt es zu einem relativ schlechten Kosten/Nutzen-Verhältnis, aber durch die höhere Fehlertoleranz kann die Methode auch sehr gut von Anfängern verwendet werden, da sie allein mit dem Lawinenlagebericht und den topographischen Konstanten Exposition und Steilheit aus kommt. Für Bergführer, die ihren Gästen auch bei ‚erheblich’ noch etwas bieten müssen, hat Munter die Professionelle Reduktionsmethode (PRM) entwickelt, die zwar mehr Flexibilität und einen größeren Spielraum bietet, aber anspruchsvoller ist und Bergerfahrung sowie alpines Wissen voraussetzt (vgl. Munter 2003, 122).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Professionelle Reduktionsmethode. Quelle : Munter 2005, 40.

Bei der Reduktionsmethode errechnet sich das Risiko aus dem Gefahrenpotential, welches aus dem Lawinenlagebericht (LLB) abgelesen werden kann, dividiert durch das Reduktionspotential (Produkt aus Reduktionsfaktoren) (vgl. Abbildung 6). Die fünf Schlüsselvariablen Gefahren-potential, Hangneigung, Hangexposition, Spuren im Hang und Abstände sind in Munters Methode gewichtet und nach Regeln der Wahrscheinlichkeitsrechnung multiplikativ vernetzt, so dass man auch von einer ‚probabilistischen’ Methode spricht. Das Gefahrenpotential steigt dabei exponentiell mit der Gefahrenstufe des LLBs, so dass vor Auswahl der Tour je nach Warnstufe eine entsprechende Anzahl von Reduktionsfaktoren ausgewählt werden muss, um das Restrisiko auf das akzepierte Maß (vgl. Preuss 2007, 248f.).

Indem bei der Reduktionsmethode die Risikofaktoren gewichtet, vernetzt und in einen Gesamtzusammenhang gestellt werden, bewahrt die Formel vor der Verabsolutierung des Einzelfalls und einer Überschätzung von Vorsichtsmaßnahmen (vgl. Munter 2005, 41). Die Wirkungen der Vorsichtsmaßnahmen, die im Einzelfall vernachlässigbar klein erscheinen, multipliziert sich jedoch bei massenhafter Anwendung (vgl. ebd. 40). Vor allem ermöglicht der Wechsel zu Munters Reduktionsmethode regelbasierte Ja-Nein-Entscheidungen aufgrund klar definierter, messbarer und nachvollziehbarer Kriterien. Diese Entscheidungsgrundlage entlastet auch Bergführer, die früher ihre Entscheidungen, ob ein Hang zu begehen sei, auf persönlichem Wissen und Erfahrung aufbauen mussten, was teilweise für die Gruppen schwer zu akzeptieren war. Wenn jedoch ein Lawinenunfall „innerhalb des sozialadäquaten Risikos passiert, ist auch im juristischen Sinne ‚adäquate Kausalität’ nicht erfüllt, weil der Unfall wohl ‚möglich’ aber nicht ‚wahrscheinlich’“ (Munter 2003, 128) war. Heute haben sich die deutschen und schweizerischen Bergführerverbände darauf geeinigt, dass alle Bergführer ihre Touren mit Munters Methode zu beurteilen und danach zu handeln haben (vgl. Witzler 2008, 5).

3.3.3 DAV SnowCard

Die DAV SnowCard dient als Instrument des strategischen Risikomanagements basiert auf der 3x3-Filtermethode von Munter (vgl. Abschnitt 3.3). Sie gliedert die lawinenbildenden Faktoren und bietet eine Grundstruktur einer Ablaufsystematik bei der Informationsbeschaffung. Dabei wird wie bei der Rasterfahndung der Fokus des Betrachters immer differenzierter (vgl. Mersch 2001a, 230). Die von Engler & Mersch (2000) entwickelte handliche Plastikkarte ist auf der einen Seite mit einem so genannten Linsenrasterbild (Hologramm, Wackelbild) bedruckt. Darauf lässt sich ablesen welche Hangneigung in Abhängigkeit von der Gefahrenstufe im grünen, gelben oder roten Bereich liegt. Durch Kippen der Karte erscheinen wechselweise zwei unterschiedliche Farbgrafiken, an denen der Schneesportler das entsprechende Lawinenrisiko, sowohl für günstige als auch für ungünstige Hangexpositionen, ablesen kann (vgl. www.av-snowcard.de). Auf der anderen Seite ist ein Faktorencheck abgebildet, der bestimmte Gefahrenindikationen abfragt (vgl. Göring 2006, 270).

Abbildung in dieser Leseprobe nicht enthaltenAbbildung in dieser Leseprobe nicht enthalten

Abbildung 7: DAV SnowCard, Vorder- und Rückseite. Quelle: http://www.av-snowcard.de/

Für den Gebrauch der sehr übersichtlich gestalteten SnowCard muss der Nutzer nicht nur den aktuellen Lawinenlagebericht kennen, sondern sollte auch über Grundwissen im Bereich Risikomanagement verfügen, um Sonderfälle (Triebschnee, vielbefahrene Hänge, etc.) in seine Beurteilung einbeziehen zu können. Fehlen dem Nutzer notwendige Informationen, oder ist er sich nicht sicher, ist vom ungünstigsten Fall auszugehen. Dadurch enthalten unbekannte und unsichere Faktoren ein Sicherheitspolster und der Sportler wird zu einer intensiveren Beschäftigung mit dem Thema motiviert, da die unbekannten Faktoren eventuell positiv ausfallen und dadurch den Spielraum erweitern könnten (vgl. Mersch 2001a, 230). Aufgrund der Verknüpfung mit dem Faktorencheck entsteht ein breit gefächertes Risikomanagement, das zudem in einen Anfänger-, Fortgeschrittenen- und Expertenmodus differenziert. Allerdings ist die SnowCard für ambitionierte Freerider nicht so geeignet, da sie bei 42 Grad Hangneigung aufhört, es jedoch für einige Schneesportler erst ab einer Hangneigung von 40 Grad interessant wird. Göring kritisiert zudem den fehlenden Reflexionsimpuls, da „eine Anregung seine eigenen Ziele und Wünsche und eventuell die Bedürfnisse der anderen Akteure zu überdenken“ (Göring 2006, 354) nicht gegeben wird (vgl. auch Abschnitt 5.4.4).

3.3.4 ‚Stop or Go’

Bei dem von Larcher (1999) erstellten Risikomanagementkonzept ‚Stop or Go’ werden sowohl die tragenden Elemente der klassischen Beurteilung (situativ-variabler Zugang) als auch Aspekte des modernen Risikomanagements in einer Strategie kombiniert. Es handelt sich um ein umfassendes methodisch-didaktisches Konzept, das große Parallelen zu Munters Ansatz aufweist und die auf einer Skitour oder Variantenabfahrt notwendigen Entscheidungssprozesse strukturiert. Hierfür werden alle wichtigen, das Risiko mindernden Handlungsanweisungen ausdrücklich angeführt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: 'Stop or Go' – Methode. Quelle: http://www.alpenverein.at/portal/ Download/Bergsport/stop_or_go__monitor_auswahl.pdf

Durch eine Art Checkliste, die die Bereiche Planung und Gelände umfasst, wird sichergestellt, dass die wichtigsten Punkte bei jeder Tour / Variante berücksichtigt werden (vgl. Würtl & Larcher 2007, 114). Im ersten Teil wird in Abhängigkeit zur aktuellen Lawinenwarnstufe der europäischen Skala eine Entscheidungshilfe mit Hinweisen auf Hangexposition und Hangneigung gegeben. Anschließend werden fünf Wahrnehmungsaufgaben zu Gefahrenzeichen, die die akute Lawinengefahr kennzeichnen, gestellt. Der Handelnde muss bei dieser kombinierten Methode selbst eine Handlungsentscheidung im Sinne von ‚Stop or Go’ treffen. Larchers Methode ähnelt inhaltlich und konzeptionell sehr der von Munter (vgl. Würtl & Larcher 2007, 115). Im Gegensatz zur DAV SnowCard ist jedoch der Eingangswiderstand relativ niedrig angesetzt und wird nur durch das Erkennen ungünstiger Stellen erhöht. Dabei ist für das Erkennen von Gefahrenstellen schnee- und lawinenspezifisches Wissen notwendig um die Faktoren Neuschnee, Triebschnee, Lawinen, Durchfeuchtung und Setzungsgeräusche wahrnehmen und angemessen beurteilen zu können. Zudem wird durch das Fehlen grundlegender Reflexions- und Kommunikationsimpulse der fundamentale ‚Faktor Mensch’ nicht berücksichtigt (vgl. Göring 2006, 353).

[...]



[1] Um den Lesefluss nicht zu beeinträchtigen, wird in dieser Arbeit bei Personen- und Funktionsbezeichnungen wie „Sportler/Sportlerinnen“, „Schneesportlehrer/ Schneesportlehrerin“ etc. lediglich die männliche Form verwendet. Diese Begriffe beziehen die weibliche Form der jeweiligen Gruppen selbstverständlich immer mit ein. Abweichungen kommen lediglich in Originalzitaten vor.

[2] Wissenschaftliche Definitionsansätze fehlen gänzlich. In Zeitschriftenartikeln wird der Begriff rudimentär definiert. Es handelt sich jedoch dabei lediglich um Erklärungsversuche der Autoren und nicht um ernstzunehmende wissenschaftliche Beiträge. Dick zum Beispiel definiert ‚Freeriding’ als „Variantenfahren für denglisch-sprechende Trendsportler“ (2007, 22). Hölzl hingegen beschreibt genauer: „’Freeriden’ steht für freies, kontrolliertes Bewegen auf Skiern, verbunden mit großem Spaßfaktor. Es ist spielerisches Skifahren unter Ausnutzung der Geländeformen“ (2005, 71).

[3] Zwar kann eine Variante auch mit Tourenskiern gefahren werden, umgekehrt ist ein Aufstieg ohne die Gehfunktion der Tourenbindung und Felle nur bedingt möglich. Die Sportartikelindustrie bringt in den letzten Jahren jedoch verstärkt Hybridmodelle auf den Markt (z.B. Naxo-/Fritschi-Bindungen).

[4] Die Freeskier haben ihren ‚Style’ (Kleidungsmarken, Musik, Sprache) an den der Snowboarder angeglichen.

[5] Zur Bedeutung von Image im Trendsport vgl. z.B. SCHWIER 1998; 2000; SCHILDMACHER 1998; 2001; LAMPRECHT & STAMM 1998.

[6] In der EU sterben jährlich nahezu 50 000 Menschen im Straßenverkehr (vgl. ENGLER 2001, 110).

[7] Die Soziobiologie konnte nachweisen, dass die Suche nach Risiko dem Steuermechanismus ‚Suche und Erkundung’ die Aufgabe zukommt, die Fortpflanzung und Lebenserhaltung von Organismen in komplexen Umwelten zu sichern. Diese durch Dopamin gesteuerten Emotionen sind besonders bei jungen männlichen Gruppenmitgliedern zu beobachten (vgl. Mersch 2001a, 229).

[8] Opaschowski geht von subjektiven Risiken aus, wenn Risikosportler sich überschätzen und den Schwierigkeitsgrad der sportlichen Herausforderung im Verhältnis zum eigenen Können nicht richtig abschätzen können (vgl. 2000, 88ff.)

[9] Es wird zwischen Katastophen- und Wintersportlawinen unterschieden. Bei Katastrophenlawinen kommt es durch Selbstauslösung zu Verschüttung von Wohnsiedlungen und Verkehrswegen. Wintersportlawinen hingegen sind Lawinen, die durch Skifahrer oder Snowboarder ausgelöst werden und bei denen Personen im freien Gelände erfasst werden (vgl. Harvey 2002, 48; Brugger 2003b, 2).

[10] In einer Umfrage Mitte der 1980er Jahre gaben 3% der Schweizer Bevölkerung zwischen 15 und 75 Jahren an, regelmäßig Skitouren zu gehen. Bei 5 Millionen Schweizern konnte somit von 150.000 Tourengängern ausgegangen werden. Zusätzlich wurden 20.000 ausländische Wintersportler eingerechnet und eine Aktivität von einer Skitour pro Monat veranschlagt, so dass von 850.000 Personentagen auszugehen war. Im Schnitt der 80er Jahre kam es dabei zu 17 Lawinenopfern. Das Todesfallrisiko pro Tour pro Person lag somit bei 1:50.000 (vgl. Munter 2005, 40).

[11] Als Grundlage der Studie wurden 122 Skitourengänger in 37 Gruppen in den Stubaier Alpen, dem Sellrain, der Silvretta und in den Kitzbüheler Bergen beobachtet und danach einzeln befragt. Es handelte sich um eine repräsentative Population (Mersch & Trenkwalder 2007, 49f.). Auch wenn der wissenschaftliche Wert dieser Untersuchung aufgrund umfangreicher qualitativer Interviews in Zusammenhang mit Beobachtungen im Gelände sehr hoch ist, ist doch die Stichprobe mit 122 Tourengängern relativ klein, so dass die Ergebnisse bezüglich der Basisrate noch verifiziert werden müssten.

[12] Die Autoren rechneten die Zahlen aus der Region Davos für die ganze Schweiz hoch. Dabei gingen sie von durchschnittlich zwei Abfahrten im Variantenbereich aus. Des Weiteren wurden pro Person sieben Tage Aktivität veranschlagt. Daraus ergab sich ein individuelles Risiko eines tödlichen Lawinenunfalls pro Jahr von 9 x 10-5 auf Touren und 12 x 10-5 auf Varianten. Zudem berücksichtigten sie, dass Stürze, Gletscherspalten, Wechtenabbrüche oder Blockierungen für über 40% der Todesfälle im winterlichen Gelände verantwortlich sind. Folglich ergab sich ein individuelles Todesrisiko von 17 x 10-5 (auf Touren) und 20 x 10-5 (auf Varianten) (vgl. Wäger & Zweifel 2008, 32ff.).

[13] Zum Vergleich: In den USA sterben jährlich durchschnittlich 25 Schneesportler in Lawinen (vgl. http://avalanche.state.co.us/Accidents/Statistics/).

[14] Zum Vergleich: In den USA, wo das von Munter entwickelte Konzept bis heute nicht sehr populär ist, stiegen die Zahlen zwischen 1995 und 2005 deutlich an (von durchschnittlich etwa 20 auf ca. 28 tödlich verunglückte Schneesportler) (vgl. http://avalanche.state.co.us/Accidents/Statistics/).

[15] Vgl. Kapitel 3.

[16] Nach ihren Angaben gab es in den 1980er Jahren bei ca. 170.000 Tourengängern in der Schweiz durchschnittlich 17 Lawinentote jährlich, (1:10.000), in den letzten Jahren jedoch „nur“ noch 10 Opfer bei 200.000 Tourengehern (1: 20.000) (vgl. Larcher & Munter 2005, 16).

[17] In Davos befindet sich das Eidgenössische Schweizer Institut für Lawinenforschung (SLF). Dieses verfügt über die ältesten Aufzeichnungen in den Alpen und ist führend in der Lawinenforschung (www.slf.ch).

[18] Vgl. Kapitel 3.

[19] Als ‚Setzung’ bezeichnet man die vertikale Bewegung der Schneedecke. D.h. die Abnahme der Schneehöhe aufgrund der Belastung infolge des Eigengewichtes. Die Setzung erfolgt durch die abbauende sowie durch die Schmelzumwandlung (Bildung von Sulzschnee) (vgl. Preuss 2007, 241).

[20] Bei Temperaturen über 0° Grad kommt es hingegen zu Instabilisierung durch Verwässerung.

[21] Umfangreiche Informationen zum Schneedeckenaufbau finden sich bei Engler 2001, Preuss 2007, Kronthaler 2004 und vor allem bei Munter 2003.

[22] Bei einem Rutschblocktest wir ein Block von der Oberfläche bis zum Boden von der umgebenden Schneedecke abgetrennt. Danach erfolgt eine Belastung des Blocks durch eine Person bis zum Bruch. Rutschblocktests liefern eine stichprobenartige Untersuchung der Schneedecke (vgl. Lange 1998, 7ff.).

[23] Im Spätwinter kommt es dagegen bevorzugt an Südhängen durch Schmelzmetamorphose zur Entstehung von Nassschneelawinen.

[24] Die europäische Lawinenskala unterscheidet fünf Lawinenwarnstufen: ‚gering’, ‚mäßig’, ‚erheblich’, ‚groß’ und ‚sehr groß’ (vgl. Munter 2003, 207).

[25] Bedingt durch die Schnee- und Wettersituation ist Südtirol erst im Spätwinter ein beliebtes Ziel für Tourengeher. Durch die tageszeitliche starke Erwärmung kommt es verstärkt zu Nassschneelawinen.

[26] Die Steilheit eines Hanges wird in Grad (°) und nicht - wie für viele gewohnt - in Prozent angegeben (ein 45° steiler Hang hat ein Gefälle von 100%, ein 90° steiler Hang ein Gefälle von unendlich vielen %).

[27] Der ‚typische’ Wintersportlawinenhang ist 38-39 Grad steil (vgl. Harvey 2002, 50).

[28] Untersuchungen in der Region Davos haben ergeben, dass 30 Grad steile Hänge etwa doppelt so häufig befahren werden, wie 40 Grad steile Hänge. Dies bedeutet, dass die Auslösewahrscheinlichkeit bei steileren Hängen noch größer ist, als aufgrund der Unfallstatistik angenommen werden könnte (vgl. Schweizer 2006, 43).

[29] Angaben zu diesem Thema finden sich bei u.a. Engler 2001, Munter 2003 und Preuss 2007.

[30] Die typische Wintersportlawine ist ein trockenes Schneebrett (in 99% der Fälle) mit einer Anrissmächtigkeit von rund 50 cm, einer Länge von durchschnittlich 200-250 m und einer Breite von 50-60 m (vgl. Harvey 200, 48; Schweizer 2000b, 32). 95% aller Lawinen werden durch Wintersportler und nur 5% auf natürliche Weise ausgelöst. 45% aller Lawinenunfälle passieren bei der Lawinenwarnstufe ‚erheblich’, 30% bei ‚mäßig’. (vgl. Harvey 2002, 48). Außerdem ist die Geländeform von Bedeutung, da sich 80% aller Lawinenunfälle in Kammlagen, felsdurchsetzem Steilgelände oder in konkavem Gelände (Mulden, Rinnen) ereignen und nur 20% an Hanglagen ohne spezielle Geländeformen (vgl. Harvey 2002, 50).

[31] Als Oberflächenreif werden „transparente, plättchenförmige Eiskristalle, die sich durch das Ausfällen von Feuchtigkeit (Sublimation) aus der Luft an der kalten Schneeoberfläche bilden“ (http://wa.slf.ch/index.php?id=118# 160) bezeichnet.

[32] Bei der Schneedeckenanalyse bei Lawinenunfällen konnte festgestellt werden, dass nur in gut einem Drittel der Fälle der Bruch innerhalb der Schneedecke beim Übergang von Neuschnee zum Altschnee erfolgte. Das bedeutet, dass in der Mehrheit der Fälle (63%) die Schneedecke innerhalb des Altschnees brach. In 42% der Fälle wurde die typische Situation einer dünnen schwachen Schicht gefunden. Bei den übrigen 58% der Lawinenniedergänge erfolgte der Bruch an einer Schichtgrenze. Die Schwachschicht war meist dünner als 1 cm und bestand in über 90% der Fälle aus Oberflächenreif, kantigen Formen oder Schwimmschnee. Die Schicht oberhalb der Schwachschicht war häufig (79%) deutlich härter als diese selbst. Das typische Schneebrett ist an der Oberfläche weich und erlaubt daher eine gute Übertragung der Schneesportlerkräfte in die Tiefe. Lawinenauslösungen bei harter Oberfläche (Krusten) kommen nur selten vor (vgl. Schweizer 2000b, 35f).

[33] Ausführliche Informationen zum Thema geben z.B. Engler 2001 und Preuss 2007.

[34] In der sportwissenschaftlichen Risiko-Diskussion finden sich bei Nickel (1994) und Wang (1994) Ansätze, die für die Ausbildung einer allgemeinen ‚Risikobewältigungsfähigkeit’ plädieren. Besonders im alpinen Bergsport findet eine Beschäftigung mit der Thematik des Risikomanagements z.B. bei Josi (1991), Schwiersch (1991a, 1991b) oder Faulhammer (1994) statt.

[35] Die Nivologie ist „die Wissenschaft vom Schnee“ (Munter 2003, 219).

[36] Vgl. Abschnitt 3.3.

[37] Vgl. Abschnitt 3.3.2.

[38] Vgl. Abschnitt 4.3.1.

[39] Göring kritisiert die Bezeichnung von Munters Reduktionsmethode als ‚Risikomanagementmethode’, da es sich für ihn eher um ein Instrument des Gefahrenmanagements und nicht ein pragmatisch anwendbares Risikomanagementkonzept handelt. Dies ist insofern von Bedeutung, als dass im Bezug auf Lawinen keine Risikooptimierung stattfindet, sondern eine klar strukturierte Gefahrenminimierung (vgl. Göring 2006, 351). Sicherlich ist unter den von Göring benannten Aspekten der Begriff des Risikomanagements wissenschaftlich nicht ganz passend (vgl. Abschnitt 2.2.3), umgangssprachlich vertritt er jedoch angemessen das Konzept, welches es beschreiben soll.

[40] Die ERM lässt sich in dem Satz: „Bei ‚mäßig’ geht man nicht über 39°, bei ‚erheblich’ nicht über 34° und bei ‚groß’ beschränkt man sich auf mäßig steiles Gelände (unter 30°)“ (Munter 2003, 122) zusammenfassen.

Categories: 1

0 Replies to “Nicht-Probabilistische Stichprobe Beispiel Essay”

Leave a comment

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *