Artikel über Studienqualität

Falschdarstellungen und Vorurteile
Rey Alp
Beiträge: 2524
Registriert: Mo 1. Jun 2009, 15:58

Artikel über Studienqualität

Beitragvon Rey Alp » Do 1. Sep 2016, 20:23

Der GameStar-Leser-Artikel neulich hat ja genau wie die Berichterstattung die Forschungslage als etwas optimistischer dargestellt, als sie z. B. von Vica beschrieben wird.

Ich möchte vorschlagen, den Inhalt seiner Diss in einfacherer Form in einem Blog-Eintrag darzustellen.

Meine Idee war, anhand eines hypothetischen Expiriments zur Wirkung von Alkohol zu zeigen, wie kauptt die Forschung hier ist.

In diese Richtung gehend stelle ich mir etwas vor:

- Bei einer Untersuchung des Einflusses alkoholhaltiger Getränke dürfte man erwarten, dass überhaupt erfasst wird, was und wieviel die Probanten konsumieren. Also greift jemand zum Wein oder zum Bier - welche Menge mit welchem Alkoholgehalt nimmt jemand zu sich. Der Gedanke, jemanden unbeobachtet in einem Raum mit diversen Alkoholika zu schicken, 15 Minuten zu stoppen, und danach die Reaktionen der Person zu testen, erscheint als etwas fragwürdig: Es würde nicht erfasst werden, ob jemand nur an einem Glas genippt oder sich ins Koma gesoffen hat. Ggf. ist jemand auch schon daran gescheitert, eine Sektflasche vom Korken zu befreien und verlässt den Raum, auch ohne nur einen Tropfen angerührt zu haben. Bei Studien über Videospiele ist dies tatsächlich oftmals der Fall: In x Studien (u. a. n) wird nicht erfasst oder kontrolliert, was die Personen in den Spielen veranstalten. Einige der wenigen, die es doch tat, kam zu inetressanten Ergebnissen. So lag bei GTA die "Killzahl" zwischen x und 0.

- Weiter ist "Gewalt", anders als die Blutalkoholkonzentration, nicht unmittelbar messbar, weshalb sich Forscher in unserem Beispiel eines "heißen Drahts" bedienen: Die Theorie: Durch Alkohol wird ein Mensch ungeschickter, so dass jemand, der mehr Alkohol getrunken hat mehr Probleme an dem "heißen Draht" haben dürfte, als jemand, der sich zurückgehalten hat. Aber auch hier gibt es Fehlerquellen. So ist die "Alkoholtoleranz" individuell recht unterschiedlich ausgeprägt: Probant A ist keinen gewohnt und kommt schon nach 1 Bier nicht mehr klar, Probant B ist noch nach 3 Bier virtuos. Und dann befindet sich unter den Probanten, die mit dem Experiment etas dazu verdienen wollen, auch der eine oder andere Alkoholiker: Diese sind nach dem Trinken sogar sicherer am Draht, als beim zuvor durchgeführten Kontrolldurchgang. Auch stellen die Forscher früh fest, dass im Kontrolldurchgang beinahe alle besser sind - trotz Alkohol. Es liegt, so glaubt man, an einem Übungseffekt, so dass die Verbesserung anhand den Daten einer Vergleichsgruppe herausgerechnet werden muss. Weiter ergibt sich, dass auch die Kontrollgruppe, die alkoholfreie Getränke trank, ebenfalls sich weniger verbessert, als zu erwarten war. Langsam reift hier die Erkentnis, dass es für eine gewisse Nervosität auch andere Ursachen gibt - beispielsweise einen Harndrang nach dem Trinken. Die Fehlerquelle der "Drittvariablen" wird bei Videospielenstudien nur teilweise kontrolliert - je besser diese erfasst werden, desto weniger bleibt von dem festgestellten effekt über- teilweise sogar gar nichts. Die Frage, ob Menschen auf Gewaltdarstellungen unterschiedlich reagieren, wird dagegen kaum gestellt.


edit:

Hier ein Link zu einem pad mit Ideen:
- Klick mich

Benutzeravatar
marcymarc
VDVC-Team
Beiträge: 643
Registriert: Fr 13. Sep 2013, 11:16
Vorname: Marc
Wohnort: Hannover

Re: Artikel über Studienqualität

Beitragvon marcymarc » Do 1. Sep 2016, 20:41

Das wäre ne angenehme Kolumne, denn für Richtigstellungen sind wir schon etwas spät dran. Evtl. Sollte das aber erst nach der Meldung zum Gamescom Bericht im Blog erstellt werden.

Rey Alp
Beiträge: 2524
Registriert: Mo 1. Jun 2009, 15:58

Re: Artikel über Studienqualität

Beitragvon Rey Alp » Mi 7. Sep 2016, 22:24

@Vica
Ich habe in deiner Diss 9 Punkte gefunden, die ich bei einem solchen Artikel für Experimentalstudien als darstellbar einschätze und 2 Punkte für Langzeitstudien. Mein Problem ist dabei, dass ich - ohne alle deine Quellen anzuschauen - nicht weiß, wie verbreitet das Problem ist. Du schreibst, dass wohl "das Gros der korrelativen Mediengewaltwirkungsstudien noch gar nicht den eigenständigen Einfluss der Mediengewaltexposition auf bspw. die Aggressionen der Probanden untersucht hat". Bei einzelnen Punkten - z. B. die Erfassung der Nutzung der Titel - führst du großartig anschaulich aus, welche Studien an welchen Problemen kranken. Leider aber ohne dass man das allgemein einordnen kann: Passieren diese Fehler nur Studenten im 1. Semester? hast du dir nur die 10 schlechstens Studien rausgepickt und 1.000 andere sind ok?

Lange Rede kurzer Sinn: Wäre es möglich, dass du vielleicht 5 "repräsentative" Experimental und 5 "repräsentative" Langzeitstudien mitteilst und für jeden der 9 bzw. 2 Punkte darstellst, wie sie scheitern?

    Also z. B. 1 Studie vom KFN, 1 von Möller, 1 von Anderson, etc. und dann konkret darstellst, welche Studie welche Spiele verwendet hat, welche Zeit gespielt wurde, wie die Aggression erfasst wurde, wie die Drittvariablen, wie die Darstellung und die Wahrnehmung von Gewalt nicht erfasst wurde etc.?

Beim Punkt "1.7 - Schlechte Erfassung der Drittvariablen" habe ich die mangelnde Qualität nich nicht in vollem Umfang erfasst - oder ist das tatsächlich weniger haarsträubend als die übrigen Punkte?

1. EXPERIMENTALSTUDIEN

1.1 - Nichterfassung von die Rezeption beeinflussenden Faktoren, die aus der Persönlichkeit oder der Situation folgen

Formale und andere (z.B. kontextuelle) Medieninhalts-, personale Rezipienten- und situationale Rezeptionsvariablen werden nicht oder ggf. bestenfalls nur als mediatisierende Störfaktoren der für alle Rezipienten prinzipiell als mehr oder weniger identisch konjizierten, ausschließl. am Stimulus festgemachten Wirkungen, nicht aber (wie es realistischererweise z.B. im Rahmen der rezipientenorientierteren Medien- und Kommunikationswissenschaft und der allg. Medienpsychologie spätestens seit den 1970ern der Fall ist) als für evtl. Wirkungspotenziale selbst erst gleichermaßen konstitutiv realisiert.

Infolge dessen ist den Mediengewaltwirkungstheorien und -studien auch die gem. MERTEN 1994 wesentliche Annahme der beiden atavistischen Modelle nach wie vor inhärent: "Gleicher Stimulus erzeugt gleiche Wirkung [...] und [...] je intensiver/anhaltender/direkter der Stimulus, desto größer die Wirkung [...]."


1.2 - Nichterfassung der Wahrnehmung aggressiver Verhaltensmuster

ALISCH/OPPL/KRISTEN 2007 argumentieren aber, dass eine das sog. Priming begünstigende (resp. für dgl. gar notwendige) Bedingung sei, "dass die Gewaltdarstellungen auch tatsächlich als Aggression wahrgenommen werden (und nicht zum Beispiel als sportlicher Wettkampf) und gerechtfertigt erscheinen, sowie eine Identifikation durch die Rezipienten mit den Mediencharakteren und eine möglichst realistische Präsentation."

Insofern konstatiert auch HARTMANN 2006, "dass Handlungen innerhalb eines Spiels eine andere Bedeutung besitzen als [...] in der Alltagswirklichkeit [...], weswegen auch scheinbar gewalttätige Computerspielhandlungen nicht ohne weiteres als tatsächliche Aggression, mit der einem Lebewesen geschadet werden soll, definiert werden können [...].


Ungeachtet dessen kontrolliert das Gros der Computergewaltwirkungsstudien das von den Probanden wahrgenommene Gewaltdarstellungsniveau aber nicht oder nicht hinreichend.


1.3 - Nichterfassung des Erfolgs von aggressiven Handlungen

Bestenfalls implizieren i.d.S. [...] Forscher, [...] dass Gewalt ausnahmslos als [...] Verhaltensweise legitimiert wird, wie auch dass die Rezipienten die Gewaltdarstellungen i.d.S. wahrnehmen (und z.B. auch unkritisch-affirmativ die textuelle Tätersperspektive adaptieren, egal wie unangemessen oder gar absurd das Rollenmodell ist), auch ungeachtet dessen, dass bzgl. Computerspielen ein mangelnder Spielerfolg des Spielers dgl. (im Sinne negativen Lernens) u.U. konterkarieren könnte (den diesbzgl. Erfolg aber noch keine einzige Wirkungsstudie kontrolliert hat; s.u.).


1.4 - Nichterfassung der Intention aggressiver Handlungen

Plausibler [...] wäre bspw. eine bereits von OLSON 2004 propagierte, aber in der Forschungspraxis größtenteils ignorierte Ausdifferenzierung der Mediengewalt, [...] Stattdessen fragt die Mediengewaltwirkungsforschung aber nach wie vor nur nach der Wirkung von Gewaltdarstellungen per se.

Die Forscher analysieren u.U. die Wirkungseffekte Gewalt darstellender Medien, die andere erst gar nicht als (besonders) gewaltdarstellend einstufen würden.


Die Rezipienten nehmen bspw. im Rahmen der Film- und Fernsehgewaltwirkungsstudien i.d.R. (auch bereits perzeptiv) weniger als die quantitiv tatsächlich präsentierten Gewaltakte wahr. Auch konnte bspw. FRÜH 2001 demonstrieren, dass Frauen mehr Darstellungen als Männer und ältere Rezipienten (> 35 Jahre) mehr Darstellungen als jüngere Rezipienten (wie auch tendenziell – aber nicht besonders signifikant – Rezipienten mit höherer Bildung als mit niedrigerer Bildung) als gewalthaltig interpretieren.


1.5 - Nichterfassung der Exposition zu aggressiven Handlungen

Ungeachtet dessen operationalisierte noch keine Wirkungsstudie die antezedierende oder gar habituelle quantitative, wie auch qualitative Mediengewaltexposition der Probanden im Rahmen des Computerspielens probat [...]. Offensichtlich ist das bspw. für Studien, die nicht zwischen einem generellen (u.U. mediengattungsspezifischen) Medienkonsum und einer speziellen Mediengewaltexposition der Probanden differenzieren, wie auch für Studien, die ungeachtet der Diversität der Medieninhalte auch innerhalb einzelner (vermeintlich per se Gewalt darstellender) Genres nur die Nutzungshäufigkeit derselben kontrollierten.


Aber auch im Rahmen von Experimentalstudien werden z.T. nicht tatsächliche Aggressionen der Probanden, sondern nur die aggressiven Verhaltenstendenzen derselben im Rahmen hypothetischer Szenarien kontrolliert. [...] Eine negative(re) Evaluation war den Experimentatoren ein Indikator aggressive(re)n Verhaltens. Ungeachtet der substanziell irrelevanten Unterschiede zwischen beiden Gruppen (die den Versuchsleiter beide insg. positiv bewerteten) war die negativere Evaluation durch die Experimentalgruppe aber u.U. nur die Konsequenz einer irritierenderen u./o. frustriererenden Spielsituation: Die Probanden sollten die erste Mission des Spiels ("The Party") spielen. Insg. reduzieren aber die ca. 4 ½ Minuten Zwischensequenzen dieser Mission die Nettospielzeit der Spieler erheblich, so dass das Experiment u.U. bereits beendet wurde, ohne dass die Probanden (auch im Lichte einer ggf. mehrminütigen Lernphase) die Mission beendet hatten. [...] ggressive behaviors were measured by using the ratio of total weapon time to total game playing time in the game. We justified this measure as a gauge of aggressive behavior two ways. The first is that the participants got to choose how long they wanted to use the character’s weapon. All participants were told that the use of the weapon causes more damage. If they decided to use the weapon more, that suggests that they want to cause more damage to their opponent, which fits with the operational definition of aggression. [...]


1.6 - Wahl der Gegenstands der Vergleichgruppe

z.T. dokumentieren (oder spezifizieren) die Versuchsleiter auch erst gar nicht, welche (Teile der) Spiele sie überhaupt als Stimuli nutzen u./o. kategorisieren wie bspw. KONIJN/ BIJVANK/BUSHMAN 2007 Spiele der Kontrollgruppe (THE SIMS 2; TONY HAWK’S UNDERGROUND 2; FINAL FANTASY) so salopp wie falsch als nicht violent, die de facto auch i.S.v. engeren Auslegungen Gewalt darstellend sind.


1.7 - Schlechte Erfassung der Drittvariablen

Die bis heute populärste Methode der Kontrolle von Störvariablen erfanden (in Orientierung an ANDERSON/FORD 1986) abermals ANDERSON/DILL 2000: Die Probanden sollen nach dem Spielen i.d.R. sieben 7-stufige (unipolare) Items eines Fragebogens beantworten, der eruiert, "how difficult, enjoyable, frustrating, and exciting the games were as well as how fast the action was and how violent the content and graphics of the game were." Ungeachtet dessen, dass das Gros der das Maß adaptierenden Experimente erst gar nicht zwischen dem inhaltlichen und dem graphischen Gewaltdarstellungsniveau differenziert, wie auch, dass die Störvariablen i.d.R. nur mittels eines einzigen Fragebogenitems pro Variable kontrolliert werden (so dass bereits dgl. die skizzierten Antwortverzerrungen evozieren kann; s.o.) und dass z.T. nicht die Probanden selbst, sondern nur Dritte die Fragen beantworten, divergieren die letztendlich genutzten Gewalt darstellenden und keine Gewalt darstellenden Computerspiele gem. ELSON 2011 insg. in mehr als nur den kontrollierten Variablen, "e.g. the perspective, required spatial attention, required hand-eye coordination, etc. Even though some researchers try to control for that by using games that score similarly on a few variables like difficulty, enjoyment, action, frustration, and differ on violent graphics and content [...], the vast differences between the [...] games used in those studies become apparent once one takes a look (or plays) them. Although there is a lot of proof for a difference in the short-term effects of those games on physiological arousal and aggressive behavior, the question whether this can be traced back to the displays of violence remains unanswered because there are plenty of other possible causes that were not eliminated or controlled in these studies."


1.8 - Künstliche Art der Nutzung

Bereits im Rahmen der Film- und Fernsehgewaltwirkungsstudien analysieren die Versuchsleiter seit Jahrzehnten nicht die Wirkung kompletter gewaltdarstellender Filme o.ä. auf die Probanden, sondern konfrontieren letztere irritierenderweise in einer ungewohnten Situation mit nur mit paar Sekunden(!) oder Minuten dekontextualierten, Gewalt darstellenden Filmmaterials (bspw. Aneinanderreihungen von Gewaltakten), die aber keinem natürlichen Medienangebot mehr entsprechen, so dass die Studien prinzipiell auch gar keine Aussagen mehr über die Wirkungen Gewalt darstellender Filme treffen können. Der Problematik entspricht im Rahmen der Computerspielgewaltwirkungsforschung, dass die Versuchsleiter die Probanden die Spiele i.d.R. nur zwischen fünf und 20 Minuten spielen lassen.

Erstere ließen die Probanden das Spiel nur zehn Minuten spielen und fanden einen (nach COHEN 1988)starken Korrelationskoeffizienten von r = .90, letzterer ließ die Probanden 75 Minuten spielen und konnte nur noch einen kleinen Korrelationskoeffizienten von r = .05 finden.


Die Probanden sollten innerhalb eines Kernspintomographen für ca. eine Stunde den Egoshooter TACTICAL OPS:ASSAULT ON TERROR spielen, wobei ihre Köpfe fixiert und ihnen nur ein Ausschnitt des Spielbilds per Videobrille projiziert wurde und sie das Spiel (das i.d.R. per Maus- und Tastatur oder ggf. per Gamepad kontrolliert wird) nur per dreitastigem(!) Trackball spielen sollten! Das diesbzgl. Frustrationserleben der Probanden wurde aber natürlich nicht kontrolliert.


1.9 - Willkürliche Deutung physiologischer Werte

Diverse Studien haben bereits analysiert, inwiefern Gewaltdarstellungen in Computerspielen die Spieler (intensiver als nicht violente Spiele) erregen, die Resultate sind aber insg. extrem heterogen [Spielgeschwindigkeit ].


Ein Problem der diesbzgl. Forschung ist auch, dass die Erregung z.T. gar nur einmalig nach der Mediengewaltexposition (teilweise gar ohne vorherige Kontrolle der Baseline) erhoben wird, so dass auch i.V.m. den regelmäßig zu kurzen Spielzeiten evtl. Entwicklungen der Erregungs-verläufe ignoriert werden, wie bspw. ein höhere Aktivation zu Beginn der Spielphase, die aber u.U. nach ein paar Minuten während der Spielphase allmählich wieder absinken könnte.Selbst mehrmalige Messungen der Erregung innerhalb der Spielphase sind i.d.R. nur tonisch, kontrollieren also nur die durchschnittliche Erregung innerhalb des Erhebungszeitraums (evtl. abzgl. der Baseline). Interessant wären für die Analyse einer mediengewaltspezifischen Erregung aber insb. phasische Erhebungen; Das Videomaterial wurde dann in unterschiedliche Spielphasen segmentiert, die mit den Erregungsverläufen kontrastiert wurden, so dass die Autoren demonstrieren konnten, dass nicht die virtuellen Gewaltphasen für sich genommen, sondern das (Entladen und) Laden einer Schusswaffe in einer Kampfsituation die größten herzfrequenziellen, nicht aber hautwiderstandlichen Erregungssteig
erungen hervorriefen.


Andererseits monierte bereits KÜBLER 1998 die fehlende Eineindeutigkeit der (physiologischen) Erregung als hinreichenden Indikator einer Desensibilisierung: "Das autonome, denkende und fühlende Individuum mit Verstand und Bewußtsein wird gewissermaßen um- oder übergangen. Die Interpretation der Befunde obliegt allein dem Versuchsleiter und Forscher, dessen Autorität und Deutungsmacht unangefochten sind: [...] Wer beispielsweise keine Schweißausbrüche zeigt, gilt als abgebrüht, wessen Puls ansteigt, wird als sensibel und beeinflußbar diagnostiziert. Subsumiert werden unter diese Erregungssymptome außerdem sämtliche emotionalen Befindlichkeiten, auch Wut, Empörung, Scham, Kummer, Abscheu, sie alle gelten in ihrer physiologischen Symptomatik als identisch. Ebensowenig ist ergründet, ob sich im Laufe der Entwicklungen Emotionen wie Symptome verändern. Bekannt ist nur, daß Kinder auf andere mediale Szenen und Figuren physiologisch anders reagieren als Erwachsene." Oder in der Kurzfassung nach KUNCZIK 2007: "Ist eine geringere Herzfrequenz beim Betrachten realer Gewaltszenen nach dem Spielen eines Computerspiels ein Hinweis auf Abstumpfung oder auf emotionale Betroffenheit?"


2. LANGZEITSTUDIEN

2.1 - Erfassung der Nutzung

Nicht unproblematischer ist aber auch das Prozedere, den Probanden nur eine mehr oder weniger willkürliche Liste konkreter Medientitel zu präsentierten und sie zu instruieren, ihre Nutzungshäufigkeiten für jeden der Titel zu dokumentieren. Bspw. präsentierten HOPF/ HUBER/WEIß 2008 den Probanden i.d.S. eine Liste mit 19 Filmtiteln (z.B. SCREAM, FREITAG DER 13.) und 16 Computerspieltiteln (z.B. HALF-LIFE, DOOM, RESIDENT EVIL) für die sie auf einer 5-stufigen Skala pro Titel dokumentieren sollten, wie oft sie denselben jemals genutzt hatten (0-, 1- bis 2-, 3- bis 10-, 11- bis 30- oder mehr als 30-mal). Die Skalenwerte wurden für jedes Medium einzeln addiert und durch die Anzahl der jeweiligen Titel dividiert, so dass die Autoren mediengattungsspezifische Expositionsmaße für Film- und Computerspielgewalt generieren konnten. Die Studie kopierte damit exakt das Prozedere der Querschnittstudie HOPF 2004, den Probanden wurden gar exakt dieselben Medientitel präsentiert (einzig die Anzahl der Spieletitel wurde verdoppelt). Ungeachtet dessen, dass die Listen z.T. bereits zum Erhebungszeitpunkt (den Jahren 1999 und 2000), aber insb. zum Veröffentlichungszeitpunkt der älteren der beiden Studien veraltet waren (bzgl. der Problematik s.u.), führt bereits der Umstand das Expositionsmaß ad absurdum, dass die Probanden privat aus unzähligen anderen Gewalt darstellenden Titeln wählen und sie mehr oder weniger häufig nutzen können, die aber einfach nur nicht Teil der Listen sind, so dass hohe Expositionsmaße der Probanden u.U. (zzgl. der noch zu thematisierenden Probleme) nicht tatsächlich auch eine höhere Mediengewaltexposition derselben indizieren (dafür müssten die Autoren u.a. erst garantieren können, dass die Probanden auch keine anderen als die präsentierten Titel nutzten).

Das aktuell populärste der Mediengewaltexpositionsmaße erfanden ANDERSON/DILL 2000: "Participants were asked to name their five favorite video games. After naming each game, participants responded on scales anchored at 1 and 7, rating how often they played the game and how violent the content and graphics of the game were. Responses of 1 were labeled rarely, little or no violent content, and little or no violent graphics, respectively. Responses of 7 were abeled
often, extremely violent content, and extremely violent graphics, respectively. [...] For each participant, we computed a violence exposure score for each of their five favorite games by summing the violent content and violent graphics ratings and multiplying this by the how-often rating. These five video game violence exposure scores were averaged to provide an overall index of exposure to video game violence." Die das Maß seitdem adaptierenden Computer-spielgewaltwirkungsstudien variieren bspw. die Anzahl der favorisierten Spiele u./o. den analysierten Nutzungszeitraum, regelmäßig schätzen auch nicht die Probanden selbst das Gewaltniveau der Spiele ein, sondern vermeintliche Experten (s.o.) oder man extrapoliert die Gewalthaltigkeit ggf. aus einer Alterskennzeichnung für das entsprechende Spiel. Das Gros der Studien ignoriert aber die originär empfohlene, aber selbst bereits im Lichte der Diversität der Gewaltdarstellungen unterkomplexe, mittels nur je einem einzigen Fragebogenitem erhobene inhaltliche und graphische Niveaudifferenzierung derselben und fragt stattdessen nur über ein einziges Item (und natürlich i.d.R. auch ohne Definition des Gewaltbegriffs) nach dem generellen Gewaltdarstellungsniveau der Spiele. Die Reduzierung der Spiele auf die Gewaltdarstellungsniveaus ignoriert letztlich auch unzählige konfundierende Merkmale derselben (s.u.). Ungeachtet dessen kann das skizzierte Maß aber auch insg. nicht garantieren, dass dieselben Indexwerte auch faktisch dieselbe quantitative, wie qualitative Mediengewaltexposition der Probanden indizieren: Eine Spielefavorisierung indiziert nämlich nicht auch zwangsläufig eine entsprechende Nutzungshäufigkeit der favorisierten Spiele und insb. keine häufigere Nutzung derselben ggü. anderen, u.U. gar violenteren (aber eben nicht favorisierten) Spielen, die die Probanden gleich häufig oder gar häufiger spielen.


2.2 - Nichterfassung von Drittvariablen

Although researchers sometimes claim to have controlled for "personality" or "family history," this is simply not the case. Tatsächlich demonstriert der Forschungsstand, dass je mehr der (und je probater die) relevanten Drittvariablen kontrolliert werden, desto mehr erodieren bspw. die Zusammenhänge zwischen der Mediengewaltexposition und dem aggressiven Verhalten der Probanden.


Peer-, Eltern- u. Lehrerreporte können die Problematik zwar relativieren, die Bewertungsgrund-lage aggressiven Verhaltens kann dann aber i.d.R nicht mehr die subjektive Absicht des vermeintlichen Aggressors zur Schädigung, sondern wird insb. nur noch die Beobachtung des Verhaltens desselben sein: Die Frage ist aber, inwiefern die Reporter aggressives Verhalten einerseits und z.B. soziale Kompetenzdefizite oder Kampf- und Tobespiele andererseits hinreichend differenzieren (können), denn die Attribuierung eines Verhaltens als aggressiv ist ohne die Kontrolle der Intention des evtl. Aggressors ggf. nur ein soziales Unwerturteil, kann u.a. eine Frage bspw. des Geschlechts, des Alters, der sozialen Herkunft und des sozioökonomischen Status des Reporters, wie auch dgl. des evtl. Aggressors, des situativen Kontextes und gar der Intensität des Verhaltens sein. Dgl. ist auch ein Problem der Experimentalstudien, die Aggression bspw. nur über die Beobachtung, resp. Analyse des Verhaltens der Probanden im Rahmen einer Freispielsituation messen wollen (s.u.). Infolge dessen sind die im Rahmen der Mediengewaltwirkungsforschung genutzten Aggressionsfragebögen als Aggressionsmaße oft nicht besonders angemessen.


- Sonstiges -

"dass schlechte und methodisch problematische Studien in ihrer Aussagekraft nicht dadurch besser werden, dass man sie in eine Meta-Analyse einbezieht. [...]

Vicarocha
Beiträge: 184
Registriert: Sa 25. Feb 2012, 01:07
Vorname: Patrick
Wohnort: 52477 Alsdorf

Re: Artikel über Studienqualität

Beitragvon Vicarocha » Mi 7. Sep 2016, 23:03

Rey Alp hat geschrieben:@Vica
Ich habe in deiner Diss 9 Punkte gefunden, die ich bei einem solchen Artikel für Experimentalstudien als darstellbar einschätze und 2 Punkte für Langzeitstudien. Mein Problem ist dabei, dass ich - ohne alle deine Quellen anzuschauen - nicht weiß, wie verbreitet das Problem ist. Du schreibst, dass wohl "das Gros der korrelativen Mediengewaltwirkungsstudien noch gar nicht den eigenständigen Einfluss der Mediengewaltexposition auf bspw. die Aggressionen der Probanden untersucht hat". Bei einzelnen Punkten - z. B. die Erfassung der Nutzung der Titel - führst du großartig anschaulich aus, welche Studien an welchen Problemen kranken. Leider aber ohne dass man das allgemein einordnen kann: Passieren diese Fehler nur Studenten im 1. Semester? hast du dir nur die 10 schlechstens Studien rausgepickt und 1.000 andere sind ok?

Ich habe versucht, in der Diss. möglichst diplomatisch zu sein (man mag es z.T. gar nicht glauben), d.h. wenn ich in so einem Zusammenhang bspw. vom "Gros" spreche und keine expliziten Ausnahmen nenne, dann sind sie mir nicht untergekommen und ich habe so ziemlich alles an einschlägigen englisch- und deutschsprachigen Studien dafür gelesen, was zwischen den 1980ern und Anfang 2013 publiziert wurde (ich informiere mich ab und zu über neue Studien, da ist allerdings keinerlei Progression festzustellen). Das "Gros" ist damit nur eine Versicherung gewesen, falls ich wider Erwarten doch mal eine Studie übersehen habe, die genau das macht, was ich so kläglich vermisst habe. Was aber z.B. konkret die "korrelativen Mediengewaltwirkungsstudien" betrifft, so kranken die ausnahmslos ALLE an den geschilderten Problemen.

Lange Rede kurzer Sinn: Wäre es möglich, dass du vielleicht 5 "repräsentative" Experimental und 5 "repräsentative" Langzeitstudien mitteilst und für jeden der 9 bzw. 2 Punkte darstellst, wie sie scheitern?

Inwiefern"repräsentativ"? Es gibt da ein paar fragwürdige (um nicht zu sagen unsinnige) Methoden, die öftet eingesetzt werden als andere, so schreibe ich ja in der Diss. z.B. davon, dass ein gewisses (vermeintl.) Mediengewaltexpositionsmaß von Anderson & Dill (2000) in der ein oder anderen Variante sehr häufig genutzt wird (und nenne da in einer Fn. auch entsprechende Studie, die das tun), alle anderen Maße sind da eher ausnahmen und die habe ich bereits versucht, umfassend darszustellen, d.h. ich habe immer die Regel und die Ausnahmen besprochen und bei beidem gezeigt, was schief läuft... "repräsentativ" wäre in dem Fall also die verbreitetste Methode? Da muss man dann auch nicht 5 Studien nennen, die alle im Prinzip das Gleiche machen, da würde sich ein vorgehen anbieten, wie ich es in der Diss. (auch aus eben diesen Gründen) verfolgt habe: Die Regelmethode dekonstruieren, aber auch die Ausnahmen anschneiden, um ein "ja, aber..." direkt im Keim zu ersticken. Wenn man so vorgeht, kopiert man aber nur die Diss., bzw. das würde darauf hinauslaufen, wenn ich es selbst angehe (ich habe das ja schon alles mit dem Anspruch geschrieben, möglichst umfassend zusammenzufassen... weitere Kürzungen, Umformulierungen etc. beissen sich mit meinem latenten Autismus).

    Also z. B. 1 Studie vom KFN, 1 von Möller, 1 von Anderson, etc. und dann konkret darstellst, welche Studie welche Spiele verwendet hat, welche Zeit gespielt wurde, wie die Aggression erfasst wurde, wie die Drittvariablen, wie die Darstellung und die Wahrnehmung von Gewalt nicht erfasst wurde etc.?

Ich habe das für die einzelnen Studien (das KFN hat übrigens keine Wirkungsstudien gemacht) gar nicht dokumentiert , bzwe. keine Aufzeichnungen mehr, da ich mich ja weniger mit der Dekonstruktion von Einzelstudien befasst habe, als mit der Aufdeckung endemischer Probleme; d.h. dass ich Studie XYZ vielleicht als exemplarisches Beispiel für fragwürdige Methode A genutzt habe, ich bin aber nicht weiter darauf eingegangen, dass diese Studie XYZ auch noch an der Anwendung der fragwürdigen Methoden B, C, D und E leidet (Studie XYZ kommt dann vielleicht lediglich in einer Fn. vor, wenn eine der Methoden am Bsp. einer anderen Studie diskutiert wird). So kleinere Spezifika, wie z.B. die verwendeten Titel usw., habe ich ja in Einzelfällen auch genannt, aber halt nciht mehr durchgängig zur Hand, da müsste ich nochmals alle Studien lesen. Was das letztere Betrifft, die Auswahl der Spiele, habe ich aber ja die zwei Studien genannt, die m.E. die einzigen sind, die zumidnest dahingehend brauchbar waren (Elson 2011 und Bösche... 2010 iirc).

[quote}Beim Punkt "1.7 - Schlechte Erfassung der Drittvariablen" habe ich die mangelnde Qualität nich nicht in vollem Umfang erfasst - oder ist das tatsächlich weniger haarsträubend als die übrigen Punkte?[/quote]
Drittvariablenkontrolle ist essentiell, sonst attribuiert man einen Effekt auf eine in einer Studie thematisiert und kontrollierte unabhängige Variable, wo sie tatsächlich durch eine andere Variable verursacht werden könnte.

1. EXPERIMENTALSTUDIEN

1.1 - Nichterfassung von die Rezeption beeinflussenden Faktoren, die aus der Persönlichkeit oder der Situation folgen

Formale und andere (z.B. kontextuelle) Medieninhalts-, personale Rezipienten- und situationale Rezeptionsvariablen werden nicht oder ggf. bestenfalls nur als mediatisierende Störfaktoren der für alle Rezipienten prinzipiell als mehr oder weniger identisch konjizierten, ausschließl. am Stimulus festgemachten Wirkungen, nicht aber (wie es realistischererweise z.B. im Rahmen der rezipientenorientierteren Medien- und Kommunikationswissenschaft und der allg. Medienpsychologie spätestens seit den 1970ern der Fall ist) als für evtl. Wirkungspotenziale selbst erst gleichermaßen konstitutiv realisiert.

Warum die Unterstreichung? Die Medieninhaltsvariablen sind genau so wichtig, sonst vergleicht man nämlich miteinander unvergleichbare Spiele und attribuiert eine vermeintl. Wirkung der Gewaltdarstellung, wo z.B. das Pacing den unterschied gemacht hätte o.ä.

Infolge dessen ist den Mediengewaltwirkungstheorien und -studien auch die gem. MERTEN 1994 wesentliche Annahme der beiden atavistischen Modelle nach wie vor inhärent: "Gleicher Stimulus erzeugt gleiche Wirkung [...] und [...] je intensiver/anhaltender/direkter der Stimulus, desto größer die Wirkung [...]."[/quote]

1.2 - Nichterfassung der Wahrnehmung aggressiver Verhaltensmuster

ALISCH/OPPL/KRISTEN 2007 argumentieren aber, dass eine das sog. Priming begünstigende (resp. für dgl. gar notwendige) Bedingung sei, "dass die Gewaltdarstellungen auch tatsächlich als Aggression wahrgenommen werden (und nicht zum Beispiel als sportlicher Wettkampf) und gerechtfertigt erscheinen, sowie eine Identifikation durch die Rezipienten mit den Mediencharakteren und eine möglichst realistische Präsentation."

Insofern konstatiert auch HARTMANN 2006, "dass Handlungen innerhalb eines Spiels eine andere Bedeutung besitzen als [...] in der Alltagswirklichkeit [...], weswegen auch scheinbar gewalttätige Computerspielhandlungen nicht ohne weiteres als tatsächliche Aggression, mit der einem Lebewesen geschadet werden soll, definiert werden können [...].

Ist nicht der wichtigste aller Punkte: Für Spieler wahrscheinlich eher verständlich, als für Nichtspieler und unsere "Kritiker", die dann einfach sagen, dass bestimmte Darstellung ja auch ungeachtet dessen Wirkungen zeitigen könnten (womit sie aber demosntrieren, das Argument nicht wirklich verstanden zu haben). BTW: [S]alisch.

Die Forscher analysieren u.U. die Wirkungseffekte Gewalt darstellender Medien, die andere erst gar nicht als (besonders) gewaltdarstellend einstufen würden.

Für einen Lerntheoretiker zieht diese Argumentation (wie die letzte nciht), darum wäre es wichtig, ganz genau auf die Unsinnigkeit der Frage nach der allg. Wirkung von Gewaltdarstellungen zu fragen (so wie in der Diss. geschehen).

Die Rezipienten nehmen bspw. im Rahmen der Film- und Fernsehgewaltwirkungsstudien i.d.R. (auch bereits perzeptiv) weniger als die quantitiv tatsächlich präsentierten Gewaltakte wahr. Auch konnte bspw. FRÜH 2001 demonstrieren, dass Frauen mehr Darstellungen als Männer und ältere Rezipienten (> 35 Jahre) mehr Darstellungen als jüngere Rezipienten (wie auch tendenziell – aber nicht besonders signifikant – Rezipienten mit höherer Bildung als mit niedrigerer Bildung) als gewalthaltig interpretieren.
Eigener Fehler: "quantitativ"

1.6 - Wahl der Gegenstands der Vergleichgruppe

z.T. dokumentieren (oder spezifizieren) die Versuchsleiter auch erst gar nicht, welche (Teile der) Spiele sie überhaupt als Stimuli nutzen u./o. kategorisieren wie bspw. KONIJN/ BIJVANK/BUSHMAN 2007 Spiele der Kontrollgruppe (THE SIMS 2; TONY HAWK’S UNDERGROUND 2; FINAL FANTASY) so salopp wie falsch als nicht violent, die de facto auch i.S.v. engeren Auslegungen Gewalt darstellend sind.

Das ist gar nicht auf die Kontrollgruppe o.ä. beschränkt, da geht es eher darum, dass die Autoren nciht konrollieren, ob innerhalb der Spiele auch virtuell gewalttätig agiert wird: Wenn ich dei probanden, wie in einer der Studie geschehen, die erste Mission von GTA: Vice City spielen lasse, ohne zu kontrollierne, was sie da machen, und dann das Spiel pauschal als "violent" einstufe, ist das einfach quatsch. Habe ich ja dann an anderer Stelle auch ausgeführt.

1.7 - Schlechte Erfassung der Drittvariablen
Die bis heute populärste Methode der Kontrolle von Störvariablen erfanden (in Orientierung an ANDERSON/FORD 1986) abermals ANDERSON/DILL 2000: Die Probanden sollen nach dem Spielen i.d.R. sieben 7-stufige (unipolare) Items eines Fragebogens beantworten, der eruiert, "how difficult, enjoyable, frustrating, and exciting the games were as well as how fast the action was and how violent the content and graphics of the game were." Ungeachtet dessen, dass das Gros der das Maß adaptierenden Experimente erst gar nicht zwischen dem inhaltlichen und dem graphischen Gewaltdarstellungsniveau differenziert, wie auch, dass die Störvariablen i.d.R. nur mittels eines einzigen Fragebogenitems pro Variable kontrolliert werden (so dass bereits dgl. die skizzierten Antwortverzerrungen evozieren kann; s.o.) und dass z.T. nicht die Probanden selbst, sondern nur Dritte die Fragen beantworten, divergieren die letztendlich genutzten Gewalt darstellenden und keine Gewalt darstellenden Computerspiele gem. ELSON 2011 insg. in mehr als nur den kontrollierten Variablen, "e.g. the perspective, required spatial attention, required hand-eye coordination, etc. Even though some researchers try to control for that by using games that score similarly on a few variables like difficulty, enjoyment, action, frustration, and differ on violent graphics and content [...], the vast differences between the [...] games used in those studies become apparent once one takes a look (or plays) them. Although there is a lot of proof for a difference in the short-term effects of those games on physiological arousal and aggressive behavior, the question whether this can be traced back to the displays of violence remains unanswered because there are plenty of other possible causes that were not eliminated or controlled in these studies."

Ah... jetzt verstehe ich, was du eben meintest: Ja, hier geht es um die intramedialen Variablen und wie man sicherstellt, dass sich Spiel A für die Experimetnalgruppe und Spiel B für die Kontrollgruppe in keinem Punkt unterscheiden, außer in der Gewaltdarstellung, damit man unterschiede in der vermeintl. Wirkung auch auf diese Gewaltdarstellungen zurückführen kann (s.o.). Mit der beschriebenen Methode mag man überspitzt zu der Einschätzung kommen, dass sich Gears of War und Pong im Grunde von nichts anderem unterscheiden, als der Gewaltdarstellung... auch das ist ja offenbar Quatsch, die Methode ermöglicht das aber.

1.8 - Künstliche Art der Nutzung

Bereits im Rahmen der Film- und Fernsehgewaltwirkungsstudien analysieren die Versuchsleiter seit Jahrzehnten nicht die Wirkung kompletter gewaltdarstellender Filme o.ä. auf die Probanden, sondern konfrontieren letztere irritierenderweise in einer ungewohnten Situation mit nur mit paar Sekunden(!) oder Minuten dekontextualierten, Gewalt darstellenden Filmmaterials (bspw. Aneinanderreihungen von Gewaltakten), die aber keinem natürlichen Medienangebot mehr entsprechen, so dass die Studien prinzipiell auch gar keine Aussagen mehr über die Wirkungen Gewalt darstellender Filme treffen können. Der Problematik entspricht im Rahmen der Computerspielgewaltwirkungsforschung, dass die Versuchsleiter die Probanden die Spiele i.d.R. nur zwischen fünf und 20 Minuten spielen lassen.

Hmmm... "künstlich"... "ökologisch invalide" passt da besser, obwohl... artifiziell/künstlich triffts ja eigtl auch, hast Recht.
"In the beginning there was violence. Cain slew his own brother Abel according to Genesis and he didn't even have a video tape recorder."
~ Gunnel ARRBÄCK

Rey Alp
Beiträge: 2524
Registriert: Mo 1. Jun 2009, 15:58

Re: Artikel über Studienqualität

Beitragvon Rey Alp » Do 8. Sep 2016, 19:24

Ich habe versucht, in der Diss. möglichst diplomatisch zu sein (man mag es z.T. gar nicht glauben), d.h. wenn ich in so einem Zusammenhang bspw. vom "Gros" spreche und keine expliziten Ausnahmen nenne, dann sind sie mir nicht untergekommen und ich habe so ziemlich alles an einschlägigen englisch- und deutschsprachigen Studien dafür gelesen, was zwischen den 1980ern und Anfang 2013 publiziert wurde (ich informiere mich ab und zu über neue Studien, da ist allerdings keinerlei Progression festzustellen). Das "Gros" ist damit nur eine Versicherung gewesen, falls ich wider Erwarten doch mal eine Studie übersehen habe, die genau das macht, was ich so kläglich vermisst habe. Was aber z.B. konkret die "korrelativen Mediengewaltwirkungsstudien" betrifft, so kranken die ausnahmslos ALLE an den geschilderten Problemen.


Es ist mir schon klar, dass du fast ausnahmslos alle meinst - doch auf Nachfrage könnte ich anhand deiner Dissertation nicht unbedingt viele nennen: Ich müsste immer erst deine Quellen konsultieren.

Inwiefern"repräsentativ"?


Für die jeweiligen "Fehler" jeweils praktische Beispiele anhand von 5 der "prominentesten" Studien/Wissenschaftler dazu: Also - wenn die Fehler in deren Studien auch zu finden sein sollten - z. B. Anderson, Bushman, Hopf, Möller, etc.

Ich habe das für die einzelnen Studien (das KFN hat übrigens keine Wirkungsstudien gemacht) gar nicht dokumentiert , bzwe. keine Aufzeichnungen mehr [...] So kleinere Spezifika, wie z.B. die verwendeten Titel usw., habe ich ja in Einzelfällen auch genannt, aber halt nciht mehr durchgängig zur Hand, da müsste ich nochmals alle Studien lesen.


Könntest du es mit vertretbaren Aufwand schaffen für jeden Punkt bis zu 5 prominentere Studien mit den Fehlern zu finden?

Warum die Unterstreichung?


Bitte ingorieren - hatte anfangs geplant wichtige Stellen zu unterstreichen, das wäre aber ausgeartet^^.

Vicarocha
Beiträge: 184
Registriert: Sa 25. Feb 2012, 01:07
Vorname: Patrick
Wohnort: 52477 Alsdorf

Re: Artikel über Studienqualität

Beitragvon Vicarocha » Fr 9. Sep 2016, 12:32

Rey Alp hat geschrieben:
Ich habe versucht, in der Diss. möglichst diplomatisch zu sein (man mag es z.T. gar nicht glauben), d.h. wenn ich in so einem Zusammenhang bspw. vom "Gros" spreche und keine expliziten Ausnahmen nenne, dann sind sie mir nicht untergekommen und ich habe so ziemlich alles an einschlägigen englisch- und deutschsprachigen Studien dafür gelesen, was zwischen den 1980ern und Anfang 2013 publiziert wurde (ich informiere mich ab und zu über neue Studien, da ist allerdings keinerlei Progression festzustellen). Das "Gros" ist damit nur eine Versicherung gewesen, falls ich wider Erwarten doch mal eine Studie übersehen habe, die genau das macht, was ich so kläglich vermisst habe. Was aber z.B. konkret die "korrelativen Mediengewaltwirkungsstudien" betrifft, so kranken die ausnahmslos ALLE an den geschilderten Problemen.


Es ist mir schon klar, dass du fast ausnahmslos alle meinst - doch auf Nachfrage könnte ich anhand deiner Dissertation nicht unbedingt viele nennen: Ich müsste immer erst deine Quellen konsultieren.

Inwiefern"repräsentativ"?


Für die jeweiligen "Fehler" jeweils praktische Beispiele anhand von 5 der "prominentesten" Studien/Wissenschaftler dazu: Also - wenn die Fehler in deren Studien auch zu finden sein sollten - z. B. Anderson, Bushman, Hopf, Möller, etc.

Ich habe das für die einzelnen Studien (das KFN hat übrigens keine Wirkungsstudien gemacht) gar nicht dokumentiert , bzwe. keine Aufzeichnungen mehr [...] So kleinere Spezifika, wie z.B. die verwendeten Titel usw., habe ich ja in Einzelfällen auch genannt, aber halt nciht mehr durchgängig zur Hand, da müsste ich nochmals alle Studien lesen.


Könntest du es mit vertretbaren Aufwand schaffen für jeden Punkt bis zu 5 prominentere Studien mit den Fehlern zu finden?

Naja, für fast jedes methodische Defizit finden sich in der entsprechenden Fn. ja regelmäßig ja schon einige Beispiele, es sei denn - was auch gar nicht sooo selten ist - die fraglischen Methoden wurden nur ein Mal (resp. ausnahmsweise) eingesetzt (s. mein letzter Beitrag); wenn ich bzgl. der Operationalisierung der Mediengewaltexposition im Rahmen korrelativer Studien z.B. schreibe "Das aktuell populärste der Mediengewaltexpositionsmaße erfanden ANDERSON/DILL 2000 [...]," so schreibe ich danach ja, dass einige Studien das Maß geringfüig adaptieren, gehe auf die Probleme kurz ein und nenne dann in Fn. 150 dann gleich 16 Studien, die dieses Maß in einer der genannten Varianten ins Feld führen. Mache ich zugegebenermaßen nicht immer, auch weil - wie gerade erwähnt - nicht immer so viele Studien zur Hand sind...

Lange Rede, kurzer Sinn: Ich liefere für die jeweiligen Fehler, Auslassungen und Probleme ja doch shcon in der Diss. hinreichend (z.T. auch umfassend) praktische Beispiele. Fragt sich auch, wie sich die Prominenz mancher Studien denn objektiv messen lassen soll (mit meinen bescheidenen Mitteln... impact-Werte u.ä. möchte ich nicht raussuchen). Die Disziplin ist da ziemlicher Käse, die besseren Studien sind z.T. die unbekannteren/ignorierten, wärend so ein Müll wie Anderson & Dill (2000) hinsichtlich seiner Bekanntheit wahrscheinl. unter den Top 3 der Computerspielgewaltwirkungsstudien anzusiedeln ist.

Worauf liefe das also hinaus, fünf Studien pro Fall nennen zu wollen? Pures name-dropping`oder dass ich zu jeder Studie noch was schreiben soll? Letzteres wäre von meiner Seite wohl kaum leistbar, die Zeit habe ich leider nicht... und es wäre auch redundant und - äh - ich sage Mal, wissenschaftlich unüblich. Einzig die Methode aufzeigen, dekonstruieren und dann so knapp wie möglich auf Vertreter hinzuweisen, wie in der Diss. geschehen, halte ich da für sinnvoll.
aße erfanden ANDERSON/DILL 2000:
"In the beginning there was violence. Cain slew his own brother Abel according to Genesis and he didn't even have a video tape recorder."
~ Gunnel ARRBÄCK

Rey Alp
Beiträge: 2524
Registriert: Mo 1. Jun 2009, 15:58

Re: Artikel über Studienqualität

Beitragvon Rey Alp » Fr 9. Sep 2016, 19:08

Der von mir vorgeschlagene Beitrag sollte auch nicht von wissenschaftlicher Natur sein sondern ein "journalistischer". Die Beispiele fände ich hilfreich, um den Lesern die Dimension des Problems illustrieren zu können. Ich werde - sobald ich dafür Zeit finde - mal die von dir genannten Beispiel erfassen und schauen, wie weit ich damit komme.

Benutzeravatar
Pyri
VDVC-Mitglied
Beiträge: 968
Registriert: Mo 3. Aug 2009, 18:06
Vorname: Jürgen
Nachname: Mayer
Wohnort: Steiermark, Österreich
Kontaktdaten:

Re: Artikel über Studienqualität

Beitragvon Pyri » Sa 10. Sep 2016, 15:48

Auch ein "journalistischer" Beitrag wird nicht darum herumkommen wissenschaftstheoretische Fragen aufzuarbeiten, sollte er die Situation jedenfalls nicht nur (wieder) auf ihren kleinsten gemeinsamen Nenner reduzieren wollen. Davon existieren meiner Meinung nach ohnehin schon mehr als genug Beiträge - siehe zuletzt etwa auf GameStar.de
Wie sehen die erkenntnisleitenden Interessen (Habermas) aus - wie werden Grundannahmen verwendet: allein etwa das Konzept der Gewaltexposition - sich "Gewalt" sozusagen medial "auszusetzen" wird dabei für gewöhnlich ähnlich einer Strahlenbelastung gebraucht, also quasi schon so wie "Umweltverschmutzung" gesehen (in der politischen Argumentation bei Spitzer dann zugespitzt - no pun intended)... In der Nutzungsforschung kommen dann auch Fragen der "Faszination" auf: welche Verhaltensweisen werden überhaupt problematisiert - in den Fiktionen, aber auch in der "Realität". (Wie) Trennen experimentelle Studien ihre ProbantInnen voneinander, usw. usf. Soll heißen: zunächst einmal wäre es bitter nötig sich von diesem Humboldtschen Wissenschaftsideal unter dem Deckmantel angeblicher "Unvoreingenommenheit" oder "Objektivität" zu verabschieden - einem schlichten Relikt des 19. Jahrhunderts.
Etwa zu glauben dass hier manipulativ nur "schlechte" Studien ausgewählt worden wären, verkennt etwa schon eine ökonomische Situation: wo wird mit welchen finanziellen Mitteln was für eine Forschung überhaupt betrieben, ist welche Arbeit gar möglich - geschweige denn erwünscht. Solche Fragen wären dann alles nötig - wobei diese zu stellen weniger auf quantitative als qualitative Probleme hinausläuft.
Zuletzt geändert von Pyri am Sa 10. Sep 2016, 22:19, insgesamt 1-mal geändert.
Gamertag: Pyri80 PSN: Pyri Steam: pyri "Der, der aus Verzweiflung hinausrennt, wird nachher noch betitelt: 'den hab'n wir los jetzt'." Thomas Bernhard

Rey Alp
Beiträge: 2524
Registriert: Mo 1. Jun 2009, 15:58

Re: Artikel über Studienqualität

Beitragvon Rey Alp » Sa 10. Sep 2016, 20:49

Auch ein "journalistischer" Beitrag wird nicht darum herumkommen wissenschaftstheoretische Fragen aufzuarbeiten, sollte er die Situation jedenfalls nicht nur (wieder) auf ihren kleinsten gemeinsamen Nenner reduzieren wollen


Ich würde davon ausgehen, dass der Beitrag dich nicht begeistern würde, da er allein den Stand der Forschung darstellen sollte. Ich halte es für legitim, journalistisch auch nur einen Ausschnitt der Debatte zu beleuchten. Kein Beitrag kann sich umfassend mit allem auseinandersetzen. In der Sache hast du aber natürlich recht, dass das nicht viel bringt: Die Aussage, dass ein Einfluss nicht belegt bzw. gar nicht (ernstzunehmend) erforscht wurde, sagt natürlich nichts darüber aus, ob ein Einfluss besteht und - wenn das der Fall sein sollte - warum es nicht legitim sein könnte sich dennoch mit den Medien auseinanderzusetzen.

Benutzeravatar
marcymarc
VDVC-Team
Beiträge: 643
Registriert: Fr 13. Sep 2013, 11:16
Vorname: Marc
Wohnort: Hannover

Re: Artikel über Studienqualität

Beitragvon marcymarc » Fr 23. Sep 2016, 16:54

Hier ein Video, welche die Gemengenlage in der Forschung versucht aufzulösen (oberflächlich) https://youtu.be/iwcByfhfVww


Zurück zu „Stigma Videospiele“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast

cron