<< Themensammlung Netzwertig

Unter netzwertig veröffentlichen wir in unserem Blog Einschätzungen zu aktuellen digitalen Geschäftsmodellen und IT-Trends, Meldungen, Analysen, Reviews und Specials.

27.07.10Leser-Kommentare

Untersuchungen zu Tech- und Netzthemen: 4 von 4 Studien sind fragwürdig

Die Tech- und Web-Berichterstattung wird überschwemmt von Studien. Oft entpuppen sich diese als Luftnummern.

 

Womöglich liegt es am Sommerloch und der damit verbundenen Nachrichtenebbe. Oder es ist auf die Nachfrage der Leser nach prägnanten Aussagen zurückzuführen. Vielleicht liegt es auch an der erhöhten Viralität. Oder es ist einfach nur Zufall. In jedem Fall wird die Berichterstattung rund um Web- und Tech-Themen derzeit mit so genannten Studien überschwemmt.

Und auch wenn mich womöglich nur meine subjektive Wahrnehmung an der Nase herumführt, so bekomme ich verstärkt den Eindruck, als würde kaum noch eine der publizierten "Studien" das halten, was man von einer wissenschaftlich durchgeführten Untersuchung eigentlich erwartet. Hier sind vier aktuelle Beispiele, die verdeutlichen, warum es mir schwer fällt, Untersuchungen rund um Netz- und Technologie-Themen überhaupt noch ernst zu nehmen.

 

Vier Kategorien fragwürdiger Studien

1. Studien, die inkorrekt sind oder fehlerhaft wiedergegeben werden

Am Wochenende kursierte die Nachricht einer Studie des Marktforschungsunternehmens Yankee Group, die besagte, dass 77 Prozent aller iPhone-Besitzer den Kauf eines neuen iPhones ins Auge fassen, während lediglich 20 Prozent aller Konsumenten mit einem Android-Handy als nächstes Gerät wieder ein Mobiltelefon mit dem Android-Betriebssystem erwerben würden.

Doch dieses Ergebnis stellte sich später als falsch heraus. Die 20-Prozent-Zahl bezog sich nicht auf Besitzer eines Android-Smartphones, sondern auf sämtliche Smartphone-Nutzer, und ist somit nicht mit den 77 Prozent iPhone-Wiederkäufern vergleichbar. Offenbar hat CNN Money, das als Erster über die Zahlen berichtete, bei deren Interpretation einen Fehler gemacht, wie auch dieser Blogeintrag der Yankee Group nahelegt.

2. Studien, die mit gesundem Menschenverstand widerlegt werden können

Gestern publizierte FAZ-Netzökonom Holger Schmidt einige Auszüge aus einer jährlichen Studie der USC Annenberg School for Communication & Journalism. Als Aufhänger verwies er darauf, dass laut der Untersuchung 49 Prozent der Amerikaner Microblogging-Seiten wie Twitter nutzen würden, aber exakt 0 Prozent bereit seien, für die Nutzung des Dienstes zu zahlen.

Leider finde ich in der im Artikel verlinkten PDF-Zusammenfassung der Studie keinen Hinweis auf diese Erkenntnis Update: Hier ist der richtige Link zur PDF-Zusammenfassung . Es fehlen Informationen zur Repräsentativität und Erhebungsweise der Untersuchungsergebnisse. Man muss kein Statistik-Experte sein, um zu erahnen, dass eine Studie, bei der ein Prozentwert von "null" herauskommt, mit Vorsicht zu genießen ist.

Selbst bei Befragungen zu den absurdesten Themen gibt es in der Regel keinen Nullwert. Zumal es sich hierbei nicht um eine völlig absurde, wenn auch etwas überflüssige Frage handelt. Wer kann ausschließen, dass Antworten auf die "Würden Sie zahlen?"-Frage nicht durch Wunschdenken und die Hoffnung der Teilnehmer verfälscht werden, eventuelle zukünftige Veränderungen am Preismodell beeinflussen zu können?

Wie auch immer - dass nicht einmal ein einziges Prozent der Twitter-Nutzer in den USA bereit ist, für den Service zu zahlen, klingt nach einem Märchen und stellt die Glaubwürdigkeit der Studie in Frage. Selbst wenn der tatsächliche Wert sicher nicht sehr hoch wäre.

3. Studien, deren Aussagekraft unklar ist

Eine Psychologin der Johannes Gutenberg-Universität Mainz hat mit einem Team 103 Profilseiten auf studiVZ untersucht und kommt zu dem Schluss, dass Profile bei sozialen Netzwerke nicht lügen, sondern die Wahrheit über ihre Besitzer erzählen.

Das ist ein durchaus spannendes Ergebnis, wird doch gern behauptet, dass sich Nutzer in Communities anders geben als im "realen Leben". Doch wie aussagekräftig ist das Resultat? Eine Repräsentativität ist in der Regel erst ab 1000 zufällig ausgewählten Testpersonen gegeben (Update: Bei einer niedrigen Grundgesamtheit auch etwas darunter).

Nun können qualitative Untersuchungen wie diese natürlich auch wichtige Erkenntnisse liefern, aber anhand von 103-studiVZ-Profilen auf die Gesamtheit aller Social-Networking-Nutzer zu schließen, halte ich für falsch. In Wirklichkeit dürfte die Übereinstimmung von tatsächlicher und dargestellter Persönlichkeit von Netzwerk zu Netzwerk unterschiedlich sein. Bei Facebook und studiVZ ist sie sicherlich höher als beispielsweise bei MySpace.

4. Studien, die Erkenntnisse verbreiten, die jedes Kind erraten könnte

Während die ersten drei Kategorien fragwürdiger Studien immerhin eine schmissige Schlagzeile liefern, sorgen Untersuchungsergebnisse, die nichts anders machen, als Vorhersehbares zu belegen, bei mir meist nur für ein müdes Gähnen. Beispiel von gestern: "Mobile User sind meist Smartphone-Besitzer" - wer hätte das gedacht?!

Natürlich ist es schön, schwarz auf weiß zu haben, was man sonst nur vermuten, aber nicht beweisen kann. Dass derartige Studien aber dennoch inhaltlich überall aufgegriffen werden, wundert mich. Ihr Neuigkeitswert ist jedenfalls minimal, sofern man die offensichtlichste Erkenntnis als Aufhänger verwendet.

Fazit

Ergebnisse von Studien - egal auf welche Weise sie entstanden sind - kommen bei Lesern oft gut an. Das wissen auch wir, haben wir doch selbst schon über Untersuchungen berichtet, die viele Reaktionen nach sich gezogen, aber im Nachhinein Zweifel offen gelassen haben. Ich nehme mich von der Kritik nicht aus.

Es ist offensichtlich, dass die Berichterstattung rund um Web- und Tech-Studien eine neue Sorgfalt erfordert. Angesichts des allgemeinen Zeitdrucks und dem Ziel, eine Meldung als Erster zu veöffentlichen, ist das mitunter schwierig. Sofern das Vertrauen in Studien aber nicht weiter bröckeln soll, gibt es keine Alternative. Es ist einfach schade, wenn man bei jeder Untersuchung anfänglich davon ausgehen muss, irgendwo eine Ungereimtheit zu entdecken.

Illustration: stock.xchng

Kommentare

  • __sk

    27.07.10 (09:37:08)

    danke, dass das mal gesagt wurde - auch wenn man sich weiterhin wohl die hand vor die stirn hauen muss. das wort "studie" zieht nunmal.

  • m.

    27.07.10 (10:01:35)

    "Eine Repräsentativität ist in der Regel erst ab 1000 zufällig ausgewählten Testpersonen gegeben." Das ist so nicht ganz richtig. Einen Grenzwert für Repräsentativität gibt es nicht, dieser ist immer abhängig von der Grundgesamtheit auf die geschlossen werden soll. So muss eine Studie mit 2000 Personen nicht repräsentativ sein, in Abhängigkeit von der Grundgesamtheit können aber auch schon 500 Personen repräsentativ sein.

  • Martin Weigert

    27.07.10 (10:03:45)

    Die 1000 war der Richtwert, den ich in den Statistik-Vorlesungen gelernt habe, weil einfach sonst die Gefahr von Abweichlern zu groß ist. Aber ich will mich diesbezüglich nicht streiten, du scheinst zu wissen, wovon du sprichst. In jedem Fall sind 103 studiVZ-Profile weit von repräsentativ.

  • Christian Leu

    27.07.10 (10:12:21)

    Danke für den Beitrag. Ich wollte eigentlich schon einen Beitrag zu folgendem Irrsinn schreiben: @valerieWoW Nur 29% arbeiten über Wikis oder Gdocs RT @hdzimmermann: "Wie Führungskräfte Web 2.0 nutzen" http://goo.gl/AVJo#cio #e20 #socialmedia Wenn man sich in der Realität auskennt, muss einem sofort klar werden, dass kaum jemals 29% der Führungskräfte überhaupt Google Docs kennen. Schon gestern kam irgendein ähnlicher Mumpitz daher. Leute, geht mal raus und schaut euch die Realität an.

  • Martin Weigert

    27.07.10 (10:16:54)

    Stimmt, diese Online-Umfage hätte als weiteres Beispiel gut gepasst. Das Problem ist wohl, dass Google Docs und Wikis in einen Topf geworfen werden, dabei sind das völlig unterschiedliche Dinge. Aber auch zusammengenommen erscheinen die 29 Prozent rein vom Bauchgefühl her viel zu hoch...

  • Christian Leu

    27.07.10 (10:26:22)

    Habe die andere Aussage auch noch gefunden. ich folge bei solchen Sachen aber nicht mal dem Link: RT @ficoba: 24% of Bank Customers in Germany are Happy to Communicate with their #Bank on #Twitter or #Facebook http://tinyurl.com/372kdgl Ich glaube ich werde doch noch etwas schreiben.

  • Holger Schmidt

    27.07.10 (10:49:43)

    Zur Twitter-Studie: Der Hinweis auf das Ergebnis, dass 0 Prozent Zahlungsbereitschaft für Twitter angegeben haben, steht direkt im zweiten Satz der Zusammenfassung. Da die Studie im neunten Jahr von einem Uni-Institut erstellt wurde, gehe ich mal davon aus, dass sie seriös ist.

  • Holger Schmidt

    27.07.10 (11:00:32)

    Und noch ein Nachtrag: Ich würde für Twitter zahlen.

  • Martin Weigert

    27.07.10 (11:06:33)

    Eben, ich auch. Und da sind wir bestimmt nicht die einzigen, wenn auch vermutlich in de klaren Minderheit. Was mir das Ergebnis dieser Studie so suspekt erscheinen lässt. Zumal es ja auch nahelegt, dass die Hälfte der US-Amerikanischen Internetnutzer Microbloggingdienste verwendet. Auch das erscheint mir in dieser Höhe fragwürdig. Es sei denn, dass hier selbst Facebook Status-Updates mit einbezogen wurden.

  • Regina Deckart - marketingshop blog

    27.07.10 (12:48:42)

    Wer hat nochmal gesagt "ich glaube keiner Studie, die ich nicht selbst gefälscht habe"? Wer auch immer es war, ich finde er hat den Nagel auf den Kopf getroffen. Studien sind maximal bei Universitäten Selbstzweck, sobald sie von einem Unternehmen in Auftrag gegeben wurden, sollen sie für das Unternehmen auch einen Zweck erfüllen. Das heißt nicht, dass ich von vornherein sagen würde, dass Studien, die ein Unternehmen beauftragt, nichts aussagen oder falsch wären. Ich finde nur, man muss als Berichterstatter sehr genau hinsehen, wer eine Studie beauftragt hat und unter welchen Bedingungen sie durchgeführt wurde - eben Grundgesamtheit, Art der Fragestellungen usw. Und: Der alte Spruch, dass Journalisten nicht rechnen können müssen, ist schlicht falsch. Nachrechnen hilft bei der Haushaltsausschusssitzung des Bundestags genauso wie bei Berichten über Studien - und ist oft das einzige Mittel um die Spreu vom Weizen zu trennen und am Ende über wirklich gute Studien zu berichten. Aber es ist natürlich viel Arbeit und zerstört dann so tolle Headlines wie "150 Prozent der Deutschen kaufen mit dem Handy ein" ...

  • Roland C. Müller

    27.07.10 (12:55:50)

    Vielen Dank für diesen interessanten Artikel! Ein weiterer Aspekt fiele mir auch noch ein: Studien, die von Firmen oder Interessensgruppen in Auftrag gegeben werden, um die Relevanz des eigenen Produktes oder Segments in den Vordergrund zu stellen. Aber auch die Frage nach der Seriosität (wie es bei Holger Schmidt kurz an klang) scheint für mich ein wichtiger Punkt zu sein. Die bleibt, wie ja richtig im Artikel gesagt wird, in Zeiten der "schnellen" Verbreitung wohl immer eine Herausforderung.

  • m.

    27.07.10 (14:03:24)

    103 Profile ist tatsächlich schwierig - keine Frage! Der Hinweis auf den Absender ist schon sehr berrechtigt! Und natürlich haben nur Studien einen Nachrichtenwert (und damit eine Chance auf Veröffentlichung) die einen gewissen Überraschungseffekt haben. Leider setzen neben Mediaagenturen, Werbeträgern, Marktforschungsinstituten, etc. auch immer stärker Universitäten auf PR-Studien. Dem Wissenschaftscodex entspricht das dann nur leider nicht mehr. Und auch bei Auftragsstudien muss man immer bedenken, dass gerade kleine Institute ungern Kunden durch unspektakuläre/unpassende Ergebnisse verlieren wollen. Das ist bei klassischer MaFo genauso wie bei 3-Stufen-Tests... Aber natürlich sind nicht alle Studien schlecht ;-) Und sehr viele kann man beim genaueren Hinsehen schon entlarven...

  • Viktor Deleski

    27.07.10 (14:18:03)

    Der Spruch, den Regina Deckart im Kommentar weiter oben (Nr. 10) zitiert war der bestimmende running gag über drei semester Statistik an der Uni. Die Nachfrage nach Studien hat auch etwas mit der Fastination für Zahlen zu tun. Bei Studien sind es oft prozentuale Veränderungen. Sogar die Sache mit Regenwahrscheinlichkeit oder mit der Medikamentenveträglichkeit ist höchst wackelig, allerdings vertrauen die Menschen darauf. Über Studien uns Zahlen und die Gier nach Zahlen möchte ich alle einladen, sich 8 Minuten Zeit zu nehmen, um diesen Beitrag von Prof. Dr. Harald Lesch zum Thema Radosophie anzuschauen. http://www.youtube.com/watch?v=avns3srFidI Es lohnt sich!

  • Martin Weigert

    27.07.10 (14:35:04)

    Also mich hat er überzeugt! ;)

  • Dirk Engel

    27.07.10 (17:36:35)

    Die zum Teil berechtigte Kritik in dem Aritkel und den Kommentaren sollte sich eher auf die feherlhafte und unvollständige Berichterstattung über die Studien beziehen und weniger auf die Studien selbst. Deren Fragestellungen und Methoden müssen differenziert betrachtet werden. Die Studie zu den Profilen in Social Networks kommt nicht zu dem Ergebnis, "dass Profile nicht lügen", sie will auch nicht repräsentativ für StudiVZ oder Facebook sein. Sie testet experimentell eine persönlichkeitspsychologische Hypothese, wissenschaftlich alles völlig korrekt. Für experimentelle Forschung, gerade in der Psychologie, sind kleine Fallzahlen von 100 Probanden durchaus gängig. Bei der Annenberg-Studie wurde ein Nebenbefund (der im PDF übrigens zu finden ist) herausgestellt. Weil er unplausibel erscheint, wird die Studie "durch den gesunden Menschenverstand widerlegt". Da macht man es sich doch sehr einfach, zumal nicht der vollständige Report (sondern nur eine Zusammenfassung) vorliegt und deshalb über die genaue Methode bzw. den Fragebogen keine Aussage gemacht werden kann. Die Aussage Zero% in der Zusammenfassung muss nicht heißen, dass gar kein Befragter für Twitter zahlen möchte - vielleicht wurde von 0,4% auf 0% abgerundet? Vielleicht muss man sich die Origianl-Frageformulierung anschauen, um die Richtigkeit des Ergebnisses beurteilen zu können, bevor man eine Studie als Ganzes "widerlegt". Der Beitrag und die Diskussion zeigt einige gängige Probleme von empirischer Forschung: Wenn ein Ergebnis unseren Erwartungen entspricht, dann ist die Studie banal und "jedes Kind könnte sie erraten". Entspricht das Ergebnis aber nicht unseren Erwartungen (wie die Zero% bei Twitter), dann wird das Ergebnis nicht geglaubt und die Methode kritisiert (mitunter auch mit methodischen Halb- und Viertelwissen). Es ist gut, Studienergebnisse kritisch zu prüfen und zu beurteilen, doch sollte man dabei auch sorgfältig recherchieren und am besten die Original-Quellen anschauen.

  • Martin Weigert

    27.07.10 (17:41:15)

    Ja, oft liegt das Problem auch oder sogar primär in der Berichterstattung und nicht in der Studie, stimmt. Aber das habe ich ja an diversen Stellen im Artikel so kenntlich gemacht, und mein Hauptappell am Ende richtet sich auch an die Berichtenden, nicht an die Ersteller von Studien.

  • Jürgen Vielmeier

    27.07.10 (18:27:59)

    Guter Beitrag! Studien aus dem Nicht-Technik-Bereich sind oft sogar noch leichter zu entschärfen. Es wird langsam Zeit, dass der typische BILD-Leser das auch einmal lernt.

  • KG

    27.07.10 (20:32:42)

    Als Autor von zahlreichen empirischen Studien kann ich nur den Vorschreibern zustimmen, dass es vor allem an der Berichterstattung liegt: Die methodische Ignoranz oder gern auch völlige methodische Kenntnisfreiheit bei manchen Journalisten ist zum Teil atemberaubend. Da werden oft und gern weder Erhebungsmethodik noch Auftraggeber noch Grundgesamtheit noch Repräsentativität im Geringsten hinterfragt. Im Endeffekt kommen dann völlig unsägliche "Studien" in die Öffentlichkeit, die jeder mit nur basalen Empirie-Wissen gleich lächelnd beiseite geschoben hätte. Gern nutzen auch PR-Agenturen mittlerweile Fake-Studien als Aufhänger fuer Berichterstattung und kommen damit oftmals ebenfalls "durch". Fazit: Es ist gut hier mal den Finger reinzulegen, danke Martin. Aber oft ist die Crux, dass es unfassbarer "Studien-Quatsch" durch alle medialen Filter schafft. Und das ist meines Erachtens das grössere Problem.

  • Martin Weigert

    27.07.10 (20:37:37)

    Ja der mediale Filter ist gerade im Web sehr sehr dünn. Insofern ist es sehr wichtig, für das Thema zu sensibilisieren. Letztlich sensibilisiere ich mich dem Artikel auch selbst. Die nächste Studie kommt bestimmt ;)

  • Manuel

    27.07.10 (21:23:40)

    Meiner Erfahrung nach sind Studien von Universitäten eher selten schlecht. Anders sieht es mit Studien aus die von Firmen im Auftrag von Firmen erstellt wurden. Wo also meist schon am Anfang festgestanden ist was rauskommen soll. Die Interpretation durch Journalisten ist wieder eine andere Geschichte... Manchmal fehlen ihnen die mathematischen Grundlagen um einen korrekten Artikel zu schreiben: Früher haben 138 % der Frauen geheiratet. Manchmal habe ich das Gefühl dass eine Studie nur überflogen wird und man aus einer ganzen Reihe von Zahlen diejenigen raussucht, die eine gute Schlagzeile abgeben: Keine Angst: Softdrinks erhöhen Krebs-Risiko um 87%. Deshalb lese ich die zitierten Studien jeweils gerne selbst. Leider ist das häufig nicht einfach weil sie nicht frei verfügbar sind.

  • Martin Weigert

    28.07.10 (08:03:33)

    Eine Empfehlung kann man somit dennoch für die Ersteller einer handfesten wissenschaftliche Studie machen: Stellt immer eine kompakte, gut erklärte, leicht zugängliche Zusammenfassung bereit. Im eigenen Interesse, um das Risiko einer inkorrekten Berichterstattung zu minimieren.

  • Marc Michels

    28.07.10 (10:29:00)

    Schöner Artikel, die vielen Studien sind mir auch ein Dorn im Auge. Das Problem liegt dabei aber wohl auch darin, dass sie sehr schwierig sind. Selbst Wischenschaftler kommen in penibel durchgeführten Laborstudien mit Mäusen manchmal zu widersprüchlichen Ergebnissen - und sei es nur, weil der Boden anders angemalt ist. Da sollte man solch schludrige und suggestive Studien wie hier genannt am besten gleich ignorieren.

  • Sebastian Manthey

    28.07.10 (10:30:59)

    Meiner Erfahrung nach sind Studien von Universitäten eher selten schlecht. Anders sieht es mit Studien aus die von Firmen im Auftrag von Firmen erstellt wurden. Wo also meist schon am Anfang festgestanden ist was rauskommen soll. Spricht es nicht eher gegen die Studie wenn schon vor der Studie feststeht wie das Ergebnis aussehen wird? :-) Diese Auftragsstudien sind mir eher ein Dorn im Auge. Wenn das Thema der Studie quasi schon die erhoffte Antwort beinhaltet schlägt bei mir der Warnzeiger aus.

  • chi

    28.07.10 (12:42:55)

    @ Sebastian Manthey: „Selten schlecht“ kann zwar auch „außergewöhnlich schlecht“ heißen, aber ich denke, Manuel meinte hier „nicht häufig schlecht“, also „meistens OK“. Zeigt wieder einmal, wie schwierig die Interpretation von Texten sein kann. :)

  • Thomas Berscheid

    28.07.10 (13:01:52)

    Mahlzeit! Schöner Beitrag. Zu der Zahl von 1000: In der Wahlforschung gilt das als Mindestzahl für einen repräsentativen Wert, wie ich mal in Soziologie gelernt habe, In meinem Hauptfach Geographie hatten wir dann mal eine Studie, bei der die Grundgesamtheit bei 3 Befragten lag und die Autorin dann immer von 33% oder 66% der Befragten geschrieben hat. Es kommt halt immer auf die Gesamtzahl und die Auswahlverfahren der Stichprobe an.

  • Manuel

    28.07.10 (13:07:28)

    @chi: Genau so habe ich es gemeint! Hochdeutsch ist nicht einfach, besonders für Schweizer. ;-)

  • AnD

    28.07.10 (13:30:37)

    In meinem Hauptfach Geographie hatten wir dann mal eine Studie, bei der die Grundgesamtheit bei 3 Befragten lag und die Autorin dann immer von 33% oder 66% der Befragten geschrieben hat. Das ist der größte Unfug der Welt. Hier ist die Seriosität der Studie erheblich anzuweifeln. Repräsentation ist kein bloßes quantitatives Nummernspiel! Auch qualitativ muss das Sample gut gewählt sein um die Grundgesamtheit entsprechend abbilden zu können. Nicht perfekt, aber deutlich besser als das was hier so steht: http://de.wikipedia.org/wiki/Repräsentativität . Das Statistikbuch der Wahl hilft hier auch weiter.

  • Friederike Lanzsch

    28.07.10 (16:16:07)

    Das ist ein Umkehrschluss, den die Meldung über die Studie nicht zwangsläufig nahelegt (aber auch nicht ausschließt)(dazu müsste man wissen, welche Antwortmöglichkeiten es gab). Hier die Quelle: http://www.faktenkontor.de/presse/Deutsche-erteilen-Social-Media-Banking-klare-Absage/ Dort steht: "76 Prozent der deutschen Bankkunden können sich nicht vorstellen, mit ihrem Finanzinstitut künftig über Social Media-Kanäle wie Twitter oder Facebook zu kommunizieren."

  • Hotzenplotz

    28.07.10 (18:52:19)

    An diesem Blog-Eintrag gibt es einiges zu kritisieren. 1. Den Unterschied zwischen einem Android-Smartphone und einem Smartphone zur Grundlage der Kritik unter Punkt 1 zu machen, halte ich für an den Haaren herbeigezogen. 2. In Punkt 2 trifft die Kritik doch eindeutig nicht die Studie, sondern den Journalisten, der darüber berichtet hat und offenbar Dinge heraus zitiert, die gar nicht drin stehen. Anders gesagt: Wie kann man einer Studie vorwerfen, sie enthalte eine Angabe, die unglaubwürdig ist (0 Prozent ...), wenn man einen Absatz zuvor festgestellte hat, dass diese Angabe garnicht in der Studie enthalten ist. 3. Den Kritikpunkt kann man gelten lassen. 4. Eine Null-Kritik, in der ausschließlich subjektive Vorlieben zum Ausdruck gebracht werden. Besonders schön ist der Einstieg in den Text. Der Autor möchte die Journalie ein wenig diffamieren, schießt aber ein klassisches Eigentor: Er greift das Thema ja selber auf. Aus welchem Grund nur?????

  • Martin Weigert

    28.07.10 (20:00:30)

    Na immerhin wird mit ein Kritikpunkt gelassen.

  • Holger Schmidt

    28.07.10 (20:47:06)

    Lieber Martin Weigert, bitte korrigieren Sie doch endlich Ihre falsche Behauptung, in der Zusammenfassung der Annenberg-Studie sei ein Hinweis auf die 0 Prozent Zahlungsbereitschaft für Twitter nicht zu finden. Der Satz steht direkt am Anfang der Studie, wie ich schon kommentiert und Dirk Engel auch bemerkt hat. Das würde mir, Ihnen und den Lesern überflüssige Kommentare ersparen. http://www.digitalcenter.org/pdf/2010_digital_future_final_release.pdf

  • Martin Weigert

    28.07.10 (22:28:21)

    Ich glaube, es gab hier ein kleines Missverständnis. Ich habe Ihnen diesbezüglich gemailt.

  • Kerstin

    29.07.10 (14:57:26)

    Ein viel größeres Problem sehe ich in der Tatsache, dass die erwähnten "Studien" sich zwar "Studie" nennen, aber keine sind. Es sind eher Befragungen oder Möchtegern-Studien. Beispiel: Die Annenberg-"Studie". Zwar liegt die komplette Studie nicht vor, sondern nur die Zusammenfassung, aber bereits diese ist von der Form dermaßen schlecht und amateurhaft, dass allein der Gedanke an das Wort "Studie" bestraft gehört. Allein der erste Satz der Zusammenfassung ist eine Formulierung wie man sie in echten Studien nie finden wird. ("just don't ask any of them to pay for it"). Das ist eher Internet-Foren-Niveau. Weiterhin ist sehr auffällig, dass nirgendwo etwas davon steht wer befragt wurde. Es steht dort weder die Anzahl der Leute noch ist eine Aufschlüsselung zu finden (Alter, Geschlecht, ...), wie es in echten Studien gemacht wird. Und auch das Argument, dass das hier ja nur eine Zusammenfassung ist, zieht nicht. Die Prozentzahlen sagen ohne weitere Details gar nichts aus. Vielleicht hat hier ein Student einfach ein paar Leute in seinem Studentenwohnheim befragt und ist dabei auf diese Zahlen gekommen. Es ist auch nicht klar wie gefragt wurde. Die genaue Formulierung macht ebenfalls einen großen Unterschied ("Wären Sie evtl. bereit für eine solch wichtige Dienstleistung zu zahlen?" vs. "Würden Sie das auch nutzen, wenn Sie dafür monatlich viel Geld bezahlen müssten?") Ich lese privat ebenfalls einige Studien (wohlgemerkt "echte" Studien und keine "Wir wollen uns profilieren und haben da mal was zusammengehackt"-Studien) im Bereich Krafttraining und verwandten Bereichen und diese sind die einzige sinnvolle Informationsquelle. V.a. bei Ärzten und Trainern ist dort zu bemerken, dass diese nur das "Wissen" (eher "Raten") von gaaanz früher weiterverbreitet wird (wie z.B. beim Thema "Stretching") und wenn man dann man schaut was teilweise in Foren etc. geschrieben wird, dann weiß man nicht, ob man lachen oder weinen soll. In diesem Bereich ist es ja nicht anders. Selbst diese Möchtegern-Studien sind doch tausendmal wertvoller als Informationsquelle als alle Internetforen zusammengenommen. Auch im Blogbereich ist zu beobachten, dass diese immer mehr versuchen "echten Medien" nachzuahmen. Auch hier wird oft versucht der schnellste zu sein und jede Studie und jede Meldung, die bei heise & Co erscheint muss sofort und ohne weiter Recherche zu einem Blogeintrag verarbeitet werden, der qualitativ und inhaltlich von einem normalen Beitrag im dortigen Forum oft nicht zu unterscheiden ist. Wir können also nur zwei Dinge tun: Endlich aufhören jede Studie, die sich so nennt, auch als solche zu bezeichnen. Nur weil eine PR-Firma etwas als Studie bezeichnet, muss man es nicht auch tun. Es schadet dem Ansehen der echten Studien und im Prinzip ist diese "Oh, die haben das Studie genannt. Dann muss das ganz toll sein"-Gehabe auch der Grund dafür, warum dieser Begriff so missbraucht wurde. Zum anderen muss auch ganz unten angefangen werden. Was bringen uns echte, gute und erkenntnisgewinnende Studien, wenn bei den Leuten nie etwas davon ankommt. Jede dämliche Hirnrissigkeit von vor 40 Jahren hält sich hartnäckig in unseren Köpfen, jede dämliche Idee von heute wird sofort über alle Kanäle verbreitet und pflanzt sich in den Gehirnen ein. Aber wehe es gibt man eine Studie mit echten Erkenntnissen, denn dann kommt - warum auch immer - diese Erkenntnis nirgendwo an. Ich weiß nicht, warum sich falsche Informationen so viel besser verbreiten und merken lassen als richtige, aber das ist meiner Meinung nach ein wesentlich größeren Problem.

  • Laurent

    30.07.10 (17:10:01)

    Ergänzend dazu möchte ich sagen, dass die Grösse der Stichprobe in Abhängigkeit ist von : 1) der grosse des zu messenen phänomens. Grosse Phänomen benötigen eine kleinere Stichprobe gegenüber kleineren Phänomenen. 2) wie gut die Stichprobe randomisiert (wirklich zufällig gewählt)ist Eine kleine Stichprobe kann also durchaus representativ sein.

Diesen Beitrag kommentieren:

Die Kommentare können nur zwischen 9 und 16 Uhr
freigeschaltet werden. Wir bitten um Verständnis.

Um Spam zu vermeiden, schreiben Sie bitte die Buchstaben aus diesem Bild in das nebenstehende Formularfeld:

Das könnte Sie auch interessieren

Förderland-Newsletter

Wissen für Gründer und Unternehmer