Dies ist der Titel eines Beitrags vom 4.5. auf dem Blog des Fachmagazins LaborJournal. Pikanterweise wurden in diesem Magazin vor einem Jahr die Herren Drosten und Landt gefeiert (s. Wirtschaftliche Interessen des Prof. Drosten). Nun findet sich dort eine Abrechnung mit den "ModelliererInnen":
»… Modellierer sind momentan ja sehr gefragt. Wir lesen ihre Arbeiten in Nature und Science, man lauscht ihnen bei Markus Lanz und Konsorten, sie beraten Politiker und rechnen für nationale Akademien.
Ein Wunder ist das nicht, schließlich versprechen ihre Formeln und Modelle nicht weniger als die Aufklärung komplexer Zusammenhänge. Sie sagen uns, was passieren könnte, wenn wir gewisse Dinge tun oder lassen. Auch erklären sie uns, welche Maßnahmen zur Pandemiebekämpfung wirksam sind – und welche nicht. Häufig mahnen sie und belegen ihre eigenen Empfehlungen mit konkreten Zahlen.
Genauso wünscht man sich doch Handreichungen aus der Wissenschaft. Die Politik bekommt Argumente für ihre Entscheidungen – und Bürger sehen ein, warum die Schule schließen muss oder das Geschäft die Türe wieder öffnen darf.
Modellierer sind auf vielen Feldern schon länger recht erfolgreich. Ein Paradebeispiel hierfür ist der Wetterbericht. Mit im Mittel etwa siebzig Prozent Treffsicherheit gelingt es den Meteorologen, das Wetter der nächsten sieben Tagen vorherzusagen…
Ein anderes schönes Beispiel für erfolgreiche Modellierungen kommt aus der Geophysik. Ausbrüche von Vulkanen lassen sich überraschend gut vorhersagen…
Aber selbst diese Modellierer liegen oft daneben. Dann ärgern wir uns, vor dem Regen nicht gewarnt worden zu sein. Und so mancher Vulkan will trotz eindringlicher Warnungen einfach nicht ausbrechen.
Wie aber steht es angesichts dessen um die Vorhersagekraft und somit um die Nützlichkeit der so allgegenwärtigen Modellierungen in der Pandemie? Leider gibt es mittlerweile eine Menge Hinweise darauf, dass es damit nicht zum Besten steht. Die Modellierer sind offensichtlich so sehr mit dem Generieren neuer Modelle beschäftigt, dass sie kaum dazu kommen, die Güte und das Eintreten ihrer Vorhersagen zu analysieren.
Dies hat man offensichtlich den Journalisten überlassen.«
Wie bei Horoskopen
»So analysiert etwa ein Artikel in der Tageszeitung Die Welt (Literaturzitate wie immer bei http://dirnagl.com/lj) die wichtigsten Vorhersagen aus dem Umfeld von Deutschlands prominentester Modelliererin, Viola Priesemann (siehe auch LJ 12/2020: 14–17). Dabei zeigt sich zum einen, dass die meisten Schlussfolgerungen aus den Modellrechnungen sehr vage verfasst waren. Wie bei Horoskopen passten sie damit zu jedem Verlauf. Und dort, wo konkrete Zahlen vorhergesagt wurden, sind diese sehr häufig nicht eingetreten. Es sei denn, es handelte sich um Triviales, wie die Vorhersage eines weiteren Anstieges am Anfang eines bereits deutlich sichtbaren Verlaufes…
Auch für die Modelle des Imperial College in London (ICL) [gilt:] Diese hatten großen Einfluss auf die Pandemiemaßnahmen der englischen Regierung. Auch hier lagen die Vorhersagen häufig extrem daneben. Der australische Mathematiker Vincent Chin und andere konnten außerdem zeigen, dass verschiedene publizierte Modelle des ICL zu ganz unterschiedlichen Resultaten kommen, wenn man sie auf die gleichen Länder loslässt. Was die Londoner selbst bezeichnenderweise nicht gemacht hatten.
Ist dies alles überraschend? Deutet es darauf hin, dass die Pandemie-Modellierer ihr Handwerk nicht recht verstehen?
Im Gegensatz zu den Meteorologen basieren ihre Modellierungen auf schlechten oder sogar nicht-vorhandenen Daten, also bloßen Annahmen. Dies gilt sowohl für die Corona-Inzidenzen wie auch viel mehr noch für die Auswirkungen nicht-pharmakologischer Interventionen. Außerdem hängt alles entscheidend davon ab, ob und wie die Maßnahmen in der Bevölkerung dann tatsächlich umgesetzt werden. Bei einer höchst unsicheren Datenlage, wie sie zum Beispiel allein schon durch die sich ständig ändernden Testkapazitäten und ‑raten, insbesondere am Anfang einer Pandemie, vorkommt, ist es unabdingbar, diese elementare Fehlerbehaftung kritisch zu berücksichtigen.
Datenfehler pflanzen sich fort, das lernt man spätestens im Physik-Praktikum. Und sie tun das umso mehr, wenn sie in komplexe, multiparametrische Modelle und Wachstumsverläufe eingehen. Dazu kommen jede Menge nicht vorhersehbarer Einflussgrößen – wie etwa das Auftreten von Virusmutanten mit veränderter Infektiosität oder Letalität, die Effektivität von Vakzinierungen oder auch unvermeidliche Rückkoppelungs- und Selbstregulierungsmechanismen, weil die Vorhersagen sich ja ihrerseits bereits auf das Verhalten der Bevölkerung auswirken.
In Anbetracht all dessen ist die oft propagierte Pseudogenauigkeit der Modellierungsergebnisse schlichtweg vermessen. Es ist, als würde man mit Kanonen – nämlich komplexen, multiparametrischen Modellierungen – auf Spatzen – also auf grob fehlerbehaftete und nicht-valide Datengrundlagen – schießen…
Ein weiterer wichtiger Grund für das Versagen der Modelle ist, dass deren Annahmen ja durch die in der Pandemie angeordneten Maßnahmen modifiziert werden. Dies ist sogar ein erwünschter Effekt, schließlich erheben die Modellierer genau deswegen häufig ihren Zeigefinger. Allerdings wäre das gerade so, als wenn sich das Wetter in Abhängigkeit davon ändern würde, ob wir einen Regenschirm aufspannen oder nicht. Dann würde auch der Wetterbericht nicht mehr funktionieren.
Hinzu kommt, dass Modellierungsstudien in der Regel weder Studienprotokolle vorab veröffentlichen noch präregistriert werden – wie dies eigentlich heutzutage für qualitativ hochwertige Studien selbstverständlich sein sollte. Damit ist einem Herumprobieren, „bis es passt“, Tür und Tor geöffnet…
Vielleicht besteht aber der eigentliche Nutzen der Pandemie-Modellierungen darin, Worst-Case-Szenarien wissenschaftlicher erscheinen zu lassen – und damit einschneidende Maßnahmen für die breite Masse einleuchtender und akzeptabler zu machen. Diese also wissenschaftlich zu bebildern. Das ist aber eine gefährliche Strategie: Zum einen, weil Vorhersagen, die danebenliegen, ihre Überzeugungskraft verlieren – zum anderen, weil die Modelle ja behaupten, die Nützlichkeit oder Schädlichkeit bestimmter Maßnahmen und Verhaltensweisen zu „objektivieren“. Wie zum Beispiel Schulschließungen, Ausgangssperren oder Abstandsregeln. Wenn die offensichtlichen und teils schwerwiegenden Limitationen der Modelle nicht erkannt oder berücksichtigt werden, sie aber dennoch die Grundlage für unser Handeln in der Pandemie liefern – dann läuft etwas schief…
John von Neumann, Mathematiker, Physiker und Computer-Pionier, wird mit dem Bonmot zitiert: „Mit vier Parametern kann ich einen Elefanten fitten, und mit fünf ihn mit dem Rüssel wackeln lassen.“ Wenn mit Rüssel-wackelnden Elefanten und dem Gestus mathematisch-physikalischer Autorität Politikberatung gemacht wird, ist das nicht ohne Risiko.«
Eine Untermauerung der Thesen gibt es im eigentlichen Magazin mittels eines Gesprächs mit Fachleuten unter der Überschrift "Es fehlt noch gewaltig an Daten".
Siehe auch Priesemann gesteht: Ich bin Astrologin.
Guter Artikel: Einfach peinlich diese Leute, Glaskugel Wissenschaftler wie Deutschlands prominentester Modelliererin, Viola Priesemann, oder Michael Meyer-Hermann? Ein Horoskop hätte mehr Aussage Kraft, oder würfeln. Hochstapler, die ohne Daten, irgendeinen Blödsinn verbreiten, der frei erfunden ist und auch noch Lockdown fordern. Nennt sich Deutsche Wissenschaft, nun wenn man Ratespiel macht, Staatlich finanziert ist. Tausende von solchen Instituts Deppen, haben Professoren Titel, sind real schlechte Schauspieler, ohne Verstand
Viola Priesemann und auch Michael Meyer-Hermann?, wurden vor sehr vielen Monaten darauf hingewiesen, mit links und website, das Sie gezielt mit gefälschten Websites arbeiten, die nicht einmal ein Impressum haben, auch Whois Abfragen in das technische Nirvana der Daten führt. Es sind damit ganz einfach Kriminelle, mit Vorsatz. Michael Meyer-Hermann? sagt in einem NDR Interview, Podcast, das man über die Britische Mutante, für 95 % keine Daten hat, aber trotzdem Lockdown forderte als Merkel Berater. Sollen doch diese Leute Sandkasten spielen, denn Würfeln hätte eine höhere Erfolgs Quote. Sowas als Wissenschaft des Helmholtz Institutes zu verkaufen, ist Organisiertes Verbrechen
Ich bin selbst Modellierer (Struktur- und Thermalanalyse aka FEA)
Meine Erfahrung ist, dass den Ergebnissen aus dem Computer immer mehr blind vertraut wird. Alles aus den Computer scheint korrekt und hochgenau zu sein. Das ist der fester, unerschütterlicher Glaube in die Digitalanzeige.
Aber die Leute vergessen: "Gargbage in, Garbage out"
Auch viele junge Kollegen sind dem Glauben erliegen. Selbst bei völlig absurden Ergebnissen kommen sie nicht auf die Idee, dass sie sich vielleicht bei den Einheiten vertan haben könnten (häufigster Fehler). Das wird dann so stolz präsentiert und (zumindest noch) von erfahrenen Kollegen zerrissen.
Ich könnte zwar auch prima schummeln aber, da wir auch alles testen – also Realität mit Theorie vergleichen – kann ich mir das nicht erlauben. Das mache ich höchsten 2× und dann bin ich raus.
Trotzdem gibt es in den letzten Jahren immer mehr schlaue Projektmanager, die die Tests einfach weglassen wollen. Man kann doch alles analysieren! Das spart Zeit und Geld.
Das kann ich für meinen Bereich (theoretische Festkörperphysik) weitgehend bestätigen. Es gibt immer mehr die Tendenz, dass sich Modelle verselbstständigen und einzelnen Modellparametern eine übermäßige Bedeutung zugemessen wird. Ist die scheinbar so einfache Modellerklärung dann erstmal in der Welt, besteht kaum noch Interesse, die Physik dahinter auf einer tieferen Ebene zu verstehen. Das kostet ja auch bloß Zeit und Geld und könnte am Ende sogar liebgewonnene Vorstellungen infrage stellen…
das Problem, war schon immer bekannt, an den Unis, auch vor Jahrzehnten. Heute Geschäftsmodell um Milliarden zu stehlen
https://www.golem.de/news/windenergie-altmaier-entschuldigt-sich-fuer-fehler-in-windanlagen-studie-2104–156094.html
36 dB.
Für 3 dB mehr braucht man bei einem Verstärker die doppelte Leistung.
Für 6 dB wieder die doppelte Leistung von vorher usw.
Also grob das 4000-fache.
Sollte eigentlich auffallen, wenn man Wissenschaftler ist.
"Modellierungen", ein Wort, das um sich greift und das ich bis heute für mich so nicht akzeptiere und auch in einen anderen, eher künstlerischen Zusammenhang stelle. Aber Meinungsmache avanciert derzeitig wohl auch zur Kunst, Meinungen von "Vordenkern" jedweder Färbung anzunehmen.Das erinnert mich an das (Loriot?) Wort:"Und wo lassen Sie denken"? Ja, wo? Wo sind Menschen, die sich an derartigen "Modellierungen" orientieren, mit ihrer eigenen Fähigkeit zu denken, gelandet? Sind sie nicht mehr zur eigenen Meinungsbildung anhand selbst eruierter und durch das eigene Wertesystem geprüfter Fakten in der Lage?
Eine der furchtbaren Folgen der so eifrig angestrebten computer-
gesteuerten Generation?Marionetten?
Ich finde Modellierung trifft es sehr genau.
Es sind nur vereinfachte Modelle der Wirklichkeit. Oder Abbilder. Das sollte nur jeder wissen. Besonders die Modellierer!
Normalerweise macht man Sensitivitätsanalysen bei Eingabeparametern, bei denen man sich nicht sicher ist. Daraus bestimmt man dann den Fehlerraum in dem sich das Ergebnis befindet. Wenn dann rauskommt, dass die Maßnahme zu 5 bis 95% wirksam ist, redet man nicht weiter drüber und hofft niemandem Ergebnisse versprochen zu haben.
Ich habe schon Kollegen erlebt, die konnten nur das Analyseprogramm bedienen. Hier klickt man zur Vernetzung, hier zur Berechnung und hier werden dann bunte Bilder angezeigt. Die sind meist sehr von sich überzeugt.
Man erkennt solche Leute an ihrer Selbstsicherheit und daran, dass sie mindestens 5 Nachkommastellen angeben.
75% ist die Treffsicherheit der Wettervorhersage: "Morgen wird das Wetter genauso wie heute."
Stimmt, seit Corona sind die Warnungen vor Asteoriten und Meteoriteneinschlägen die alles Leben auf der Erde auslöschen würden, recht selten geworden.
Und was ist eigentlich aus dem Heuschreckenscharm geworden der über dem Ärmelkanal gesichtet wurde? Sind die zurückgeflogen, wenn ja wohin?
Modelle werden leider zu oft dort eingesetzt, wo sie nichts zu suchen haben. Je komplexer das System und je unklarer die eigentlichen Zusammenhänge und Wirkmechanismen, desto weniger tatsächlich nutzbare Rückschlüsse lassen sich aus den Modellen ziehen. Das gipfelt in Modellen der Meyer-Hermann‑, Nagel- oder Priesemann-Klasse, die ausgerechnet beim Alltagsleben der menschlichen Gesellschaft mit all seinen Facetten vermeintlich quantifizierbare Einzeleinflüsse als allein wesentliche Faktoren betrachten.
Wenn man dann neben dieser Hybris auch noch nachlässig bei den Parametern ist und aus "Studien" (in der Regel ihrerseits Modellrechnungen) Werte zum Beispiel für die Verbreitungsgeschwindigkeit von Varianten zu ziehen glaubt, dann hat man den Ahoi-Brause-Effekt: es zischt und sprudelt, sieht für Kinder und Kindgebliebene beeindruckend aus ‑aber nach nicht allzu langer Zeit ist es schales, leicht gefärbtes Zuckerwasser.
Wenn man will, kann man mit einem einzigen auslösenden Funken die Vernichtung der gesamten Oberflächenvegetation eines Planeten durch einen Feuersturm modellieren – aber kein verantwortungsbewusster Modellierer (und das dürfte die deutliche Mehrheit sein) würde das tun oder zumindest würde man daraus keine Handlungsempfehlungen ableiten…