Bis der Elefant mit dem Rüssel wackelt!

Dies ist der Titel eines Beitrags vom 4.5. auf dem Blog des Fachmagazins LaborJournal. Pikanterweise wur­den in die­sem Magazin vor einem Jahr die Herren Drosten und Landt gefei­ert (s. Wirtschaftliche Interessen des Prof. Drosten). Nun fin­det sich dort eine Abrechnung mit den "ModelliererInnen":

»Modellierer sind momen­tan ja sehr gefragt. Wir lesen ihre Arbeiten in Nature und Science, man lauscht ihnen bei Markus Lanz und Konsorten, sie bera­ten Politiker und rech­nen für natio­na­le Akademien.

Ein Wunder ist das nicht, schließ­lich ver­spre­chen ihre Formeln und Modelle nicht weni­ger als die Aufklärung kom­ple­xer Zusam­menhänge. Sie sagen uns, was pas­sie­ren könn­te, wenn wir gewis­se Dinge tun oder las­sen. Auch erklä­ren sie uns, wel­che Maßnahmen zur Pandemie­bekämpfung wirk­sam sind – und wel­che nicht. Häufig mah­nen sie und bele­gen ihre eige­nen Empfehlungen mit kon­kre­ten Zahlen.

Genauso wünscht man sich doch Hand­reichungen aus der Wissenschaft. Die Politik bekommt Argumente für ihre Entscheidungen – und Bürger sehen ein, war­um die Schule schlie­ßen muss oder das Geschäft die Türe wie­der öff­nen darf.

Modellierer sind auf vie­len Feldern schon län­ger recht erfolg­reich. Ein Parade­beispiel hier­für ist der Wetterbericht. Mit im Mittel etwa sieb­zig Prozent Treff­sicherheit gelingt es den Meteorologen, das Wetter der näch­sten sie­ben Tagen vorherzusagen…

Ein ande­res schö­nes Beispiel für erfolg­rei­che Modellierungen kommt aus der Geophysik. Ausbrüche von Vulkanen las­sen sich über­ra­schend gut vorhersagen…

Aber selbst die­se Modellierer lie­gen oft dane­ben. Dann ärgern wir uns, vor dem Regen nicht gewarnt wor­den zu sein. Und so man­cher Vulkan will trotz ein­dring­li­cher Warnungen ein­fach nicht ausbrechen.

Wie aber steht es ange­sichts des­sen um die Vorher­sagekraft und somit um die Nützlichkeit der so allgegen­wärtigen Modellierungen in der Pandemie? Leider gibt es mitt­ler­wei­le eine Menge Hinweise dar­auf, dass es damit nicht zum Besten steht. Die Modellierer sind offen­sicht­lich so sehr mit dem Generieren neu­er Modelle beschäf­tigt, dass sie kaum dazu kom­men, die Güte und das Eintreten ihrer Vorhersagen zu analysieren.

Dies hat man offen­sicht­lich den Journalisten über­las­sen.«

Wie bei Horoskopen

»So ana­ly­siert etwa ein Artikel in der Tageszeitung Die Welt (Literatur­zitate wie immer bei http://​dirnagl​.com/lj) die wich­tig­sten Vorhersagen aus dem Umfeld von Deutschlands pro­mi­nen­te­ster Modelliererin, Viola Priesemann (sie­he auch LJ 12/2020: 14–17). Dabei zeigt sich zum einen, dass die mei­sten Schluss­folgerungen aus den Modell­rechnungen sehr vage ver­fasst waren. Wie bei Horoskopen pass­ten sie damit zu jedem Verlauf. Und dort, wo kon­kre­te Zahlen vor­her­ge­sagt wur­den, sind die­se sehr häu­fig nicht ein­ge­tre­ten. Es sei denn, es han­del­te sich um Triviales, wie die Vorhersage eines wei­te­ren Anstieges am Anfang eines bereits deut­lich sicht­ba­ren Verlaufes…

Auch für die Modelle des Imperial College in London (ICL) [gilt:] Diese hat­ten gro­ßen Einfluss auf die Pandemie­maßnahmen der eng­li­schen Regierung. Auch hier lagen die Vorhersagen häu­fig extrem dane­ben. Der austra­li­sche Mathematiker Vincent Chin und ande­re konn­ten außer­dem zei­gen, dass ver­schie­de­ne publi­zier­te Modelle des ICL zu ganz unter­schiedlichen Resultaten kom­men, wenn man sie auf die glei­chen Länder los­lässt. Was die Londoner selbst bezeich­nenderweise nicht gemacht hatten.

Ist dies alles über­ra­schend? Deutet es dar­auf hin, dass die Pandemie-Modellierer ihr Handwerk nicht recht verstehen?

Im Gegensatz zu den Meteoro­logen basie­ren ihre Model­lierungen auf schlech­ten oder sogar nicht-vor­han­de­nen Daten, also blo­ßen Annahmen. Dies gilt sowohl für die Corona-Inzidenzen wie auch viel mehr noch für die Auswirkungen nicht-phar­ma­ko­­lo­gi­scher Interventionen. Außerdem hängt alles ent­schei­dend davon ab, ob und wie die Maßnahmen in der Bevölkerung dann tat­säch­lich umge­setzt wer­den. Bei einer höchst unsi­che­ren Datenlage, wie sie zum Beispiel allein schon durch die sich stän­dig ändern­den Testkapa­zitäten und ‑raten, ins­be­son­de­re am Anfang einer Pandemie, vor­kommt, ist es unab­ding­bar, die­se ele­men­ta­re Fehler­behaftung kri­tisch zu berücksichtigen.

Datenfehler pflan­zen sich fort, das lernt man spä­te­stens im Physik-Praktikum. Und sie tun das umso mehr, wenn sie in kom­ple­xe, multipara­metrische Modelle und Wachstums­verläufe ein­ge­hen. Dazu kom­men jede Menge nicht vorher­sehbarer Einfluss­größen – wie etwa das Auftreten von Virusmutanten mit ver­än­der­ter Infektiosität oder Letalität, die Effektivität von Vakzi­nierungen oder auch unver­meid­li­che Rück­koppelungs- und Selbst­regulierungs­mechanismen, weil die Vorhersagen sich ja ihrer­seits bereits auf das Verhalten der Bevölkerung auswirken.

In Anbetracht all des­sen ist die oft pro­pa­gier­te Pseudo­genauigkeit der Modellierungs­ergebnisse schlicht­weg ver­mes­sen. Es ist, als wür­de man mit Kanonen – näm­lich kom­ple­xen, multipara­metrischen Model­lierungen – auf Spatzen – also auf grob fehler­behaftete und nicht-vali­de Daten­grundlagen – schießen…

Ein wei­te­rer wich­ti­ger Grund für das Versagen der Modelle ist, dass deren Annahmen ja durch die in der Pandemie ange­ord­ne­ten Maßnahmen modi­fi­ziert wer­den. Dies ist sogar ein erwünsch­ter Effekt, schließ­lich erhe­ben die Modellierer genau des­we­gen häu­fig ihren Zeigefinger. Allerdings wäre das gera­de so, als wenn sich das Wetter in Abhängigkeit davon ändern wür­de, ob wir einen Regenschirm auf­span­nen oder nicht. Dann wür­de auch der Wetterbericht nicht mehr funktionieren.

Hinzu kommt, dass Modellierungs­studien in der Regel weder Studien­protokolle vor­ab ver­öf­fent­li­chen noch prä­re­gi­striert wer­den – wie dies eigent­lich heut­zu­ta­ge für qua­li­ta­tiv hoch­wer­ti­ge Studien selbst­verständlich sein soll­te. Damit ist einem Herum­probieren, „bis es passt“, Tür und Tor geöffnet…

Vielleicht besteht aber der eigent­li­che Nutzen der Pandemie-Modellierungen dar­in, Worst-Case-Szenarien wissen­schaftlicher erschei­nen zu las­sen – und damit ein­schnei­den­de Maßnahmen für die brei­te Masse ein­leuch­ten­der und akzep­ta­bler zu machen. Diese also wissen­schaftlich zu bebil­dern. Das ist aber eine gefähr­li­che Strategie: Zum einen, weil Vorhersagen, die daneben­liegen, ihre Überzeu­gungskraft ver­lie­ren – zum ande­ren, weil die Modelle ja behaup­ten, die Nützlichkeit oder Schädlichkeit bestimm­ter Maßnahmen und Verhaltens­weisen zu „objek­ti­vie­ren“. Wie zum Beispiel Schul­schließungen, Ausgangs­sperren oder Abstandsregeln. Wenn die offen­sichtlichen und teils schwer­wiegenden Limitationen der Modelle nicht erkannt oder berück­sich­tigt wer­den, sie aber den­noch die Grundlage für unser Handeln in der Pandemie lie­fern – dann läuft etwas schief…

John von Neumann, Mathematiker, Physiker und Computer-Pionier, wird mit dem Bonmot zitiert: „Mit vier Parametern kann ich einen Elefanten fit­ten, und mit fünf ihn mit dem Rüssel wackeln las­sen.“ Wenn mit Rüssel-wackeln­den Elefanten und dem Gestus mathe­ma­tisch-phy­si­ka­li­scher Autorität Politik­beratung gemacht wird, ist das nicht ohne Risiko.«

Eine Untermauerung der Thesen gibt es im eigent­li­chen Magazin mit­tels eines Gesprächs mit Fachleuten unter der Überschrift "Es fehlt noch gewal­tig an Daten".

Siehe auch Priesemann gesteht: Ich bin Astrologin.

11 Antworten auf „Bis der Elefant mit dem Rüssel wackelt!“

  1. Guter Artikel: Einfach pein­lich die­se Leute, Glaskugel Wissenschaftler wie Deutschlands pro­mi­nen­te­ster Modelliererin, Viola Priesemann, oder Michael Meyer-Hermann? Ein Horoskop hät­te mehr Aussage Kraft, oder wür­feln. Hochstapler, die ohne Daten, irgend­ei­nen Blödsinn ver­brei­ten, der frei erfun­den ist und auch noch Lockdown for­dern. Nennt sich Deutsche Wissenschaft, nun wenn man Ratespiel macht, Staatlich finan­ziert ist. Tausende von sol­chen Instituts Deppen, haben Professoren Titel, sind real schlech­te Schauspieler, ohne Verstand

  2. Viola Priesemann und auch Michael Meyer-Hermann?, wur­den vor sehr vie­len Monaten dar­auf hin­ge­wie­sen, mit links und web­site, das Sie gezielt mit gefälsch­ten Websites arbei­ten, die nicht ein­mal ein Impressum haben, auch Whois Abfragen in das tech­ni­sche Nirvana der Daten führt. Es sind damit ganz ein­fach Kriminelle, mit Vorsatz. Michael Meyer-Hermann? sagt in einem NDR Interview, Podcast, das man über die Britische Mutante, für 95 % kei­ne Daten hat, aber trotz­dem Lockdown for­der­te als Merkel Berater. Sollen doch die­se Leute Sandkasten spie­len, denn Würfeln hät­te eine höhe­re Erfolgs Quote. Sowas als Wissenschaft des Helmholtz Institutes zu ver­kau­fen, ist Organisiertes Verbrechen

  3. Ich bin selbst Modellierer (Struktur- und Thermalanalyse aka FEA)
    Meine Erfahrung ist, dass den Ergebnissen aus dem Computer immer mehr blind ver­traut wird. Alles aus den Computer scheint kor­rekt und hoch­ge­nau zu sein. Das ist der fester, uner­schüt­ter­li­cher Glaube in die Digitalanzeige.
    Aber die Leute ver­ges­sen: "Gargbage in, Garbage out"

    Auch vie­le jun­ge Kollegen sind dem Glauben erlie­gen. Selbst bei völ­lig absur­den Ergebnissen kom­men sie nicht auf die Idee, dass sie sich viel­leicht bei den Einheiten ver­tan haben könn­ten (häu­fig­ster Fehler). Das wird dann so stolz prä­sen­tiert und (zumin­dest noch) von erfah­re­nen Kollegen zerrissen.

    Ich könn­te zwar auch pri­ma schum­meln aber, da wir auch alles testen – also Realität mit Theorie ver­glei­chen – kann ich mir das nicht erlau­ben. Das mache ich höch­sten 2× und dann bin ich raus.
    Trotzdem gibt es in den letz­ten Jahren immer mehr schlaue Projektmanager, die die Tests ein­fach weg­las­sen wol­len. Man kann doch alles ana­ly­sie­ren! Das spart Zeit und Geld.

    1. Das kann ich für mei­nen Bereich (theo­re­ti­sche Festkörperphysik) weit­ge­hend bestä­ti­gen. Es gibt immer mehr die Tendenz, dass sich Modelle ver­selbst­stän­di­gen und ein­zel­nen Modellparametern eine über­mä­ßi­ge Bedeutung zuge­mes­sen wird. Ist die schein­bar so ein­fa­che Modellerklärung dann erst­mal in der Welt, besteht kaum noch Interesse, die Physik dahin­ter auf einer tie­fe­ren Ebene zu ver­ste­hen. Das kostet ja auch bloß Zeit und Geld und könn­te am Ende sogar lieb­ge­won­ne­ne Vorstellungen infra­ge stellen…

  4. "Modellierungen", ein Wort, das um sich greift und das ich bis heu­te für mich so nicht akzep­tie­re und auch in einen ande­ren, eher künst­le­ri­schen Zusammenhang stel­le. Aber Meinungsmache avan­ciert der­zei­tig wohl auch zur Kunst, Meinungen von "Vordenkern" jed­we­der Färbung anzunehmen.Das erin­nert mich an das (Loriot?) Wort:"Und wo las­sen Sie den­ken"? Ja, wo? Wo sind Menschen, die sich an der­ar­ti­gen "Modellierungen" ori­en­tie­ren, mit ihrer eige­nen Fähigkeit zu den­ken, gelan­det? Sind sie nicht mehr zur eige­nen Meinungsbildung anhand selbst eru­ier­ter und durch das eige­ne Wertesystem geprüf­ter Fakten in der Lage?
    Eine der furcht­ba­ren Folgen der so eif­rig ange­streb­ten computer-
    gesteu­er­ten Generation?Marionetten?

    1. Ich fin­de Modellierung trifft es sehr genau.
      Es sind nur ver­ein­fach­te Modelle der Wirklichkeit. Oder Abbilder. Das soll­te nur jeder wis­sen. Besonders die Modellierer!

      Normalerweise macht man Sensitivitätsanalysen bei Eingabeparametern, bei denen man sich nicht sicher ist. Daraus bestimmt man dann den Fehlerraum in dem sich das Ergebnis befin­det. Wenn dann raus­kommt, dass die Maßnahme zu 5 bis 95% wirk­sam ist, redet man nicht wei­ter drü­ber und hofft nie­man­dem Ergebnisse ver­spro­chen zu haben.

      Ich habe schon Kollegen erlebt, die konn­ten nur das Analyseprogramm bedie­nen. Hier klickt man zur Vernetzung, hier zur Berechnung und hier wer­den dann bun­te Bilder ange­zeigt. Die sind meist sehr von sich überzeugt.
      Man erkennt sol­che Leute an ihrer Selbstsicherheit und dar­an, dass sie min­de­stens 5 Nachkommastellen angeben.

  5. Stimmt, seit Corona sind die Warnungen vor Asteoriten und Meteoriteneinschlägen die alles Leben auf der Erde aus­lö­schen wür­den, recht sel­ten geworden.

    Und was ist eigent­lich aus dem Heuschreckenscharm gewor­den der über dem Ärmelkanal gesich­tet wur­de? Sind die zurück­ge­flo­gen, wenn ja wohin?

  6. Modelle wer­den lei­der zu oft dort ein­ge­setzt, wo sie nichts zu suchen haben. Je kom­ple­xer das System und je unkla­rer die eigent­li­chen Zusammenhänge und Wirkmechanismen, desto weni­ger tat­säch­lich nutz­ba­re Rückschlüsse las­sen sich aus den Modellen zie­hen. Das gip­felt in Modellen der Meyer-Hermann‑, Nagel- oder Priesemann-Klasse, die aus­ge­rech­net beim Alltagsleben der mensch­li­chen Gesellschaft mit all sei­nen Facetten ver­meint­lich quan­ti­fi­zier­ba­re Einzeleinflüsse als allein wesent­li­che Faktoren betrachten.
    Wenn man dann neben die­ser Hybris auch noch nach­läs­sig bei den Parametern ist und aus "Studien" (in der Regel ihrer­seits Modellrechnungen) Werte zum Beispiel für die Verbreitungsgeschwindigkeit von Varianten zu zie­hen glaubt, dann hat man den Ahoi-Brause-Effekt: es zischt und spru­delt, sieht für Kinder und Kindgebliebene beein­druckend aus ‑aber nach nicht all­zu lan­ger Zeit ist es scha­les, leicht gefärb­tes Zuckerwasser.

    Wenn man will, kann man mit einem ein­zi­gen aus­lö­sen­den Funken die Vernichtung der gesam­ten Oberflächenvegetation eines Planeten durch einen Feuersturm model­lie­ren – aber kein ver­ant­wor­tungs­be­wuss­ter Modellierer (und das dürf­te die deut­li­che Mehrheit sein) wür­de das tun oder zumin­dest wür­de man dar­aus kei­ne Handlungsempfehlungen ableiten…

Schreibe einen Kommentar zu zombie Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert