Obacht! Neue Bertelsmann-Studie zu Algorithmen

Wenn die Bertelsmann-Stiftung eine Studie vor­legt, soll­te man hell­hö­rig wer­den. Wenn sie ein Geleitwort des Vorstandsmitglieds der neo­li­be­ra­len Denkfabrik, Jörg Dräger, beinhal­tet, um so mehr. Er war lang­jäh­ri­ger Unternehmensberater, Gesundheitssenator in Hamburg und ver­ant­wort­lich für die Einführung von Studiengebühren. Dräger lehrt an der pri­va­ten "Hertie School of Governance".

»Wie Deutschland über Algorithmen schreibt. Eine Analyse des Mediendiskurses über Algorithmen und Künstliche Intelligenz (2005–2020)«

lau­tet der Titel der Studie, die sich damit auch mit der Akzeptanz der aktu­ell so belieb­ten Modellrechnungen über Mutanten, Inzidenzen etc. beschäf­tigt. AutorInnen sind Sarah Fischer, die sich seit Jahren für Big Data im Gesundheitswesen stark macht (sie­he u.a. hier), und Cornelius Puschmann. Die Studie nimmt Digitalisierung und Macht von Algorithmen als gege­ben und nicht hin­ter­frag­bar an. Wie meis­tens beschreibt sie Defizite, um zu einer Optimierung zu gelan­gen. Das Hauptproblem: unin­for­mier­te Menschen:

»Bei die­sem Thema herr­schen Unwissen, Unentschlossenheit und Unbehagen. Die Menschen in Deutschland wis­sen noch sehr wenig dar­über, was Algorithmen sind und dass sie bereits in zen­tra­len Gesellschaftsbereichen wie in der Medizin, im Personalwesen oder bei der Polizeiarbeit zum Einsatz kom­men. Sie haben noch kei­ne kla­re Meinung zum Thema, ver­spü­ren aber ein Unbehagen, wenn Entscheidungen von algo­rith­mi­schen Systemen beein­flusst sind…

Vor die­sem Hintergrund stellt sich die Frage, wie der media­le Diskurs über Algorithmen und künst­li­che Intelligenz in Deutschland genau aus­sieht: Kommen unter­schied­li­che Akteure mit ver­schie­de­nen Perspektiven zu Wort? Wird eher posi­tiv und chan­cen­ori­en­tiert über das Thema berich­tet oder nega­tiv und pro­blem­be­zo­gen? Welche kon­kre­ten Herausforderungen und Handlungsempfehlungen wer­den thematisiert?«

Die in einer Zusammenfassung dar­ge­stell­ten Ergebnisse zei­gen, was bei der Zielsetzung der Stiftung noch im Argen liegt, und wo aktu­ell schon Fortschritte in ihrem Sinne zu ver­zeich­nen sind:

»Aus den Ergebnissen der Studie lassen sich drei zentrale Ableitungen treffen: 

Erstens man­gelt es dem Diskurs im Hinblick auf ver­tre­te­ne Perspektiven und Akteure an Vielfalt. Für eine brei­te demo­kra­ti­sche Meinungsbildung braucht es jedoch diver­se Positionen. Dazu benö­ti­gen vor allem zivil­ge­sell­schaft­li­che und poli­ti­sche Stimmen grö­ße­re Resonanz in der Debatte über Algorithmen und künst­li­che Intelligenz. Leitmedien soll­ten sie einer­seits häu­fi­ger in der Berichterstattung berück­sich­ti­gen. Andererseits soll­ten Akteure aus Zivilgesellschaft und Politik dar­an arbei­ten, ihre Anliegen und Kernbotschaften stär­ker und ziel­ge­rich­te­ter an und über die Medien zu kommunizieren. 

Zweitens spie­gelt sich der Fokus auf die wirt­schaft­li­che Perspektive auch in den the­ma­ti­sier­ten Anwendungsbereichen und Chancen wider. Damit Skepsis in der Bevölkerung sich abbaut und Vertrauen in neue Technologien wach­sen kann, ist es wich­tig, dass auch der Einsatz von künst­li­cher Intelligenz und Algorithmen in zen­tra­len teil­ha­bere­le­van­ten Bereichen wie Bildung, Gesundheit oder Sicherheit sowie gesamt­ge­sell­schaft­li­che Chancen der­ar­ti­ger Systeme häu­fi­ger in der Berichterstattung vorkommen.

Drittens dür­fen im Diskurs the­ma­ti­sier­te Lösungsansätze nicht beim Kompetenzaufbau ste­hen blei­ben. In der brei­ten Bevölkerung, aber auch bei Anwender:innen darf nicht der Eindruck ent­ste­hen, dass die Bürde des ver­ant­wor­tungs­vol­len Einsatzes algo­rith­mi­scher Systeme allein auf ihnen las­tet. Wissen wirkt zwar oft­mals Wunder, braucht dazu aber auch adäqua­te Aufsichts- und Kontrollstrukturen. Eine stär­ke­re Berücksichtigung sol­cher wei­te­rer Lösungsansätze im media­len Diskurs könn­te gleich­sam den dafür nöti­gen poli­ti­schen Handlungsdruck befördern.«

Adäquate Aufsichts- und Kontrollstrukturen

Kernpunkt dürf­ten die "Aufsichts- und Kontrollstrukturen" sein, um "poli­ti­schen Handlungsdruck" zu erzeu­gen. Die Formulierung von "teilhabe­relevanten Bereichen wie Bildung, Gesundheit oder Sicherheit" ist nichts als eine Floskel. Überaus dras­tisch erle­ben wir gera­de, daß genau die­se Bereiche von Teilhabe der BürgerInnen aus­ge­schlos­sen sind. Begründungen dafür lie­fern die gelob­ten Algorithmen, wobei sie mei­len­weit davon ent­fernt sind, so etwas wie künst­li­che Intelligenz darzustellen.

Durchaus zutref­fend wird festgehalten:

»Die Frage, wel­che Perspektiven und Personengruppen in der media­len Berichterstattung zu Wort kom­men, ist somit auch eine Machtfrage. Wer Gehör fin­det, kann mit­be­ein­flus­sen, wie wir den digi­ta­len Wandel zukünf­tig gestalten…

Kurz gesagt: Der Diskurs über Algorithmen und künst­li­che Intelligenz in Deutschland erscheint wenig divers. Es fehlt eine gemein­wohl­ori­en­tier­te Perspektive auf das Thema.«

Was die Stiftung unter Gemeinwohl ver­steht, ist auch ihren ver­schie­de­nen Vorstößen zu Krankenhausschließungen zu entnehmen.

»Die Dominanz öko­no­mi­scher Potenziale im Diskurs erklärt sich aus dem unter­neh­me­ri­schen Vorsprung im Umgang mit digi­ta­len Technologien und dem legi­ti­men Interesse, die­se sicht­bar zu machen. Bei sozia­len Innovationen fehlt es im Vergleich dazu oft noch an kon­kre­ten Beispielen und an Akteuren, die ent­spre­chen­de Bestrebungen und Erfolge offen­siv kommunizieren…

Um der bei die­sem Thema vor­herr­schen­den Unkenntnis und dem Unbehagen in der Bevölkerung ent­ge­gen­zu­wir­ken, reicht die­se Perspektive nicht aus. Das Vertrauen der Menschen in den digi­ta­len Wandel lässt sich nur stär­ken, wenn es gelingt, zum einen auch Chancen fürs Gemeinwohl in Bereichen wie Bildung, Gesundheit oder beim Klimaschutz sicht­bar zu machen.«

Einige konkrete Handlungsableitungen

»Medienvertreter:innen soll­ten neben wirt­schaft­li­chen Aspekten auch stär­ker über den Einsatz algo­rith­mi­scher Systeme in gemein­wohl­re­le­van­ten Bereichen berich­ten. Die Auswirkungen von Algorithmen und künst­li­cher Intelligenz betref­fen längst gro­ße Teile des gesell­schaft­li­chen Lebens (Chiusi et al. 2020). Deshalb darf sich die Berichterstattung dar­über nicht auf weni­ge Fachjournalist:innen und die klei­nen Digital-Ressorts der Leitmedien beschrän­ken. Vielmehr soll­ten sich die Redaktionen in ihrer Breite mit die­ser Querschnittsthematik aus­ein­an­der­set­zen und hier auch stär­ker auf hin­ter­grün­di­ge oder inves­ti­ga­ti­ve Stücke set­zen. Sie soll­ten zudem dar­auf ach­ten, dass dabei diver­se Stimmen aus Politik und Zivilgesellschaft zu Wort kom­men und aktiv auf die­se Akteure zugehen. 

Zugleich liegt es an der Politik, Anlässe für media­le Berichterstattung zu schaf­fen und ent­spre­chen­de Entscheidungen sowie ihren prak­ti­schen Nutzen für die Bürger:innen ver­ständ­lich zu kommunizieren…

Mehr Vielfalt im Diskurs erfor­dert auch mehr zivil­ge­sell­schaft­li­ches Engagement. Das Spektrum an Handlungsoptionen ist dabei eben­so divers wie die Zivilgesellschaft selbst: Die Öffentlichkeit sen­si­bi­li­sie­ren, Räume für Dialog und Austausch schaf­fen, Lösungsansätze ent­wi­ckeln – je nach indi­vi­du­el­ler stra­te­gi­scher Ausrichtung bie­ten sich viel­fäl­ti­ge Ansatzpunkte. Dazu braucht es aller­dings auch stär­ke­re Unterstützung durch die Politik oder auch Stiftungen – denn der digi­ta­len zivil­ge­sell­schaft­li­chen Avantgarde feh­len bis­lang die nöti­gen Ressourcen und vie­len grö­ße­ren Akteuren die nöti­gen Kompetenzen…«

Hier erle­ben wir mit ZeroCovid soeben eine kon­kre­te Umsetzung.

13 Antworten auf „Obacht! Neue Bertelsmann-Studie zu Algorithmen“

  1. Der Bezug auf ZeroCovid leuch­tet mir aktu­ell nicht ein.
    Also was hat die­se Darstellung über BigData und Algorithmen mit die­ser ZeroCovid Strategie zu tun? Kann mir das bit­te einer etwas schlüs­si­ger dar­le­gen? Ich fin­de der Artikel stellt die­sem Bezug unge­nü­gend dar (obwohl ich ihn nicht grund­sätz­lich ver­lä­um­den will)
    Vielen Dank dafür schon mal.

    1. @Tim Sandau: "Mehr Vielfalt im Diskurs erfor­dert auch mehr zivil­ge­sell­schaft­li­ches Engagement" for­dert die Stiftung. ZeroCovid bezieht sich aus­drück­lich auf die Modellierungen von Frau Priesemann und Frau Brinkmann.

  2. Das ist kaum aus­zu­hal­ten. Ein Algorithmus ist eine Rechenvorschrift. Er defi­niert die ein­zel­nen Schritte, wie das Gewünschte zu berech­nen ist. Er ist völ­lig unschul­dig und berech­net das Gewünschte. Egal, ob das gut oder böse ist.

  3. Ergänzung: das gene­rel­le Problem der "künst­li­chen Intelligenz" ist, dass es sich um eine inkor­rek­te Übersetzung aus dem Englischen handelt.
    (Dies, obwohl nie­mand auf die Idee kom­men wür­de, CIA mit "Zentrale Intelligenzagentur" zu übersetzen)

  4. Eine prä­zu­se Darstellung der ver­wen­de­ten Algorithmen bei den Prognosen ( z.B. Covid 19 Frühjahr 2020) und den tat­säch­li­chen Ergebnissen wäre wün­schens­wert um den Wert oder Unwort der ver­wen­de­ten Modelle dar­stel­len bzw. zu überprüfen.

  5. Pseudowissenschaft braucht "gute" PR und vie­le geschwur­bel­te Worte um für Wissenschaft gehal­ten zu werden.

    Die Denkfabriken sind gera­de dabei.

  6. @ Msch – 7. Februar 2021 um 11:30 Uhr
    Jedes wis­sen­schaft­li­che Papier ent­hält doch einen Teil „Material und Methoden“. Der muss so gehal­ten sein dass die Arbeit, das Experiment, über­all auf der Welt exakt wie­der­hol­bar ist. Wenn nicht ist die Arbeit grund­sätz­lich nicht zulässig.
    Neil Ferguson hat­te sich mona­te­lang gewei­gert sei­ne benutz­te Software zu ver­öf­fent­li­chen. Er muß­te es dann doch tun. Indische IT-Spezialisten mein­ten dazu solch einen Microsoft-Schrott noch nie gese­hen zu haben. Diese Firma hat offen­bar in aller Eile ein wenigh nach­ge­bes­sert um die kras­ses­ten Peinlichkeiten zu ver­mei­den. – Die Einzelheiten habe ich mir gar nicht ange­se­hen weil mei­ne Einschätzung war: egal, der wird die glei­che Nummer immer wie­der ver­su­chen. So war es denn auch.
    Daher habe ich mir ange­wöhnt durch­weg von infan­ti­li­sie­ren­der Digitalisierung zu spre­chen. Wissen, das ich nicht „ver­daut“ habe, ist nur „Wissen“.
    @Albrecht Storz: Denkfabriken gibt es nicht. Gab es nie. Es gab und gibt Hochstapler. Die sehr über­zeu­gend sein kön­nen. Der Übergang zu Gruppen- oder gar Massenhypnose ist fließend.

  7. Die Bertelsmann-Stiftung för­dert auch AlgorithmWatch, und die berich­ten durch­aus kri­tisch: https://algorithmwatch.org/

    Und zu dem Kommentar wei­ter oben
    "Ein Algorithmus ist eine Rechenvorschrift. Er defi­niert die ein­zel­nen Schritte, wie das Gewünschte zu berech­nen ist. Er ist völ­lig unschul­dig und berech­net das Gewünschte. Egal, ob das gut oder böse ist."

    Im Prinzip rich­tig, aber gera­de was Machine Learning angeht, kön­nen sich die Verantwortlichen da wun­der­bar hin­ter ver­ste­cken. Ein Algorithmus ist bei wei­tem nicht so unschul­dig, wie er auf den ers­ten Blick scheint, und außer­dem ist jeder Algorithmus ja von Menschen ent­wi­ckelt worden.
    Im Falle von Machine Learning kommt noch dazu, dass Menschen aus­wäh­len, mit wel­chen Daten sie den Algorithmus trainieren.

    In Algorithmen steckt sehr viel Macht, die auf den ers­ten Blick unsicht­bar ist. Insofern ist die Arbeit von Organisationen wie AlgorithmWatch heut­zu­ta­ge sehr wichtig.

    1. @Timo Ollech: Das ist der Trick der Bertelsmänner, immer auch "durch­aus kri­tisch", auch in die­ser Studie. Selbst in den Papieren zu den Krankenhausschließungen gibt es rich­ti­ge und nach­voll­zieh­ba­re Kritik. Das glei­che Prinzip wen­den die "Mainstream-Medien" auch an. In Nischen darf es immer mal wie­der rebel­li­sche Positionen geben, um den Anschein von Ausgewogenheit zu wah­ren. Nachts gibt es mit­un­ter rich­tig auf­klä­re­ri­sche Sendungen im Deutschlandfunk. In die­sen Zeiten fin­den sich sogar über­ra­schen­de Meldungen in den Nachrichten, die bis zum Morgen, wenn es mehr ZuhörerInnen gibt, wie­der verschwinden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.