Obacht! Neue Bertelsmann-Studie zu Algorithmen

Wenn die Ber­tels­mann-Stif­tung eine Stu­die vor­legt, soll­te man hell­hö­rig wer­den. Wenn sie ein Geleit­wort des Vor­stands­mit­glieds der neo­li­be­ra­len Denk­fa­brik, Jörg Drä­ger, beinhal­tet, um so mehr. Er war lang­jäh­ri­ger Unter­neh­mens­be­ra­ter, Gesund­heits­se­na­tor in Ham­burg und ver­ant­wort­lich für die Ein­füh­rung von Stu­di­en­ge­büh­ren. Drä­ger lehrt an der pri­va­ten "Her­tie School of Governance".

»Wie Deutsch­land über Algo­rith­men schreibt. Eine Ana­ly­se des Medi­en­dis­kur­ses über Algo­rith­men und Künst­li­che Intel­li­genz (2005–2020)«

lau­tet der Titel der Stu­die, die sich damit auch mit der Akzep­tanz der aktu­ell so belieb­ten Modell­rech­nun­gen über Mutan­ten, Inzi­den­zen etc. beschäf­tigt. AutorIn­nen sind Sarah Fischer, die sich seit Jah­ren für Big Data im Gesund­heits­we­sen stark macht (sie­he u.a. hier), und Cor­ne­li­us Pusch­mann. Die Stu­die nimmt Digi­ta­li­sie­rung und Macht von Algo­rith­men als gege­ben und nicht hin­ter­frag­bar an. Wie meis­tens beschreibt sie Defi­zi­te, um zu einer Opti­mie­rung zu gelan­gen. Das Haupt­pro­blem: unin­for­mier­te Menschen:

»Bei die­sem The­ma herr­schen Unwis­sen, Unent­schlos­sen­heit und Unbe­ha­gen. Die Men­schen in Deutsch­land wis­sen noch sehr wenig dar­über, was Algo­rith­men sind und dass sie bereits in zen­tra­len Gesell­schafts­be­rei­chen wie in der Medi­zin, im Per­so­nal­we­sen oder bei der Poli­zei­ar­beit zum Ein­satz kom­men. Sie haben noch kei­ne kla­re Mei­nung zum The­ma, ver­spü­ren aber ein Unbe­ha­gen, wenn Ent­schei­dun­gen von algo­rith­mi­schen Sys­te­men beein­flusst sind…

Vor die­sem Hin­ter­grund stellt sich die Fra­ge, wie der media­le Dis­kurs über Algo­rith­men und künst­li­che Intel­li­genz in Deutsch­land genau aus­sieht: Kom­men unter­schied­li­che Akteu­re mit ver­schie­de­nen Per­spek­ti­ven zu Wort? Wird eher posi­tiv und chan­cen­ori­en­tiert über das The­ma berich­tet oder nega­tiv und pro­blem­be­zo­gen? Wel­che kon­kre­ten Her­aus­for­de­run­gen und Hand­lungs­emp­feh­lun­gen wer­den thematisiert?«

Die in einer Zusam­men­fas­sung dar­ge­stell­ten Ergeb­nis­se zei­gen, was bei der Ziel­set­zung der Stif­tung noch im Argen liegt, und wo aktu­ell schon Fort­schrit­te in ihrem Sin­ne zu ver­zeich­nen sind:

»Aus den Ergebnissen der Studie lassen sich drei zentrale Ableitungen treffen: 

Ers­tens man­gelt es dem Dis­kurs im Hin­blick auf ver­tre­te­ne Per­spek­ti­ven und Akteu­re an Viel­falt. Für eine brei­te demo­kra­ti­sche Mei­nungs­bil­dung braucht es jedoch diver­se Posi­tio­nen. Dazu benö­ti­gen vor allem zivil­ge­sell­schaft­li­che und poli­ti­sche Stim­men grö­ße­re Reso­nanz in der Debat­te über Algo­rith­men und künst­li­che Intel­li­genz. Leit­me­di­en soll­ten sie einer­seits häu­fi­ger in der Bericht­erstat­tung berück­sich­ti­gen. Ande­rer­seits soll­ten Akteu­re aus Zivil­ge­sell­schaft und Poli­tik dar­an arbei­ten, ihre Anlie­gen und Kern­bot­schaf­ten stär­ker und ziel­ge­rich­te­ter an und über die Medi­en zu kommunizieren. 

Zwei­tens spie­gelt sich der Fokus auf die wirt­schaft­li­che Per­spek­ti­ve auch in den the­ma­ti­sier­ten Anwen­dungs­be­rei­chen und Chan­cen wider. Damit Skep­sis in der Bevöl­ke­rung sich abbaut und Ver­trau­en in neue Tech­no­lo­gien wach­sen kann, ist es wich­tig, dass auch der Ein­satz von künst­li­cher Intel­li­genz und Algo­rith­men in zen­tra­len teil­ha­be­re­le­van­ten Berei­chen wie Bil­dung, Gesund­heit oder Sicher­heit sowie gesamt­ge­sell­schaft­li­che Chan­cen der­ar­ti­ger Sys­te­me häu­fi­ger in der Bericht­erstat­tung vorkommen.

Drit­tens dür­fen im Dis­kurs the­ma­ti­sier­te Lösungs­an­sät­ze nicht beim Kom­pe­tenz­auf­bau ste­hen blei­ben. In der brei­ten Bevöl­ke­rung, aber auch bei Anwender:innen darf nicht der Ein­druck ent­ste­hen, dass die Bür­de des ver­ant­wor­tungs­vol­len Ein­sat­zes algo­rith­mi­scher Sys­te­me allein auf ihnen las­tet. Wis­sen wirkt zwar oft­mals Wun­der, braucht dazu aber auch adäqua­te Auf­sichts- und Kon­troll­struk­tu­ren. Eine stär­ke­re Berück­sich­ti­gung sol­cher wei­te­rer Lösungs­an­sät­ze im media­len Dis­kurs könn­te gleich­sam den dafür nöti­gen poli­ti­schen Hand­lungs­druck befördern.«

Adäquate Aufsichts- und Kontrollstrukturen

Kern­punkt dürf­ten die "Auf­sichts- und Kon­troll­struk­tu­ren" sein, um "poli­ti­schen Hand­lungs­druck" zu erzeu­gen. Die For­mu­lie­rung von "teilhabe­relevanten Berei­chen wie Bil­dung, Gesund­heit oder Sicher­heit" ist nichts als eine Flos­kel. Über­aus dras­tisch erle­ben wir gera­de, daß genau die­se Berei­che von Teil­ha­be der Bür­ge­rIn­nen aus­ge­schlos­sen sind. Begrün­dun­gen dafür lie­fern die gelob­ten Algo­rith­men, wobei sie mei­len­weit davon ent­fernt sind, so etwas wie künst­li­che Intel­li­genz darzustellen.

Durch­aus zutref­fend wird festgehalten:

»Die Fra­ge, wel­che Per­spek­ti­ven und Per­so­nen­grup­pen in der media­len Bericht­erstat­tung zu Wort kom­men, ist somit auch eine Macht­fra­ge. Wer Gehör fin­det, kann mit­be­ein­flus­sen, wie wir den digi­ta­len Wan­del zukünf­tig gestalten…

Kurz gesagt: Der Dis­kurs über Algo­rith­men und künst­li­che Intel­li­genz in Deutsch­land erscheint wenig divers. Es fehlt eine gemein­wohl­ori­en­tier­te Per­spek­ti­ve auf das Thema.«

Was die Stif­tung unter Gemein­wohl ver­steht, ist auch ihren ver­schie­de­nen Vor­stö­ßen zu Kran­ken­haus­schlie­ßun­gen zu entnehmen.

»Die Domi­nanz öko­no­mi­scher Poten­zia­le im Dis­kurs erklärt sich aus dem unter­neh­me­ri­schen Vor­sprung im Umgang mit digi­ta­len Tech­no­lo­gien und dem legi­ti­men Inter­es­se, die­se sicht­bar zu machen. Bei sozia­len Inno­va­tio­nen fehlt es im Ver­gleich dazu oft noch an kon­kre­ten Bei­spie­len und an Akteu­ren, die ent­spre­chen­de Bestre­bun­gen und Erfol­ge offen­siv kommunizieren…

Um der bei die­sem The­ma vor­herr­schen­den Unkennt­nis und dem Unbe­ha­gen in der Bevöl­ke­rung ent­ge­gen­zu­wir­ken, reicht die­se Per­spek­ti­ve nicht aus. Das Ver­trau­en der Men­schen in den digi­ta­len Wan­del lässt sich nur stär­ken, wenn es gelingt, zum einen auch Chan­cen fürs Gemein­wohl in Berei­chen wie Bil­dung, Gesund­heit oder beim Kli­ma­schutz sicht­bar zu machen.«

Einige konkrete Handlungsableitungen

»Medienvertreter:innen soll­ten neben wirt­schaft­li­chen Aspek­ten auch stär­ker über den Ein­satz algo­rith­mi­scher Sys­te­me in gemein­wohl­re­le­van­ten Berei­chen berich­ten. Die Aus­wir­kun­gen von Algo­rith­men und künst­li­cher Intel­li­genz betref­fen längst gro­ße Tei­le des gesell­schaft­li­chen Lebens (Chi­usi et al. 2020). Des­halb darf sich die Bericht­erstat­tung dar­über nicht auf weni­ge Fachjournalist:innen und die klei­nen Digi­tal-Res­sorts der Leit­me­di­en beschrän­ken. Viel­mehr soll­ten sich die Redak­tio­nen in ihrer Brei­te mit die­ser Quer­schnitts­the­ma­tik aus­ein­an­der­set­zen und hier auch stär­ker auf hin­ter­grün­di­ge oder inves­ti­ga­ti­ve Stü­cke set­zen. Sie soll­ten zudem dar­auf ach­ten, dass dabei diver­se Stim­men aus Poli­tik und Zivil­ge­sell­schaft zu Wort kom­men und aktiv auf die­se Akteu­re zugehen. 

Zugleich liegt es an der Poli­tik, Anläs­se für media­le Bericht­erstat­tung zu schaf­fen und ent­spre­chen­de Ent­schei­dun­gen sowie ihren prak­ti­schen Nut­zen für die Bürger:innen ver­ständ­lich zu kommunizieren…

Mehr Viel­falt im Dis­kurs erfor­dert auch mehr zivil­ge­sell­schaft­li­ches Enga­ge­ment. Das Spek­trum an Hand­lungs­op­tio­nen ist dabei eben­so divers wie die Zivil­ge­sell­schaft selbst: Die Öffent­lich­keit sen­si­bi­li­sie­ren, Räu­me für Dia­log und Aus­tausch schaf­fen, Lösungs­an­sät­ze ent­wi­ckeln – je nach indi­vi­du­el­ler stra­te­gi­scher Aus­rich­tung bie­ten sich viel­fäl­ti­ge Ansatz­punk­te. Dazu braucht es aller­dings auch stär­ke­re Unter­stüt­zung durch die Poli­tik oder auch Stif­tun­gen – denn der digi­ta­len zivil­ge­sell­schaft­li­chen Avant­gar­de feh­len bis­lang die nöti­gen Res­sour­cen und vie­len grö­ße­ren Akteu­ren die nöti­gen Kompetenzen…«

Hier erle­ben wir mit Zero­Co­vid soeben eine kon­kre­te Umsetzung.

14 Antworten auf „Obacht! Neue Bertelsmann-Studie zu Algorithmen“

  1. Der Bezug auf Zero­Co­vid leuch­tet mir aktu­ell nicht ein.
    Also was hat die­se Dar­stel­lung über Big­Da­ta und Algo­rith­men mit die­ser Zero­Co­vid Stra­te­gie zu tun? Kann mir das bit­te einer etwas schlüs­si­ger dar­le­gen? Ich fin­de der Arti­kel stellt die­sem Bezug unge­nü­gend dar (obwohl ich ihn nicht grund­sätz­lich ver­läum­den will)
    Vie­len Dank dafür schon mal.

    1. @Tim San­dau: "Mehr Viel­falt im Dis­kurs erfor­dert auch mehr zivil­ge­sell­schaft­li­ches Enga­ge­ment" for­dert die Stif­tung. Zero­Co­vid bezieht sich aus­drück­lich auf die Model­lie­run­gen von Frau Prie­se­mann und Frau Brinkmann.

  2. Das ist kaum aus­zu­hal­ten. Ein Algo­rith­mus ist eine Rechen­vor­schrift. Er defi­niert die ein­zel­nen Schrit­te, wie das Gewünsch­te zu berech­nen ist. Er ist völ­lig unschul­dig und berech­net das Gewünsch­te. Egal, ob das gut oder böse ist.

  3. Ergän­zung: das gene­rel­le Pro­blem der "künst­li­chen Intel­li­genz" ist, dass es sich um eine inkor­rek­te Über­set­zung aus dem Eng­li­schen handelt.
    (Dies, obwohl nie­mand auf die Idee kom­men wür­de, CIA mit "Zen­tra­le Intel­li­genz­agen­tur" zu übersetzen)

  4. Eine prä­zu­se Dar­stel­lung der ver­wen­de­ten Algo­rith­men bei den Pro­gno­sen ( z.B. Covid 19 Früh­jahr 2020) und den tat­säch­li­chen Ergeb­nis­sen wäre wün­schens­wert um den Wert oder Unwort der ver­wen­de­ten Model­le dar­stel­len bzw. zu überprüfen.

  5. Pseu­do­wis­sen­schaft braucht "gute" PR und vie­le geschwur­bel­te Wor­te um für Wis­sen­schaft gehal­ten zu werden.

    Die Denk­fa­bri­ken sind gera­de dabei.

  6. @ Msch – 7. Febru­ar 2021 um 11:30 Uhr
    Jedes wis­sen­schaft­li­che Papier ent­hält doch einen Teil „Mate­ri­al und Metho­den“. Der muss so gehal­ten sein dass die Arbeit, das Expe­ri­ment, über­all auf der Welt exakt wie­der­hol­bar ist. Wenn nicht ist die Arbeit grund­sätz­lich nicht zulässig.
    Neil Fer­gu­son hat­te sich mona­te­lang gewei­gert sei­ne benutz­te Soft­ware zu ver­öf­fent­li­chen. Er muß­te es dann doch tun. Indi­sche IT-Spe­zia­lis­ten mein­ten dazu solch einen Micro­soft-Schrott noch nie gese­hen zu haben. Die­se Fir­ma hat offen­bar in aller Eile ein wenigh nach­ge­bes­sert um die kras­ses­ten Pein­lich­kei­ten zu ver­mei­den. – Die Ein­zel­hei­ten habe ich mir gar nicht ange­se­hen weil mei­ne Ein­schät­zung war: egal, der wird die glei­che Num­mer immer wie­der ver­su­chen. So war es denn auch.
    Daher habe ich mir ange­wöhnt durch­weg von infan­ti­li­sie­ren­der Digi­ta­li­sie­rung zu spre­chen. Wis­sen, das ich nicht „ver­daut“ habe, ist nur „Wis­sen“.
    @Albrecht Storz: Denk­fa­bri­ken gibt es nicht. Gab es nie. Es gab und gibt Hoch­stap­ler. Die sehr über­zeu­gend sein kön­nen. Der Über­gang zu Grup­pen- oder gar Mas­sen­hyp­no­se ist fließend.

  7. Die Ber­tels­mann-Stif­tung för­dert auch Algo­rith­m­Watch, und die berich­ten durch­aus kri­tisch: https://​algo​rith​m​watch​.org/

    Und zu dem Kom­men­tar wei­ter oben
    "Ein Algo­rith­mus ist eine Rechen­vor­schrift. Er defi­niert die ein­zel­nen Schrit­te, wie das Gewünsch­te zu berech­nen ist. Er ist völ­lig unschul­dig und berech­net das Gewünsch­te. Egal, ob das gut oder böse ist."

    Im Prin­zip rich­tig, aber gera­de was Machi­ne Lear­ning angeht, kön­nen sich die Ver­ant­wort­li­chen da wun­der­bar hin­ter ver­ste­cken. Ein Algo­rith­mus ist bei wei­tem nicht so unschul­dig, wie er auf den ers­ten Blick scheint, und außer­dem ist jeder Algo­rith­mus ja von Men­schen ent­wi­ckelt worden.
    Im Fal­le von Machi­ne Lear­ning kommt noch dazu, dass Men­schen aus­wäh­len, mit wel­chen Daten sie den Algo­rith­mus trainieren.

    In Algo­rith­men steckt sehr viel Macht, die auf den ers­ten Blick unsicht­bar ist. Inso­fern ist die Arbeit von Orga­ni­sa­tio­nen wie Algo­rith­m­Watch heut­zu­ta­ge sehr wichtig.

    1. @Timo Oll­ech: Das ist der Trick der Ber­tels­män­ner, immer auch "durch­aus kri­tisch", auch in die­ser Stu­die. Selbst in den Papie­ren zu den Kran­ken­haus­schlie­ßun­gen gibt es rich­ti­ge und nach­voll­zieh­ba­re Kri­tik. Das glei­che Prin­zip wen­den die "Main­stream-Medi­en" auch an. In Nischen darf es immer mal wie­der rebel­li­sche Posi­tio­nen geben, um den Anschein von Aus­ge­wo­gen­heit zu wah­ren. Nachts gibt es mit­un­ter rich­tig auf­klä­re­ri­sche Sen­dun­gen im Deutsch­land­funk. In die­sen Zei­ten fin­den sich sogar über­ra­schen­de Mel­dun­gen in den Nach­rich­ten, die bis zum Mor­gen, wenn es mehr Zuhö­re­rIn­nen gibt, wie­der verschwinden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.