Wenn die Bertelsmann-Stiftung eine Studie vorlegt, sollte man hellhörig werden. Wenn sie ein Geleitwort des Vorstandsmitglieds der neoliberalen Denkfabrik, Jörg Dräger, beinhaltet, um so mehr. Er war langjähriger Unternehmensberater, Gesundheitssenator in Hamburg und verantwortlich für die Einführung von Studiengebühren. Dräger lehrt an der privaten "Hertie School of Governance".
»Wie Deutschland über Algorithmen schreibt. Eine Analyse des Mediendiskurses über Algorithmen und Künstliche Intelligenz (2005–2020)«
lautet der Titel der Studie, die sich damit auch mit der Akzeptanz der aktuell so beliebten Modellrechnungen über Mutanten, Inzidenzen etc. beschäftigt. AutorInnen sind Sarah Fischer, die sich seit Jahren für Big Data im Gesundheitswesen stark macht (siehe u.a. hier), und Cornelius Puschmann. Die Studie nimmt Digitalisierung und Macht von Algorithmen als gegeben und nicht hinterfragbar an. Wie meistens beschreibt sie Defizite, um zu einer Optimierung zu gelangen. Das Hauptproblem: uninformierte Menschen:
»Bei diesem Thema herrschen Unwissen, Unentschlossenheit und Unbehagen. Die Menschen in Deutschland wissen noch sehr wenig darüber, was Algorithmen sind und dass sie bereits in zentralen Gesellschaftsbereichen wie in der Medizin, im Personalwesen oder bei der Polizeiarbeit zum Einsatz kommen. Sie haben noch keine klare Meinung zum Thema, verspüren aber ein Unbehagen, wenn Entscheidungen von algorithmischen Systemen beeinflusst sind…
Vor diesem Hintergrund stellt sich die Frage, wie der mediale Diskurs über Algorithmen und künstliche Intelligenz in Deutschland genau aussieht: Kommen unterschiedliche Akteure mit verschiedenen Perspektiven zu Wort? Wird eher positiv und chancenorientiert über das Thema berichtet oder negativ und problembezogen? Welche konkreten Herausforderungen und Handlungsempfehlungen werden thematisiert?«
Die in einer Zusammenfassung dargestellten Ergebnisse zeigen, was bei der Zielsetzung der Stiftung noch im Argen liegt, und wo aktuell schon Fortschritte in ihrem Sinne zu verzeichnen sind:
»Aus den Ergebnissen der Studie lassen sich drei zentrale Ableitungen treffen:
Erstens mangelt es dem Diskurs im Hinblick auf vertretene Perspektiven und Akteure an Vielfalt. Für eine breite demokratische Meinungsbildung braucht es jedoch diverse Positionen. Dazu benötigen vor allem zivilgesellschaftliche und politische Stimmen größere Resonanz in der Debatte über Algorithmen und künstliche Intelligenz. Leitmedien sollten sie einerseits häufiger in der Berichterstattung berücksichtigen. Andererseits sollten Akteure aus Zivilgesellschaft und Politik daran arbeiten, ihre Anliegen und Kernbotschaften stärker und zielgerichteter an und über die Medien zu kommunizieren.
Zweitens spiegelt sich der Fokus auf die wirtschaftliche Perspektive auch in den thematisierten Anwendungsbereichen und Chancen wider. Damit Skepsis in der Bevölkerung sich abbaut und Vertrauen in neue Technologien wachsen kann, ist es wichtig, dass auch der Einsatz von künstlicher Intelligenz und Algorithmen in zentralen teilhaberelevanten Bereichen wie Bildung, Gesundheit oder Sicherheit sowie gesamtgesellschaftliche Chancen derartiger Systeme häufiger in der Berichterstattung vorkommen.
Drittens dürfen im Diskurs thematisierte Lösungsansätze nicht beim Kompetenzaufbau stehen bleiben. In der breiten Bevölkerung, aber auch bei Anwender:innen darf nicht der Eindruck entstehen, dass die Bürde des verantwortungsvollen Einsatzes algorithmischer Systeme allein auf ihnen lastet. Wissen wirkt zwar oftmals Wunder, braucht dazu aber auch adäquate Aufsichts- und Kontrollstrukturen. Eine stärkere Berücksichtigung solcher weiterer Lösungsansätze im medialen Diskurs könnte gleichsam den dafür nötigen politischen Handlungsdruck befördern.«
Adäquate Aufsichts- und Kontrollstrukturen
Kernpunkt dürften die "Aufsichts- und Kontrollstrukturen" sein, um "politischen Handlungsdruck" zu erzeugen. Die Formulierung von "teilhaberelevanten Bereichen wie Bildung, Gesundheit oder Sicherheit" ist nichts als eine Floskel. Überaus drastisch erleben wir gerade, daß genau diese Bereiche von Teilhabe der BürgerInnen ausgeschlossen sind. Begründungen dafür liefern die gelobten Algorithmen, wobei sie meilenweit davon entfernt sind, so etwas wie künstliche Intelligenz darzustellen.
Durchaus zutreffend wird festgehalten:
»Die Frage, welche Perspektiven und Personengruppen in der medialen Berichterstattung zu Wort kommen, ist somit auch eine Machtfrage. Wer Gehör findet, kann mitbeeinflussen, wie wir den digitalen Wandel zukünftig gestalten…
Kurz gesagt: Der Diskurs über Algorithmen und künstliche Intelligenz in Deutschland erscheint wenig divers. Es fehlt eine gemeinwohlorientierte Perspektive auf das Thema.«
Was die Stiftung unter Gemeinwohl versteht, ist auch ihren verschiedenen Vorstößen zu Krankenhausschließungen zu entnehmen.
»Die Dominanz ökonomischer Potenziale im Diskurs erklärt sich aus dem unternehmerischen Vorsprung im Umgang mit digitalen Technologien und dem legitimen Interesse, diese sichtbar zu machen. Bei sozialen Innovationen fehlt es im Vergleich dazu oft noch an konkreten Beispielen und an Akteuren, die entsprechende Bestrebungen und Erfolge offensiv kommunizieren…
Um der bei diesem Thema vorherrschenden Unkenntnis und dem Unbehagen in der Bevölkerung entgegenzuwirken, reicht diese Perspektive nicht aus. Das Vertrauen der Menschen in den digitalen Wandel lässt sich nur stärken, wenn es gelingt, zum einen auch Chancen fürs Gemeinwohl in Bereichen wie Bildung, Gesundheit oder beim Klimaschutz sichtbar zu machen.«
Einige konkrete Handlungsableitungen
»Medienvertreter:innen sollten neben wirtschaftlichen Aspekten auch stärker über den Einsatz algorithmischer Systeme in gemeinwohlrelevanten Bereichen berichten. Die Auswirkungen von Algorithmen und künstlicher Intelligenz betreffen längst große Teile des gesellschaftlichen Lebens (Chiusi et al. 2020). Deshalb darf sich die Berichterstattung darüber nicht auf wenige Fachjournalist:innen und die kleinen Digital-Ressorts der Leitmedien beschränken. Vielmehr sollten sich die Redaktionen in ihrer Breite mit dieser Querschnittsthematik auseinandersetzen und hier auch stärker auf hintergründige oder investigative Stücke setzen. Sie sollten zudem darauf achten, dass dabei diverse Stimmen aus Politik und Zivilgesellschaft zu Wort kommen und aktiv auf diese Akteure zugehen.
Zugleich liegt es an der Politik, Anlässe für mediale Berichterstattung zu schaffen und entsprechende Entscheidungen sowie ihren praktischen Nutzen für die Bürger:innen verständlich zu kommunizieren…
Mehr Vielfalt im Diskurs erfordert auch mehr zivilgesellschaftliches Engagement. Das Spektrum an Handlungsoptionen ist dabei ebenso divers wie die Zivilgesellschaft selbst: Die Öffentlichkeit sensibilisieren, Räume für Dialog und Austausch schaffen, Lösungsansätze entwickeln – je nach individueller strategischer Ausrichtung bieten sich vielfältige Ansatzpunkte. Dazu braucht es allerdings auch stärkere Unterstützung durch die Politik oder auch Stiftungen – denn der digitalen zivilgesellschaftlichen Avantgarde fehlen bislang die nötigen Ressourcen und vielen größeren Akteuren die nötigen Kompetenzen…«
Hier erleben wir mit ZeroCovid soeben eine konkrete Umsetzung.
Der Bezug auf ZeroCovid leuchtet mir aktuell nicht ein.
Also was hat diese Darstellung über BigData und Algorithmen mit dieser ZeroCovid Strategie zu tun? Kann mir das bitte einer etwas schlüssiger darlegen? Ich finde der Artikel stellt diesem Bezug ungenügend dar (obwohl ich ihn nicht grundsätzlich verläumden will)
Vielen Dank dafür schon mal.
@Tim Sandau: "Mehr Vielfalt im Diskurs erfordert auch mehr zivilgesellschaftliches Engagement" fordert die Stiftung. ZeroCovid bezieht sich ausdrücklich auf die Modellierungen von Frau Priesemann und Frau Brinkmann.
Algorithmen haben gar nichts damit zu tun. Die kann man vergleichen, mit einem Rezept für Gulasch.
verläumden sollte man grundsätzlich nie.
Das ist kaum auszuhalten. Ein Algorithmus ist eine Rechenvorschrift. Er definiert die einzelnen Schritte, wie das Gewünschte zu berechnen ist. Er ist völlig unschuldig und berechnet das Gewünschte. Egal, ob das gut oder böse ist.
"digitalen zivilgesellschaftlichen Avantgarde"
Tja, wer hat darauf schon Lust.
https://www.hensche.de/jugendliche-haben-oft-traditionelle-Berufswuensche-11.08.2020–12.57.html
Ergänzung: das generelle Problem der "künstlichen Intelligenz" ist, dass es sich um eine inkorrekte Übersetzung aus dem Englischen handelt.
(Dies, obwohl niemand auf die Idee kommen würde, CIA mit "Zentrale Intelligenzagentur" zu übersetzen)
@Kassandro: Was ist falsch an dem Begriff KI? Klar hat hat das "I" bei CIA eine andere Bedeutung.
Eine präzuse Darstellung der verwendeten Algorithmen bei den Prognosen ( z.B. Covid 19 Frühjahr 2020) und den tatsächlichen Ergebnissen wäre wünschenswert um den Wert oder Unwort der verwendeten Modelle darstellen bzw. zu überprüfen.
Pseudowissenschaft braucht "gute" PR und viele geschwurbelte Worte um für Wissenschaft gehalten zu werden.
Die Denkfabriken sind gerade dabei.
@ Msch – 7. Februar 2021 um 11:30 Uhr
Jedes wissenschaftliche Papier enthält doch einen Teil „Material und Methoden“. Der muss so gehalten sein dass die Arbeit, das Experiment, überall auf der Welt exakt wiederholbar ist. Wenn nicht ist die Arbeit grundsätzlich nicht zulässig.
Neil Ferguson hatte sich monatelang geweigert seine benutzte Software zu veröffentlichen. Er mußte es dann doch tun. Indische IT-Spezialisten meinten dazu solch einen Microsoft-Schrott noch nie gesehen zu haben. Diese Firma hat offenbar in aller Eile ein wenigh nachgebessert um die krassesten Peinlichkeiten zu vermeiden. – Die Einzelheiten habe ich mir gar nicht angesehen weil meine Einschätzung war: egal, der wird die gleiche Nummer immer wieder versuchen. So war es denn auch.
Daher habe ich mir angewöhnt durchweg von infantilisierender Digitalisierung zu sprechen. Wissen, das ich nicht „verdaut“ habe, ist nur „Wissen“.
@Albrecht Storz: Denkfabriken gibt es nicht. Gab es nie. Es gab und gibt Hochstapler. Die sehr überzeugend sein können. Der Übergang zu Gruppen- oder gar Massenhypnose ist fließend.
Die Bertelsmann-Stiftung fördert auch AlgorithmWatch, und die berichten durchaus kritisch: https://algorithmwatch.org/
Und zu dem Kommentar weiter oben
"Ein Algorithmus ist eine Rechenvorschrift. Er definiert die einzelnen Schritte, wie das Gewünschte zu berechnen ist. Er ist völlig unschuldig und berechnet das Gewünschte. Egal, ob das gut oder böse ist."
Im Prinzip richtig, aber gerade was Machine Learning angeht, können sich die Verantwortlichen da wunderbar hinter verstecken. Ein Algorithmus ist bei weitem nicht so unschuldig, wie er auf den ersten Blick scheint, und außerdem ist jeder Algorithmus ja von Menschen entwickelt worden.
Im Falle von Machine Learning kommt noch dazu, dass Menschen auswählen, mit welchen Daten sie den Algorithmus trainieren.
In Algorithmen steckt sehr viel Macht, die auf den ersten Blick unsichtbar ist. Insofern ist die Arbeit von Organisationen wie AlgorithmWatch heutzutage sehr wichtig.
@Timo Ollech: Das ist der Trick der Bertelsmänner, immer auch "durchaus kritisch", auch in dieser Studie. Selbst in den Papieren zu den Krankenhausschließungen gibt es richtige und nachvollziehbare Kritik. Das gleiche Prinzip wenden die "Mainstream-Medien" auch an. In Nischen darf es immer mal wieder rebellische Positionen geben, um den Anschein von Ausgewogenheit zu wahren. Nachts gibt es mitunter richtig aufklärerische Sendungen im Deutschlandfunk. In diesen Zeiten finden sich sogar überraschende Meldungen in den Nachrichten, die bis zum Morgen, wenn es mehr ZuhörerInnen gibt, wieder verschwinden.
ePA ist ganz toll !
https://www.bertelsmann-stiftung.de/de/themen/aktuelle-meldungen/2023/februar/elektronische-patientenakte-geplante-widerspruchsloesung-trifft-auf-breite-zustimmung
https://www.bertelsmann-stiftung.de/de/unsere-projekte/digitale-transformation-im-gesundheitswesen
https://blog.der-digitale-patient.de/