Unter diesem Titel ist am 23.11.23 auf spektrum.de zu lesen:
»Mit der Technik hinter dem KI-Chatbot ChatGPT hat ein Forschungsteam gezielt wissenschaftliche Daten über klinische Versuche herbeifabuliert. Die Forschenden wollten wissen, ob sich mit Hilfe künstlicher Intelligenz Forschungsdaten überzeugend fälschen lassen.«
KI steht hier nicht für Karl und Isabella, obwohl das Fabulieren zum Kerngeschaft von Lauterbach und Eckerle gehört.
"Für eine Veröffentlichung, die am 9. November im Fachmagazin »JAMA Ophthalmology« erschienen ist, haben die Autoren die Daten für ihre Ergebnisse auf ungewöhnliche Weise »erhoben«: Das Team von Forschenden hat sie mittels künstlicher Intelligenz (KI) generiert.
Dazu kombinierten sie GPT‑4, die neueste Version des großen Sprachmodells, auf dem ChatGPT basiert, mit dem Modell Advanced Data Analysis (ADA). Dieses beherrscht die Programmiersprache Python, kann statistische Analysen durchführen und Daten grafisch aufbereiten. Die KI-generierten Daten stellten die Ergebnisse zweier verschiedener Operationsmethoden einander gegenüber und legten nahe – fälschlicherweise –, eine der beiden Vorgehensweisen sei der anderen überlegen.
»Wir wollten herausstellen, dass man binnen wenigen Minuten einen Datensatz erzeugen kann, der durch die tatsächlich erhobenen Originaldaten nicht gedeckt ist und der darüber hinaus den verfügbaren Beweisen widerspricht oder zumindest in eine andere Richtung weist«, sagt Giuseppe Giannaccare, einer der Autoren der Studie und Augenchirurg an der Universität Cagliari in Italien…
[Damit] könnte jede beliebige Forschungsgruppe ausgesprochen leicht Daten zu Patienten erfinden, die nie existiert haben, nie gegebene Antworten zu Befragungen herbeifantasieren oder große Datensätze über Tierversuche erzeugen…
Die KI lieferte erfundene Daten über 160 Teilnehmer und 140 Teilnehmerinnen. Diese deuteten darauf hin, dass die Personen, die DALK [eine Art der Augenoperation, AA] erhielten, nach der Operation besser sehen konnten und beim Bildgebungstest besser abschnitten als diejenigen, die mittels PK behandelt wurden. Das widerspricht den Ergebnissen aus echten klinischen Studien…"
Noch lassen sich solche Fakes aufspüren, weil die "Künstliche Intelligenz" noch nicht so ausgereift ist wie etwa bei den Erfindern und der Anwendung von PCR-Tests:
"[Es] kamen verschiedene Ungereimtheiten ans Tageslicht. Erstens passte bei vielen vorgeblichen Teilnehmenden das angegebene Geschlecht nicht zu demjenigen, das man laut dem Vornamen erwarten würde. Zweitens zeigte sich keine Korrelation zwischen den Ergebnissen der Sehkraft und des Bildgebungstests vor und nach der Operation. Drittens untersuchten Wilkinson und Lu, wie die Zahlen in manchen der Spalten im Datensatz verteilt waren, um mögliche Muster zu finden, die nicht rein zufällig auftreten. Die Werte für die bildgebende Augenuntersuchung bestand diesen Test, aber manche Werte für das Alter der Probanden häuften sich auf eine Weise, die für echte Daten extrem ungewöhnlich wäre: Das Alter unverhältnismäßig vieler Teilnehmender endete mit den Ziffern 7 oder 8…
»In gleicher Weise, wie künstliche Intelligenz Teil des Problems sein kann, könnten sich auch KI-basierte Lösungen finden. Wir könnten manche solcher Überprüfungen automatisieren«, sagt Wilkinson – und warnt gleichzeitig davor, dass die Fortschritte der generativen KI bald Wege eröffnen könnten, ebensolche Prüfprotokolle zu umgehen. Pulverer ist der gleichen Ansicht: »Sobald bekannt ist, wonach bei diesen Prüfungen geschaut wird, lässt sich KI leicht einsetzen, um diese Prüfungen zu umgehen.«"
Gut… Ich nehme die obige Aussage zurück. Man hätte auch bei den PCR-Tests auf Ungereimtheiten stoßen müssen, wenn man denn gesucht hätte. Umgekehrt hätte auch eine Alpha-Version einer beliebigen KI bei den Arbeiten von Christian Drosten feststellen können, wie widersprüchlich und unbelegbar seine Aussagen waren. Doch wie sagt das Sprichtwort? "Der Glaube macht den Meister" und "Voller Bauch stinkt vom Kopf her".
Nun. – ChatGPT kann seit geraumer Zeit nicht mal mehr die Frage korrekt beantworten, ob die Zahl 17077 prim ist.
—https://www.arndt-bruenner.de/mathe/scripts/primzahlen.htm
In "How is ChatGPT's behavior changing over time?" berichten die Forscher, dass das Programm im März 23 diese Frage immerhin in 97,6% der Anfragen richtig beantwortet hat. Bis Juni war der Wert allerdings auf 2,4% gefallen.
—https://arxiv.org/abs/2307.09009
Wir bemerken, dass es seit der Antike ein Rechenverfahren gibt (das Sieb des Erastothenes), das diese Frage eigentlich 100%ig richtig beantwortet und Computer erfunden wurden, um solche Verfahren maschinell auszuführen.
Soweit zum Fortschritt durch Technik.
Man könnte meinen, hier sei schon die Modellselbsteinspeisungsstörung am Werk. Das ist eine Selbstverblödung die entsteht, wenn KI mit zuviel KI gefüttert wird.
—https://overton-magazin.de/top-story/ki-verliert-verstand-wenn-sie-nur-mit-ki-generierten-daten-trainiert-wird/
PHP Entwickler haben jetzt ein Verfahren entwickelt was Konstanten typisiert. So ist die Konstante Pi jetzt vom Type float und kann nur mit einem Anderen Wert überschrieben werden der ebenfalls vom Type float ist, also bspw. 5.68. Also nicht wundern, wenn Berechnungen von Kreisfläche und Umfang andere Ergebnisse liefern.
Auf die Idee, Konstanten überschreiben zu wollen muss man aber erstmal kommen! Gerade in Hinsicht Digitaler Währungen 😉
@Erfurt: Ist ja völlig OT, aber wie sollte Pi anders als eine float-Konstante definiert werden? Was spricht gegen die Typisierung von Konstanten? Wie schaffen Sie es, den Wert mit 5.68 zu überschreiben? (Außer Sie führen eine neue Konstante Pipi mit diesem Wert ein.)
Lieber @aa, auf die Idee Konstanten zu überschreiben (Steigerung: anderer Datentyp) kommen nur Menschen die den Sinn von Konstanten (*) überhaupt nicht verstanden haben.
Die Frage, ob solche Entwickler wissen was Intelligenz resp. künstliche I. ist, erübrigt sich!
Noch schlimmer ist jedoch, daß es gar nicht darum geht.
PS:
https://www.heise.de/news/Programmiersprache-PHP‑8–3‑bringt-dynamischen-Zugriff-auf-Klassenkonstanten-9538576.html
*) Eine Konstante ist eine Konstante da ergibt sich der Datentyp aus der Definition und der Verwendung!
@Erfurt: Ich verstehe das völlig anders, aber lassen wir es so stehen.
wie ein altes ehepaar.
Wenn die KI die Gesundheitsdaten auch erfinden oder tendenziös anordnen kann, können wir vieleicht auf die elektronsche Deppenakte verzichten:
"Die ePA, unverzichtbar fürs pflichtversicherte Fußvolk, unzumutbar für Beamte und Hochverdiener
26. 11. 2023 | Die Antwort eines privaten Krankenversicherers auf die Anfrage einer Leserin, wie das mit der Pflicht zur elektronischen Patientenakte (ePA) sei, wirft viele Fragen auf. Etwa warum die knapp neun Millionen Privatversicherten, also die Staatsdiener und Gutverdiener, keine ePA aufgezwungen bekommen und über ihre Beiträge bezahlen müssen, die sie genauso wenig wollen wie die gesetzlich Versicherten?
Eine Antwort werde ich nicht versuchen, weil das als „verfassungsschutzrelevante Delegitimierung von demokratisch legitimierten Verantwortungsträgern des Staates“ ausgelegt werden könnte."
https://norberthaering.de/news/epa-privatversichert/
Wer diese Daten aufstellt ist doch völlig Wurst. Das Einzige was intelligent ist sind die damit verfolgten Ziele.
Hat Viola Priesemann für ihre Modellrechnungen KI befragt?
https://www.infosperber.ch/gesundheit/corona-lockdown-falsche-prognosen-der-regierungsberaterin/
eHealth:
Umstrittenes Unternehmen Palantir gewinnt größten Datendeal Englands
27.11.2023 am 19:50
Das für seine Spionage-Software bekannte Unternehmen Palantir bekommt einen Auftrag für das englische Gesundheitswesen. Bürgerrechtler und Ärzte sind alarmiert.
23.11.2023 07:35 Uhr
Von Marie-Claire Koch
https://www.heise.de/news/eHealth-Umstrittenes-Unternehmen-Palantir-gewinnt-groessten-Datendeal-Englands-9537039.html