Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Was da passiert ist, ist offensichtlich ein schlimmer Fehler bzw. ein schlimmes menschliches Fehlverhalten zuerst im radiologischen Institut. Und dann ein weiterer menschlicher Fehler in der Klinik, dass nach dem Ergebnis der Nierenszintigraphie, welches der CT-Auswertung fundamental widersprach, diesem Widerspruch nicht nachgegangen wurde. Zum Glück für den Patienten hatte dann ein dritter beteiligter menschlicher Arzt seinen Kopf eingeschaltet.

Man soll hier bitte nicht glauben, dass Fehldeutungen von CT-Bildern nur einer Maschine unterlaufen. Ich nehme stark an, dass die rechtliche Bewertung dieses Falls ergeben wird, dass das ein Behandlungs- bzw. Diagnosefehler war.
Du hattest geschrieben, dass dir kein Fall bekannt wäre, in dem einer KI die Wahl der Behandlungsmethodik überlassen worden wäre:
Ich habe noch nirgends gehört, dass irgendjemand die Entscheidung über Behandlungen einem "KI"-basierten System übertragen wollte.
Doch genau das ist hier passiert. Dass du jetzt schreibst "das war ein schlimmes menschliches Fehlverhalten" und "weitere menschliche Fehler" ändert nichts daran, dass diese Fehlverhalten genau das waren: Man hat der KI die Entscheidung der Behandlung überlassen. Erst der letzte Arzt hat die Reißleine gezogen.
Nebenher bin ich der Meinung: Hätte die KI richtig gelegen hätte es den Artikel auch gegeben und der Aufschrei wäre genauso groß, nur halt mir umgekehrten Vorzeichen.
 
"Übertragen wollte" hatte ich geschrieben. Und nach meinem Sprachverständnis ist eine aktive Willenserklärung, man würde die Entscheidung über Diagnosen einer Maschine überlassen - also bewusst, ein komplett anderer Sachverhalt als die Kenntnisnahme einer offenkundigen Schlamperei, wie sie im geschilderten Fall passiert ist.

Im geschilderten Fall war eigentlich die Fehldeutung der CT-Bilder der geringere Fehler. Denn die Fehler, die in der Klinik gemacht wurden, dass erst anscheinend niemand selbst noch einmal auf die CT-Bilder geschaut hatte und zusätzlich dann der Widerspruch zu den Ergebnissen der Szintigraphie ignoriert wurde, waren deutlich schwerwiegender. Eine Fehldeutung kann passieren. Deshalb gibt es die Sicherheitskontrollen im Ablauf des OP-Verfahrens. Die haben hier gleich zweimal versagt. Und dabei war keine KI involviert.

Glaube mir, ich habe mich zuletzt "aus Gründen" sehr eingehend mit dem Thema medizinische Behandlungsfehler befasst. Befassen müssen. Und gerade in den tragischen Fällen ist es eher die Regel als die Ausnahme, dass der Schaden nicht durch einen initialen Irrtum entstanden ist, sondern dadurch, dass dieser Irrtum in der Folge ignoriert oder gar negiert wurde, aus welcher Motivation heraus auch immer.
 
@JoePC Natural Language Processing. Die Verarbeitung natürlicher Sprache. Das, was ChatGPT, Copilot, Gemini, Alexa+, Siri... machen.
 
Bei den LLM, die im medialen und privaten Umfeld anscheinend am meisten als "KI" wahrgenommen werden:



In welchem der Preismodelle Werbung enthalten sein wird, dürfte klar sein. Den Rest der Botschaft mag sich jeder selbst zusammenreimen.

Es gibt ganz sicher Anwendungen, wo "richtige" angelernte neuronale Netzwerke sinnvoll und hilfreich sind und gegenüber anderen Methoden auch effizienter. In dem oben vertretenen Bereichen sehe ich das nicht, sondern das ist nur Merketing-Geklingel.

Tendenziell ist das sowieso eher ein evolutionärer Weg innerhalb des Digitalen und nicht die industrielle Revolution x.x oder Lösung aller unserer Probleme, die damit gerne vorgegaukelt wird.
 
Wieso sollte ein System, das in der Lage ist, medizinisches Wissen aus relevanten Quellen (Lehrbücher, Publikationen) zu erfassen, vorzuhalten und mit realen Fällen in Bezug zu setzen denn nicht hilfreich sein können?
Weil KI das letztlich nicht wirklich kann. LLMs haben kein Verständnis von Problemen. Sie haben auch kein wirkliches Wissen. Letztlich wird dort via Wahrscheinlichkeitsberechnung geschaut, welches Wort als nächstes vmtl. kommen sollte. Sie können auch Fakten nicht wirklich bewerten. Mir ist klar, dass es oft so wirkt - denn überzeugend klingt das ganze oft schon. Wenn man dann ein wenig tiefer schaut - landet man sehr schnell bei Halluzinationen, erfundenen Quellen, völligen Fehlinterpretationen. Und das schon bei sehr grundlegenden Fragen. Zumindest bei den großen generellen Modellen. Und das Halluzinieren ist meines Wissens nach ein bis heute nicht lösbares Problem.

Dadurch, dass die Daten und Quellen auch nicht kritisch interpretiert werden können - weil KI halt nicht wirklich interpretieren kann - dass die Medizinquellen grundsätzlich sehr biased sind. Einfach nur auf Lehrbücher und Publikationen basiert wird vmtl. nicht funktionieren, da du ja trotzdem Textausgaben bzw. Kommunikation/Verständnis brauchst. Und dann müsste man extrem viel Arbeit reinstecken, das der Model einzubläuen, dass verschiedene Studien verschiedene Stellenwerte haben. Und selbst das - wird z.B. Erfahrung nur selten ersetzen.

Wobei ich nicht sage, dass sowas ganz und garnicht hilfreich sein kann. Es kann - wenn verantwortungsbewusst genug eingesetzt - ein sinnvolles Tool sein. Aber man muss vorsichtig sein. Gerade sowas hier zu erwarten:
sondern tatsächlich strukturierte Problemanalysen und darauf aufbauende Lösungsvorschläge.
ist super gefährlich. Das kann KI quasi nicht. Sie scheint es zu können. Sie wird dir immer ausführliche Texte ausspucken. Die haben aber sehr häufig kein Hand und keinen Fuß. Das sieht man schon beim Programmieren bei den großen generellen Modellen - aber auch im kleinen. Oft verliert es sich in Allgemeinplätzen. Das liegt daran, dass KI schlicht kein wirkliches Verständnis von Infos hat. KI hat kein richtiges Verständnis im eigentlichen Sinne.

Nur mal als Beispiel - auch von nem generellen LLM:

-> man müsste hier extrem kuratiert durch die Daten gehen (ja, es gibt auch in wissenschaftlichen Studien hier und da Schwachsinn, genauso wie von predatory journals).
sondern auch im Sinne eines "Lernvorgangs" so verarbeitet wird, dass ein verbesserter Output erzeugt werden kann.
KI im Nachhinein zu trainieren führt zu diversen Problemen bzw. funktioniert kaum. Das sind Umwege, die häufig in total ungewollten Effekten enden. Beispiel: Du kannst einem fertigen Modell im Nachhinein etwas beibringen - allerdings "vergessen" diese Modelle dann an völlig anderen Stellen etwas. Daher werden die Modelle meist komplett neu trainiert - was du im Bereich der Medizin halt quasi ständig machen müsstest.
Ist möglicherweise aber ein lösbares Problem.
Fehldiagnosen sind üblicherweise nicht auf "schlechte Ausbildung" zurückzuführen, sondern meist ein Resultat menschlicher Schwächen im Moment der Diagnose.
Ja, u.a. wie z.T. gesagt wurde durch Überarbeitung und Co.. Aber die Realität ist - Fehler wird es immer geben. Wir müssen nur Wege finden, sie ständig weiter zu reduzieren. Hier sehe ich vllt. auch die größte Gefahr von KI. Es verleitet eben dazu, das Denken der KI zu überlassen & sich darauf zu verlassen. Wenn da ein Fehler passiert ist - war es halt die KI. Man denkt weniger nach, wenn ein Tool mal nicht zur Verfügung steht, wird es schwierig. Zumal es andere Fehler sind, die gemacht werden. Ärzte müssen sich zusätzlich zum medizinischen Bereich halt auch mit AI dann auskennen + da befähigt sein. Und wenn KI bei den Standardfällen richtig liegt, erwächst die Erwartung, dass das bei allen der Fall ist -> und bei den schwierigeren Fällen, mit wenigen Daten - wird es deutlich wahrscheinlicher, dass KI es eben nicht hinbekommt, aber total selbstbewusst ist.

Nur mal ein Beispiel zu den Limitationen und Problemen von KI
Bessere Vorsorge ist nie falsch, aber es verhindert nicht, dass es immer wieder Krankheiten, Verletzungen, medizinische Notfälle geben wird, die einfach halt passieren. Usw. usf.
Ja, wenn aber weniger Menschen ernsthaft krank werden - hat man mehr Ärzte bei den schwierigeren Fällen.
kann ich selbst nicht zuverlässig einschätzen
Das können wir sicherlich alle nicht. Ich stecke deutlich zu wenig in den Studien, die es da gibt. Wir sollten die Einführung einer wie auch immer gearteten Lösung auf alle Fälle intensivst mit entsprechenden Studien begleiten.
auf Werkzeuge und technische Hilfen zu verzichten
Ich sage auch nicht, dass wir darauf verzichten sollten. KI bietet große Chancen. Aber auch Risiken. Man muss vorsichtig sein - und schauen, wo KI sinnvoll - und wo nicht ist. Ob es nicht z.B. viel sinnvoller ist, einen großen Entscheidungsbaum zu entwickeln, der verfizier- und testbar, deterministisch entsprechende Vorschläge und Co. generiert. Gerade bei Situationen mit klaren Regeln wäre sowas aus meiner Sicht eher das Mittel der wahl.
Manchmal habe ich den Eindruck, es ginge darum, dass eine Maschine einfach Dinge nicht können dürfen soll, die bislang nur Menschen können. Aber warum?
Wir reden hier halt immernoch von schwacher KI, die sehr, sehr viel nicht kann.
 
ps. Doctorow hat den Begriff "Enshittificaton" geprägt.

Sie arbeiten fleissig auf das Adblocker Moment hin. Ich denke man wird sich wieder einen Gaming PC unter den Schreibtisch stellen und AI local fahren. Massentauglich? Wahrscheinlich nicht aber Hugginface erinnert mich an den Anfangszeiten von Linux.
 
"Angestellte nutzen mit KI gesparte Zeit, um KI-Ergebnisse zu korrigieren"
Ich erstelle lieber selber Texte/Tabellen.... statt in den Dokumenten von Kollegen/KI Fehler zu suchen. Aber diesbezüglich gibt es bestimmt unterschiedliche Vorlieben. Wobei die Anzahl der KI-Fehler wohl im Laufe der Zeit weiter zurückgehen wird. Deswegen tue ich KI nicht als vorübergehendes Phänomen ab.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben