Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Übersetzung ist für Maschinen deshalb so schwierig, weil Unterschiede im Syntax existieren und Redewendungen, die sich nicht einfach so übersetzen lassen.
das ist der Punkt. Drum mag es für so Sachen wie eine trockene Anweisung für eine Autowerkstatt mittlerweile einigermaßen brauchbar funktionieren, aber für alles wo wirkliches Verstehen der Kultur notwendig wäre, beißt es dann halt nach wie vor übel aus.
 
das ist der Punkt. Drum mag es für so Sachen wie eine trockene Anweisung für eine Autowerkstatt mittlerweile einigermaßen brauchbar funktionieren, aber für alles wo wirkliches Verstehen der Kultur notwendig wäre, beißt es dann halt nach wie vor übel aus.
Da wird ja auch nichts verstanden, da werden Worte aneinandergereiht. Aber eben ausreichend komplex inzwischen, mit den sich selbst promptenden "Reasoning"-Modellen.
Das wird noch eine Weile dauern, aber theoretisch wird dann ein ausreichend langer, innerer Monolog durchgeführt und dann wird die Antwort auch ausreichend komplexer.
 
Da erkennt man gut die Unterschiede zwischen den verschiedenen Technologien, denn ChatGPT ist deutlich fehlerbehafteter als DeepL - ChatGPT erfindet Wörter dazu ("one in which no mechanic had ever worked") oder ändert den Sinn einfach ("grammatically correct Greek and, secondly, accurately").
Das "ever" ist tatsächlich ein Fehler, im Original stand "tatsächlich", DeepL hat es mit "actually" direkt übersetzt. ChatGPT hat hier wohl die sehr oft im Englischen vorkommende Wendung "has ever xxx-ed" als zutreffende Übertragung unterstellt. Der andere Satz ist hingegen kein Übersetzungsfehler. Mindestens in der Alltagssprache bezeichnet "Grammatik" die Regeln, nach denen eine Sprache aufgebaut ist, und "grammatically correct Greek" ist insofern eine im Sinn (den ich als Verfasser des Ausgangstextes ja kenne ;)) richtige Übersetzung von "regelkonformer griechischer Text". Und was sollte an "accurately conveyed" als Übersetzung von "[den Sinn] korrekt übertragen" denn falsch sein? Genau an dem Punkt finde ich die Übersetzung von ChatGPT sogar besser (näher an dem, wie es ein Muttersprachler sagen würde) als das "correctly transferred" von DeepL.

Das Problem ist, dass ChatGPT keine echte Übersetzung vornimmt, sondern wie mit allen Dingen vorgeht: Es ist eine Wahrscheinlichkeitsrechnung, welches Wort auf Basis der vorhandenen Trainingsdaten auf Basis der Anfrage wo erwartet wird. Dabei gibt es dann natürlich Änderungen, weil ChatGPT bestimmte Wörter für passender hält, auch wenn sie eigentlich nicht dem Sinn des Originals entsprechen.
Was wäre denn eine "echte" Übersetzung? Eine, die den Ausgangstext möglichst wortgetreu überträgt, nur dabei etwas produziert, was in der Zielsprache kaum jemals so gesagt oder geschrieben würde? Eine, die den Sinn möglichst exakt erfasst und in die Zielsprache überträgt, nur möglicherweise dann mehr eine Neuschöpfung darstellt als eine Übertragung? Oder halt eine, wo der Übersetzer versucht, einen Weg zu finden, der Eigenheiten des Originaltextes bewahrt aber dennoch einen Text erzeugt, der so auch in der Zielsprache hätte direkt formuliert werden können? Letzteres stellt für mich eine "gute" Übersetzung da. Und natürlich arbeitet man da auch als menschlicher Übersetzer mit Annahmen und Wahrscheinlichkeiten. Weil auch Menschen Strukturen, die sie wahrnehmen, abgleichen mit ihnen bekannten Strukturen, um sie möglichst richtig verstehen zu können. Wir nehmen das nur nicht als Wahrscheinlichkeitsüberlegungen wahr, weil es so selbstverständlich ist. Aber dass es welche sind, erkennt man z.B. immer dann, wenn Menschen einander missverstehen, von Vorurteilen geleitet werden etc. Also dann, wenn die inneren Mechanismen zur Erkennung von Strukturen Fehler produzieren.
Übersetzung ist für Maschinen deshalb so schwierig, weil Unterschiede im Syntax existieren und Redewendungen, die sich nicht einfach so übersetzen lassen. Deshalb ist Google Translator als klassischer Übersetzer auch so schlecht und DeepL besser.
... nur sind halt auch die "schlechten" Übersetzungen heutiger Systeme ins Englische mittlerweile im Normalfall deutlich besser, als es Millionen Menschen mit ihrem Schulenglisch zustande bringen würden. Und man darf wohl davon ausgehen, dass die Systeme zukünftig eher besser als schlechter sein werden.
Beitrag automatisch zusammengeführt:

das ist der Punkt. Drum mag es für so Sachen wie eine trockene Anweisung für eine Autowerkstatt mittlerweile einigermaßen brauchbar funktionieren, aber für alles wo wirkliches Verstehen der Kultur notwendig wäre, beißt es dann halt nach wie vor übel aus.
Ich will mich jetzt nicht auf einen pseudo-exakten Prozentwert festlegen, aber man darf wohl unterstellen, dass es bei >90% aller Übersetzungen nicht darum geht, kulturspezifische Feinheiten in der Ausgangssprache in entsprechende Ausdrucksformen der Zielsprache zu übertragen. Sondern darum, einen Text zu erzeugen, dessen inhaltliche Aussage ein Sprecher der Zielsprache ohne Probleme korrekt verstehen kann. Das ist meines Erachtens der relevante Maßstab für maschinelle Übersetzungen. Ob eine Übersetzungs-KI jemals in der Lage wäre, eine mit Genuss lesbare Übertragung von "Moby Dick" oder "Ulysses" zu erstellen, weiß ich nicht. Aber dafür braucht man sie auch nicht.
Beitrag automatisch zusammengeführt:

Jupp, kein einfaches Ja oder Nein, wobei es ein klares Nein hätte sein müssen: ein FDM-gedrucktes Teil ist ohne nachträgliche Oberflächenbehandlung in keinem Fall lebensmitteltauglich. Selbst wenn das Filament lebensmittelecht wäre, wäre es nicht jeder Bestandteil des Drucker. Und wenn man das auch noch hinkriegen würde, dann bleibt die traurige Tatsache, das die Rillen das Aus bedeuten, die so ein FDM-Drucker zwangsläufig produziert.
Wäre "ein klares Nein" und nichts weiter denn besser? Wer in irgendeiner Sache ein LLM befragt, muss dennoch selbst die Verantwortung für das eigene Handeln in dieser Sache tragen. Es wäre nicht akzeptabel, wenn jemand versuchen wollte, diese Verantwortung an das LLM zu delegieren. Also ist es hier durchaus sinnvoll, dass die Antwort des LLMs keine klare Ja/Nein-Aussage ist, sondern primär die Aspekte zusammenstellt, die für die Ja/Nein-Entscheidung relevant sind.
 
Zuletzt bearbeitet:
Für extrem viele ist KI = ChatGPT.
Ist das so? Ich bin da nicht sicher. Ich stimme zu, dass für extrem viele das, was sie sich unter KI vorstellen können ChatGPT ist. Aber ich bin mir auch ziemlich sicher, dass nahezu genauso viele Menschen wissen, dass sie sich über sehr viele Teilbereiche der KI nicht im Klaren sind, was sie darstellen.
Heute werden Staubsaugerroboter mit KI verkauft, die eben selbständig Grundrisse der zu reinigenden Fläche erstellen und den optimalen Weg evaluieren, DashCams mit KI, die die Aufzeichnung automatisch ablegen, wenn das Bildmaterial auffällig ist, Smart Home Systeme, die lernen wann jemand zu Hause ist und automatische Temperaturabgleiche vornehmen, lernen wie die Heizung bei welchen Außentemperaturen agiert usw.
Überall wird heute KI drauf gepappt (das wurde ja schon erwähnt) und ein Bruchteil davon sind im Bereich des NLP zu verorten. NLP ist durch Gemini und Siri im Alltag vielleicht am präsentesten - aber ich bin mir eigentlich sicher, dass viele Menschen sich denken "KI ist so viel aber ich habe keine Ahnung, was ich mir darunter vorstellen kann - aber ChatGPT, das kenne ich."
Ob dadurch eine Generalisierung gemacht wird, dass jede KI wie ChatGPT ist? Keine Ahnung.
 
Die Saugroboter sind mit das beste Beispiel dafür, wo wir mit "KI" derzeit offenbar stehen. Ich habe selber ein solches Premiummodell, das schon beeindruckende Möglichkeiten bietet. Man kann sich aber davon verabschieden, dass das Gerät intelligent ist, wenngleich es mit "KI" beworben wird. Das Gerät handelt immer gleich. Wenn es sich nicht traut, eine Nische zu befahren, obwohl dieses möglich ist, dann bleibt es dabei. Das Gerät würde, besäße es eine Intelligenz, im Rahmen seiner Möglichkeiten neue Wege erproben, die letzten Winkel des Raumes zu erreichen, tut dieses aber nicht. Also nichts mit lernen und noch weniger mit Intelligenz.

Jetzt bekommt der Roboter aber alle ein zwei Monate eine neue Firmware. Und diese bringt mit sich, dass der Roboter anders vorgeht. Hierbei wird er in Teilen durchaus effizienter, begeht aber urplötzlich Fehler, die ihm mit älterer Firmware niemals passiert waren. Die Daten der überall verteilten Roboter werden offenbar durchaus gesammelt und fließen in eine neue Firmware mit ein. So sind die Hersteller aber bereits vorgegangen, als es das "KI" noch gar nicht gab.
 
Wenn es sich nicht traut, eine Nische zu befahren, obwohl dieses möglich ist, dann bleibt es dabei. Das Gerät würde, besäße es eine Intelligenz, im Rahmen seiner Möglichkeiten neue Wege erproben, die letzten Winkel des Raumes zu erreichen, tut dieses aber nicht. Also nichts mit lernen und noch weniger mit Intelligenz.
Etwas boshaft: Da fehlt dem Saugroboter eindeutig ein Belohnungs-Futterschlitz, so wie bei den Sparschweinen in Arztpraxen oder das Goodie für den Hund. Mit Belohnung (feedback) geht unser Hund in die hintersten Winkel auf Krümelsuche. Auch KI(-Roboter) möchten anscheinend mal gestreichelt und belohnt werden.

PS bei heutigen Online-Bestellung ist es offensichtlich schon per "KI" (?) gelöst: pro Bestellung kommen 3-5 Mails mit der Frage, wie gut war der Service, die Lieferzeit, bitte auch persönliche Mitteilung an den Einpacker, ........

zu übersetzten Redewendungen: it goes me very goodly this morning ........
 
Aber ich bin mir auch ziemlich sicher, dass nahezu genauso viele Menschen wissen, dass sie sich über sehr viele Teilbereiche der KI nicht im Klaren sind, was sie darstellen.
Nicht wirklich. Da ist so unfassbar viel Unwissenheit vorhanden. Und auch selbst eingestehen, dass man etwas nicht weiß ist schwierig.

Hatte Mal beruflich mit jemand zu tun, der ne Software hat bzw. Entwickelt. Die waren zu 100% davon überzeugt, dass die ne eigene KI entwickeln. Nach einem Gespräch zeigt sich: nope, natürlich nicht. Ist einfach Chat-GPT.

Für viele sind Machine-Learning-Ansätze eben keine KI, weil es die schon viel früher gab. Und ich hab das Gefühl, dass nicht wenige denken, da ist nen Chat-GPT in z.b. nem Sauger & der befiehlt dann, was der machen soll.

Und diese Label, die überall raufgeklebt werden, sind eher ne Art Abschreckungsmerkmal geworden. Kein Mensch nimmt das für voll. Es gibt AI Netzteile. Usw.. Da wird KI nur draufgeklebt, weil es modern klingt.

Nicht selten auch auf Sachen, die eben gar keine KI haben, sondern einfach nen gute ausgebauten Entscheidungsbaum.
 
aber man darf wohl unterstellen, dass es bei >90% aller Übersetzungen nicht darum geht, kulturspezifische Feinheiten in der Ausgangssprache in entsprechende Ausdrucksformen der Zielsprache zu übertragen
sehe ich anders, war ja mal in der Branche, möchte aber auch nicht ausschließen, dass das mittlerweile der Fall ist.
Aber dafür braucht man sie auch nicht
nur ist das schlimme - genau dafür wird sie oft verwendet. 🙄
 
Und ob sie bei den medizinischen Sachen wirklich hätte helfen können - fraglich.
Ohne es aggressiv zu meinen - was ist deine Beurteilungsgrundlage dafür? Wieso sollte ein System, das in der Lage ist, medizinisches Wissen aus relevanten Quellen (Lehrbücher, Publikationen) zu erfassen, vorzuhalten und mit realen Fällen in Bezug zu setzen denn nicht hilfreich sein können?

Was sie könnte wäre definitiv nochmal nen Denkansatz bieten, es wäre ein Step, wo man nochmal nachdenken und reflektieren muss. In der Hinsicht positiv. Machine Learning wird schon seit einer Weile eingesetzt - schon vor dem Hype um LLMs.
Eben das. Aber auch nicht nur "nochmal nen Denkansatz", sondern tatsächlich strukturierte Problemanalysen und darauf aufbauende Lösungsvorschläge. Ich hatte in meinem Ausgangsbeitrag ganz bewusst "KI" in Anführungszeichen gesetzt, weil das ein Ober- bzw. Marketingbegriff für Systeme ist, in denen Input nicht nur algorithmisch zu einem Output verarbeitet wird, sondern auch im Sinne eines "Lernvorgangs" so verarbeitet wird, dass ein verbesserter Output erzeugt werden kann.

Ich denke hier sind aber ein paar andere Aspekte: Bessere Ausbildung der Ärzte, mehr Personal, damit auch mehr Zeit ist (und keine 36h-Schichten). Reduktion der bürokratischen Dinge, sodass mehr Zeit für die tatsächliche Patientenversorgung da ist. Allgemein müsste man viel im Gesundheitssystem passieren. Z.B. rechtzeitig Vorsorge betreiben anstelle von Fokus auf "wenn das Kind ins Wasser gefallen ist". Dass man nicht um Untersuchungen kämpfen muss. Usw..
Ich sehe das als einen Scheinwiderspruch. Denn es wird keine Gesellschaft bezahlen können und wollen, wenn z.b. immer zwei Ärzte dort sitzen, wo heute einer ist. Fehldiagnosen sind üblicherweise nicht auf "schlechte Ausbildung" zurückzuführen, sondern meist ein Resultat menschlicher Schwächen im Moment der Diagnose. Bessere pflegerische Versorgung hilft wenig, wenn der therapeutische Ansatz nicht stimmt. Bessere Vorsorge ist nie falsch, aber es verhindert nicht, dass es immer wieder Krankheiten, Verletzungen, medizinische Notfälle geben wird, die einfach halt passieren. Usw. usf.

Sicherlich können da ML-Technologien an verschiedenen Stellen helfen. Aber es ist nicht die goldene Kuh, die da alles löst. Und meiner Meinung nach auch nicht der größte Hebel.
Es behauptet ja auch niemand, dass da irgendein System "alles lösen" würde. Wie groß der Hebel ist, kann ich selbst nicht zuverlässig einschätzen. Aber das Potenzial erscheint mir groß. Es gibt meines Erachtens keinen Grund, auch in der Medizin nicht, auf Werkzeuge und technische Hilfen zu verzichten, wo sie Nutzen bringen. Insofern verstehe ich die Vorbehalte gegen Diagnosesysteme, die auf "KI"-Techniken basieren, nicht so recht. Manchmal habe ich den Eindruck, es ginge darum, dass eine Maschine einfach Dinge nicht können dürfen soll, die bislang nur Menschen können. Aber warum?
Beitrag automatisch zusammengeführt:

sehe ich anders, war ja mal in der Branche, möchte aber auch nicht ausschließen, dass das mittlerweile der Fall ist.
Was macht denn das Gros der Übersetzungen aus? Ich schätze mal, dass technische Dokumente, Regelwerke und Verträge zu den meist übersetzten Dokumenten zählen. Und bei Regelwerken und Verträgen geht es nach meinem Verständnis weniger um kulturelle Feinheiten, sondern um die fachlich korrekte Ausdrucksweise in beiden Sprachen. Die würde ich tatsächlich nicht unbedingt ChatGPT anvertrauen, sondern entsprechend mit den richtigen Dokumenten trainierten spezialisierten Systemen.

Ich finde es ansonsten bemerkenswert, wie sehr sich die sprachliche Qualität z.B. übersetzter Bedienungsanleitungen in den letzten Jahren verbessert hat. Wenn ich da an die kaum deutbaren, unfreiwillig maximal komischen Elaborate denke, mit denen man früher normalerweise konfrontiert wurde...

nur ist das schlimme - genau dafür wird sie oft verwendet. 🙄
Ist das so? Dass bereits maschinelle Übersetzungen von (Hoch-)Literatur kommerziell vertrieben werden?
 
Zuletzt bearbeitet:
kommerziell vertrieben werden?
vertrieben wahrscheinlich (noch) nicht, genutzt aber schon.
Wenn ich da an die kaum deutbaren, unfreiwillig maximal komischen Elaborate denke, mit denen man früher normalerweise konfrontiert wurde...
die dann aber immerhin leicht zu erkennen waren. Und zumindest ich finde da immer noch genug um die Hände über den Kopf zusammenzuschlagen, aber vielleicht bin ich hier auch nur kritischer.
 
jo, und Du ahnst nicht, wie schlecht hier Maschinenübersetzung war…
Nach meinem Eindruck kann man hier einen deutlichen Trennstrich von der Zeit "vor DeepL" zu der "nach DeepL" ziehen. Die Macher von DeepL hatten (meines Wissens) mit dem Webservice Linguee begonnen, also einer Kombination aus Vokabelverzeichnis und einem Verzeichnis übersetzter Texte, darunter eben auch EU-Dokumente. Damit hatte ich früher sehr viel gearbeitet. Nun sind die Übersetzungen der EU sicherlich nicht immer der Gipfel der Übersetzungskunst, definitiv nicht für Belletristik, aber sie setzen (meines Wissens) schon eine Art Standard für rechtliche und technische Dokumente. Und da DeepL mit den Daten von Linguee trainiert wurde, ist das (meines Erachtens) schon eine ganz gute Grundlage.

[kaum deutbare, unfreiwillig maximal komische Elaborate, ...] die dann aber immerhin leicht zu erkennen waren. Und zumindest ich finde da immer noch genug um die Hände über den Kopf zusammenzuschlagen, aber vielleicht bin ich hier auch nur kritischer.
Letztlich ist eine Bedienungsanleitung dann ausreichend gut übersetzt, wenn die Nutzer des darin beschriebenen Geräts es mit den bereitgestellten Informationen ohne großartiges Rätseln und Herumprobieren sicher und bestimmungsgemäß betreiben können. Was darüber hinaus geht, ist Bonus (dass man als Leser der Anleitung z.B. das Gefühl hat, freundlich und zugewandt angesprochen zu werden).

Sicherlich gab es auch eine Zeit, wo die "kaum deutbaren, unfreiwillig maximal komischen Elaborate" maschinell erzeugt wurden. Aber davor waren es Menschen. Die den Ergebnissen nach zu schließen nach einer Kurzeinführung in die Sprache mit einem Vokabelbuch an einen Schreibtisch gesetzt wurden und dann einfach loslegen mussten. Wenn es sowas nicht mehr gibt, ist das in meinen Augen ein Fortschritt.
 
Insofern verstehe ich die Vorbehalte gegen Diagnosesysteme, die auf "KI"-Techniken basieren, nicht so recht.
Ich schon:
Wenn die KI als "Entscheider" genutzt wird, ist das garantiert der falsche Weg. Sie sollte vielmehr dem Entscheider assistieren und helfen.

Beispiel der Uni-KliniK Mainz, "Außenstelle" Idar-Oberstein:
Hier wird ein Verfahren entwickelt, bei dem die KI die CT-Bilder auswerten hilft. Die KI ist inzwischen in der Lage, kleinste Veränderungen/Anormalien des Gewebes zu erkennen, die dem menschlichen Auge kaum auffallen. Die KI markiert diese Stellen und der Arzt kann basierend auf diese weitere Maßnahmen zur Diagnose (MRT, PET-CT, Biopsie etc.) veranlassen.
 
Ich schon:
Wenn die KI als "Entscheider" genutzt wird, ist das garantiert der falsche Weg. Sie sollte vielmehr dem Entscheider assistieren und helfen.
Ich habe noch nirgends gehört, dass irgendjemand die Entscheidung über Behandlungen einem "KI"-basierten System übertragen wollte. Dein Beispiel geht im Prinzip in eine sehr ähnliche Richtung wie das, was in dem von mir angesprochenen Fall hätte hilfreich sein können. Ein System, das dem Arzt in der Situation womöglich ein paar Gründe hätte nennen können, dann lieber doch z.B. ein CT machen zu lassen als bis zum nächsten Morgen zu warten. Aus der Sicht der Patientin wäre das die Chance auf ein weiteres Leben ohne Rollstuhl gewesen. Aus der Sicht des Arztes hätte er einen Behandlungsfehler (als solcher auch gutachterlich festgestellt) mit tragischen Folgen vermeiden können. Es wäre niemandes Schaden gewesen, wäre so ein System genutzt worden.
 
Ich habe noch nirgends gehört, dass irgendjemand die Entscheidung über Behandlungen einem "KI"-basierten System übertragen wollte.
Höh?
Aber genau das hier hier doch passiert:
 
Wäre "ein klares Nein" und nichts weiter denn besser? Wer in irgendeiner Sache ein LLM befragt, muss dennoch selbst die Verantwortung für das eigene Handeln in dieser Sache tragen. Es wäre nicht akzeptabel, wenn jemand versuchen wollte, diese Verantwortung an das LLM zu delegieren. Also ist es hier durchaus sinnvoll, dass die Antwort des LLMs keine klare Ja/Nein-Aussage ist, sondern primär die Aspekte zusammenstellt, die für die Ja/Nein-Entscheidung relevant sind.
Ich habe nur gesagt, das ein klares Nein, die richtige Antwort wäre. Ich habe nicht geschrieben, das es keine Begründung für das Nein, geben darf, das würde ich sogar erwarten. Ganz überspitzt: wenn ich frage, ob ein Knollenblätterpilz als Lebensmittel taugt, erwarte ich ja auch ein klares Nein, gerne natürlich auch hier mit der entsprechenden Begründung. Aber keine Aufzählung, was dafür und was dagegen spricht :D
 
Höh?
Aber genau das hier hier doch passiert:
Was da passiert ist, ist offensichtlich ein schlimmer Fehler bzw. ein schlimmes menschliches Fehlverhalten zuerst im radiologischen Institut. Und dann ein weiterer menschlicher Fehler in der Klinik, dass nach dem Ergebnis der Nierenszintigraphie, welches der CT-Auswertung fundamental widersprach, diesem Widerspruch nicht nachgegangen wurde. Zum Glück für den Patienten hatte dann ein dritter beteiligter menschlicher Arzt seinen Kopf eingeschaltet.

Man soll hier bitte nicht glauben, dass Fehldeutungen von CT-Bildern nur einer Maschine unterlaufen. Ich nehme stark an, dass die rechtliche Bewertung dieses Falls ergeben wird, dass das ein Behandlungs- bzw. Diagnosefehler war.

In dem von mir geschilderten Fall war es hingegen allein ein Mensch, dem der Diagnosefehler unterlaufen war. Ich ziehe aber daraus bestimmt nicht den Schluss, dass man Menschen keine Verantwortung für medizinische Diagnosen übertragen sollte.

Ich habe nur gesagt, das ein klares Nein, die richtige Antwort wäre. Ich habe nicht geschrieben, das es keine Begründung für das Nein, geben darf, das würde ich sogar erwarten. Ganz überspitzt: wenn ich frage, ob ein Knollenblätterpilz als Lebensmittel taugt, erwarte ich ja auch ein klares Nein, gerne natürlich auch hier mit der entsprechenden Begründung. Aber keine Aufzählung, was dafür und was dagegen spricht :D
Im Falle eines "Nein" ist es ja auch einfacher. Da passiert im Zweifel normalerweise nichts. Aber man muss das in beiden Richtungen denken - wie stellt es sich dar, wenn das System auf Basis der ihm zur Verfügung gestellten Informationen auf ein klares "Ja" als Antwort schließt? Wieviele Menschen würden dann die Erörterungen und Abwägungen noch ernstnehmen?

Und wie würde denn z.B. die richtige eindeutige "Ja oder Nein"-Antwort auf die Frage aussehen, ob der Fisch Takifugu rubripes als Lebensmittel taugt? Geht man allein danach, welche Mengen des hochwirksamen Nervengifts Tetrodoxin so ein Fisch enthält (enthalten kann), muss die Antwort "Nein" lauten. Aber in Japan wird er als Fugu verspeist. Man muss wissen, wie man ihn zubereitet, und man darf bei der Zubereitung keinen Fehler machen. Hebt man dennoch allein auf die Tauglichkeit an sich als Lebensmittel ab, würde die Antwort "Ja" lauten. Nur kann ein LLM nicht wissen, ob die Frage von einer Person kommt, die weiß, wie man den Kugelfisch zubereitet, oder nicht. Welche "eindeutige" Antwort soll sie geben? Je nach Bezugsrahmen kann "Nein" richtig sein oder auch "Ja".
 
Und wie würde denn z.B. die richtige eindeutige "Ja oder Nein"-Antwort auf die Frage aussehen, ob der Fisch Takifugu rubripes als Lebensmittel taugt? Geht man allein danach, welche Mengen des hochwirksamen Nervengifts Tetrodoxin so ein Fisch enthält (enthalten kann), muss die Antwort "Nein" lauten. Aber in Japan wird er als Fugu verspeist. Man muss wissen, wie man ihn zubereitet, und man darf bei der Zubereitung keinen Fehler machen. Hebt man dennoch allein auf die Tauglichkeit an sich als Lebensmittel ab, würde die Antwort "Ja" lauten. Nur kann ein LLM nicht wissen, ob die Frage von einer Person kommt, die weiß, wie man den Kugelfisch zubereitet, oder nicht. Welche "eindeutige" Antwort soll sie geben? Je nach Bezugsrahmen kann "Nein" richtig sein oder auch "Ja".
Natürlich gibt es jede Menge Fragen, die nicht eindeutig mit Ja oder Nein zu beantworten sind, da wäre eine absolute Antwort Blödsinn. Aber bei einer entsprechenden Frage und entsprechenden Fakten, ist eine ausufernde Antwort halt auch schlecht. Da würde ich die ja/Nein-Antwort mit einer kurzen knackigen Begründung erwarten.
Ist ja ein Chat, wenn ich einen Aufsatz mit Begründung und seitenlanger Gegenüberstellung der Vor- und Nachteile will, reicht ja eine kurze Aufforderung. Egal wer die Antwort gibt.
Und wenn ich einen menschlichen Experten nach dem Knollenblätterpilz frage, antwortet der ja auch mit nein, meist gefolgt von einer kurzen Begründung und betet mir keine Studie vor. Warum sollte eine KI, die ja den Menschen nachahmen will, da anders reagieren?
Beim Kugelfisch wäre die Antwort eines Menschen ziemlich sicher ebenfalls "Nein. Außer der Kugelfisch wird von einem der weltweit Handvoll Experten dafür zubereitet."
 
Warum sollte eine KI, die ja den Menschen nachahmen will, da anders reagieren?
Weil sie vielleicht trainiert wurde, mit ihren Antworten gerade auf solche vermeintlich einfachen, bei näherer Betrachtung aber doch komplexeren Ja/Nein-Fragen immer vorsichtig zu bleiben? Denn ja, eine der ersten Erkenntnisse bei den Chatbots war, dass man sie leicht, viel zu leicht dazu bringen konnte, bösartiges Zeug auszuspucken. Darum wurden Wege gesucht und gefunden, ihnen das abzugewöhnen. Das fand z.B. ein Elon Musk nicht gut, weshalb er wollte, dass das bei seinem Chatbot Grok nicht gemacht wird. Aber bei den "seriösen" Chatbots wurde und wird das so gemacht.

Ja, Chatbots sollen grundsätzlich so kommunizieren, wie Menschen es tun. Aber nur innerhalb bestimmter Grenzen. Was du da kritisierst, ist nach meinem Verständnis eine dieser Grenzen.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben