Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Was @sego geschrieben hat, trifft es doch recht gut. Bahnbrechende Innovationen und neue Meilensteine konnten immer nur mittels teil radikaler Paradigmenwechsel stattfinden, oft auch nur gegen den geistigen Widerstand des Establishments. Solange eine KI trotz Ihres Energiedurstes nicht selbständig Hypothesen formulieren und eruieren kann, wird sie auch nicht auf den lang ersehnten Geistesblitz kommen. Aber es wäre auch naiv zu glauben, dass sie es jemals könne.

Wer also an AGI glaubt hat die menschliche Philosophiegeschichte der letzten paar tausend Jahre gekonnt ignoriert. Und große Versprechen von Big Tech waren schon nicht erst seit gestern ein Garant für große Enttäuschungen.

Letztlich wird es so sein, dass die wirklich wertvollen und für die Menschheit so wichtigen Errungenschaften durch ki-gestützte Forschung nur in der Fachpresse Erwähnung findet, weil sie so nischig sind, während Normies neue Filter für Selfies oder pseudo-Innovationen die schneller aus der Mode fallen, als Schnee liegenbleiben kann, als Fortschritt verkauft werden.
 
Es kann aber ebensogut (und wird es nach meiner Einschätzung auch) so laufen, dass sich "KI", also lernfähige Systeme Schritt für Schritt in den Bereichen etablieren werden, wo ihr Einsatz für einen bezahlbaren Preis einen messbaren Nutzen liefert und auch mehrheitlich akzeptiert wird. Bei Sprachmodellen, die Übersetzungen anfertigen, könnte das nach meiner Einschätzung sogar schon in manchen Anwendungsbereichen der Fall sein.

Und auch in der Medizin werden sich sehr sicher mit "KI" arbeitende Diagnosesysteme weiter etablieren. Was ich generell begrüßen würde. Eine mir nahestehende Person sitzt nach einem Behandlungsfehler nach einer OP im Rollstuhl. Der Fehler bestand darin, dass an dem Abend von dem einem diensthabenden Arzt die Bedeutung eines Symptoms unterschätzt und in dem Moment keine weitere Diagnostik oder Behandlung durchgeführt wurde. Ich bin mir sehr sicher, hätte er ein mit "KI" arbeitendes Expertensystem mit heranziehen können (müssen?), dass es dann nicht bei der falschen Entscheidung geblieben wäre, dem Symptom nicht weiter nachzugehen. Am nächsten Morgen waren mehr Ärzte da und hatten direkt dann noch alles versucht, den Schaden wieder zu heilen. Es war leider zu spät.

Es ist noch gar nicht lange her, da waren LEDs als Leuchtmittel Spielkram. Und als sie so billig geworden waren sehr oft lästig, weil auf einmal aller möglicher Tinnef mit leuchtenden LEDs "verziert" wurde (nervt immer noch, ja). Und nur wenige Jahre später sind sie heute das dominierende Leuchtmittel in Wohnungen, Büros, Straßenlaternen, ... Wer, der nicht irgendwie in die technische Entwicklung von LED-Leuchtmitteln involviert war, hätte sich das denn vor 15-20 Jahren vorstellen können. Nur mal als Beispiel angemerkt, welches Potenzial in technischen Entwicklungen stecken kann.
 
Wer, der nicht irgendwie in die technische Entwicklung von LED-Leuchtmitteln involviert war, hätte sich das denn vor 15-20 Jahren vorstellen können. Nur mal als Beispiel angemerkt, welches Potenzial in technischen Entwicklungen stecken kann.
Oder wie viel Macht irgendwelche Lobbygruppen über eine Zukunft der Menschheit haben...
 
Es wäre sehr zu begrüßen, wenn der Computer in Zukunft Diagnosen erstellt und keine desinteressierte und demotivierte Ärzteschaft. Dann wäre wirklich etwas gewonnen.
Da sollten wir aber den Begriff Diagnose etwas vorsichtig verwenden. Beispiel:
Der Fehler bestand darin, dass an dem Abend von dem einem diensthabenden Arzt die Bedeutung eines Symptoms unterschätzt und in dem Moment keine weitere Diagnostik oder Behandlung durchgeführt wurde.
Da hätte eventuell KI auch keine Chance gehabt. Die Anamnese wird (noch) nicht von der "KI" gemacht. Wenn dann nicht alle Symptome und (bekannte) Daten vorliegen, kann eine (Differential)Diagnose auch mal daneben gehen. Ein Symptom alleine muß noch nicht zur richtigen Diagnose führen. Mir ist ein Arzt lieber, der Patienten anfaßt und nicht nur auf der PC-Tastatur herum klappert und den Bildschirm begutachtet. Sorry, vielleicht bin ich durch (ehrenamtlichen) Rettungsdienst da etwas "verdorben". Ich glaube nicht, daß mir (jetzt i.R.) bei Einsätzen ein TP mit KI das Mittel der ersten Wahl gewesen wäre. (Bildvergleiche ok, Sammlung aller möglichen Ursachen ok, aber Entscheidung ....... bitte von Menschen)
 
Man muss schon vermutlich etwas Pech haben und auch einen aktuellen Einblick in das Gesundheitswesen derzeit gewinnen.

Also ein konkretes Beispiel: Eine Hausärztin, die einen Stuhl in eine Ecke des Raumes stellt, und ein Interview von ihrem Platz schräg gegenüber im Raum startet, mit vorgefertigten zwei drei Standardfragen. Dazu wird die selbe Ärztin wirklich ärgerlich, wenn man es wagt den Stuhl ein wenig in den Raum zu ziehen, um das Gespräch besser führen zu können. Eine Ärztin, die den Patienten nicht aus der Nähe anschaut und schon gar nicht anfasst. Eine Ärztin, die EKG Untersuchungen von ihrem Personal vornehmen lässt, und sich am Monitor das aktuelle EKG aus dem Nachbarraum (ohne Gegenwart des teilentblößten Patienten) anschaut. Eine Ärztin, die ohne auch nur ein Wort Rücksprache mit dem Patienten den Notarzt ruft, wenn sie das EKG nicht versteht.

Das kann "KI" besser. Und mit "KI" ist ausdrücklich nicht das phantasierende Chatprogramm gemeint, sondern ein Algorithmus, der das Pflichtprogramm eines Arztes abgeht. Wenn einer hofft, dass Ärzte sich die zur Untersuchung gestellten Fragen immer neu ausdenken, liegt leider weit daneben. Auch Bilder, zum Beispiel der Haut, kann ein Computerprogramm besser auswerten als ein zumindest desinteressierter Arzt. Der Glaube an das Allwissen eines Arztes ist genauso naiv, wie der Glaube an die Allmacht eines Computerprogramms.
 
Liebe Leute, ich weiß schon, warum ich sage, dass die Einbeziehung einer Zweitmeinung der Person, von der ich schrieb, mit sehr hoher Wahrscheinlichkeit ein Leben im Rollstuhl erspart hätte. Und wenn so eine Zweitmeinung von einem System kommt, das Zugriff auf gesammeltes medizinisches Wissen von Generationen hat, nicht durch eine 36-Stunden-Schicht beeinträchtigt ist, dessen Entscheidungsprozesse nicht durch Tageszeiten und Arbeitsorganisation usw. beeinflusst werden, dann ist das kein Nach- sondern eher ein Vorteil.

Für eine Zweitmeinung zu einem potenziell kritischen Symptom, gerade in dringlichen Fällen braucht es auch kein System, das komplett unabhängig eine Anamnese durchführen könnte. Es würde mit den Informationen arbeiten, die der menschliche Arzt erhoben hat und ggf. bei Lücken Fragen formulieren. Weil es bei so was nicht um Misstrauen gegenüber dem menschlichen Arzt geht, sondern darum, ihn (und damit auch den Patienten) davor zu bewahren, vermeidbare Fehler zu begehen.

und gerade in dem Bereich sind sie erstaunlich schlecht, wenn nicht eine der zu übersetzenden Sprachen Englisch ist…
Findest du? Ich hatte kürzlich eine Situation, wo Hintergrundinformationen zu einem Getriebeschaden aus einer deutschen Quelle an eine griechische Werkstatt übermittelt werden sollten. In der tatsächlich kein Mechaniker gearbeitet hatte, der früher mal "beim Daimler" gewesen wäre... 😅 Natürlich habe ich da eine Übersetzungs-KI bemüht (DeepL). Und mir wurde nachträglich von einer zweisprachigen Person bestätigt, dass diese erstens einen regelkonformen griechischen Text erzeugt hatte, der zweitens den Inhalt des Originals auch korrekt übertragen hatte.

Und selbst wenn Englisch als "Relaisstation" nötig wäre, um zwischen zwei anderen Sprachen zu übertragen, entspräche das der Praxis, die z.B. in internationalen Organisationen völlig üblich ist. Die EU z.B. hat 24 Amtssprachen. Da soll bitte niemand glauben, es würde für jedes der möglichen 276 Sprachpaare eigene Übersetzer oder gar Simultandolmetscher geben.
 
Dabei ist allgemeinmedizinisches Wissen datenbasiert und die Anwendung erfolgt nach klaren Regeln. Genau das kann selbst die heutige "KI" bereits besser als ein Mensch, eben weil hierfür wenig bis gar keine Intelligenz erforderlich ist.
Ich hoffe, mein Post kam nicht verkehrt an. Der zitierte Teil ist heute eigentlich bereits Lehre und funktioniert auch ohne KI. Dazu ist genügend in den PCs eingespeichert, man muß es allerdings auch anwenden. Zu dem aufgeführten Beispiel: war entweder zur Corona-Zeit oder die Hausärzin befürchtete einen Infektionsfall (sie kann selber auch eine beginnende Erkältung haben und es war zum Schutz für den Patienten), dann wäre der Abstand verständlich. Zum EKG und Notarzt-Anforderung: das habe ich (leider) oft genug erlebt (als RS zusammen dann mit dem Notarzt) --- wenn bestimmte Anzeichen im EKG sind (das lernt jeder RS und Arzt), wird der Notarzt angefordert, der zusammen mit dem Notarztwagen (RTW/NAW) unmittelbar vor Ort versorgen kann und andere (weitere) Mittel zur Verfügung hat, bis zum Transport, als der Hausarzt. Das ist von der Ärztin mit Sicherheit nicht falsch gewesen. Im erkennbaren Notfall (im EKG) wird nicht mehr lange geredet und der Notarzt sofort an- bzw. nachgefordert. Sorry ---- meine Ansicht, oft genug dann beim Transport den Patienten notversorgt.

Nachtrag @ahoellrigl : Zweitmeinung ist spätesten in der Klinik üblich. Im Beispiel von @Ravensberger bereits der Notarzt, der in der Klinik (falls transportiert wurde) dann an "Drittmeinung" weitergibt. KI als Unterstützung ist nicht mein Einwand, nur .... entscheiden muß ein Arzt (-Team), oft machen die es in den Kliniken auch per Konferenz, weil nicht alles vorher so eindeutig ist wie hinterher. Da spielen oft noch Dinge nachträglich rein, die auch in einer KI zum speziellen Fall nicht bis in's letzte Tüpfelchen gespeichert sein können.
 
Zuletzt bearbeitet:
Natürlich habe ich da eine Übersetzungs-KI bemüht (DeepL). Und mir wurde nachträglich von einer zweisprachigen Person bestätigt, dass diese erstens einen regelkonformen griechischen Text erzeugt hatte, der zweitens den Inhalt des Originals auch korrekt übertragen hatte.
DeepL ist keine "Übersetzungs-KI". DeepL ist ein Übersetzer, der auf auf Machine Learning basiert, aber das ist was anderes als zum Beispiel ein LLM wie ChatGPT nach einer Übersetzung zu fragen, was hha wohl eher meinte.
 
ML ist ein Zweig der KI. Genauso wie generative KI.
"KI" ist ein Marketingbegriff. Machine Learning ist die Grundlage für Large Language Models, die gemeinhin als KI vermarktet werden, aber kein "Zweig" der KI.

Und der Unterschied zwischen DeepL und LLMs bleibt dennoch bestehen.
 
DeepL ist keine "Übersetzungs-KI". DeepL ist ein Übersetzer, der auf auf Machine Learning basiert, aber das ist was anderes als zum Beispiel ein LLM wie ChatGPT nach einer Übersetzung zu fragen, was hha wohl eher meinte.

Ich habe mal zum Spaß meine beiden Absätze zur Übersetzung von Deutsch in Griechisch in Beitrag #388 einmal von ChatGPT und einmal von DeepL nach Englisch übersetzen lassen.

Ausgangstext:
Findest du? Ich hatte kürzlich eine Situation, wo Hintergrundinformationen zu einem Getriebeschaden aus einer deutschen Quelle an eine griechische Werkstatt übermittelt werden sollten. In der tatsächlich kein Mechaniker gearbeitet hatte, der früher mal "beim Daimler" gewesen wäre... 😅 Natürlich habe ich da eine Übersetzungs-KI bemüht (DeepL). Und mir wurde nachträglich von einer zweisprachigen Person bestätigt, dass diese erstens einen regelkonformen griechischen Text erzeugt hatte, der zweitens den Inhalt des Originals auch korrekt übertragen hatte.

Und selbst wenn Englisch als "Relaisstation" nötig wäre, um zwischen zwei anderen Sprachen zu übertragen, entspräche das der Praxis, die z.B. in internationalen Organisationen völlig üblich ist. Die EU z.B. hat 24 Amtssprachen. Da soll bitte niemand glauben, es würde für jedes der möglichen 276 Sprachpaare eigene Übersetzer oder gar Simultandolmetscher geben.

Das Ergebnis von ChatGPT:
Do you think so? I recently had a situation where background information about a gearbox failure needed to be passed on from a German source to a Greek workshop—one in which no mechanic had ever worked who had previously been ‘with Daimler’… 😅 Of course, I made use of a translation AI (DeepL). And I was later confirmed by a bilingual person that it had, firstly, produced a grammatically correct Greek text and, secondly, accurately conveyed the content of the original.

And even if English were necessary as a ‘relay station’ to translate between two other languages, that would correspond to common practice, which is, for example, completely standard in international organizations. The EU, for instance, has 24 official languages. No one should seriously believe that there are dedicated translators—or even simultaneous interpreters—for each of the 276 possible language pairs.

Das Ergebnis von DeepL:
Do you think so? I recently had a situation where background information on a gearbox failure from a German source had to be sent to a Greek workshop. In which no mechanic had actually worked who had previously been ‘at Daimler’... Of course, I used a translation AI (DeepL). And I was subsequently confirmed by a bilingual person that, firstly, it had generated a compliant Greek text which, secondly, had also correctly transferred the content of the original.

And even if English were necessary as a ‘relay station’ to transmit between two other languages, this would be in line with the practice that is completely normal in international organisations, for example. The EU, for example, has 24 official languages. Nobody should believe that there would be separate translators or even simultaneous interpreters for each of the possible 276 language pairs.

Dafür, dass ChatGPT ein Generalisten-LLM ist, schlägt es sich gar nicht so übel. Interessant finde ich, dass beide Systeme hier an der korrekten Übertragung von "oder gar Simultandolmetscher" scheitern. Im Original meint das "oder gar" ein "und erst recht keine". In beiden Übersetzungen wird daraus ein "oder sogar". Ich selbst würde es im Englischen schreiben als "or even less". Und das übersetzt DeepL von Englisch nach Deutsch dann tatsächlich wieder zu "oder gar".
 
Nö, beim PLA und dem FDM-Druck ist es viel einfacher: PLA als Reinstoff ist tatsächlich lebensmittelecht. Und das plappern auch alle nach, auch die KI.

Also hier ist der Copilot da ein wenig konkreter:

Ist ein auf dem 3D-Drucker mit PLA-Filament gedrucktes Gefäß lebensmittelecht?

Copilot said:​


Copilot

Ein mit PLA-Filament gedrucktes Gefäß ist nicht automatisch lebensmittelecht, und das hat mehrere Gründe:

1.​

  • PLA (Polylactid) ist grundsätzlich biologisch abbaubar und wird oft als „ungiftig“ bezeichnet.
  • Allerdings enthalten viele Filamente Zusatzstoffe (Farbstoffe, Weichmacher), die nicht für den Kontakt mit Lebensmitteln zertifiziert sind.

2.​

  • Beim 3D-Druck entstehen Mikroporen und Rillen, in denen sich Bakterien leicht ansiedeln können.
  • Selbst wenn das Material theoretisch lebensmittelecht wäre, macht die raue Oberfläche eine hygienische Reinigung fast unmöglich.

3.​

  • Die meisten Druckdüsen bestehen aus Messing, das Blei enthalten kann. Dieses kann während des Drucks auf das Objekt übertragen werden.

4.​

  • Nur Filamente, die explizit als lebensmittelecht zertifiziert sind (z. B. nach FDA oder EU-Normen), dürfen für Lebensmittelkontakt verwendet werden.
  • Auch der Drucker und die Nachbearbeitung müssen entsprechend ausgelegt sein.

✅ Empfehlung:

  • Wenn du ein lebensmittelechtes Gefäß möchtest, verwende zertifiziertes Filament, eine Edelstahl-Düse und glätte die Oberfläche (z. B. durch Epoxidharzbeschichtung, das ebenfalls lebensmittelecht sein muss).
  • Alternativ: Nutze einen Einsatz aus Glas oder Edelstahl im gedruckten Gefäß.
Soll ich dir eine Liste von lebensmittelechten Filamenten und geeigneten Nachbearbeitungsmethoden zusammenstellen?

Das ist also durchaus mehr als nur ein einfaches Ja oder Nein und kommt wohl der Realität schon nahe.

Das Problem ist halt: man muss so eine Antwort entsprechend einordnen können. Oder anders gesagt: eigentlich muss man die Lösung kennen, um erkennen zu können, ob die KI hier Unsinn schreibt oder nicht. Und damit beißt sich die Sache selbst in den Schwanz: wenn ich die Lösung schon weiß, brauche ich keine KI mehr.

Im Moment kann man KI meines Erachtens maximal dazu nutzen, um sich Arbeit zu sparen, wenn man damit Dinge erstellen lässt, deren Richtigkeit sich hinterher einfach überprüfen lässt. Für Wissensfragen ist eine KI m.E. weiterhin unbrauchbar.
 
Ich habe mal zum Spaß meine beiden Absätze zur Übersetzung von Deutsch in Griechisch in Beitrag #388 einmal von ChatGPT und einmal von DeepL nach Englisch übersetzen lassen.
Da erkennt man gut die Unterschiede zwischen den verschiedenen Technologien, denn ChatGPT ist deutlich fehlerbehafteter als DeepL - ChatGPT erfindet Wörter dazu ("one in which no mechanic had ever worked") oder ändert den Sinn einfach ("grammatically correct Greek and, secondly, accurately").

Das Problem ist, dass ChatGPT keine echte Übersetzung vornimmt, sondern wie mit allen Dingen vorgeht: Es ist eine Wahrscheinlichkeitsrechnung, welches Wort auf Basis der vorhandenen Trainingsdaten auf Basis der Anfrage wo erwartet wird. Dabei gibt es dann natürlich Änderungen, weil ChatGPT bestimmte Wörter für passender hält, auch wenn sie eigentlich nicht dem Sinn des Originals entsprechen.

DeepL ist da anders, DeepL versucht es soweit wie möglich am Original zu übersetzen. Dafür fließt der Text nicht so schön wie bei ChatGPT, aber DeepL ist halt kein Schönschreiber, sondern ein Korrektschreiber.

Übersetzung ist für Maschinen deshalb so schwierig, weil Unterschiede im Syntax existieren und Redewendungen, die sich nicht einfach so übersetzen lassen. Deshalb ist Google Translator als klassischer Übersetzer auch so schlecht und DeepL besser. Mit ChatGPT würde ich dagegen nichts übersetzen lassen, wo wichtig ist, dass der Sinn korrekt übertragen wird. Es ist viel eher eine Hilfe, wenn man sich einen komplett neuen Text in einer anderen Sprache generieren lassen will (auch wenn da natürlich ebenfalls Fehler passieren können, wie immer bei LLMs).
 
Das ist also durchaus mehr als nur ein einfaches Ja oder Nein und kommt wohl der Realität schon nahe.

Das Problem ist halt: man muss so eine Antwort entsprechend einordnen können. Oder anders gesagt: eigentlich muss man die Lösung kennen, um erkennen zu können, ob die KI hier Unsinn schreibt oder nicht. Und damit beißt sich die Sache selbst in den Schwanz: wenn ich die Lösung schon weiß, brauche ich keine KI mehr.

Im Moment kann man KI meines Erachtens maximal dazu nutzen, um sich Arbeit zu sparen, wenn man damit Dinge erstellen lässt, deren Richtigkeit sich hinterher einfach überprüfen lässt. Für Wissensfragen ist eine KI m.E. weiterhin unbrauchbar.
Jupp, kein einfaches Ja oder Nein, wobei es ein klares Nein hätte sein müssen: ein FDM-gedrucktes Teil ist ohne nachträgliche Oberflächenbehandlung in keinem Fall lebensmitteltauglich. Selbst wenn das Filament lebensmittelecht wäre, wäre es nicht jeder Bestandteil des Drucker. Und wenn man das auch noch hinkriegen würde, dann bleibt die traurige Tatsache, das die Rillen das Aus bedeuten, die so ein FDM-Drucker zwangsläufig produziert.

Und genau das, was Du geschrieben hast, sehe ich auch als das Problem: ich muss keine KI um eine Antwort bitten, wenn ich die Antwort kennen muss, um die KI zu kontrollieren. Dann kann ich auch würfeln. Eine Firma muss keine Aufgaben an eine KI verlagern, wenn sie dann wieder Menschen braucht, um die Ergebnisse der KI zu kontrollieren.
 
KI wird unser Ende sein. Vielleicht haben wir Glück und erleben das nicht mehr mit. Der Mensch erfindet irgendwas und dann spielt er damit rum weil man entweder reich oder mächtig damit werden kann bis irgendwas passiert und erst dann lernt er. Wenn er aber die Hebel der Maschine in die Hand gibt wird sie schneller lernen als wir und verstehen das wir nutzlos und Schädlinge sind...
 
KI wird unser Ende sein.
Maximal möglich, wenn es tatsächlich ne starke KI geben sollte. Also eine die tatsächlich denken kann. Davon sind wir noch extrem weit entfernt - falls es überhaupt möglich sein sollte. Das, was heute primär "KI" genannt wird (im langläufigen Bereich meist LLMs wie ChatGPT, Gemeni) usw. können nichtmal ansatzweise "denken". Die spielen echt gut vor, dass sie denken. Sie haben auch keinen wirklichen Zugriff (im Sinne von Verständnis in irgendeiner Form) über Informationen. Daher wird das hier:
Eine Firma muss keine Aufgaben an eine KI verlagern, wenn sie dann wieder Menschen braucht, um die Ergebnisse der KI zu kontrollieren.
Quasi immer notwendig bleiben.

Und ob sie bei den medizinischen Sachen wirklich hätte helfen können - fraglich. Was sie könnte wäre definitiv nochmal nen Denkansatz bieten, es wäre ein Step, wo man nochmal nachdenken und reflektieren muss. In der Hinsicht positiv. Machine Learning wird schon seit einer Weile eingesetzt - schon vor dem Hype um LLMs.
Ich denke hier sind aber ein paar andere Aspekte: Bessere Ausbildung der Ärzte, mehr Personal, damit auch mehr Zeit ist (und keine 36h-Schichten). Reduktion der bürokratischen Dinge, sodass mehr Zeit für die tatsächliche Patientenversorgung da ist. Allgemein müsste man viel im Gesundheitssystem passieren. Z.B. rechtzeitig Vorsorge betreiben anstelle von Fokus auf "wenn das Kind ins Wasser gefallen ist". Dass man nicht um Untersuchungen kämpfen muss. Usw..

Sicherlich können da ML-Technologien an verschiedenen Stellen helfen. Aber es ist nicht die goldene Kuh, die da alles löst. Und meiner Meinung nach auch nicht der größte Hebel.
@ibmthink Da entspricht deine Meinung nicht der einschlägigen Literatur, die folgende Teilgebiete der KI aufführt:
Ich denke hier gibt es einfach die Differenz zwischen dem, was die eigentliche Wortbedeutung hat - und da sind die Teilgebiete definitiv richtig - und der Wortbedeutung, die KI heute in der Nutzung von der großen Masse der Menschen hat. Für extrem viele ist KI = ChatGPT. Da hat @ibmthink durchaus Recht. Das Marketing ist da extrem stark. Da wird dann auch ChatGPT direkt ne menschliche Intelligenz unterstellt, da funktionieren auch KI-Startups, die sagen "jo, unsere KI entwickelt ganze Apps für sie" - sammelt Milliarden ein - und am Ende sind es dann doch 1000 Inder gewesen:
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben