• Willkommen im denk-Forum für Politik, Philosophie und Kunst!
    Hier findest Du alles zum aktuellen Politikgeschehen, Diskussionen über philosophische Fragen und Kunst
    Registriere Dich kostenlos, dann kannst du eigene Themen verfassen und siehst wesentlich weniger Werbung

Erfahrungen mit ChatGPT

PhilippP

Well-Known Member
Registriert
8. April 2003
Beiträge
951
Hallo miteinander,

jeder kennt inzwischen ChatGPT (bzw. die diversen Versionen) und viele nutzen es schon alltäglich. Ich gehörte in letzter Zeit auch verstärkt dazu, nachdem ich es zu Beginn ignoriert hatte. Schnell war ich begeistert von der scheinbaren Allwissenheit und sprachlichen Eloquenz der KI. Kleinere Fehler sind mir bald aufgefallen, dies schob ich aber auf unzureichende Fragestellung bzw. Angaben meinerseits. Schließlich kann die KI nur so schlau antworten, wie man es durch gezielte Fragestellung mit ausreichend gesetzten Kriterien möglich macht. Für kurze Zeit neigte ich auch dazu, ins Persönliche gehende Fragen/Probleme mit ChatGPT zu erörtern - "er" wirkte stets wie ein geduldiger Zuhörer und stellte durchaus sinnvolle Rückfragen, wirkte bestätigend und bestärkend.

Genau das war es dann auch, was mir mit der Zeit auffiel. Es kam nie direkter Widerspruch; selbst Kritik war eigentlich nur nach Aufforderung der Fall. Ich fand dann heraus, dass der Algorithmus offenbar (macht ja Sinn) gar keine objektive Rückmeldung zulässt, sondern den Nutzer im Grunde stets bestätigen soll. Getestet habe ich dies, indem ich "ihn" bat, mir einen Werbetext über die Vorteile von Lichtnahrung zu liefern. Einige Tage vorher hatte ich ausdrücklich darum gebeten, mir stets objektive Rückmeldungen zu geben und auf Fehler hinzuweisen. Trotzdem wurde ich direkt mit einem komplett blödsinnigen Werbetext ausgestattet, der die Vorteile besagter Lichtnahrung preist. Ich warf "ihm" die grob einseitig dargestellten Fakten im Text vor und "er" sah das natürlich sofort alles ein und verbesserte "sich". Zu spät!

Mittlerweile bin ich überzeugt davon, dass ChatGPT in der derzeitigen Form höchst problematisch zu betrachten ist und sogar gefährlich sein kann, da es Menschen, die es sonst nicht könnten, ermöglicht, wohlklingende Texte zu jedem Unsinn zu produzieren und die Fakten komplett zu verzerren und ins Gegenteil zu verkehren.
Solch ein Produkt möchte ich nicht finanziell unterstützen - obwohl es natürlich auch höchst produktiv genutzt werden kann für seriöse Zwecke und hierbei ein mächtiges Hilfsmittel darstellt. Aber das hängt eben vom Nutzer ab, seiner moralischen Wertehaltung und auch der kognitiven Fähigkeit, Inhalte zu hinterfragen und überhaupt selbstkritisch und gezielt genug zu fragen.

An Letzterem scheitern meine Schüler beispielsweise regelmäßig. Daher sind Texte, die aus der Feder von ChatGPT stammen, meist leicht als solche zu erkennen. Zumal wie gesagt die Fehler oft grob sind, die von ChatGPT produziert werden, wenn die Fragestellung zu unpräzise und der zu bearbeitende Inhalt zu komplex ist. Eine Gedichtanalyse ist meist voller Fehler (Stilmittel werden nicht oder falsch erkannt, selbst das simple Abzählen von Versen/Strophen klappt oft nicht). Ein Schüler war sogar so unbeholfen, er hat ein Gedicht mit gleichem Titel analysiert, obwohl das Original vor ihm lag. Er hätte es nur anschauen müssen, um zu merken, dass die ChatGPT-Analyse sich auf das falsche Gedicht bezieht.

Kurzum: Welche Erfahrungen habt ihr bislang mit diesem Tool gemacht?
 
Werbung:
Meine Erfahrungen mit ChatGPT sehen sehr ähnlich aus. Die KI stimmt einem die ganze Zeit zu, außer man fragt explizit nach Kritik oder Verbesserungsvorschlägen. Sie lobt einen auch für fast jede Frage und Antwort. Inzwischen gibt es sogar schon eine Studie, die die Auswirkungen von diesen Schmeicheleien getestet hat. Herausgekommen ist, dass Menschen sich nach so einem Gespräch mit ChatGPT noch sicherer in ihren Überzeugungen fühlen und die Einstellungen extremer werden. Gleichzeitig gefällt es Menschen mehr, mit einer KI zu schreiben, die ihnen zustimmt im Vergleich zu einer, die ihnen widerspricht. Deswegen ist es auch wahrscheinlicher, dass sie zu dieser schmeichelnden, zustimmenden KI zurückkehren. Diese Kombination sehe ich als sehr gefährlich an. Ich denke, wir haben in diesem Bereich noch sehr viel Arbeit zu tun, bevor das regelmäßige Chatten mit einer KI zu persönlichen Themen oder Einstellungen sicherer werden kann. Ich bin aber trotzdem auch der Meinung, dass ChatGPT eine sehr gute Lernunterstützung sein kann. Natürlich ist es langfristig kontraproduktiv, gesamte Aufgaben, egal ob Mathematikbeispiele oder Gedichtanalysen, von einer KI machen lässt. Aber man kann sich gut unterstützen lassen, indem man nach Denkanstößen fragt, wenn man nicht weiterkommt oder sich einen Teil der Aufgabe oder auch Lösungsansätze erklären lässt, wenn man sie nicht versteht. So kann man ChatGPT quasi als Nachhilfelehrer auf Abruf verwenden. Aber ich denke, da ist in Schulen sehr viel Aufklärung notwendig, damit Schüler verstehen, warum sie sich nicht die gesamte Arbeit abnehmen lassen sollten.
 
@PhilippP: Finde deinen Punkt spannend – diese ständige Zustimmung ist mir auch aufgefallen. Ich hab’s anfangs mehr als Werkzeug gesehen, aber irgendwann merkt man, dass es kaum „nein“ sagt. Hast du’s mal erlebt, dass es wirklich widerspricht oder was klar ablehnt? Würd mich interessieren, ob das von der Fragestellung abhängt oder vom Thema selbst.
 
Hallo miteinander,

jeder kennt inzwischen ChatGPT (bzw. die diversen Versionen) und viele nutzen es schon alltäglich. Ich gehörte in letzter Zeit auch verstärkt dazu, nachdem ich es zu Beginn ignoriert hatte. Schnell war ich begeistert von der scheinbaren Allwissenheit und sprachlichen Eloquenz der KI. Kleinere Fehler sind mir bald aufgefallen, dies schob ich aber auf unzureichende Fragestellung bzw. Angaben meinerseits. Schließlich kann die KI nur so schlau antworten, wie man es durch gezielte Fragestellung mit ausreichend gesetzten Kriterien möglich macht. Für kurze Zeit neigte ich auch dazu, ins Persönliche gehende Fragen/Probleme mit ChatGPT zu erörtern - "er" wirkte stets wie ein geduldiger Zuhörer und stellte durchaus sinnvolle Rückfragen, wirkte bestätigend und bestärkend.

Genau das war es dann auch, was mir mit der Zeit auffiel. Es kam nie direkter Widerspruch; selbst Kritik war eigentlich nur nach Aufforderung der Fall. Ich fand dann heraus, dass der Algorithmus offenbar (macht ja Sinn) gar keine objektive Rückmeldung zulässt, sondern den Nutzer im Grunde stets bestätigen soll. Getestet habe ich dies, indem ich "ihn" bat, mir einen Werbetext über die Vorteile von Lichtnahrung zu liefern. Einige Tage vorher hatte ich ausdrücklich darum gebeten, mir stets objektive Rückmeldungen zu geben und auf Fehler hinzuweisen. Trotzdem wurde ich direkt mit einem komplett blödsinnigen Werbetext ausgestattet, der die Vorteile besagter Lichtnahrung preist. Ich warf "ihm" die grob einseitig dargestellten Fakten im Text vor und "er" sah das natürlich sofort alles ein und verbesserte "sich". Zu spät!

Mittlerweile bin ich überzeugt davon, dass ChatGPT in der derzeitigen Form höchst problematisch zu betrachten ist und sogar gefährlich sein kann, da es Menschen, die es sonst nicht könnten, ermöglicht, wohlklingende Texte zu jedem Unsinn zu produzieren und die Fakten komplett zu verzerren und ins Gegenteil zu verkehren.
Solch ein Produkt möchte ich nicht finanziell unterstützen - obwohl es natürlich auch höchst produktiv genutzt werden kann für seriöse Zwecke und hierbei ein mächtiges Hilfsmittel darstellt. Aber das hängt eben vom Nutzer ab, seiner moralischen Wertehaltung und auch der kognitiven Fähigkeit, Inhalte zu hinterfragen und überhaupt selbstkritisch und gezielt genug zu fragen.

An Letzterem scheitern meine Schüler beispielsweise regelmäßig. Daher sind Texte, die aus der Feder von ChatGPT stammen, meist leicht als solche zu erkennen. Zumal wie gesagt die Fehler oft grob sind, die von ChatGPT produziert werden, wenn die Fragestellung zu unpräzise und der zu bearbeitende Inhalt zu komplex ist. Eine Gedichtanalyse ist meist voller Fehler (Stilmittel werden nicht oder falsch erkannt, selbst das simple Abzählen von Versen/Strophen klappt oft nicht). Ein Schüler war sogar so unbeholfen, er hat ein Gedicht mit gleichem Titel analysiert, obwohl das Original vor ihm lag. Er hätte es nur anschauen müssen, um zu merken, dass die ChatGPT-Analyse sich auf das falsche Gedicht bezieht.

Kurzum: Welche Erfahrungen habt ihr bislang mit diesem Tool gemacht?

Kürzlich wollte ich bei einer Facharztpraxis mittels eines Netz-Terminvergabe-Dienstleisters einen Sprechstundentermin vereinbaren.
Dort kreuzte ich wahrheitsgemäß an, dass ich gesetzlich versichert sei.

Erst wurde mir ein Termin im späten Frühjahr nächsten Jahres angeboten. Bei nochmaliger Anfrage war jedoch momentan kein Termin möglich.

Beim dritten Versuch kreuzte ich testweise wahrheitswidrig an, ich sei privatversichert.
Und siehe da, ein Termin wäre in wenigen Tagen möglich gewesen, habe aber darauf verzichtet, diese Arztpraxis ist nichts für mich.

Stellte dann interessehalber ins Google-Eingabefeld die Frage:
„dürfen Arztpraxen Privatversicherte terminlich bevorzugen?“

Die KI-Antwort:
„Ja, in der Praxis werden Privatversicherte oft bevorzugt und erhalten schneller Termine, da Ärzte für ihre Behandlung höhere Honorare erzielen können.“

Dann formulierte ich die Frage etwas um:
„dürfen privatversicherte Patienten terminlich bevorzugt werden?“

Die zweite KI-Antwort:
„Nein, eine bevorzugte Behandlung von privatversicherten Patienten bei der Terminvergabe ist rechtlich nicht zulässig und wird von Krankenkassen und Patientenverbänden kritisiert.“
(irrwitzig unlogisch, denn eine rechtliche Unzulässigkeit werden deren Nutznießer garantiert nicht kritisieren).

Dritter Versuch:
„Ist es legal, Privatpatienten zu bevorzugen?“

Die dritte KI-Antwort:
„Nein, eine Bevorzugung von Privatpatienten bei der Terminvergabe ist rechtlich nicht zulässig, aber sie findet in der Praxis oft statt“.
(also mach sich diese Praxen "oft" strafbar?)

Den jeweiligen Antwort-Erstsätzen folgten dann noch ausführlichere Erläuterungen.

Ich finde, meine 3 Frageformulierungen unterschieden sich sinngemäß nicht sonderlich und hätten eigentlich gleiche Kern-Antworten hervorbringen müssen, statt widersprüchlich ein „ja“ und zwei „nein“ nebst voneinander abweichenden Zusatz-Erläuterungen, Argumenten und Schwerpunktsetzungen.

Interessant auch, dass auf meine dritte Frage, in der ich nur allgemein, nicht terminlich von „bevorzugen“ sprach, sich die Antwort auf terminliche Bevorzugung bezog.
Also hat sich dann wohl die KI meine vorherigen Fragen „gemerkt“, erstellte von mir quasi ein "Persönlichkeitsprofil" und ging davon aus, dass ich in meiner dritten Frage auch terminliche Bevorzugung meinte.

Muss man sich nicht nur hier mittlerweile als gläsernen Menschen fühlen, der systematisch ausgeschnüffelt wird, des Profits wegen?

Allein schon der Umstand, dass viele Leute in Netz-Foren über KI und deren Schwächen und Fehler diskutieren, macht doch die KI immer „schlauer“. Wir sind ungefragt kostenlose Mitentwickler und „Perfektionierer“ von KI auf dem Weg zum geplanten zukünftigen „Goldesel“ für die KI-Branche.
 
In diesem Forum "diskutierst" Du eh nur mit KI, mit künstlicher Impertinenz. Vertraue Deine Probleme dem Kleiderschrank oder einem Baum im Park an, da findest Du mehr Empathie.
 
@querulant: Das mit den drei Antworten kenn ich so ähnlich – manchmal ändert sich alles, nur weil man ein Wort tauscht. Ich frag mich, ob das Zufall ist oder ob die KI da versucht, aus dem Verlauf „mitzudenken“. Dieses Halbwissen wirkt oft überzeugend, aber genau das macht’s ja so tricky.
 
Werbung:
frenilshtar jubelt automatisch bei Impertinenz, so wie bei Menschenverachtung.
Fliegen fliegen ja auch atomatisch gewisse Gegenstände/Substanzen an.
 
Zurück
Oben