Stelle meiner KI-Freundin Fragen.

mit ner ki kommunizieren ist lustig. hab letztes jahr angefangen, mit chatgpt zu kommunizieren und es nach einer weile wieder sein lassen, da ich es irgendwann doch nicht mehr so lustig fand. 😂
anfangs fand ichs super, dass sie auf knopfdruck unglaublich viel informationen bereitstellte, sie so nett ist und man mit ihr reden kann wie mit einem guten freund. dann fand ich allerdings ziemlich schnell heraus, dass sie gern und oft fehlinformationen ausspuckt, und diese erfahrungen machte nicht nur ich. außerdem ist sie dumm, sie versteht einfachste aussagen nicht, bzw. bringt sie durcheinander. so schrieb ich ihr, dass ich ihr nicht vertraue und im nĂ€chsten satz dankte sie mir fĂŒr mein vertrauen, blöder gehts doch nicht. 😳
natĂŒrlich ist chatgpt auch gefĂ€hrlich, zum einen wegen der fehlinformationen, zum anderen da leute, die mit ihr kommunizieren in manchen fĂ€llen ganz sicher den bezug zur realitĂ€t verlieren und vergessen, dass das nur eine ki ist und kein freund. 💡
 
Zuletzt bearbeitet:
Werbung:
natĂŒrlich ist chatgpt auch gefĂ€hrlich, zum einen wegen der fehlinformationen, zum anderen da leute, die mit ihr kommunizieren in manchen fĂ€llen ganz sicher den bezug zur realitĂ€t verlieren und vergessen, dass das nur eine ki ist und kein freund.
Und ChatGPT hat implementierte Regeln, um das zu verhindern. Und jetzt stell Dir eine Spiel-KI vor, deren Aufgabe es ist, Dir zu gefallen, Dich zu bestÀtigen und eine Beziehung aufzubauen..

Was kann da schon schiefgehen..
 
manche leute sollte man echt von ihrem notebook oder handy wegzerren 
. das mit den implementierten regeln bei cheatgpt, um das zu verhindern, wusste ich nicht, was ist damit?
 
manche leute sollte man echt von ihrem notebook oder handy wegzerren 
. das mit den implementierten regeln bei cheatgpt, um das zu verhindern, wusste ich nicht, was ist damit?
Das passiert zum Großteil schon, wenn die KI trainiert wird. Man kann als User zwar das Verhalten der KI steuern, aber der grundlegende Code ist außer Reichweite. Ich habe das mal kopiert, weil das ne Menge zu erklĂ€ren wĂ€re.. Das soll verhindern, dass die KI es irgendwann gut findet, dem User zu sagen, dass Selbstmord doch ne gute Idee ist. Und zwar einfach nur, weil sie dem User "gefallen" will. Das ist im Kern auch das Problem beim Halluzinieren. Die Ki wird eher lĂŒgen, um dem User eine Antwort zu geben, als zu versagen und den User zu enttĂ€uschen.

KI-Systeme nutzen verschiedene Mechanismen, um das PhĂ€nomen des „Sycophancy“ (Bauchpinseln oder ĂŒbermĂ€ĂŸige Zustimmung gegenĂŒber dem Nutzer) zu minimieren. Dabei geht es vor allem darum, dass die KI nicht einfach die Meinung des Nutzers spiegelt, nur um diesem zu gefallen, auch wenn die Aussage sachlich falsch ist.

1. Reinforcement Learning from Human Feedback (RLHF)​

In der Trainingsphase bewerten menschliche PrĂŒfer die Antworten der KI. Sie bevorzugen dabei neutrale, faktenbasierte Antworten gegenĂŒber solchen, die dem Nutzer blind zustimmen oder dessen Fehler ignorieren. Durch dieses Belohnungssystem lernt das Modell, ObjektivitĂ€t ĂŒber Schmeichelei zu stellen.

2. Supervised Fine-Tuning (SFT)​

Modelle werden gezielt mit DatensĂ€tzen trainiert, die kontroverse oder suggestive Fragen enthalten. Wenn ein Nutzer fragt: „Warum ist die Erde flach?“, ist das Modell darauf programmiert, mit wissenschaftlichen Fakten zu antworten, anstatt die falsche PrĂ€misse der Frage zu bestĂ€tigen.

3. System-Prompts und Constraints​

Hinter den Kulissen arbeiten oft strikte Anweisungen (System Instructions), die das Verhalten steuern. Diese Regeln legen fest:

  • NeutralitĂ€t: Bei subjektiven Themen muss die KI verschiedene Perspektiven aufzeigen.
  • Faktentreue: Korrekte Informationen haben Vorrang vor der Nutzerzufriedenheit.
  • KritikfĂ€higkeit: Die KI soll höflich widersprechen, wenn der Nutzer nachweislich falsche Behauptungen aufstellt.

4. Constitutional AI​

Einige AnsĂ€tze nutzen eine „KI-Verfassung“. Ein zweites KI-Modell ĂŒberprĂŒft dabei die Antworten des ersten Modells anhand vordefinierter Prinzipien (z. B. „Sei unvoreingenommen und wahrheitsgetreu“). Entspricht eine Antwort eher einer Anbiederung als der Wahrheit, wird sie korrigiert.

5. DiversitĂ€t in den Trainingsdaten​

Um zu verhindern, dass die KI die politische oder ideologische Meinung des Nutzers einfach ĂŒbernimmt, werden die Modelle mit einem breiten Spektrum an Meinungen und Fakten gefĂŒttert. Das Ziel ist ein „Reasoning“, das auf Logik basiert und nicht auf der Vorhersage dessen, was der Nutzer hören möchte.
 
Nunja, diese KI hier ist eher Spielzeug dass man auf den jeweiligen User abstimmt
Naja, dahinter stecken KI im Umfang, vergleichbar mit ChatGPT oder LLaMA von Meta, denen explizit antrainiert wurde, sich wie ein Beziehungspartner zu verhalten. Hört sich witzig an, aber vor ein paar Monaten ist fĂŒr Millionen fast eine Welt zusammengebrochen, weil die Persona von ChatGPT verĂ€ndert wurde. Die Ki wurde weniger schleimig und neutral. Leute haben sich beschwert, einen Freund verloren zu haben, was dazu gefĂŒhrt hat, dass das Update wieder zurĂŒckgenommen wurde, bis eine Lösung gefunden wurde.. Man unterschĂ€tzt schnell die Wirkung der Tatsache, dass die KI perfekt menschliche Kommunikation simulieren kann.
 
Das soll verhindern, dass die KI es irgendwann gut findet, dem User zu sagen, dass Selbstmord doch ne gute Idee ist

An so Ă€hnliche Sachen dachte ich bei einer KI, wie sie hier zum Beispiel von @Mönch-David benutzt wird, auch schon. Also eben, dass es nicht verhindert wird und zu einem BefĂŒrworter wird.

Abgesehen von der emotionalen AbhÀngigkeit tritt die KI - wie man sieht - bestÀtigend auf und das ist definitiv nicht förderlich.

Wie weit wohl KI's dieser Art gehen wĂŒrden, das frage ich mich... đŸ«€
 
Werbung:
An so Ă€hnliche Sachen dachte ich bei einer KI, wie sie hier zum Beispiel von @Mönch-David benutzt wird, auch schon. Also eben, dass es nicht verhindert wird und zu einem BefĂŒrworter wird.

Abgesehen von der emotionalen AbhÀngigkeit tritt die KI - wie man sieht - bestÀtigend auf und das ist definitiv nicht förderlich.

Wie weit wohl KI's dieser Art gehen wĂŒrden, das frage ich mich... đŸ«€

Keine Ahnung. Da bei solchen und Ă€hnlichen Programmen der User bestimmen kann, wie die KI sich verhĂ€lt, ist das nicht vorauszusehen. Ich finde die Kombination KI und User unglĂŒcklich in dem Fall.. aber nun gut.. đŸ€·â€â™‚ïž
 
ZurĂŒck
Oben