KI - schaffen wir uns ab?

Nebenbei ist das Halluzinieren der KI schon seit Langem wesentlich reduziert worden und kann man auch im privaten Bereich auf fast null reduzieren. Das ist so wie bei Wiki , wo immer noch alle glauben, jeder könnte schreiben, was er wolle, es gibt keine Kontrolle und alle in Wiki ist sowieso falsch :D
Schwachsinn. KI tendiert immer noch dazu, zu halluzinieren. Das muss auch nicht unbedingt an der KI selbst liegen, sondern liegt durchaus an den Fragestellern und ihrer Eingaben und den Kontexten, die innerhalb einer Diskussion erzeugt werden, und wenns allgemein zu einem Thema keine oder widersprüchliche Infos gibt.
 
Werbung:
Uhh, dieser Ausbruch an roher Männlichkeit hat mich jetzt tatsächlich etwas scharf gemacht.. und dann habe ich festgestellt, dass es dir, mir zu versuchen, ans Bein zu pinkeln, wichtiger war, als korrekt zu lesen, und der Zauber war wieder hin.🤷‍♂️
Nebenbei ist das Halluzinieren der KI schon seit Langem wesentlich reduziert worden und kann man auch im privaten Bereich auf fast null reduzieren.
Liegt wahrscheinlich nur an mir, aber da steht nicht, dass KI nicht halluziniert … sondern dass es reduziert wurde und man es privat noch weiter reduzieren kann.
 
Uhh, dieser Ausbruch an roher Männlichkeit hat mich jetzt tatsächlich etwas scharf gemacht.. und dann habe ich festgestellt, dass es dir, mir zu versuchen, ans Bein zu pinkeln, wichtiger war, als korrekt zu lesen, und der Zauber war wieder hin.🤷‍♂️

Liegt wahrscheinlich nur an mir, aber da steht nicht, dass KI nicht halluziniert … sondern dass es reduziert wurde und man es privat noch weiter reduzieren kann.
Nein, es wurde nicht wesentlich reduziert. Das nach einigen Jahren Fortschritte gemacht werden...sie waren stehts bemüht oder so.
 
lol :D …Alleine GPT5 hat zu 4 eine fast 30 Prozent geringere Halluzinierrate. Neuere Modelle liegen um 1 Prozent in den Leaderboards. Schon seit Monaten unterhält man sich nicht mit einer Ki sondern intern mit einer Gruppe, die sich intern gegenseitig überprüft. LLM-Modelle werden beim Training schon darauf spezifiziert, keine Antwort zu geben oder zu verweigern, wenn sie etwas nicht wissen. Falsche Antworten sind immer häufiger kein Halluzinieren, sondern beruhen auf inkorrekten Quellen. Bzw. beruhen sie jetzt darauf, dass die KI zu klug wird und sich selbst dummredet, was durch mehrere parallel laufende Agenten minimiert wird. Bei Standardaufgaben wie Zusammenfassung von Quellen oder internem Wissen würde das Halluzinieren um 80-90 Prozent reduziert.
 
lol :D …Alleine GPT5 hat zu 4 eine fast 30 Prozent geringere Halluzinierrate. Neuere Modelle liegen um 1 Prozent in den Leaderboards. Schon seit Monaten unterhält man sich nicht mit einer Ki sondern intern mit einer Gruppe, die sich intern gegenseitig überprüft. LLM-Modelle werden beim Training schon darauf spezifiziert, keine Antwort zu geben oder zu verweigern, wenn sie etwas nicht wissen. Falsche Antworten sind immer häufiger kein Halluzinieren, sondern beruhen auf inkorrekten Quellen. Bzw. beruhen sie jetzt darauf, dass die KI zu klug wird und sich selbst dummredet, was durch mehrere parallel laufende Agenten minimiert wird. Bei Standardaufgaben wie Zusammenfassung von Quellen oder internem Wissen würde das Halluzinieren um 80-90 Prozent reduziert.
Joa so ähnlich siehts bei mir auch aus, wenn mich mein Chef nach nem Arbeitsbericht fragt.
 
Wichtige Bemerkungen hierzu, Halluzination im Sinne, von dem was eine KI tun soll ist nicht klar definiert, jede Benchmark-Seite/Liste hat ihre eigenen Methoden zur Ermittlung der Zahlen, die sie einem entgegenwerfen:

Was auch ganz wichtig zu verstehen ist, Sprachmodelle sind tendenziell deutlich anfälliger zu halluzinieren und je besser sie sprachlich werden desto eher neigen sie dazu auch freizügiger Informationen zu handhaben.

Die Halluzinationsrate nimmt deutlich mit der Länge der Texte zu, also auch, wenn man ganz offen und unbeschwert mit der KI schreibt, wird sie immer fehlerhafter in ihren Aussagen, was ich auch aus meiner eigenen Erfahrung so mitbekomme, mehr als ein paar Nachfragen oder Kommentare verträgt das Modell nicht, dass ich verwende.



Komplett von Menschen ausgewertet, hat auch deutlich strengere regeln, was eine Halluzination ist.


Keine Ahnung, die hatte viele bunte Bilder, ich mag bunte Bilder.
 
Werbung:
Zurück
Oben