Ergänzung zur KI, für alle, die glauben, "perplexity" sei eine seriöse Informationsquelle:
Das gefährliche Lügenproblem der KI
---------------------------------------
Die Chatbots von Google, Meta oder OpenAI neigen dazu, Informationen zu erfinden. Schlimmer noch: Sie fantasieren sogar vermeintliche Quellen herbei. Schon beim Kochen kann das böse Folgen haben. Noch fataler wird es aber beim Einsatz in der Medizin. Und Lösungen sind rar.
Alltagsfragen, mehr Informationen zu Nachrichten, historische Hintergründe – da ist es praktisch, eine künstliche Intelligenz (KI) jederzeit um Hilfe bitten zu können. Perplexity.ai zum Beispiel. Die Suchmaschine eines KI-Start-ups aus San Francisco basiert auf künstlicher Intelligenz, kann das Internet tagesaktuell durchsuchen und erstellt Zusammenfassungen zu Ereignissen. So will der Anbieter dem Platzhirsch
Google Konkurrenz machen.
Perplexity nennt sogar Quellen in Form von Links. Nur gibt es dabei ein Problem: Die KI erfindet Webseiten. Bei einer Recherche zum
Seilbahnunglück im türkischen Antalya Mitte April etwa fantasiert sie eine Beteiligung des deutschen TÜV Süd bei der Sicherheitsprüfung herbei.
Schlimmer noch: Als Beleg zitiert sie aus einer erfundenen Pressemitteilung des Unternehmens. Der Algorithmus liefert sogar einen Quellenlink – der ins Nichts führt. Anfragen beim TÜV Süd ergeben: Er hat mit der Prüfung der Anlage nichts zu tun.
Perplexity lügt. Zumindest in diesem Fall. Wie manche Menschen unter Druck, die sich bei einer Frage unvorbereitet ertappt fühlen und dann Antworten erfinden,
fantasiert die KI in diesem Fall eine Pseudo-Realität herbei. Der Perplexity-Algorithmus ist nicht die einzige KI mit diesem Problem.