Ziel der Hamas ist die Zerstörung Israels

@LalDed
Ich hatte außerdem hier vor ein paar Seiten den Bericht der Tagesschau verlinkt, der berichtet, dass Israel nunmehr Flüchtlingslager im Süden Gazas in der humanitären Zone aus der Luft angreift. Zelte aus der Luft.
Al Jazeera Propaganda?
Dann glaub das mal.
 
Werbung:
Das war hier die Frage. Wer, bitte schön, macht das? Es gibt für diese Behauptung keinen einzigen Beleg. Weder eine Interview-Äußerung, noch einen schriftliche schriftliche Äußerung von irgend einem Israeli. Die These, dass es radikale Typen in Israel gäbe, die die Landnahme aus der Bibel ableiten würden, ist komplett ersonnen, eine Luftnummer.

So, und jetzt kommst du und hältst mir einen Riesenvortrag über antizionistische Juden in Israel.

Geht's noch? :confused4

Da scheinst Du mich zu verwechseln. Ich habe keinen einzigen Satz über „antizionistische Juden“ geschrieben.

Das sich religiöse Fundamtalisten auf Gott berufen, in dem Fall der Thora/Altes Testament ist nun wirklich eine in sich völlig logische Binsenweisheit , siehe den von mir zitierten Artikel der NZ
Als Christen mag ich mich im AT besser auskennen, insofern bist Du entschuldigt, Bibelstelle und Zeitungsartikel sind entgegen Deiner Behauptung ebenfalls von mir zitiert.
 
Zuletzt bearbeitet:
Ergänzung zur KI, für alle, die glauben, "perplexity" sei eine seriöse Informationsquelle:

Das gefährliche Lügenproblem der KI
---------------------------------------
Die Chatbots von Google, Meta oder OpenAI neigen dazu, Informationen zu erfinden. Schlimmer noch: Sie fantasieren sogar vermeintliche Quellen herbei. Schon beim Kochen kann das böse Folgen haben. Noch fataler wird es aber beim Einsatz in der Medizin. Und Lösungen sind rar.


Alltagsfragen, mehr Informationen zu Nachrichten, historische Hintergründe – da ist es praktisch, eine künstliche Intelligenz (KI) jederzeit um Hilfe bitten zu können. Perplexity.ai zum Beispiel. Die Suchmaschine eines KI-Start-ups aus San Francisco basiert auf künstlicher Intelligenz, kann das Internet tagesaktuell durchsuchen und erstellt Zusammenfassungen zu Ereignissen. So will der Anbieter dem Platzhirsch Google Konkurrenz machen.
Perplexity nennt sogar Quellen in Form von Links. Nur gibt es dabei ein Problem: Die KI erfindet Webseiten. Bei einer Recherche zum Seilbahnunglück im türkischen Antalya Mitte April etwa fantasiert sie eine Beteiligung des deutschen TÜV Süd bei der Sicherheitsprüfung herbei.
Schlimmer noch: Als Beleg zitiert sie aus einer erfundenen Pressemitteilung des Unternehmens. Der Algorithmus liefert sogar einen Quellenlink – der ins Nichts führt. Anfragen beim TÜV Süd ergeben: Er hat mit der Prüfung der Anlage nichts zu tun.
Perplexity lügt. Zumindest in diesem Fall. Wie manche Menschen unter Druck, die sich bei einer Frage unvorbereitet ertappt fühlen und dann Antworten erfinden, fantasiert die KI in diesem Fall eine Pseudo-Realität herbei. Der Perplexity-Algorithmus ist nicht die einzige KI mit diesem Problem.

 
Arte Themenabend vor ca. zwei Wochen britische Dokumentation aus Sicht der Opfer beider Seiten.
Habe ich hier schon 3 x drauf hingewiesen.
Sie heißt " Israel und Gaza, die Opfer von Terror und Krieg" , ist von 2024, und verfügte bis 25.11.2025.
Das ARD Presseteam, das war ein kürzerer Bericht im Rahem einer Sendung ,den finde ich nicht mehr.
E gibt außerdem immer wieder kürzere Beiträge von NGO Mitarbeitern, die.da waren, und berichteten.etc.
Kann echt nicht dein Ernst sein zu glauben dass die Berichte über diese Zerstörungen in Gaza von Al Jazeera kommen und Propaganda sind und, dass sie das Ergebnis Istaels Bemühen um Schutz der Zivilbevölkerung sind.

Keine Reaktion außerdem hier, nie!, auf die immer wieder angesprochenen Blockaden von Hilfslieferungen, Wasser abstellen etc. Die Leute in Gaza verhungern. Nie kommt von euch eine einzige Reaktion darauf...das ist abartig,unmenschlich und widerwärtig.
Und du willst ernsthaft behaupten,solche Maßnahmen bezeugen Israels Bemühungen um Schutz der Zivilisten?

Mit der arte Doku oben hättest du theoretisch schon einen guten Einblick, sie ist nicht parteiisch zudem.
Man muss halt sehen wollen,das ist das Problem.
Kein Terroranschlag durch Verbrecher des Hamas am 07.10. 2023, keine hungernden Menschen, keine Raketen etc.
Beschwer Dich bei der Mörderbande und ihren Untertützern.
 
Ergänzung zur KI, für alle, die glauben, "perplexity" sei eine seriöse Informationsquelle:

Das gefährliche Lügenproblem der KI
---------------------------------------
Die Chatbots von Google, Meta oder OpenAI neigen dazu, Informationen zu erfinden. Schlimmer noch: Sie fantasieren sogar vermeintliche Quellen herbei. Schon beim Kochen kann das böse Folgen haben. Noch fataler wird es aber beim Einsatz in der Medizin. Und Lösungen sind rar.


Alltagsfragen, mehr Informationen zu Nachrichten, historische Hintergründe – da ist es praktisch, eine künstliche Intelligenz (KI) jederzeit um Hilfe bitten zu können. Perplexity.ai zum Beispiel. Die Suchmaschine eines KI-Start-ups aus San Francisco basiert auf künstlicher Intelligenz, kann das Internet tagesaktuell durchsuchen und erstellt Zusammenfassungen zu Ereignissen. So will der Anbieter dem Platzhirsch Google Konkurrenz machen.
Perplexity nennt sogar Quellen in Form von Links. Nur gibt es dabei ein Problem: Die KI erfindet Webseiten. Bei einer Recherche zum Seilbahnunglück im türkischen Antalya Mitte April etwa fantasiert sie eine Beteiligung des deutschen TÜV Süd bei der Sicherheitsprüfung herbei.
Schlimmer noch: Als Beleg zitiert sie aus einer erfundenen Pressemitteilung des Unternehmens. Der Algorithmus liefert sogar einen Quellenlink – der ins Nichts führt. Anfragen beim TÜV Süd ergeben: Er hat mit der Prüfung der Anlage nichts zu tun.
Perplexity lügt. Zumindest in diesem Fall. Wie manche Menschen unter Druck, die sich bei einer Frage unvorbereitet ertappt fühlen und dann Antworten erfinden, fantasiert die KI in diesem Fall eine Pseudo-Realität herbei. Der Perplexity-Algorithmus ist nicht die einzige KI mit diesem Problem.

Ich sehe da keinen Kontext zum Thread.
 
Werbung:
Zurück
Oben