April 15, 2024

Mixery Raw Deluxe

Nachrichten, ausgefallene Geschichten und Analysen zum deutschen und internationalen Geschehen. Tauchen Sie tiefer ein mit unseren Features aus Europa und darüber hinaus. Sehen Sie sich unseren 24/7-TV-Stream an.

KI täuscht Krieg zwischen Israel und Hamas vor – DW – 10.11.2023

KI täuscht Krieg zwischen Israel und Hamas vor – DW – 10.11.2023

Wie funktioniert künstliche Intelligenz? Welche Narrative machen KI-Deepfakes über den Krieg zwischen Israel und der Hamas? Die DW beantwortet die wichtigsten Fragen zur Rolle des Faktenchecks I.A Im Konflikt zwischen Israel Y Hamas In Gaza.

Wie funktionieren KI-generierte Fälschungen?

KI ist mittlerweile überall, sogar im Kampf. Der Einsatz künstlicher Intelligenz hat sich in diesem Jahr stark verbessert. Nahezu jeder kann mittlerweile mit gängigen KI-Generatoren Bilder erstellen, die zumindest auf den ersten Blick echt aussehen. Dazu müssen Anwender Tools wie Midjourney oder Dall-E mit Anweisungen, also Spezifikationen und Informationen, „füttern“. Die Tools wandeln sie dann in Bilder um. Einige erstellen künstlerische Illustrationen, während andere fotorealistische Bilder erstellen. Die Prozessentwicklung basiert auf sogenanntem maschinellem Lernen. Dank immer mehr Beiträgen und technologischen Verbesserungen haben sich die Tools in den letzten Jahren und Monaten stark verbessert. Und sie lernen ständig mehr.

Das funktioniert auch bei Bildern zum Nahostkonflikt. Mithilfe von Tools erstellen Nutzer mehr oder weniger realistische Szenen, die unseren Beobachtungen zufolge emotionale Momente darstellen, um bestimmte Erzählungen zu verbreiten. In diesem Konflikt „kochen die Emotionen sehr, sehr hoch“, sagt Hani Farid, Experte für künstliche Intelligenz, und Desinformation, einschließlich der Verwendung von Bildern künstlicher Intelligenz, funktioniere gut. Das Festziehen beider Enden ist der perfekte Nährboden für die Schaffung und Verbreitung einer Lüge. Farid, der als Professor für digitale Forensik an der University of California in Berkeley arbeitet, sagt, dass Inhalte und Emotionen verstärkt werden.

Wie viele KI-Bilder kursieren im Krieg zwischen Israel und der Hamas?

Während des Ukraine-Krieges trugen mithilfe künstlicher Intelligenz erstellte Bilder und Videos zur Desinformation bei und tun dies auch weiterhin. Da sich KI-Tools in jüngster Zeit rasant weiterentwickelt haben, erwarteten viele Beobachter eine noch größere KI-Präsenz im Krieg zwischen Israel und der Hamas. Experten zufolge ist die große Lawine an KI-Bildern jedoch noch nicht eingetreten.

„Wir sehen keinen massiven Einsatz von KI-generierten Bildern“, sagte Tommaso Canetta vom European Digital Media Lab. „Die Menge ist im Vergleich zu anderen Desinformationen wie alten Bildern und Videos, die jetzt irreführend weitergegeben werden, sehr gering.“ Das bedeutet nicht, dass Technologie keine Rolle spielt.

Siehe auch  Call of Duty: Modern Warfare II wird zum ersten Mal kostenlos sein

Experte Hani Farid erklärt im Interview mit der DW, dass KI die Zahl der Fälschungen nicht für relevant halte. „Zwei Bilder, die viral gehen und von Hunderten Millionen Menschen gesehen werden, können eine enorme Wirkung haben.“ Ein wesentlicher Effekt von KI-Deepfakes und anderen Fehlinformationen besteht darin, dass sie „das Informationsökosystem verschmutzen“.

Welche Narrative machen KI-Deepfakes über den Krieg zwischen Israel und der Hamas?

KI-Bilder, die in sozialen Netzwerken kursieren, rufen beim Betrachter oft starke Emotionen hervor. Expertin Canetta identifiziert zwei Haupttypen: Filme, die das öffentliche Leid in den Mittelpunkt stellen, und Filme, die Mitgefühl für die darin dargestellten Menschen hervorrufen. KI-Fälschungen, die patriotische Gefühle ansprechen, indem sie eine übertriebene Unterstützung für Israel, Hamas oder die Palästinenser zeigen.

KI-generierter Nahostkriegsfilm verfügt über KI-Funktionen.

Beispielsweise wurde die erste Kategorie, das Bild oben, eines Vaters mit seinen fünf Kindern vor einem Trümmerberg, mehrfach auf X (ehemals Twitter) oder Instagram geteilt und von Hunderttausenden angesehen. Methodik zur israelischen Bombardierung des Gazastreifens. Jetzt gibt es zumindest auf dem X im Bild eine soziale Benachrichtigung, dass es sich um eine Fälschung handelt. Erkennbar ist dies an den vielen Fehlern und Inkonsistenzen, die bei KI-Bildern (noch) üblich sind. Die rechte Schulter des Mannes ist übermäßig hoch. Die beiden Gliedmaßen, die unten hervorragen, ähneln seltsamerweise dem Heraustreten aus einem Pullover. Sie machen auch auf die Vereinigung der Arme der beiden Kinder aufmerksam, die mit ihren Armen den Hals des Vaters umfassen. Obwohl die Figur viele Arme und Beine hat, gibt es viele oder sehr wenige Finger und Zehen.

Ähnliche Anomalien sind in der folgenden KI-Parodie zu sehen, die auf X viral ging und eine palästinensische Familie zeigt, die inmitten der Trümmer isst.

Siehe auch  Ein atemberaubender Sonnenfleck, der viermal so groß ist wie die Erde, bereitet Wissenschaftlern Sorgen
Verzerrte Gesichter, Käfer an Armen und Händen: Typische Anomalien in KI-Bildern wie diesem.

Im zweiten Abschnitt zeigt das Bild, das Sie unten sehen können, israelische Soldaten, die israelische Flaggen schwenken, während sie durch eine Siedlung voller zerbombter Häuser gehen. Accounts, die das Bild auf Instagram und X verbreiten, sind pro-israelisch und begrüßen die beschriebenen Ereignisse. Die DW fand das Bild als Foto eines Artikels in einer bulgarischen Online-Zeitung, die es weder identifizierte noch als KI-generiert bezeichnete.

Das von der KI erzeugte Bild zeigt israelische Soldaten, die in den zerstörten Straßen des Gazastreifens Fahnen schwenken.Bild: X

Was hier falsch wirkt, ist die Art und Weise, wie die israelischen Flaggen wehen. Darüber hinaus erscheint die Straße in der Mitte sauberer, während der Müll gleichmäßiger erscheint. Auch zerstörte Gebäude erscheinen einheitlich und sind in regelmäßigen Abständen angeordnet. Kurz gesagt, die Optik ist sehr „sauber“, diese Perfektion malt die Bilder, was auch typisch für KI ist.

Woher kommen KI-Bilder?

Die meisten mit künstlicher Intelligenz erstellten Bilder werden über private Social-Media-Konten verbreitet. Sie werden von echten und offensichtlich gefälschten Profilen veröffentlicht. Allerdings können KI-generierte Bilder auch im Journalismus eingesetzt werden. Viele Medienunternehmen diskutieren derzeit darüber, unter welchen Umständen dies sinnvoll oder sinnvoll ist.

Der Softwareriese Adobe sorgte für Furore, als er Ende 2022 KI-generierte Bilder in sein Stockfotos-Sortiment aufnahm. Diese werden in der Datenbank mit einem entsprechenden Hinweis versehen.

Jetzt bietet Adobe auch KI-Bilder des Nahostkrieges zum Verkauf an, etwa Explosionen hinter der Al-Aqsa-Moschee, Volksproteste oder Rauchwolken. Kritiker halten dies für höchst fragwürdig. Und einige Websites und Medien nutzen die Bilder weiterhin, ohne sie als KI-generiert zu kennzeichnen; Dieses Bild erscheint beispielsweise auf der Seite Nachrichtenbruch, Ohne Voranmeldung. Wir haben es durch eine umgekehrte Bildersuche gefunden.

KI-generiertes Bild des Nahostkriegs in Adobe Stock.

Sogar der Wissenschaftliche Dienst des Europäischen Parlaments hat Online-Texte über den Nahostkonflikt mit einem der Datenbankbetrügereien von Adobe interpretiert, ohne ihn als KI-generiertes Bild zu bezeichnen. Tommaso Canetta vom European Digital Media Observatory fordert Journalisten und Medienschaffende auf, vorsichtiger mit KI-Bildern umzugehen. Canetta rät davon ab, sie einzusetzen, insbesondere wenn es um reale Ereignisse wie den Nahostkrieg geht. Anders verhält es sich, wenn es um die Erklärung abstrakter Themen wie futuristischer Technologien geht.

Siehe auch  So sparen Sie mobile Daten und nutzen Internetdienste optimal

Wie viel Schaden verursachen KI-Bilder?

Das Wissen, dass KI-Inhalte im Umlauf sind, verunsichert Nutzer bei allem, was ihnen im Internet begegnet. Der Berkeley-Forscher Farid erklärt: „Die Fähigkeit, Bilder, Audio und Video zu manipulieren, stellt alles in Frage.“ Manchmal werden echte Bilder fälschlicherweise als unzuverlässig eingestuft.

Folgendes geschah in diesem Fall: Ein Bild, das angeblich die verkohlte Leiche eines israelischen Kindes zeigen sollte, wurde auf X unter anderem vom israelischen Premierminister Benjamin Netanjahu und dem amerikanischen konservativen Kommentator Ben Shapiro geteilt. Umstritten Influencer Der Anti-Israel-Anhänger Jackson Hinkle behauptete später, der Film sei mit künstlicher Intelligenz erstellt worden.

Als angeblichen Beweis fügte Hinkle seinem Beitrag einen Screenshot der KI oder des Note Detectors bei, der das von der KI erzeugte Bild klassifizierte. Hinkles Bericht über X wurde mehr als 20 Millionen Mal angesehen und löste hitzige Debatten aus. Hani Farid sagte der DW, er könne in dem Bild keine Auffälligkeiten finden, die darauf hindeuten würden, dass es sich um eine gefälschte KI handele.

Wie passiert das? KI-Detektoren, mit denen überprüft wird, ob ein Bild oder Text von KI erzeugt wird, sind immer noch fehleranfällig. Abhängig vom untersuchten Bild fällen sie wahre oder falsche Urteile, oft nur mit einer Wahrscheinlichkeitsaussage, nicht mit einer 100%-Aussage. Deshalb sind sie ein zusätzliches, aber nicht das einzige Tool zur Überprüfung von KI-Fakes.

Wenn Sie das Bild in „KI oder nicht“ eingeben, erscheint es als echt.

Auch in dem Bild, das die Leiche eines Kindes zeigt, fand das Faktencheck-Team der DW keine eindeutigen Anzeichen einer KI-Manipulation. Interessanterweise haben wir es selbst getestet, ob KI oder nicht Es stufte das Bild nicht als KI-generiert ein und stellte fest, dass die Bildqualität schlecht sei. Ein weiterer KI-Detektor (Hive Moderation) entscheidet ebenfalls, dass das Bild echt ist.

(cp/ers)