KI und Wahlen: Wie generierte Inhalte politische Meinungsbildung beeinflussen
Gesa Feldhusen
29.10.2024
KI-generierte Bilder prägen zunehmend politische Diskurse und Wahlkämpfe, sowohl in den USA als auch in Europa. Sie bieten neue Möglichkeiten, Meinungen zu beeinflussen, bergen aber auch Risiken – von verzerrten Realitäten bis zur Verstärkung von Stereotypen. Dieser Beitrag beleuchtet die Chancen und Herausforderungen von KI-Bildern im politischen Kontext.
Intro
Die nächsten Präsidentschaftswahlen in den USA stehen an, und auch für uns in Europa ist der Wahlkampf von hoher Relevanz. Es ist ein Wahlkampf, der zeigt, wie durch Künstliche Intelligenz (KI) generierte Inhalte als Tool genutzt werden können, um den politischen Diskurs zu beeinflussen. Und dies, wie es scheint, vor allem im und aus dem politischen Spektrum von konservativ bis rechts. Im europäischen Kontext gibt es unter anderem Beispiele von der AfD in Deutschland oder von der SVP und FDP in der Schweiz, die KI-generierte Inhalte für politische Kampagnen nutzen. Dass technologische Entwicklungen politische Diskurse prägen, ist unbestritten, mit Rückblick auf die Europawahlen 2024 und den Ausblick auf die Präsidentschaftswahlen frage ich mich jedoch:
Wie beeinflussen KI-generierte Bilder aktuelle und zukünftige Wahlen?
Natürlich sprengt die Komplexität dieser Frage einen Blogeintrag in dieser Länge, und dennoch möchte ich versuchen, mich dem Thema mit ein paar Gedanken anzunähern.
Der Einfluss von visuellen Inhalten
Nicht erst seit der Nutzung von KI-generierten Bildern können Meinungen durch visuelle Inhalte beeinflusst und Realitäten verzerrt werden. Sie sind schon lange ein Mittel der politischen Meinungsbildung. So werden Bilder und Fotografien, sei es nun in Medien oder in der politischen Kommunikation von Regierungen, als Hilfsmittel für Toleranz und Verständnis in den politischen Diskurs eingebaut und beinhalten somit die Fähigkeit, Politik zu gestalten (Sontag, 1977 & Johnson, 2018 & Bleiker, 2018). Die aktuellen Wahlen sind nicht die ersten, in denen mit Technologie Inhalte generiert werden, um den Diskurs zu beeinflussen. Während der US-Wahlen 2018 machte zum Beispiel ein Deep-Fake-Video von Obama die Runde (Mak, 2020).
Aktuell beobachten wir jedoch eine neue weitreichende Dimension, die durch KI-Technologien befördert wird. So sehen wir online vermehrt visuelle Inhalte, die von KI generiert werden. Google ich «Swiss Citizen» erscheinen Bilder von Schweizer Pässen, bei der Suche nach «German Citizen» zeigen die Resultate einen deutschen Pass und ein KI-generiertes Bild von einer weissen, blonden Frau, die stolz eine Deutschlandflagge hält. Und wenn ich nach «Gambian Citizen» suche, stellen die ersten drei Bilder eine durch KI generierte Frau dar, während nur sehr wenige Bilder eines Reisepasses gezeigt werden.
Diese Suchanfragen verdeutlichen, dass KI-generierte Inhalte weit verbreitet sind und oft westliche Sichtweisen darstellen, – eine Folge der Problematik, dass die KI-Bilder auf vorurteilsbehafteten Datensätzen basieren, die Stereotypen reproduzieren (Turk & Turk, 2024). Solche Bilder können von allen Internetnutzer:innen oder gar von Suchmaschinen selbst generiert werden und landen wiederum in den Sozialen Medien und in Resultaten von neuen Suchanfragen. Für Nutzer:innen, die sich auf den Plattformen bewegen, ist nicht immer klar ersichtlich, welche Bilder KI-generiert sind. Somit wird die Meinungsbildung im digitalen Raum immer komplexer.
Der Wahlkampf in den USA als Vorläufer
«Trump wirbt mit KI-Bildern, um fälschlicherweise zu suggerieren, Taylor Swift habe ihn unterstützt» titelte die New York Times im August. KI-generierte Bilder liessen es so aussehen, als ob Taylor Swift ihre Fans dazu aufruft, Trump zu wählen. Andere generierte Bilder zeigten Schwarze Wählerinnen, die gemeinsam hinter Trump stehen (Spring, 2024). Trump und seine Anhänger:innen nutzen KI-Tools, um den Eindruck zu erwecken, dass Schwarze und FINTA-Personen entgegen den Erwartungen am 5. November in grosser Zahl für ihn stimmen werden.
Dass Politiker:innen solche Bilder und damit die Identität von Personen des öffentlichen Lebens oder marginalisierten Gruppen für ihren Wahlkampf nutzen dürfen, ist höchst problematisch.
Auch wenn einige dieser Inhalte absurd erscheinen, sind sie höchst kritisch zu betrachten. Denn diese «[...] werden zu nützlichen Instrumenten für die Verbreitung falscher, manchmal rassistischer Botschaften mit klarer politischer Ausrichtung – und Kandidaten und ihre Unterstützer gehören zu denen, die sie in den sozialen Medien teilen.» (Merica et al., 2024) Bei genauerem Hinsehen sind viele dieser Bilder als KI-generiert erkennbar, doch im medialen Überfluss geht das oft unter, und die Tools werden immer besser. Viele Nutzer:innen können KI-generierte Bilder nicht von echten Fotografien unterscheiden. Wie zum Beispiel auch der Digitalbarometer 2024 der Stiftung Risiko-Dialog zeigt, fehlen Nutzer:innen Kompetenzen, um sich sicher und eigenständig im Netz zu bewegen. Dabei war schon vor ChatGP und KI-generierten Bildern bekannt, dass Menschen Schwierigkeiten haben, virtuelle Bilder nach ihrer Echtheit zu bewerten (Jingnan, 2024). Auch wenn es wichtig ist, dass wir als Nutzer:innen die nötigen Kompetenzen entwickeln, um uns sicher in der digitalen Welt zu bewegen, kann die Verantwortung nicht allein auf das Individuum abgewälzt werden. Plattformen müssen stärker reguliert werden, um die Verbreitung von KI-generierten Inhalten zu kontrollieren. Doch wie generell bei Themen wie Desinformation oder Hate Speech übernehmen Plattformen wenig Verantwortung – wohl auch, weil KI für sie neue, gewinnbringende Geschäftsmodelle birgt (Fichter, 2024).
KI Inhalte in der deutschen & schweizer Politiklandschaft
Auch in europäischen Wahlen sehen wir die Nutzung von KI-generierten Inhalten im Wahlkampf: Maximilian Krah, ehemaliger AfD-Spitzenkandidat, nutzte zahlreiche KI-generierte Bilder auf seinem TikTok-Account, um während des Wahlkampfs zur Europawahl 2024 Wähler:innen zu mobilisieren. Gezeigt wird zum Beispiel ein junger Mann mit blondem Haar, blauen Augen, markanten Wangenknochen und weissem Hemd, der in blauer Tinte sein Kreuz auf den Stimmzettel setzt (Breuer, 2024). Damit wird nicht nur ein bestimmtes Bild der typischen AfD-Wähler suggeriert, sondern es werden auch visuelle Merkmale und Symbole verwendet, die ideologisch auf rechtsextreme Stereotype zurückgreifen und gezielt mit Anhänger:innen der AfD assoziiert werden.
In der Schweiz hat die FDP erst kürzlich ein KI-generiertes Wahlplakat lanciert, auf dem «Klimakleber:innen» zu sehen sind, die den Strassenverkehr blockieren (Aregger, 2023). Solche Szenen gab es zwar in der Vergangenheit, doch das Bild wurde so gestaltet (Blockieren einer Ambulanz), dass es ideal in den Wahlkampf der FDP passte – vor allem, um Stimmung gegen Klimaaktivist:innen und deren Aktionen zu schüren.
Auch SVP-Nationalrat Andreas Glarner nutzte Anfang Jahr KI, als er Videos der Nationalrätin Sibel Arslan (Grüne Partei) erstellen liess, in denen sie fremdenfeindliche Äusserungen von sich gibt und dazu aufruft, ihm seine Stimme zu geben. Arslan ist gerichtlich wegen Identitätsmissbrauch gegen Glarner vorgegangen (Conzett, 2024). Daraufhin hat Glarner die Nutzung von KI-generierten Inhalten als Jux und Gag abgetan und die Sache verharmlost, was umso mehr über ihr Gefahrenpotenzial aussagt. Denn diese Inhalte sind nicht lustig, sondern sie beeinflussen massgeblich, wie politische Diskurse geführt werden, vermitteln ein falsches Stimmungsbild und führen dazu, dass es Bürger:innen noch schwerer fällt, einzuschätzen, auf welche Quellen sie vertrauen können. Ganz davon abgesehen, dass Andreas Glarner Identitätsmissbrauch begangen hat, um rechtspopulistische Aussagen zu verbreiten.
Die damit einhergehende Problematik bringt Rayna Breuer (2024) in ihrem Artikel für die Deutsche Welle auf den Punkt: «Es werden alternative Realitäten geschaffen. Sie schaffen eine Welt, in der künstliche Versionen der Realität realer erscheinen als die Realität selbst.»
Abschluss
Mit grosser Besorgnis beobachte ich die aktuellen Entwicklungen: KI-generierte Inhalte, die politische Diskurse manipulieren und vermeintliche Stimmungsbilder erzeugen, tauchen zunehmend im konservativen bis rechten Spektrum auf. Wenn die AfD fiktive Wähler:innen erschafft, Trump-Anhänger:innen marginalisierte Gruppen instrumentalisieren oder SVP-Politiker Identitätsmissbrauch betreiben, um im Wahlkampf zu punkten, zeigt das einmal mehr, dass die Regulierung digitaler Technologien zu spät diskutiert wird. Diese Mechanismen sind zwar nicht neu, doch sie haben eine bedenkliche neue Dimension erreicht. Es ist entscheidend, dass KI-generierte Inhalte klar gekennzeichnet werden und Plattformen sowie die Betreiber von KI-Tools stärker in die Verantwortung genommen werden. In einer derart angespannten politischen Lage benötigen wir keine Inhalte, die falsche Realitäten schaffen und das Vertrauen in unsere Institutionen weiter untergraben.