Blog

Zwischen Macht und Menschlichkeit: Für mehr verantwortungsvolle KI.

Lukas Hess, Malik El Bay, Jeannie Schneider
07.11.2025

Die Schweizer KI-Konvention rückt näher. Ein guter Zeitpunkt um unsere Haltung zum Thema zu teilen: Wofür wollen wir KI nutzen – und wo ziehen wir Grenzen?

Artikel teilen
Notes Einladung KI Arbeitstagung

Intro

Letzten Montag organisierte das Bundesamt für Justiz eine Arbeitstagung zur Umsetzung der KI-Konvention. Beim Event mit dabei waren Vertreter:innen aller grossen Parteien, Organisationen aus der Zivilgesellschaft, sowie private Unternehmen wie SBB und Google … (Dass Tech-Konzerne, die eigentlich reguliert werden sollten, mit am Tisch sitzen, zeigt ihren wachsenden Einfluss). Im Vorfeld unserer Teilnahme haben wir mit dem Dezentrum Verein und Team über unsere Grundpositionen zu Künstlicher Intelligenz gesprochen.

Über KI gibt es eine schier endlose Menge an Meinungen. Je nach Forschungsrichtung oder Branche werden andere Aspekte betont. Darum konzentrieren wir uns auf unsere Mission: Das Dezentrum setzt sich für eine Digitalisierung ein, die die Gesellschaft ins Zentrum stellt. Uns geht es um das Wohlergehen der Menschen, egal in welchem Land sie wohnen. Mit angewandten Projekten oder theoretischen Anstössen schaffen wir Diskussionsräume, die verhandeln, wie wir als Gesellschaft mit Technologien umgehen. Hier präsentieren wir drei Punkte, die uns nach den Diskussionen im Verein und der Arbeitstagung besonders wichtig scheinen.

Die Frage, die niemand stellt: Wofür wollen wir KI einsetzen – und wofür nicht?

Jedes Jahr ein neues iPhone, eine neue Smartwatch, mehr Funktionen, mehr Daten, mehr Leistung. Unternehmen treiben Innovation im Eiltempo voran und jedes Produkt, jedes Pixel mehr Auflösung wird als Revolution vermarktet. Diese Logik impliziert, dass jeder technologische «Fortschritt» gesellschaftlich wünschenswert ist und uns allen dient.

Tatsächlich folgt Innovation aber selten dem Gemeinwohl. Getrieben wird sie von wirtschaftlichen Interessen – und davon profitieren nur wenige. Damit wird klar: Technologie ist nicht neutral. Sie wird von bestimmten Menschen mit bestimmten Werten und Zielgruppen entwickelt, meist von weissen, vermögenden Männern aus dem Globalen Norden. Das prägt die Ergebnisse. Zum Beispiel neue Technologien zur Gesichtserkennung, die bei dunklerer Haut schlechter funktionieren (Link) oder dass Mark Zuckerberg KI-Companions als Lösung für sich einsam fühlende Amerikaner:innen präsentiert. Ein Anwendungsbereich, der seine Taschen füllt, aber das Problem von Isolation und Vereinzelung wohl eher befeuert (Link).

So sollten wir uns bei KI nicht dauernd fragen, was sie kann, sondern wofür wir sie einsetzen wollen und wofür nicht.
ChatGPT für Rechtschreibung oder Claude als Coding Unterstützung? Warum nicht? Automatisierte Entscheidungen im Asylwesen? Hochproblematisch. KI-Companions gegen Einsamkeit im Altersheim? Schwierig. Unter ganz strengen Bedingungen könnte man über einen Einsatz nachdenken.

Diese Fragen sind nicht technisch, sondern politisch. Es geht um Werte, um Verantwortung und um Macht. Wir können sie im Dezentrum nur diskutieren und nicht abschliessend beantworten, denn es geht darum, in welcher Gesellschaft wir gemeinsam leben wollen. Oder in Dezentrum Worten: Es geht darum, welche Zukünfte wünschenswert sind und welche nicht. Und diese Diskussion findet aktuell nicht statt.

Wie verhindern wir Ungleichheit?

Das Internet ist einer der Treiber der weltweit wachsenden Ungleichheit (Link). Im Dezentrum wollen wir gegen diese Ungleichheit kämpfen. Wir stehen für Chancengleichheit und gegen Diskriminierung und Ausbeutung. Leider gibt es immer mehr Beispiele, wie digitale Technologien missbraucht oder gegen die Interessen der Menschen eingesetzt werden. So berichtete die Tagesschau kürzlich über die Überwachungssoftware des US-Unternehmens Palantir, die in mehreren deutschen Bundesländern eingesetzt wird und massiv in die Grundrechte eingreift (Link). Ähnlich zeigt sich das in der Plattformökonomie. Etwa bei Uber-Fahrer:innen in Zürich, die laut Watson oft über 11 Stunden täglich arbeiten und weniger als 4000 Franken verdienen (Link). Oder bei Plattformen wie X, wo laut einer Studie der University of California, Berkeley, Hassrede deutlich zugenommen hat (Link). Die Liste ist lang. Und auch KI reiht sich in diese Liste ein. Zum Beispiel in einer Recherche der Associated Press über Israels Nutzung von KI-Systemen für ihre Kriegsverbrechen in Gaza (Link).

1. Ungleichheit erkennen

Künstliche Intelligenz kann bestehende Ungleichheiten verstärken, wenn wir sie nicht bewusst hinterfragen. Sie kann Menschen diskriminieren und benachteiligen, denn alle Systeme, die mit historischen Daten trainiert werden, reproduzieren historische Diskriminierung. Oft unsichtbar, aber mit realen Folgen. So z.B. zeigen Studien, dass KI-gestützte Bewerbungssoftware Frauen und Menschen mit Migrationshintergrund benachteiligen kann, weil sie auf verzerrten Datensätzen basiert (Link). Ähnlich bewerten automatisierte Kreditsysteme Personen aus einkommensschwachen oder bestimmten Regionen schlechter. Nicht aufgrund ihres Verhaltens, sondern wegen historischer Vorurteile in den Daten (Link).

Das heisst: Wer über KI spricht, sollte zuerst über soziale Strukturen sprechen. Wer profitiert? Wer verliert? Wer entscheidet? Diskriminierung durch KI ist real und passiert heute.

Statt über diese sehr realen Effekte sprechen die KI-Verantwortlichen aber lieber darüber, wie KI bald intelligenter als die Menschen wird (Link). Diese Narrative sind nicht nur Ablenkung von aktuellen Problemen, sondern vor allem gutes Marketing.

2. Ungleichheit verhindern

Sind diese Probleme erst einmal erkannt, stellt sich die entscheidende Frage: Was können wir dagegen tun? Es gibt durchaus Möglichkeiten, KI fairer zu gestalten und Diskriminierung zu verhindern, sie müssen nur konsequent umgesetzt werden.

Wirksame Ansätze wären zum Beispiel verpflichtende Risikoabschätzungen vor dem Einsatz von KI-Systemen, ähnlich wie in der Medizin oder im Bauwesen, sowie gründliche Tests in sensiblen Bereichen, auch wenn dies eine Verlangsamung der Entwicklung zur Folge hat. Weiter könnten Verzeichnisse über automatisierte Systeme offenlegen, wo und wie KI-Entscheidungen entstehen und welche Risiken sie bergen. Mehr Einblick in Datensätze könnte Verzerrungen frühzeitig sichtbar machen, und der Schutz von Daten im jeweiligen Nutzungskontext (auch bekannt als «contextual privacy») könnte Risiken mindern, indem Daten weniger stark miteinander verknüpft werden. Mangelhaft ist ausserdem die konsequente Rechtsdurchsetzung, damit Datenschutz, Gleichbehandlung und Transparenz tatsächlich greifen.

Leider werden genau diese Massnahmen von einflussreichen Akteuren der Branche torpediert, weil sie zwar mehr Transparenz und Verantwortlichkeit schaffen, gleichzeitig aber das Tempo verlangsamen und kurzfristig Kosten verursachen können.

Teilnehmende KI Arbeitstagung Bern

Wie viel Macht ist zu viel Macht?

Der letzte Punkt, den wir hervorheben möchten, ist die wachsende Machtkonzentration von Tech-Konzernen, deren Einfluss längst über den Technologiesektor hinausreicht. Das aktuelle KI-Rennen wird von einer Handvoll US-amerikanischer Technologiekonzerne dominiert (Link). Selbst die wenigen Alternativen wie Mistral oder DeepSeek folgen derselben Logik globaler Konkurrenz: „Open Source“ bedeutet hier meist nur „teilweise offen“, solange es ökonomisch nützt. Echte Alternativen wie Apertus, die KI der ETH, oder andere öffentlich finanzierte Modelle existieren zwar, haben aber kaum Marktanteile, weil sie sich gegen die Dominanz der Kapital- und Aufmerksamkeitsökonomie stemmen müssen.

Diese Dynamik folgt einem bekannten Muster: Plattformen erzeugen Netzwerkeffekte, die zu „Winner-takes-most“-Strukturen führen. Schon bei den sozialen Medien hat sich gezeigt, wie schnell sich daraus politische Einflussnahme, Polarisierung und Manipulation ergeben. Cambridge Analytica war nur der Anfang (Link). Auch heute steuern Algorithmen Sichtbarkeit, Aufmerksamkeit und Reichweite, und damit die öffentliche Meinung.

In KI-Systemen potenziert sich diese Macht: Wenn dieselben Konzerne, die Suchmaschinen, Cloud-Services und soziale Netzwerke kontrollieren, nun auch die Infrastruktur für generative KI betreiben, entstehen noch mehr Möglichkeiten zur Einflussnahme.

Diese „algorithmische Kuration“ ist kaum reguliert, aber hochwirksam (Link). Wenn bestimmte Stimmen, etwa aus dem globalen Süden oder von marginalisierten Gruppen, systematisch unterrepräsentiert sind (Link), wird Ungleichheit technisch reproduziert (Link). Macht verschiebt sich stillschweigend von demokratisch legitimierten Institutionen zu proprietären Systemen, deren Funktionsweise geheim bleiben (Link). Und das zu einem Zeitpunkt, an dem sich immer mehr Big-Tech Bosse autoritären Mächten zuwenden (Link).

Die Abhängigkeit reicht längst weiter als bis zur Meinungsbildung: Wie eine aktuelle Analyse zeigt, sind grosse Tech-Konzerne zunehmend in sicherheitsrelevante Bereiche verflochten. Etwa in die militärische Infrastruktur der USA. Diese enge Verbindung von privatwirtschaftlicher Technologieentwicklung und staatlicher Macht verschiebt die Grenzen dessen, was demokratisch kontrollierbar ist, noch weiter (Link).

Gerade deshalb braucht es neue Ansätze: Technologiefirmen, die sich nicht am Modell des Silicon Valley orientieren, sondern auf Privatsphäre, Transparenz und Teilhabe setzen.

Wir brauchen keine neuen Tech-Giganten, sondern die Förderung von unabhängige, offene und demokratische Systemen. Open-Source- und dezentrale Ansätze bieten die Chance, die technologische Souveränität zu stärken, gerade in der Schweiz und Europa.

Oder, wie es jemand in unserem Vereins-Chat formulierte:
«Europeans want stronger privacy and are willing to pay for it.»

Artikel teilen