AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Berlin und Zürich. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.

Publikation

14. Januar 2026

Verantwortungsvolle Nutzung von generativer KI: AlgorithmWatch schlägt diese Richtlinien vor

Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – generative KI wirft massive Probleme auf: Viele Ergebnisse sind fehlerhaft und politisch problematisch, der Verbrauch von Energie und Wasser ist enorm. Zugleich sind sie aus dem Alltag nicht mehr wegzudenken. AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.

A collage that merges circuit board patterns with textile motifs in a grid-like background of alternating black, grey, and white. Two hand-drawn arms are on each side of the image, positioned as if gently pulling on thin, white strings that cross the image diagonally. The hands appear soft and somewhat translucent, contrasting with the rigid lines of the circuit board patterns behind them. The strings are woven through both the hands and the background, symbolising the connection between traditional weaving and modern technology. The overall colour palette features muted earth tones, including browns, beiges, and grays, creating a sense of both history and continuity between the natural and technological worlds.

Sexualisierte Deepfakes auf X: Was wir dagegen tun und was die EU tun sollte

Elon Musks Chatbot „Grok“ erzeugt auf der Plattform X Bilder echter Menschen in Bikinis ohne deren Zustimmung, darunter auch Kinder. Das Problem dieser sexualisierten Darstellungen durch KI geht jedoch weit über X hinaus, wie unsere Untersuchungen zeigen. X selbst hat unsere Forschungen jedoch blockiert. Die EU-Kommission muss viel entschlossener vorgehen, um Menschen vor dieser Art von Gewalt zu schützen.

The collage shows 4 archival images of women. In these of the images, the women are nude. There is also one portrait of a woman with yellow shapes and bounding boxes on her face.

Umfrage: Ressourcenverbrauch von Rechenzentren

Mehrheit besorgt über Energie- und Wasserverbrauch von Rechenzentren

Die Mehrheit der Menschen macht sich Sorgen über den Energie- und Wasserverbrauch von Rechenzentren, die unter anderem für Entwicklung und Betrieb von Künstlicher Intelligenz benötigt werden. Das zeigt eine repräsentative Umfrage in mehreren europäischen Ländern, an der auch AlgorithmWatch beteiligt war.

Beyond Fossil Fuels, bearbeitet von AlgorithmWatch

Blog

13. Mai 2025

Meldeformular

Algorithmische Diskriminierung melden!

Wenn wir online einen Kredit beantragen oder uns um eine Wohnung oder auf einen Job bewerben, verarbeiten Unternehmen unsere Daten immer häufiger mit automatisierten Entscheidungssystemen. Die Entscheidungen solcher Systeme wirken sich auf unser Leben aus. Der Haken an der Sache ist nur, dass die Systeme nicht neutral sind und Vorurteile über Menschen reproduzieren können, die in der Gesellschaft verbreitet sind. Was können wir tun, damit undurchsichtige automatisierte Systeme keine Menschen benachteiligen? Wir müssen algorithmische Diskriminierung sichtbar machen, und du kannst uns dabei helfen!

Kleines Computer-Icon im Pixel-Style

4. September 2025

Lasst uns sexualisierende Deepfakes gemeinsam stoppen!

Deine Fördermitgliedschaft

Setze dich dafür ein, dass Algorithmen und Künstliche Intelligenz Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen. Werde Fördermitglied bei AlgorithmWatch – schon ab 5 € im Monat.

KI-Newbie oder Tech-Profi? Finde es heraus im KI-Quiz

A black-and-white surrealist collage of a classroom lecture. The center features an oversized computer keyboard with the two keys “A” and “I” highlighted in red. In the foreground, a vintage illustration of a woman in historical attire kneels as she interacts with the keyboard. Behind her, an audience of Cambridge students are seated in rows observing the lecture.
Hanna Barakat & Cambridge Diversity Fund | https://betterimagesofai.org | CC-BY 4.0

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

Illustration auf orangefarbenem, texturiertem Hintergrund zeigt mehrere stilisierte Figuren mit verschiedenen Mobilitätshilfen: zwei Personen im Gespräch, eine Person mit Blindenstock, eine Person mit Gehhilfe und Hund, sowie eine Person im Rollstuhl. Die Figuren sind in warmen Rottönen gezeichnet. Im unteren Bildbereich befinden sich gelbe geometrische Linienformen, die an ein Netzwerk oder verbundene Strukturen erinnern.

3. Dezember 2025

KI im Leben von Menschen mit Behinderungen: Von Assistenz bis Ausschluss

Weißer Regenschirm mit Binärcode-Muster auf gelbem Hintergrund

24. November 2025

Automatisch aussortiert? Wenn KI-Systeme in Bewerbungsprozessen diskriminieren

Eine Gruppe von Vintage-Figuren fährt auf einer kreisförmigen Maschine, die den endlosen, sich wiederholenden Zyklus des algorithmischen Scrollens und oberflächlicher Interaktionen symbolisiert.

18. November 2025

Anatomie eines Souveränitäts-Theaters

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

Eine Werbung für Palmona, eine Marke von künstlicher Butter.

9. Januar 2026

Was künstliche Butter mit künstlicher Intelligenz zu tun hat

Eine Person reinigt das Lobby eines Bürohauses.

12. Dezember 2025

Regulierung von Plattformarbeit lässt Reinigungskräfte im Regen stehen

Das 3-Pfeile Symbol mit rotem-lilanem Hintergrund.

28. November 2025

Warum linke Parteien mit generativer KI fremdeln

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

Flag through frosty glass

14. Januar 2026

2026: Das Jahr, in dem KI-Politik endlich am Gemeinwohl ausgerichtet werden sollte

Grafik mit EU-Flagge und Deutschland-Umriss im Hintergrund, im Vordergrund gestapelte Dokumente in einem Umschlag

9. Oktober 2025

Stellungnahme zur nationalen Durchführung der KI-Verordnung

Foto zeigt das Büro, Stühle und Fenster eines Rechenzentrums.

6. Oktober 2025

Stellungnahme zur nationalen Rechenzentrumsstrategie

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

28. August 2025

Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Einstellungsverfahren

Mockup eines Smartphones, auf dem die "Demokratie leben!"-Website geöffnet ist

21. Januar 2025

Zukunft D

5. Oktober 2023

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

Mockup einer aufgeschlagene Broschüre des technischen Gutachtens 'Braucht die Polizei eine Datenbank zum biometrischen Abgleich?'.

15. Oktober 2025

Braucht die Polizei eine Datenbank zum biometrischen Abgleich?

Die Illustration zeigt die KI-Liferkette anhand von 5 Stationen. Rohstoff-Abbau, Hardware-Erstellung, Training von Modellen, Systemnutzung und Entsorgung.

6. August 2025

Die Umweltkosten der KI-Lieferkette

MockUp der Publikation Konzept für ein KI-Transparenzregister

13. Mai 2025

Ein verbindliches KI-Transparenzregister für Deutschland