Was Menschen beschäftigt, lesen sie in der Wikipedia nach

Im Februar wurden folgende Artikel in der deutschsprachigen Wikipedia besonders häufig gelesen:

Fahndungsfoto von Jeffrey Epstein

Im Januar veröffentlichte das Justizministerium der Vereinigten Staaten weitere Dokumente der Epstein-Akten, einer Sammlung von mehreren Millionen Dokumenten, Bildern und Videos. Sie lösten unter anderem die vorläufige Festnahme des ehemaligen Prinzen Andrew Mountbatten-Windsor aus. 2,4 Millionen mal wurde der Wikipedia-Artikel des 2019 angeklagten und verstorbenen Sexualstraftäters Jeffrey Eppstein aufgerufen.

Der Februar stand ganz im Zeichen des Wintersports. Informationen über die an sechs Orten in Norditalien ausgetragenen Winterspiele, die Eröffnungs- und Schlussfeier, den traditionellen Fackellauf und natürlich das Wettkampfprogramm, aber auch zu Kritik und Kontroversen wurden rund 850.000 mal auf Wikipedia gefunden.

Gil Ofarim machte 2021 durch eine Falschbeschuldigung auf sich aufmerksam und war nun im Dschungelcamp dabei – Grund genug, sich nochmals genauer anzuschauen, wer das eigentlich ist, dachten sich viele Wikipedia-Nutzer*innen und riefen den Wikipedia-Artikel zur Gil Ofarim 648.796 mal auf.

Lindsey Vonn, die zweiterfolgreichste Skirennläuferin der Weltgeschichte, wollte bei den Olympischen Winterspielen ihr Comeback feiern. Doch leider zwang sie zu Beginn des Wettbewerbs ein Unfall, die Spiele abzubrechen. In der Wikipedia wurde das 632.875 mal nachgelesen.

Welches Land bei Olympia wie viele Medaillen gewonnen hat, wurde in der Wikipedia in Sekundenschnelle aktualisiert – auf Wikipedia ist eben Verlass, dachten sich Lesende 602.960 mal.

Fahndungsfoto von Ghislaine Maxwell

Ghislaine Maxwell gilt als Schlüsselfigur der Epstein-Affäre. Nun ist die 2021 Verurteilte wieder ins öffentliche Interesse gerückt. Ihr Wikipedia-Artikel wurde im Februar 553.181 mal aufgerufen.

Nicht nur in den 90er Jahren schwärmten Teenager für den durch die US-Serie Dawsons Creek berühmt gewordenen James Van Der Beek. Im Februar starb der Schauspieler an Darmkrebs. 467.312 mal informierten sich Menschen zu ihm auf der Wikipedia.

Der US-Amerikaner Ilia Malinin gilt als absolutes Ausnahmetalent und ist der bisher einzige Eiskunstläufer, dem ein vierfacher Axel, einem vierfachen Sprung in einem Wettbewerb, gelang. Bei den Olympischen Winterspielen verhalf er seinem Team zur Goldmedaille, im Einzel belegte er aufgrund mehrerer Stürze nur den 8. Platz – wie auch auf dieser Liste der meist aufgerufenen deutschsprachigen Wikipedia-Artikel, mit 434.555 Aufrufen.

Porträt von Gil Ofarim

Der Fall Gil Ofarim schlug, wie bereits erwähnt, auch im Februar 2026 Wellen. Neben dem Artikel über seine Person, interessierten sich Wikipedia-Leser*innen 417.422 mal natürlich auch für den Fall an sich.

Die ehemalige CDU Politikerin Rita Süssmuth war zunächst Bundesministerin für Jugend, Familie und Gesundheit und von 1988 bis 1998 Präsidentin des Deutschen Bundestages. Nach der Veröffentlichung ihrer Brustkrebsdiagnose im Juni 2024, verstarb sie am 1. Februar 2026 in Neuss. Der Wikipedia-Artikel zu Rita Süssmuth wurde im Februar 416.559 mal aufgerufen.

Webinar: Schreiben für Wikipedia

Wikimedia Deutschland unterstützt verschiedene Projekte, die Engagierten den Einstieg in die Wikipedia lehren. Wer selbst Lust hat, Wissen zu teilen oder zu verbessern, kann jederzeit mitmachen.

Einen Online-Kurs zur Einführung gibt es am 10. März und 15. April, online und kostenfrei.

Ein gezeichneter Laptop. Auf dem Bildschirm ist der Buchstabe W zu sehen, darunter ein Startknopf.

Seit 25 Jahren steht Wikipedia für ein Internet, wie es im besten Sinne gedacht ist: kollaborativ, menschenzentriert und getragen von einem gemeinsamen Engagement, das Leben aller Menschen zu verbessern. Von Ehrenamtlichen weltweit aufgebaut und von Wikimedia-Organisationen unterstützt, ist sie zu einer der vertrauenswürdigsten und meistgenutzten Informationsquellen überhaupt geworden.

Doch das digitale Umfeld verändert sich rasant. Künstliche Intelligenz prägt zunehmend, wie Wissen entsteht, verbreitet und konsumiert wird. Besonders jüngere Menschen informieren sich häufiger über soziale Medien wie TikTok statt über klassische Nachrichtenformate. Sie orientieren sich stärker an einzelnen Influencern – und wenn Fakten gefragt sind, genügt vielen die KI-Zusammenfassung in ihrer Suchmaschine. Chatbots verändern grundlegend, wie Informationen recherchiert und verarbeitet werden. Gleichzeitig wandeln sich die Erwartungen an Zusammenarbeit, Sichtbarkeit und Anerkennung auf digitalen Plattformen.

Für Wikipedia hat das spürbare Folgen: Besonders in großen Sprachversionen sind die Zugriffszahlen rückläufig. Die Wikimedia Foundation verzeichnete von Mai bis September 2025 in der englischsprachigen Version einen Rückgang der Seitenaufrufe um acht Prozent, in der deutschsprachigen Wikipedia waren es im selben Zeitraum sogar zehn Prozent. Weniger Sichtbarkeit bedeutet auch: Potenziell neue Ehrenamtliche finden seltener den Weg zur Mitarbeit. Sinkt die bewusste Wahrnehmung von Wikipedia, kann das langfristig auch Auswirkungen auf ihre Relevanz und Spendenbereitschaft haben.

Wikipedia Forever – aber dafür müssen wir etwas tun

Doch diese Zahlen sollen nicht darüber hinwegtäuschen, dass es gleichzeitig immer noch sehr viele Menschen gibt, die die Wikipedia nutzen: Laut Semrush verzeichnet Wikipedia 2025 rund 4,28 Milliarden Seitenaufrufe und gehört damit weiterhin zu den zehn am häufigsten aufgerufenen Webseiten weltweit. In Zeiten von generativer KI und wachsender Desinformation schätzen viele Menschen verlässliches, freies Wissen mehr denn je. Verloren ist also nichts – aber es ist Zeit zu handeln.

Genau hier setzt das Wikimedia Futures Lab an. Ende Januar kamen in Frankfurt am Main 110 Teilnehmende aus der weltweiten Wikipedia-Community und aus Wikimedia-Organisationen zusammen. Die Veranstaltung wurde gemeinsam von Wikimedia Deutschland und der Wikimedia Foundation organisiert. Auch externe Expert*innen von Organisationen wie Reddit, Creative Commons, Britannica oder Signal brachten ihre Perspektiven ein und diskutierten über gemeinsame Herausforderungen.

Drei Leitfragen für die Wikipedia der Zukunft

Auf der Veranstaltung galt es zunächst, die globalen Trends besser zu verstehen, die das Internet prägen. Deshalb gab es an jedem der drei Tagen inspirierende Impulse von externen Expert*innen aus Wissenschaft, Forschung und Wirtschaft. Die daraus resultierenden Denkanstöße mündeten in intensive Diskussionen, die auf den Erfahrungen der Wikimedia- Ehrenamtlichen und Organisationen aufbauten. Am Ende standen mehr als 80 Ideen im Raum. Über zwanzig davon wurden zu konkreten Projekten bzw. Experimenten weiterentwickelt, die verbindlich umgesetzt werden sollen.

Die Programmschwerpunkte orientierten sich an drei Leitfragen:

  1. Wie wird KI menschengemachte Inhalte beeinflussen?
  2. Wie werden Menschen in Zukunft Informationen konsumieren? ?
  3. Was erwarten Beitragende vom Internet – und wie werden sich diese Erwartungen verändern?
Person steht vor einer Wand mit vielen großen Notizzetteln
Der Moderator Matt Thompson stellt einige der rund 80 Ideen vor, die von den Teilnehmenden entwickelt und im Rahmen eines Gallery Walks visualisiert wurden.

Wie wird KI menschengemachte Inhalte beeinflussen?

Der erste Programmschwerpunkt widmete sich einer zentralen Herausforderung: Wie stellen wir sicher, dass von Menschen geschaffenes Wissen in einer zunehmend von generativen KI geprägten Umgebung sichtbar, vertrauenswürdig und relevant bleibt?

Im Fokus der Teilnehmenden standen dabei vor allem Large Language Models – also große Sprachmodelle, die Texte generieren können – sowie die Chatbots, über die diese Modelle für Nutzer*innen niedrigschwellig zugänglich sind. Eine wichtige Erkenntnis zog sich durch die Diskussionen: Ein von KI dominiertes Wissensökosystem ist kein unausweichliches Schicksal, dem wir uns fügen müssen. Die Zukunft des Freien Wissens im Netz hängt von den Entscheidungen ab, die die Communitys und Wikimedia heute treffen.

Ich habe (heute) bereits dreimal von den Auswirkungen von KI gehört, aber noch nichts über die Auswirkungen von Wikis. Ich halte es für sehr wichtig, den Spieß umzudrehen. Uns wird ständig gesagt, dass wir von der KI beeinflusst werden – was in gewisser Weise auch stimmt. Aber wir können ebenso Einfluss auf das entstehende KI-Ökosystem nehmen.
Alek Tarkowski Director of Strategy bei Open Future

KI bringt ohne Zweifel Herausforderungen für die Wikimedia-Ehrenamtlichen und Projekte mit sich. Gleichzeitig eröffnet sie Chancen, die Mission zu stärken – vorausgesetzt, sie wird verantwortungsvoll und im Einklang mit unseren Werten eingesetzt. Diskutiert wurde in diesem Kontext unter anderem, wie KI-Chatbots – zum Beispiel in Kooperation mit Unternehmen – so gestaltet werden können, dass sie nicht nur Wikipedia-Inhalte nutzen, sondern auch etwas an das Projekt zurückgeben.

Ebenso ging es um KI-gestützte Werkzeuge, die die Arbeitsbelastung von Ehrenamtlichen reduzieren können. Solche Tools könnten auch die Begleitung und Einarbeitung neuer Autor*innen unterstützen – etwa durch konstruktives Feedback bei überarbeitungsbedürftigen Beiträgen. Das würde nicht nur entlasten, sondern zugleich dazu beitragen, neuen Autor*innen ein Gefühl des Willkommenseins zu vermitteln.

Im Mittelpunkt stand dabei nie die Idee, menschliche Beitragende durch Maschinen zu ersetzen, sondern sie sinnvoll zu unterstützen. Deutlich wurde auch: Ethische, gemeinwohlorientierte Experimente mit KI sind ausschlaggebend, wenn die Wikimedia-Bewegung technologische Entwicklungen aktiv mitgestalten will. Genau für diese Art von Experimenten wurden beim Futures Lab zahlreiche Ideen entwickelt.

Wie werden Menschen in Zukunft Informationen konsumieren?

Der zweite Schwerpunkt widmete sich den Nutzenden: den Leser*innen und Menschen, die Inhalte aus den Wiki-Projekten weiterverwerten. Auf Grundlage der Einblicke der Panelist*innen, die aus den Bereichen Medien und digitale Kommunikation kommen, wurde diskutiert, wie Wikimedia in einem zunehmend fragmentierten Informationsökosystem neue Zielgruppen erreichen kann.

Wie können wir Menschen dort ansprechen, wo sie sich heute im Netz aufhalten? Wie sichtbar sind Wikipedia und Wikimedia als Marken in digitalen Räumen, die insbesondere von jüngeren Generationen genutzt werden? Und wie kann die Benutzeroberfläche der Wikimedia-Projekte noch ansprechender, intuitiver und vielleicht auch spielerischer gestaltet werden?

Diskutiert wurden in diesem Zusammenhang die Entwicklung von Initiativen zur stärkeren Markenwahrnehmung sowie neue, stärker an Leser*innen orientierte Funktionen und Produkte. Ziel war es, die Nutzung von Wikimedia nicht nur weiterhin verlässlich, sondern zugleich einladender und mit klarem Mehrwert zu gestalten. All diese Überlegungen verfolgen ein gemeinsames Ziel: Freies Wissen auch künftig dort präsent zu halten, wo Menschen nach Informationen suchen.

Was erwarten Beitragende vom Internet?

Der dritte Schwerpunkt stellte die Beitragenden in den Mittelpunkt – also die ehrenamtliche Community unserer Projekte. Im Fokus stand die Frage, was Menschen heute motiviert, online beizutragen, und wie sich diese Motivation verändert. Auf vielen digitalen Plattformen erwarten Beitragende neue Nutzererfahrungen, vielfältigere Kooperationsmöglichkeiten und eine stärkere Anerkennung ihrer Arbeit. Beiträge sollen leicht umsetzbar und zugleich sichtbar wirksam sein.

Auch hier ist für Wikimedia und die Community das Experimentieren unverzichtbar. Könnte KI-gestütztes Feedback dazu beitragen, neue Autor*innen zu halten und die Qualität ihrer ersten Bearbeitungen zu verbessern? Können Werkzeuge repetitive Aufgaben reduzieren und mehr Raum für die eigentliche inhaltliche Zusammenarbeit schaffen? Und wie können wir mit Geschichten über Wikimedia noch mehr Menschen begeistern, ihr Wissen in unseren Projekten zu teilen?

Notizzettel mit Text: "When we are able to provide recognition beyond our platforms and invest in high value social projects our relevance and our importance will increase exponentially."
Eine der 80 Ideen, die beim Futures Lab entwickelt wurde und viel Zustimmung erhielt (siehe die viele Punkten auf dem Post-it)
Wenn Sie einem 10-Jährigen jedes Jahr 15 neue Themen beibringen müssten, wie würden Sie das tun? In welcher Form würden Sie ihm diese Themen vermitteln? […] Der Grund, warum ich mich immer wieder auf jüngere Menschen beziehe, ist, dass dies die eigentliche Herausforderung ist. […] Wenn sie (die jungen Menschen) in Zukunft die Mehrheit der Internetnutzenden stellen, wird die Welt eine ganz andere sein. Deshalb müssen wir uns Gedanken über sie machen – über den Weg, den sie einschlagen, und über den Weg, den sie einschlagen sollten.
Udbhav Tiwari VP Strategy and Global Affairs bei Signal

Ein Startschuss für Experimente – nicht für fertige Lösungen

Während des  Futures Lab wurde eines immer wieder betont: Relevanz entsteht nicht von selbst. Sie erfordert eine ständige Entwicklung und neue, mutige Experimente. Dabei geht es nicht nur um technologische Innovationen – ebenso wichtig sind Ansätze, die kulturelle und soziale Fragen einbeziehen. Denn nachhaltiger Wandel gelingt nur, wenn Technik, Kultur und Gemeinschaft zusammengedacht werden.

Ein Beispiel dafür ist das Experiment „Early Adopter Wikis“. Hier melden sich ausgewählte Wikis freiwillig, um neue Funktionen frühzeitig zu testen – etwa über A/B-Tests. So können Innovationen unter realen Bedingungen erprobt und schneller weiterentwickelt werden.

Ein Mann steht mit einem Mikrofon vor einem großen Bildschirm. Darauf steht die Überschrift: "Hypotheses themes".
Der Moderator Matt Thompson präsentiert eine Auswahl von Themen, die in den Breakout-Sessions besprochen wurden.

Mit dem Abschluss des Futures Lab beginnt für die Teilnehmenden die eigentliche Arbeit: Die Verantwortlichen der Experimente treiben nun die Umsetzung ihrer Ideen voran. In den kommenden Monaten werden weitere Austauschformate folgen, um den Dialog fortzuführen und die entstandene Dynamik aufrechtzuerhalten.

Das Wikimedia Futures Lab war selbst ein Experiment – und es hat gezeigt, dass Wikipedianer*innen aus aller Welt bereit sind, nicht nur auf Veränderungen zu reagieren, sondern die Zukunft des Ökosystems Freien Wissens aktiv mitzugestalten. Wikipedia ist kein Relikt aus den Anfangstagen des Internets, sondern ein lebendiges Projekt – getragen von Menschen, denen Freies Wissen am Herzen liegt.

Online-Meetings sind aus unserem Alltag nicht mehr wegzudenken: Arbeit, Ehrenamt, Schule, Politik – Video- und Audio-Calls sind der Kitt, der uns Menschen zusammenbringt..
Meist greifen wir dabei automatisch zu Zoom, Teams oder Google Meet. Oft, weil sie vorgegeben sind. Oder einfach auch weil „alle anderen“ sie nutzen.

Aber: Diese Tools gehören großen Konzernen, laufen meist über deren Server und sammeln eine Menge Metadaten. Heute stellen wir deshalb die Frage: Gibt es gute freie Alternativen für Video- und Audio-Kommunikation – und was können sie leisten?

Darüber sprechen wir mit Julian Hahn, Mitarbeiter der Internen IT bei Wikimedia Deutschland.

Takeaways

  • Es gibt echte Alternativen: Tools wie Jitsi Meet oder BigBlueButton eignen sich für unterschiedliche Anforderungen – sowohl privat als auch in der Organisation. OpenTalk ist ebenfalls einen Blick wert.
  • Mehr Kontrolle: Freie Software bietet Ihnen Transparenz, besseren Datenschutz und oft die Möglichkeit, die Plattform selbst zu hosten.
  • Einfacher Einstieg: Viele Tools laufen direkt im Browser; ein Account ist nicht zwingend nötig, eine Installation entfällt häufig.
  • Gewohnheit ist die größte Hürde: Technik ist selten das Problem – es geht eher darum, sich an neue Abläufe und Oberflächen zu gewöhnen.

Hi Julian, magst du dich kurz vorstellen?

Hi, ich bin Systemadministrator bei Wikimedia Deutschland und beschäftige mich viel damit, dass alle internen Programme und Geräte reibungslos laufen. Wenn ich alles richtig mache, dann können meine Kolleg*innen alle gut arbeiten.

Was versteht man eigentlich unter Video- und Audio-Call-Tools – und was leisten sie technisch im Hintergrund?

Video- und Audio-Call-Tools sind Programme, mit denen Menschen miteinander sprechen können – entweder zu zweit oder in Gruppen, mit oder ohne Kamera. Gerade für Meetings mit mehreren Teilnehmenden, auch über Organisationsgrenzen hinweg, sind sie heute kaum noch wegzudenken. Bekannte Beispiele sind etwa Zoom oder Microsoft Teams.

Technisch passiert dabei mehr, als man auf den ersten Blick sieht. Jede Person nutzt auf ihrem Gerät ein Programm – den sogenannten Client. Das ist die App auf dem Laptop oder Smartphone, die das eigene Mikrofon und Kamerabild aufnimmt, diese Daten ins Internet sendet und gleichzeitig die Audio- und Videodaten der anderen Teilnehmenden empfängt und darstellt.

Damit all diese Daten bei allen Beteiligten ankommen, gibt es im Hintergrund Server. Diese kann man sich wie eine zentrale Vermittlungsstelle vorstellen: Sie sammeln die Audio- und Videoströme aller Teilnehmenden und verteilen sie wieder an die jeweiligen Geräte. In einem Gruppen-Call laufen dort also viele Daten gleichzeitig zusammen, die verarbeitet und weitergeleitet werden müssen.

Gerade bei größeren Meetings entsteht dadurch eine hohe Belastung für die Server, weil viele Video- und Audiosignale gleichzeitig verarbeitet werden. Deshalb benötigen diese Systeme in der Regel leistungsfähige Hardware und eine stabile Internetanbindung.

Die Server können unterschiedlich betrieben werden: Organisationen können sie selbst auf eigener Hardware betreiben bzw. hosten – entweder direkt vor Ort oder in einem angemieteten Rechenzentrum. Alternativ lassen sich Server in der Cloud mieten und selbst verwalten. Häufig greifen Nutzer*innen aber auch direkt auf die Infrastruktur von Anbietern zurück, bei denen die Server komplett vom Dienstleister betrieben werden.

Julian Hahn
Julian hat sich besonders während der Corona-Pandemie mit Freien Alternativen für Video-Call Tools auseinandergesetzt. Heute is er überzeugter BigBlueButton und Jitsi-Poweruser.

Wie bist du selbst mit solchen Tools das erste Mal in Berührung gekommen?

Eigentlich ganz klassisch: im Studium und im Freundeskreis. In beiden Kontexten ging es oft darum, sich abzustimmen oder gemeinsam Zeit zu verbringen, ohne sich physisch treffen zu müssen. An der TU Berlin, an der ich bis vor kurzem studiert habe, wurden dafür häufig bestimmte Tools vorgegeben, die für Lehrveranstaltungen oder Gruppenarbeiten genutzt werden sollten. Gleichzeitig haben wir im privaten Umfeld auch selbst nach Alternativen gesucht – zum Beispiel, wenn die vorgegebenen Lösungen nicht gut funktioniert haben oder nicht zu unseren Bedürfnissen gepasst haben. So bin ich relativ früh mit verschiedenen Video- und Audio-Call-Tools in Kontakt gekommen.

Warum beschäftigst du dich speziell mit freien Alternativen zu Zoom & Co.?

Ein wichtiger Auslöser war die Corona-Pandemie. In dieser Zeit ist der Bedarf an Video- und Audio-Call-Tools plötzlich stark gestiegen, und viele Menschen und Organisationen waren gezwungen, sich intensiver mit passenden Lösungen auseinanderzusetzen. An der TU Berlin gab es beispielsweise eine vorgegebene Nutzung von Zoom, mit der wir jedoch nicht vollständig zufrieden waren. Man wurde immer dazu gedrängt, eine App zu nutzen und niemand war sich wirklich sicher, ob der Vertrag der TU mit Zoom tatsächlich dafür sorgte, dass die Daten innerhalb der EU blieben. Gerade auch die Benutzbarkeit mit verschiedenen Betriebssystemen (Windows, Linux, Android, etc.) war nicht durchgängig gut. Das hat dazu geführt, dass wir aktiv nach Alternativen gesucht haben, die unterschiedlichen Kontexten gerecht werden können. Im privaten Umfeld etwa hatte ich einen festen Freundeskreis, der sich regelmäßig zu einem digitalen „Stammtisch“ getroffen hat. Hier standen vor allem einfache Nutzung und Verlässlichkeit im Vordergrund.
Parallel dazu war ich in ein Uni-Projekt mit über 50 Studierenden eingebunden, die sich wöchentlich zu größeren Update-Meetings getroffen haben. In diesem Rahmen waren die Anforderungen deutlich komplexer – etwa in Bezug auf Stabilität, Skalierbarkeit und Moderation.

Wo liegen die typischen Probleme bei proprietären Tools wie Zoom, Teams oder Google Meet?

Proprietäre Tools wie Zoom, Microsoft Teams oder Google Meet funktionieren in der Regel sehr gut, haben aber einen entscheidenden Nachteil: Sie liegen vollständig in der Hand der Anbieter. Das bedeutet, dass Daten, Infrastruktur und Einstellungen dort verwaltet werden.

Nutzer*innen sind darauf angewiesen, wie die Anbieter mit Datensicherheit umgehen und welche Preise oder Lizenzmodelle sie festlegen. Die Nutzungsbedingungen müssen meist so akzeptiert werden, wie sie sind.

Gerade deshalb fühlen sich viele Menschen damit nicht wohl – insbesondere bei großen Anbietern und deren Verbindungen zu anderen Organisationen oder staatlichen Stellen. Google mit Meet und Microsoft mit Teams etwa unterliegen der Gesetzgebung in den USA, was unter anderem dafür sorgt, dass Daten auf Anfrage von Behörden von den Unternehmen rausgegeben werden müssen. Gleiches gilt für Zoom oder Webex, während Discord Verbindungen nach China hat, da sie von Tencent mitfinanziert werden.

Warum dominieren diese Tools den Markt so stark?

Ein wichtiger Grund ist, dass viele große Organisationen Rahmen- oder Lizenzverträge mit Anbietern solcher Tools abschließen. Dadurch können – und sollen – alle Mitarbeitenden innerhalb der Organisation dieselbe Plattform nutzen.

Hinzu kommt, dass diese Tools oft Teil eines größeren Software-Ökosystems sind. Wer zum Beispiel bereits Programme von Microsoft wie Microsoft Office nutzt, greift häufig auch zu Microsoft Teams. Ähnlich ist es bei Google, wo Google Workspace eng mit Google Meet verzahnt ist. Diese Integration macht die Nutzung bequem und effizient – führt aber auch dazu, dass sich bestimmte Lösungen stark verbreiten und andere es schwer haben, sich durchzusetzen.

Welche freien Video- und Audio-Call-Alternativen würdest du empfehlen?

Zwei Tools, die ich häufig empfehle, sind Jitsi Meet aus Frankreich und BigBlueButton aus Canada. Beide sind Open-Source-Anwendungen, und ich nutze bzw. empfehle sie für unterschiedliche Anwendungsfälle.

Jitsi Meet eignet sich besonders gut für kurze, unkomplizierte Treffen, die man schnell starten möchte – ganz ohne großen Setup-Aufwand für jedes Betriebssystem. Man kann einfach einen Raum erstellen und direkt loslegen. Allerdings läuft das Ganze dann über die Infrastruktur von Jitsi, wodurch man weniger Kontrolle über die Daten und die technische Umgebung hat. Man kann Jitsi Meet auch selber hosten, aber damit habe ich mich bisher noch nicht auseinandergesetzt.

BigBlueButton ist dagegen stärker auf größere und dynamischere Veranstaltungen ausgelegt, zum Beispiel Vorlesungen oder Meetings mit vielen Teilnehmenden. Es bietet mehr Funktionen für Moderation und Zusammenarbeit, ist aber in der Einrichtung und im Betrieb etwas aufwendiger. Auch hier gibt es die Möglichkeit, die Anwendung selbst zu hosten. Wie bei allen Tools gibt es auch hier jeweils Vor- und Nachteile – die passende Lösung hängt letztlich davon ab, wofür man sie einsetzen möchte.

Es gibt auch noch OpenTalk aus Deutschland, damit habe ich persönlich noch keine Erfahrungen gemacht, aber ich denke es wäre auch mal einen Blick als weitere Alternative wert.

Screenshot des Video-Call Tools Jitsi Meet
Jitsi ist ein beliebtes Video-Call Tool für weniger Komplexe Meetings.

Was sind die größten Vorteile dieser freien Tools?

Der größte Vorteil freier Tools wie Jitsi und BigBlueBotton liegt darin, dass sich beide auch selbst hosten lassen: Wer die Plattform selbst hostet, entscheidet selbst, wer an Meetings teilnimmt, wo die Daten gespeichert werden und welche technischen Ressourcen zur Verfügung stehen – man hat dann einfach die volle Kontrolle. Zusätzlich laufen beide Services beim Teilnehmenden dann im Browser, also muss er/sie sich nicht noch umständlich eine weitere Software herunterladen, die aktuell gehalten werden muss.

Außerdem lassen sich auf diese Weise die laufenden Kosten deutlich reduzieren, weil teure Lizenzgebühren wegfallen. Gleichzeitig erfordert das Selbsthosten aber auch eigenen Aufwand – man muss Zeit für Installation, Wartung und Betreuung der Plattform einplanen. Wer sich dafür interessiert, findet hier übersichtliche Leitfäden für BigBlueButton und für Jitsi.

Gibt es weitere Vorteile bei den Tools, falls man nicht selbsthosten kann, oder ist das der Hauptvorteil?

Nutzende, die nicht selbst hosten können oder möchten, verlieren  die Kontrolle darüber, wo die eigenen Daten gespeichert werden. Auch wenn es sich bei Video-Tools nur um eine vorübergehende Zwischenspeicherung handelt, lässt das theoretisch schon Einblicke in individuelle Verhaltensweisen zu. . Trotzdem sind Open-Source Tools, wie Jitsi und BigBlueButton dahingehend beruhigend, dass durch den offen einsehbaren Code nichts verborgen bleibt. Wenn sich also kundige Menschen kritisch mit dem Programm auseinandersetzen wollen, können sie das jederzeit tun. Zusätzlich sorgt die Möglichkeit des Selbst-Hostens oft dafür, dass mehrere kleinere Anbieter entstehen, die diese Aufgabe für Nutzende übernehmen und Bandbreite vermieten. Dank dieser Anbieter kann man dann immerhin die Infrastruktur einsehen, ohne sich direkt um das Programm und dessen Installation kümmern zu müssen.

Wie einfach ist der Einstieg – wenn wir dich richtig verstanden haben, ist ein eigenes Hosting zwar die sicherste Version, aber nicht zwingend notwendig.

Es geht in der Tat auch ohne Selbst-Hosting. Bei Jitsi Meet zum Beispiel klickt man einfach auf „kostenloses Meeting starten“ – alles läuft direkt im Browser, man muss nichts installieren und in der Regel auch keinen Account anlegen. Den Link teilt man dann mit den Leuten, die teilnehmen sollen, und schon kann das Meeting losgehen. Wer mag, kann sich später einen Account anlegen, um eigene Räume besser zu verwalten, muss es aber nicht.

Wer die Vorteile einer eigenen Plattform haben möchte, aber keine Lust auf die ganze Technik drumherum hat, kann wie oben erwähnt einen vorkonfigurierten Server mieten. Der läuft dann schon fertig eingerichtet, man zahlt ein bisschen dafür, hat aber trotzdem die Kontrolle über Links, Teilnehmende und Daten – ohne selbst Server warten oder Updates machen zu müssen.

Am Ende gibt es also für fast jede Situation eine passende Lösung: direkt im Browser loslegen, selbst hosten für maximale Kontrolle oder gemietete Server für den Mittelweg.
Personen sitzen an einem Bürotisch und nehmen an einer Videokonferenz teil. Diese wird auf eine Leinwand projiziert.
Auch die Wikipedia Community nutzt gerne BigBlueButton – hier zu sehen bei einem Treffen im Contor Hamburg – einem ehemaligen lokalen Wikipedia Raum.

Gibt es Dinge, die für Nutzer*innen erstmal ungewohnt sind, wenn sie umsteigen?

Der Umstieg auf freie Tools ist letztendlich  mit jedem Umstieg auf ein anderes Tool vergleichbar: Schaltflächen befinden sich an anderen Stellen, manche Funktionen gibt es zusätzlich, andere fehlen. Man muss ein wenig ausprobieren, welche Einstellungen und Features für den eigenen Anwendungsfall am besten passen. Das ist bei den proprietären Tools gar nicht so anders – es ist vergleichbar mit dem Kauf eines neuen Handys: Es gibt viele objektiv gute Modelle, aber nicht jedes passt zu den individuellen Bedürfnissen.

Screenshot eines bemalten Whitboards in BigBlueButton.
Video-Call Tools, sind mit einer Vielzahl von FeatureFs ausgestattet, um zum Beispiel kollaborativ zu arbeiten. In Zukunft werden die meisten Video-Calls alle wichtigen Features besitzen, um keinen Wettbewerbsnachteil zu haben.

Hast du praktische Tipps für Einsteiger*innen, damit Meetings mit freier Software gut funktionieren?

Mein Tipp ist Testen :) Das Tool erstmal in Ruhe im kleinen Kreis mit Freunden, Familie oder wenigen Kolleg*innen ausprobieren. Man muss dabei nicht direkt selbst das Tool hosten, um zu sehen, ob es zu den individuellen Anforderungen passt. Und bevor wichtige Meetings mit Menschen außerhalb der Organisation stattfinden, würde ich ebenfalls dazu raten, alles vorher noch einmal zu testen – so kann sichergestellt werden, dass Audio, Video und alle Funktionen reibungslos laufen, sobald es drauf ankommt.

Was denkst du – wohin werden sich freie Video- und Audio-Call-Tools in den nächsten Jahren entwickeln?

Ich glaube, dass freie Tools in Zukunft noch flexibler werden. Zum Beispiel werden sie wahrscheinlich auf immer mehr Hardware- und Software-Systemen laufen, sodass man dasselbe Tool auf ganz unterschiedlichen Servern hosten kann.

Außerdem werden die zusätzlichen Funktionen wie Whiteboards, Umfragen oder andere interaktive Features weiter angepasst und ausgebaut. Dadurch werden viele Tools in ihren Möglichkeiten immer ähnlicher, aber gleichzeitig einfacher zu nutzen und noch besser auf die Bedürfnisse der Nutzer*innen zugeschnitten.

Next Steps

  1. Einfaches ausprobieren
    Starten Sie ein Meeting mit einem freien Tool wie Jitsi Meet oder BigBlueButton – viele Instanzen sind kostenlos zugänglich.
  2. Klein testen
    Probieren Sie das Tool zunächst in kleiner Runde mit Kollegi*nnen, Freund*innen oder Familie aus, bevor Sie wichtige Meetings abhalten.
  3. Optionen vergleichen
    Überlegen Sie, ob Sie selbst hosten möchten, einen vorkonfigurierten Server nutzen wollen oder lieber die kostenlose Browser-Variante einsetzen.
  4. Bedürfnisse klären
    Prüfen Sie, welche Funktionen Sie wirklich benötigen (Whiteboard, Umfragen, Moderation), damit das Tool langfristig zu Ihren Anforderungen passt.

Ein kraftvolles Zeichen für mehr Sichtbarkeit

Noch immer sind Frauen in der Filmbranche weniger sichtbar – ob als Regisseurinnen, Produzentinnen, Kamerafrauen, Tonfrauen oder Drehbuchautorinnen. Und das spiegelt sich auch in der Wikipedia wider.

Ende vergangenen Jahres waren 36,8 Prozent aller Wikipedia-Biografien zu Filmschaffenden Frauenbiografien. „Während Frauen vor der Kamera mit 45,8 Prozent beinahe paritätisch vertreten sind, sind Frauenbiografien in den Gewerken „hinter der Kamera“ wie Drehbuch, Kameraführung, Tontechnik, Sounddesign deutlich unterrepräsentiert,“ erläutert Grizma, eine der Organisatorinnen des Edit-a-thons.

Der Filmfrauen Edit-a-thon wirkt diesem Ungleichgewicht seit 2020 entgegen. Was als engagierte Initiative begann, ist inzwischen zu einer festen Größe im Terminkalender der Wikipedianer*innen geworden. Jedes Jahr kommen filminteressierte Wikipedia-Aktive und die, die es werden wollen, zusammen, um die Präsenz von Frauen in der Filmgeschichte zu stärken: Gemeinsam werden Artikel und Einträge in Wikidata neu angelegt, ergänzt, mit Quellen belegt, strukturell verbessert und bebildert.

Highlights aus sieben Ausgaben Berlinale-Edit-a-thon

  • Insgesamt sind in der deutschsprachigen Wikipedia über die Jahre 249 Artikel zu Filmen und 248 Artikel zu Filmfrauen entstanden.
  • Hinzu kommen 149 Artikel in der alemannischen Wikipedia sowie über 700 Bilder
  • Einige der entstandenen Artikel beschreiben Filme, die später renommierte Awards gewonnen haben: Beispielsweise der Teddy Award Preisträger „Playback. Ensayo de una despedida“ (2020) und „Walchensee Forever“ (2020), der später den Bayerischen Filmpreis gewann.
  • Gleichzeitig sind auch Filmfrauen, die keine Hollywoodgrößen sind, jetzt dank der Edit-a-thons in der Wikipedia vertreten – etwa das Berlinale-Team selbst: Mariette Rissenbeek, Linda Söffker, Marie Losier, Paz Lázaro, Cristina Nord (2020).

Mehr als Editieren: Gemeinschaft, Begegnung und neue Impulse beim Edit-a-thon

Das gemeinsame Bearbeiten von Artikeln macht Spaß, und auch der ein oder andere Löschantrag konnte in Gemeinschaftsleistung abgewehrt werden. Dabei geht es um noch viel mehr als das reine Editieren: Auch persönliche Begegnungen spielen eine große Rolle. Die Teilnehmenden, die aus ganz unterschiedlichen Regionen des DACH-Raumes anreisen, sehen sich wieder, tauschen sich aus und schmieden neue Pläne. Einige sind erst durch den Edit-a-thon zur Wikipedia gekommen und inzwischen seit mehreren Jahren dabei. Und auch Fortgeschrittene nehmen jedes Jahr etwas Praxisnahes mit. So lag 2025 beispielsweise der Fokus auf Filmtonfrauen. Die Teilnehmenden lernten, wie eine Tondatei mit der Aussprache eines Filmtitels oder Namens Schritt für Schritt in einen Artikel eingebaut werden kann.

Wie Wikipedia-Aktive und Filmfrauen voneinander lernen

Die Organisatorinnen Grizma, und Reisen8 freuen sich sehr, dass der Edit-a-thon sich verstetigt hat, schließlich konnte er pandemiebedingt 2021 nur online und 2022 nur unter strengen Auflagen stattfinden.

„Mir gefällt die Verbindung zu anderen Wikipedia-Projekten aus der Community,“ so Reisen8. So wurden Artikel, die während des Edit-a-thons entstanden sind, auch bei den 100WomenDays präsentiert, einem Wettbewerb, der jedes Jahr 100 Tage vor dem internationalen Frauentag beginnt und sich zum Ziel gesetzt hat, so viele Wikipedia-Artikel mit Frauenbezug wie möglich zu erstellen oder zu überarbeiten. Auch ist der Berlinale Edit-a-thon inzwischen zum Vorbild für ähnliche Formate geworden: Letztes Jahr fand in München ein Edit-a-thon zum DOKfest nach ähnlichem Muster statt. „Mir gefällt, dass wir so viel Freiheit bei den Themen haben – uns also auch auf Artikel über Kurz- oder Kinderfilme stürzen können“, erzählt Reisen8 weiter.

Mir gefällt, dass wir so viel Freiheit bei den Themen haben – uns also auch auf Artikel über Kurz- oder Kinderfilme stürzen können. Gleichzeitig zeigt zum Beispiel der Artikel „No Other Land“, den ich 2024 angelegt habe, wie schnell unsere Arbeit ins gesellschaftliche Rampenlicht rücken kann.
Reisen8 Wikipedianerin

Was sich in den letzten Jahren ebenfalls verstetigt hat, ist die Zusammenarbeit zwischen erfahrenen Wikipedianer*innen und Expertinnen aus der Filmbranche. So war etwa in diesem Jahr Sabine Jainski zu Gast. Die Filmemacherin und Journalistin betonte, wie hilfreich die Arbeit der Wikipedianer*innen sei – gerade in Zeiten, in denen die Rechte von Frauen auch in der Filmbranche immer noch beschnitten würden. Vom Austausch profitieren beide Seiten gleichermaßen: Die Filmemacherinnen freuen sich über gewonnene Sichtbarkeit in der Wikipedia und Wikipedianer*innen erhalten Expert*innenwissen aus der Branche.

25 Jahre Wikipedia – und warum Edit-a-thons so wirkungsvoll sind

Gerade im Jahr des 25. Geburtstags der Wikipedia kommt diesem Engagement eine besondere Bedeutung zu. Seit 2001 hat sich die Plattform zur größten Enzyklopädie der Welt entwickelt. In der Wikipedia spiegeln sich jedoch gesellschaftliche Strukturen wider – sowohl was ihre Inhalte, als auch was die Zusammensetzung der Ehrenamtlichen-Community betrifft. Und hier setzen Initiativen wie der Berlinale Edit-a-thon an. Viele Initiativen und Gruppen aus der Wikipedia-Community setzen sich erfolgreich für mehr Diversität ein – in der Filmbranche, in Wikipedia-Artikeln und unter denen, die mitmachen.

Ein gezeichneter Laptop. Auf dem Bildschirm ist der Buchstabe W zu sehen, darunter ein Startknopf.
Wikipedia

Online-Einführung am 10.März

Jetzt bis zum 5. März 2026 anmelden!

Ein gezeichneter Laptop. Auf dem Bildschirm ist der Buchstabe W zu sehen, darunter ein Startknopf.
Wikipedia

Online-Einführung am 15. April

Jetzt bis zum 10. April 2026 anmelden

Xikipedia hat sich die Entwicklerin Lyra Rebane ausgedacht, um dem verbreiteten Doomscrolling etwas entgegenzusetzen – also dem endlosen Wischen durch schlechte Nachrichten, das von den meisten Social-Media-Algorithmen gern befeuert wird. Ihre Web-App funktioniert zwar nach dem gleichen Prinzip wie die der großen Plattformen. Aber liefert ausschließlich Inhalte, die uns schlauer machen – und für alle verständlich sind. Der angezeigte Content stammt aus der Simple Wikipedia, der englischen Wikipedia in einfacher Sprache.

Wissen statt Frust beim Scrollen – so funktioniert Xikipedia

Zu Beginn können wir aus einer Reihe von Kategorien auswählen, zum Beispiel Wissenschaft, Musik, Natur oder Kunst. Entsprechend werden dann Wikipedia-Artikel aus dem jeweiligen Gebiet zum Durchscrollen angezeigt. Über den Klick auf Titel oder Teaser geht es zum jeweiligen Artikel in der Simple Wikipedia.

Außerdem bietet uns Rebanes Anwendung die Möglichkeit, einen Artikel zu liken und so die eigene Feed-Auswahl zu steuern. Ein Wiki-Algorithmus, der garantiert nicht in Weltuntergangsstimmung versetzt! Noch dazu kommt er ohne KI aus, läuft lokal und gibt keine Daten weiter. So macht Doomscrolling Spaß.

Viel Vergnügen beim Scrollen!

Warum gibt es Wikimedia Enterprise?

Thursday, 19 February 2026 08:10 UTC

Freies Wissen für jeden Zweck

Wikipedia ist ein Projekt von Menschen für Menschen. Die Inhalte sind durch die Creative Commons Lizenz zu jedem Zweck für alle frei nachnutzbar. Und alle heißt, alle: Egal ob es Menschen sind, die Informationen zu ihrem Lieblingskünstler oder einem aktuellen Ereignis suchen, Forschende, gemeinnützige Organisationen oder kleine wie große Unternehmen.

Technologieunternehmen nutzen Wikipedia schon lange. Sprachassistenten wie Alexa oder Siri sowie Googles Infobox – das sogenannte Knowledge Panel – greifen auf die Inhalte zu. YouTube und Facebook verweisen als Gegengewicht zu Desinformation auf Wikipedia. Sie verbessern oder entwickeln also Produkte basierend auf der ehrenamtlichen Arbeit hunderttausender Menschen weltweit.

Das Wissen ist frei – die Infrastruktur nicht

Mit dem Aufkommen der KI-Chatbots hat die Nutzung von Wikipedia-Inhalten neue Dimensionen angenommen. Die Sprachmodelle, auf denen ChatGPT und Co. basieren, müssen mit Texten trainiert werden. Nur so können sie Sprachmuster lernen und reproduzieren. Daher grasen Bots und Crawler von KI-Unternehmen auf der Suche nach Trainingsdatenfutter die Wikimedia Projekte ab. Diese massiven Datenabrufe belasten die Server enorm. Die Infrastruktur des Freien Wissens ist vorrangig auf menschliche Nutzung ausgelegt  – und sie wird überwiegend mit Spendengeldern der Menschen finanziert, die Wikipedia im Alltag nutzen.

Es sind aber nicht nur Tech-Konzerne, die freie Inhalte von Wikipedia und Co. nutzen. Auch Forschende oder Software-Entwickler*innen, die ehrenamtlich Apps entwickeln nutzen sie. Schon bevor es Enterprise gab, hat die Wikimedia Foundation regelmäßig Daten-Dumps der Wikipedia veröffentlicht, die jede*r herunterladen und für eigene Projekte nutzen konnte. Das entspricht der Philosophie der weltweiten Wikimedia Bewegung: Verlässliches Wissen soll für alle frei zugänglich sein.

Ein Lösungsansatz: Wikimedia Enterprise

Wie gelingt es also, dass Millionen Nutzer*innen Wikipedia im Alltag störungsfrei nutzen können? Dass Forschende, Start-ups, gemeinnützige Organisationen ebenso wie große Unternehmen die Inhalte der freien Enzyklopädie für eigene Projekte weiterverwenden? Und dass all dies möglich ist, ohne dass die Wikimedia-Bewegung die hohen Kosten für Betrieb und Infrastruktur alleine tragen muss?

Mit Wikimedia Enterprise hat die Wikimedia Foundation bereits 2022 ein Angebot entwickelt, um diesen Spagat zu schaffen. Klar ist: Forschende, Softwareentwickler*innen und Unternehmen, die Inhalte aus Wikimedia-Projekten nutzen, haben ganz andere Anforderungen als Menschen, die Wikipedia im Alltag lesen.

Forschende benötigen häufig den gesamten Datenbestand der Wikipedia in komprimierter Form, um damit arbeiten zu können. Softwareentwickler*innen und Technologieunternehmen hingegen brauchen die Inhalte so aufbereitet, dass Maschinen sie verarbeiten können – also als strukturierte Daten in maschinenlesbaren Formaten wie JSON. Unternehmen, die Suchmaschinen betreiben, brauchen Zugriff auf einzelne Artikel, während KI-Entwickler*innen ständig neue Daten für das Training ihrer KI-Modelle suchen: Für sie ist vor allem das Streaming jeder einzelnen Änderung an Wikipedia relevant.

Für diese unterschiedlichen Anforderungen stellt Wikimedia Enterprise drei Programmierschnittstellen, sogenannte APIs, bereit. Sie liefern dieselben Daten – aber jeweils in der Form und über die Abrufmethode, die den jeweiligen Nutzungsszenarien entsprechen.

Was bieten die APIs?

Mit der Snapshot API ist der Abruf von Massendaten möglich. Nutzende können kostenfrei Momentaufnahmen von Wikimedia-Projekten als Datei herunterladen. Dazu gehört Wikipedia ebenso wie Wikibooks, Wikivoyage und andere. Alle zwei Wochen kann eine neue Momentaufnahme heruntergeladen werden.

Einzelne Artikel können in der On-demand API abgerufen werden. Sie ermöglicht den Abruf von mindestens 5.000 einzelnen Artikeln pro Monat und den Abruf von Structured Content Articles. Die Inhalte sind dann so strukturiert, dass Maschinen sie verstehen und weiterverarbeiten können.

Die kostenpflichtige Realtime API wurde für Unternehmen entwickelt, die auf die Inhalte der Wikimedia-Projekte in einer Weise zugreifen, die zu einer kostenintensiven Nutzung der Infrastruktur führen oder die Dienstleistungen und Beratung beim Umgang mit den Daten brauchen.

Wer die Realtime API nutzt, kann sowohl bestehende Inhalte als auch Veränderungen an Wikimedia Projekten in Echtzeit streamen. Das funktioniert mit der sogenannten Firehose. Eine digitale Technologie, die einen dauerhaften, sehr schnellen und hochvolumigen Datenstrom liefert. Hinzu kommen Support-Leistungen und Dienstleistungen von Wikimedia-Softwareingenieur*innen.

Das bedeutet, dass Spenden von Lesenden nicht dazu verwendet werden, die Belastung zu decken, die kommerzielle Wiederverwender von Wikimedia-Inhalten auf die technische Infrastruktur ausüben. Die Einnahmen von Wikimedia Enterprise gehen an die Wikimedia Foundation. Sie sind auf 30 % der Gesamteinnahmen der Wikimedia Foundation begrenzt, die zum Betrieb der Infrastruktur und zur Förderung von Freiwilligen genutzt werden.

Wer nutzt Wikimedia Enterprise?

Neben der bekannten Partnerschaft mit Google, die Enterprise für das Knowledge-Panel in Google-Suchergebnissen nutzt, und Amazon, Microsoft und den Unternehmen aus dem KI-Sektor gibt es zahlreiche andere.

Dazu gehört auch das Internet Archive. Es kann den Echtzeit-Stream der Wikimedia-Inhalte kostenlos nutzen. Denn das Archiv für alle Internet-Inhalte ist eine gemeinnützige Organisation und leistet einen wichtigen Beitrag dazu, Wissen im Netz zu sichern.

2025 haben Wikimedia Enterprise und die Suchmaschine Ecosia bekanntgegeben, dass sie zusammenarbeiten. Ecosia ist eine Suchmaschine aus Berlin, die mit ihren Gewinnen Bäume pflanzt. Statt selbst komplette Wikipedia-Inhalte herunterzuladen und zu verarbeiten, nutzt Ecosia die Enterprise APIs, um fertige, strukturierte Daten zu erhalten. Ecosia kann damit über drei Millionen Suchanfragen täglich mit verlässlichen Informationen aus Wikipedia anreichern – zum Beispiel in Form von Infoboxen (Knowledge Panels) über Personen, Orte und Ereignisse. Indem Ecosia die kostenpflichtige Variante der Snapshot API nutzt, kann die Suchmaschine tägliche Schnappschüsse der Wikipedia-Inhalte nutzen.

Im Gegenzug arbeitet Ecosia mit Wikimedia Enterprise am Beta-Testing und hilft so, neue technische Funktionen zu testen und weiterzuentwickeln, bevor sie allgemein verfügbar sind.

Wikimedia Enterprise agiert damit nach dem Prinzip: Das Wissen ist frei – die Infrastruktur ist es nicht.

Im Blog von Wikimedia Enterprise finden sich weitere Informationen dazu, wer die APIs nutzt und was damit möglich ist.

Warum das Meinungsbild?

Die Wikipedia funktioniert nach Grundprinzipien – unter anderem sind das Nachprüfbarkeit, Neutralität und Belegpflicht. Diese Prinzipien machen sie in Kombination mit ihrem umfangreichen Regelwerk so verlässlich und resistent gegen Desinformation. Generative KI funktioniert ganz anders: Sie formuliert Texte nicht faktenbasiert, sondern auf Wahrscheinlichkeit und Plausibilität basierend. Das passt nicht zur Idee einer menschengemachten Enzyklopädie: Wenn mit Textgeneratoren erstellte Bearbeitungen oder ganze Wikipedia-Artikel nicht auf Richtigkeit geprüft, nicht mit geeigneten Quellenangaben versehen und nicht in enzyklopädischer Sprache formuliert sind, widersprechen sie den Grundprinzipien des Online-Lexikons – und schmälern somit dessen Qualität.

Die Abstimmung (in der Wikipedia „Meinungsbild” genannt) zielte darauf ab, die menschliche Produktion von Artikelinhalten und Diskussionsbeiträgen in den Vordergrund zu rücken und nur wenige Ausnahmen zuzulassen. Die Abstimmung lief vom 1. bis zum 15. Februar. Sich beteiligen durften alle Wikipedianer*innen, die seit mindestens zwei Monaten aktiv sind und mindestens 200 Bearbeitungen vorgenommen haben – davon mindestens 50 Artikelbearbeitungen in den letzten 12 Monaten.

Zum Ende des Meinungsbildes, für dessen Annahme eine einfache Mehrheit vorausgesetzt wurde, waren 208 Stimmen dafür abgegeben worden, den restriktiven Umgang mit KI verbindlich festzuschreiben. 108 stimmten dagegen, 16 enthielten sich. Damit ergibt sich eine deutliche Mehrheit für eine strenge Begrenzung und klare Regelung für KI-generierte Inhalte in der Online-Enzyklopädie.

Was bedeutet das Ergebnis für die Wikipedia?

Verbot von KI-generierten Texten in Artikeln

Ausdrücklich untersagt ist das Einstellen von Texten, die mit Large Language Models (LLM) wie ChatGPT erzeugt oder bearbeitet wurden. Von allen Mitwirkenden wird erwartet, dass sie ihre enzyklopädischen Texte selbst verfassen.

Verbot automatisierter KI-Edits

Ebenfalls unzulässig ist der Einsatz von Tools, die Änderungen in Artikeln KI-gestützt und ohne menschliche Prüfung vornehmen.

Keine KI-Texte als Belege

Erkennbar von einem LLM generierte Texte – etwa auf externen Websites – gelten nicht als geeignete Belege für die Artikelinhalte in der Wikipedia.

Regelung gilt projektweit

Die Grundsätze gelten nicht nur für Artikel, sondern auch für Diskussionsseiten – also den Seiten, auf denen Wikipedianer*innen über Artikelinhalte diskutieren – und andere Projektbereiche

Sanktionen bei Verstößen

Autor*innen, denen das wiederholte Einstellen von mit LLM generierten Texten nachgewiesen werden kann, können unbeschränkt gesperrt werden. Sperren aufgrund von KI-Einsatz sollen jedoch nur erfolgen, wenn die Beweislage klar ist.

Gibt es Ausnahmen?

Trotz der klaren Begrenzung sieht die Regelung bestimmte Ausnahmen vor:

KI-generierte oder bearbeitete Bilder…

…dürfen in Ausnahmefällen nach Diskussion und Konsens für jedes einzelne Bild eingesetzt werden – aber nie als Ersatz für echte Bilder.

Der Einsatz von Machine-Learning-Algorithmen…

…etwa zur Rauschentfernung in Bildbearbeitungssystemen bleibt zulässig.

Maschinelle Übersetzungen,…

…auch wenn sie KI-gestützt arbeiten (zum Beispiel bei Übersetzungen aus anderen Sprachversionen der Wikipedia), sind erlaubt – vorausgesetzt, Übersetzungen und Belege werden sorgfältig auf inhaltliche Korrektheit geprüft.

KI-gestützte Tools zur Fehlererkennung…

…dürfen genutzt werden, sofern jede Änderung menschlich geprüft wird. Zulässig ist etwa der Einsatz von Werkzeugen, die Texte auf Plausibilität, Lücken oder Widersprüche hinweisen oder Rechtschreibung und Grammatik prüfen. Inhaltliche Änderungen müssen jedoch von Menschen vorgenommen werden.

Reine Recherche mit Hilfe von KI…

…bleibt möglich, sofern die gewonnenen Informationen eigenständig geprüft und regelkonform belegt werden.

Wie geht es weiter?

Die Abstimmung gilt verbindlich für alle, die an der deutschsprachigen Wikipedia mitarbeiten. Die neuen Regeln unterstreichen ein wichtiges Grundprinzip des Projekts: Wikipedia-Artikel sollen von Menschen für Menschen recherchiert und geschrieben werden. Community-Mitglieder sehen in der Entscheidung die Grundlage für eine Regelung, die eine sinnvolle Nutzung von KI nicht verbietet, aber klar festlegt, dass die Verantwortung immer bei den menschlichen Autoren liegt.

Innerhalb der Community und auch öffentlich wird nun aber vor allem darüber diskutiert, wie dies künftig umgesetzt werden soll. Dabei sind viele Fragen noch offen: Wie lassen sich KI-generierte Texte erkennen? Wie kann ein zusätzlicher Aufwand für die ehrenamtlich Mitarbeitenden möglichst gering gehalten werden? Wie wird mit Texten umgegangen, die zwar mit KI erstellt wurden, aber inhaltlich korrekt und regelkonform sind? Und wie laufen Diskussionen ab, wenn es um das Löschen oder Behalten solcher Inhalte geht?

Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um KI-Texte zu erkennen und den Mehraufwand zu begrenzen. Um weitere Antworten auf die offenen Fragen zu finden, wird es in der nächsten Zeit noch weiteren Austausch geben. Unter anderem findet im März ein dreitägiges Treffen in Berlin statt, bei dem sich Teilnehmende mit dem Thema beschäftigen werden.

Im Seminar „(Umkämpftes) Wissen – am Beispiel von Wikipedia als kollaborativem Raum für Wissen im Netz“ befassten sich Studierende des Studiengangs Europäische Medienwissenschaft an der Universität Potsdam mit der Frage, wie Wissen entsteht, wer es formt – und warum Wikipedia heute wichtiger ist denn je.

Begleitet wurde das Seminar von einer Wikipedianerin sowie von Vertreterinnen von Wikimedia Deutschland, die Einblicke in die Arbeit des Vereins, aktuelle Herausforderungen der Wikipedia und die Bedeutung von Freiem Wissen gaben.

Vom Lesen zum Schreiben – eine neue Perspektive auf Wikipedia

Für viele Studierende war Wikipedia bislang vor allem ein Ort, an dem sie Wissen konsumieren. Im Seminar änderte sich dieser Blick.

Ich hätte nie gedacht, dass ich selbst bei Wikipedia schreiben kann – und dass das so viel Verantwortung bedeutet.

Diese Perspektivänderung haben die Studierenden auch durch das Kollektiv Wiki Riot Squad zu verdanken, das ihnen in einer Praxissitzung die Grundlagen des Editierens zeigte: Wie man ein Benutzerkonto anlegt, Quellen richtig belegt, Artikelstrukturen aufbaut und mit der Community kommuniziert. Schritt für Schritt lernten die Teilnehmenden, wie aus einer Idee ein Artikel wird – und wie sorgfältig jede Änderung von anderen Wikipedianer*innen geprüft wird.

Von Graffiti bis Gaming: Wie Studierende ihre Themen fanden

Viele Studierende fanden ihre Themen für die ersten Schritte in Wikipedia im eigenen Alltag.
Ein Student erzählte:

Ich ging durch den Berliner Mauerpark und dort gibt es eine Graffiti-Wand. Ich war dann sehr überrascht, dass es dazu noch keinen Wikipedia-Artikel gibt – also habe ich ihn geschrieben.
Screenshotp Wikipedia-Seite
Ein Gameplayausschnitt des Spiels Teamfight Tactics.
Ein Gameplayausschnitt des Spiels Teamfight Tactics.

Eine andere Studentin ergänzte einen Abschnitt über Kosmetik im Computerspiel Teamfight Tactics, weil sie sich schon lange mit Gaming-Kulturen beschäftigt. Ein weiterer Student schrieb über ein DJ-Duo, das er regelmäßig hört – und lernte dabei, wie wichtig es ist, Relevanzkriterien und Quellen sorgfältig zu prüfen, damit der Artikel auch wirklich online geht.

Im Seminar entstanden auch weitere Artikel und Artikelergänzungen: von medienwissenschaftlichen Gruppen und Personen wie Teresa de Lauretis und Teamfight Tactics, die Bockwindmühle Werder (Havel) über die Künstlerin Deize Tigrona bis hin zur ALEX Talkbox oder dem Mühlenfest in Kremmen. Einige Einträge wurden aus anderen Sprachversionen übersetzt, andere ganz neu erstellt.

Die Lernkurve war steil. Plötzlich war klar, wie wichtig Belege, Neutralität und klare Sprache sind – und wie schnell die Community reagiert.

Lernen durch Mitmachen – und durch Kritik

Die Studierenden erfuhren unmittelbar, wie die Wikipedia-Community arbeitet: Einige ihrer Beiträge wurden innerhalb weniger Stunden überarbeitet, formatiert oder auch gelöscht.

Das war teilweise frustrierend, aber auch lehrreich. Man merkt, dass Qualitätssicherung hier wirklich gelebt wird.

Dass Wissen in einem Aushandlungsprozess entsteht und wie Machtstrukturen auch in offenen Projekten wie Wikipedia wirken, erlebten einige Studierende anhand von Diskussionen über die Relevanz ihrer Beiträge und deren Neutralität.

Wikipedia demokratisiert Wissen, aber sie legt auch fest, was als Wissen gilt. Das Projekt ist zugleich emanzipatorisch und disziplinierend – es öffnet den Zugang zu Information, schließt aber auch bestimmte Wissensformen aus.
Prof. Birgit Schneider

Am Ende des Semesters stand fest: Das Schreiben in der Wikipedia hat Spuren hinterlassen. Viele Studierende wollen weitermachen, Artikel verbessern oder neue Themen einbringen.„Ich sehe Wikipedia jetzt nicht mehr nur als Nachschlagewerk, sondern als soziales System, das ständig verhandelt, was Wissen ist“, lautete ein Fazit.

Das Seminar zeigt, wie Hochschullehre und digitale Praxis zusammenwirken können. Es macht deutlich, dass Wikipedia nicht nur ein Ort des Nachschlagens, sondern auch des Lernens, Diskutierens und Mitgestaltens ist – gerade in Zeiten, in denen die Frage nach der Verlässlichkeit von Wissen neu gestellt wird.

Jetzt selbst Teil der freien Wissenscommunity werden

Wikimedia Deutschland unterstützt verschiedene Projekte, die Engagierten den Einstieg in die Wikipedia lehren. Wer selbst Lust hat, Wissen zu teilen oder zu verbessern, kann jederzeit mitmachen.

Einen Online-Kurs zur Einführung gibt es am 10. März und 11. April, online und kostenfrei.

Das Einhorn als jahrtausendealtes Motiv der Kunst

„Gott muss alles erschaffen haben – auch das Einhorn“: Dieser Satz ziert einen um 1500 entstandenen gewebten Teppich mit dem Titel ‘Allegorische Tiere’ und steht beispielhaft für die jahrtausendealte Faszination, die das Fabelwesen auslöst. Entgegen seines heutigen, oft bunten und glitzernden Images blickt das Einhorn auf eine rund 4000-jährige Geschichte in Mythen, Religion und Kunst zurück. Dieser Vielschichtigkeit widmete das Museum- Barberini in Potsdam die Ausstellung „Einhorn. Das Fabeltier in der Kunst“. Ende Januar hatten elf Wikimedia-Aktive im Rahmen einer KulTour die Gelegenheit, sich dem Phänomen Einhorn exklusiv und aus wikipedianischer Perspektive zu nähern.

Zwischen Glücksbringer und Todesallegorie

Ob als japanischer Glücksbringer, als Darstellung für den Tod zum Beispiel bei der Enthauptung des Johannes oder als Apothekenzeichen mit Narwalzahn im niederösterreichischen Zwettl: Seine Zuschreibungen reichen von sanftmütig über eigenwillig bis kampfstark. Ein Wundertier, das bis heute nicht einzufangen ist – so beschreibt es das Museum-Barberini.

Einer der Teilnehmenden an der Wikipedianischen KulTour ist Schlesinger. Während der KulTour erhielten er und die anderen Freiwilligen eine kunsthistorische Führung durch die Ausstellung – Fotografieren ausdrücklich erlaubt. Dabei ließ sich Schlesinger ganz in den Bann des Fabeltiers ziehen: „[..] fast neigte man sogar dazu, an dieses fantastische Wesen zu glauben und sich wie viele Kinder neben das Wärme ausstrahlende präparierte pferdeähnliche Einhornexponat mit echtem Fell zu legen, schließlich werden ihm alle möglichen Wunderkräfte zugeschrieben“, so der langjährige Wikipedianer in seinem Bericht.

Nach der Führung erhielten die Ehrenamtlichen Einblicke in die organisatorische Arbeit, die für die Ausstellung gestemmt werden musste: denn die Ausstellung versammelt rund 150 Werke, darunter Gemälde, Zeichnungen, Druckgraphiken, illuminierte Manuskripte, Plastiken und Tapisserien, die von 80 Leihgebern aus 16 Ländern ausgeliehen wurden.

Einhorn-Wissen für alle

Die rund um den Besuch entstandenen Fotos und das neu erworbene Wissen rund um den Mythos Einhorn werden in die Wikipedia, Wikimedia Commons und Wikidata eingearbeitet. Dies ist das Konzept der Wikipedianischen KulTour, von der Wiki-Aktive wie Museen gleichermaßen profitieren: Ehrenamtliche erhalten exklusive Einblicke in die Museen. Indem sie diese in den Wiki-Projekten verarbeiten, helfen sie den Museen, ihre Inhalte zu öffnen, also zu digitalisieren und frei verfügbar zu machen. Mit dem Barberini arbeitet die Wikipedia-Community schon seit 2021 zusammen, zuletzt bei der GLAM on Tour 2023. GLAM on Tour ist ein mehrtägiges und erweitertes Austauschformat, das auch eine Einführung in die Wikimedia-Projekte für Museumsmitarbeitende beinhaltet.

Die Ergebnisse der jüngsten KulTour können sich schon sehen lassen: Bis jetzt wurden bereits 356 Bilder in Wikimedia Commons und 159 Einträge in Wikidata eingefügt – und die Ehrenamtlichen sind noch lange nicht fertig.

Wir freuen uns, die Zusammenarbeit mit dem Museum-Barberini in den letzten Jahren verstetigt zu haben. Langfristige Kooperationen wie diese sind besonders lohnend. Sie ermöglichen es den GLAM-Institutionen, sich als wegweisende Akteur*innen in der digitalen Wissensgesellschaft zu positionieren.
Holger Plickert Referent für Kultur- und Gedächtnisinstitutionen und GLAM-Organisator bei Wikimedia Deutschland

GLAM on Tour: So geht’s weiter

Für die Zukunft ist noch viel geplant. So sollen Kooperationen mit Gedenk- und Erinnerungsstätten in den Fokus rücken. Bei GLAM können Ehrenamtliche und Institutionen gemeinsam die Qualität und Reichweite des Geschichtswissens in der Wikipedia steigern. Damit leisten sie einen wertvollen Beitrag zur Erweiterung des kollektiven Gedächtnisses und zum Schutz vor Geschichtsmythen und Desinformation.

Dokumente schreiben, Präsentationen vorbereiten, Zahlen auswerten – Office-Software ist eine zentrale Säule für digitale Arbeit und digitales Lernen. Die meisten nutzen dabei Microsoft Office oder die Google Suite, weil diese Programme am Arbeitsplatz vorinstalliert sind oder sich nahtlos in E-Mail- und Cloud-Dienste einfügen. Doch diese Dominanz hat ihren Preis: hohe Lizenzkosten, dauerhafte Abonnements und – im Falle von Cloud-Tools – die Weitergabe sensibler Daten an große Unternehmen.

Deshalb stellen wir uns heute die Frage: Gibt es starke, kostenlose Alternativen, die wirklich mithalten können?

Genau darüber sprechen wir mit Masin Wiedner, IT-Systemadministrator bei Wikimedia Deutschland.

Takeaways

  • Gute Alternativen gibt es: Besonders LibreOffice, OnlyOffice und Collabora Online stechen hervor. Einzelanwendungen wie AbiWord oder Gnumeric können ebenfalls gezielt eingesetzt werden.
  • Keine Bindung: Offene Formate wie ODF schützen davor, dass persönliche Dateien an einen einzelnen Anbieter gebunden werden.
  • Mehr Kontrolle über Daten: Selbst gehostete oder offline nutzbare Tools erhöhen Datenschutz und Datensouveränität.
  • Einarbeitungszeit einplanen: Manche Menüs und Funktionen sind anders angeordnet als bei Microsoft Office oder Google Docs – ein bisschen Geduld lohnt sich.
  • Kombinierbar: Man kann z. B. LibreOffice lokal nutzen und OnlyOffice oder Collabora Online für Teamarbeit im Browser einsetzen.

Hi Masin, was machst du bei Wikimedia Deutschland?

Ich bin einer der Systemadministratoren im IT-Team von Wikimedia Deutschland. Zu unseren Aufgaben gehört die Ausstattung des Kollegiums mit Arbeitsrechnern und den dazugehörigen Programmen. Dabei spielt für uns auch die Sicherheit unserer persönlichen und Arbeitsdaten eine große Rolle.

Was genau ist „Office-Software” und warum ist sie so wichtig?

Unter „Office-Software“ fasst man Programme zusammen, die typische Büroarbeiten unterstützen – vor allem das Schreiben von Texten und das Arbeiten mit Tabellen. Textverarbeitung deckt das Erstellen von Briefen oder längeren Dokumenten ab, während Tabellenkalkulationen zum Erfassen und Analysieren von Daten dienen. Gerade Letztere sind wahre Allzweckwaffen: Sie mussten schon für alles Mögliche herhalten – und tun es bis heute –, oft auch für Dinge, für die es eigentlich geeignetere und stabilere Lösungen gäbe.

Der Begriff „Office-Software“ ist allerdings nicht eindeutig definiert. Viele zählen auch Präsentationsprogramme dazu – ursprünglich gedacht für Folien, die man auf Tageslichtprojektoren geworfen hat. Daher kommt übrigens der Begriff „Folie“ beziehungsweise „Slide“ in Programmen wie PowerPoint. „PowerPoint“ ist dabei längst zum Gattungsbegriff geworden, egal welches Programm man tatsächlich benutzt.

Die großen Programmpakete enthalten oft auch Anwendungen zum Definieren und Bearbeiten von Datenbanken. Das sind jedoch schon eher Spezialwerkzeuge. Für die meisten Menschen reichen Textverarbeitung, Tabellenkalkulation und Präsentationsprogramme völlig aus.
Microsoft Office bringt zusätzlich noch Outlook mit, also ein Programm für E-Mails und persönliches Informationsmanagement. In den letzten Jahren hat Microsoft außerdem versucht, seine Marktmacht zu nutzen und Teams – ein Werkzeug für Kommunikation und Zusammenarbeit mit Chat, Videokonferenzen und gemeinsamen Dateien – über die Office-Bündelung zum Pflichtprogramm zu machen. Die Wettbewerbsbehörden waren von dieser Zwangskombination weniger begeistert und haben sie untersagt. Google bietet zwar vergleichbare Anwendungen an, hat aber im Gegensatz zu Microsoft nicht dieselbe marktbeherrschende Stellung im Bereich Office-Software.

Warum interessierst du dich besonders für Freie Office-Suiten?

Für mich ist das vor allem eine Frage der Teilhabe am digitalen Leben. Freie Office-Suiten ermöglichen es allen Menschen, auch ohne die nötigen finanziellen Ressourcen, an und mit der digitalen Welt zu arbeiten und teilzuhaben.

Office-Anwendungen sind für viele die ersten „richtigen“ Programme, mit denen sie überhaupt in Berührung kommen. Der sogenannte Informatikunterricht an Schulen war lange Zeit praktisch ein Kurs in Microsofts Text- und Tabellenprogrammen. Für einen großen Teil der Bevölkerung ist „Office“ deshalb bis heute gleichbedeutend mit „Microsoft Office“.

Wenn alle Menschen diese Programme nur für sich allein und zuhause verwenden würden, könnte die Geschichte hier enden. Doch sehr oft markiert ein erstelltes Dokument erst den Beginn einer längeren digitalen Reise: Es wird verschickt, geöffnet, weiterverarbeitet und wieder verschickt. Und jedes Mal wird vorausgesetzt, dass die Empfänger*innen wissen, wie sie diese Dokumente öffnen, anzeigen und bearbeiten können.

Das führt dazu, dass viele Menschen faktisch gezwungen sind, Produkte eines einzigen Herstellers zu nutzen, wenn sie reibungslos mit anderen zusammenarbeiten wollen. Das Problem: Diese Produkte waren noch nie kostenlos. Früher musste man mehrere Hundert Euro für eine Lizenz bezahlen, heute sind es laufende Abos – mit dem Risiko, den Zugriff auf wichtige Anwendungen zu verlieren, sobald es finanziell mal enger wird. Gleichzeitig bestimmt der Hersteller allein, was zur Office-Suite gehört und was nicht. Jüngstes Beispiel sind Preiserhöhungen mit dem Hinweis, dass nun „KI“ integriert sei. Viele möchten diese Form von „KI“ aber aus ethischen oder ökologischen Gründen gar nicht nutzen – geschweige denn dafür bezahlen.

Eine Möglichkeit, dem Zwang bestimmter Office-Systemen zu entgehen, ist das Schaffen von Interoperabilität: Die verschiedenen Programme „verstehen“ sich gegenseitig, können also mit den Dateiformaten der anderen umgehen – oder alle verwenden dasselbe Format, dessen Aufbau standardisiert und dessen Dokumentation frei verfügbar ist.

Und ja, die Entscheidung zwischen freier und proprietärer Software ist auch politisch und marktpolitisch relevant. Es geht um Wahlfreiheit, Unabhängigkeit, gesunden Wettbewerb und echte Innovation. Letztere entsteht im Markt vor allem dann, wenn man sich damit gegenüber Mitbewerbern einen Vorteil verschaffen kann – ein Umstand, der bei Monopolisierung fast nicht mehr gegeben ist.

Welche Nachteile entstehen, wenn man sich auf Microsoft Office oder die Google Suite verlässt?

Es gibt den Begriff des „Vendor Lock-Ins”, der eine Abhängigkeit von einem einzelnen Anbieter beschreibt und damit einhergeht, dass ein Wechsel des Anbieters mit unvertretbar hohen Kosten verbunden ist – entweder finanzieller, organisatorischer oder technischer Natur. Ist man erst einmal in dieser Position, kann der Anbieter die Bedingungen für die Nutzung der Produkte immer weiter zu seinen Gunsten verändern. So können die Abo-Preise erhöht werden, wichtige Funktionen hinter teuren Lizenzen versteckt werden, die Kontrolle über die Dokumente kann verloren gehen. Oben hatte ich dazu den Fall mit der integrierten „KI“ erwähnt. Microsoft hat sich da übrigens auch einiges bei Google abgeschaut.

Bei der Google Suite, die viele noch als Google Apps, Google Docs, G Suite oder heute Google Workspace kennen, findet praktisch alles im Browser statt, und die Dokumente liegen ausnahmslos auf den Servern von Google. Google „kennt“ also im Zweifel einen sehr großen Teil der Gedanken und Arbeitsinhalte seiner Kund*innen. Die einzigen Zusicherungen, dass diese Daten nicht zu ihrem Schaden verwendet werden, sind am Ende die Nutzungsbedingungen (denen man meist zustimmen muss) und die Gesetze, die am Unternehmenssitz gelten. Und genau da wird es heikel: Die weitreichenden Befugnisse , die die USA – Sitz sowohl von Google als auch Microsoft – ihren Strafverfolgungsbehörden und Geheimdiensten eingeräumt haben, sollten jeden zum Nachdenken bringen. Der Patriot Act von 2001 erlaubt US-Behörden wie dem FBI, der NSA oder der CIA weitreichenden Zugriff auf Server von US-Unternehmen ohne richterliche Anordnung. Der Cloud Act von 2018 verschärft die Situation noch weiter, weil er den Zugriff sogar dann ermöglicht, wenn die Daten physisch im Ausland gespeichert sind. Dass die USA mit ihren Geheimdiensten aktiv Wirtschaftsspionage betrieben haben, ist ebenfalls dokumentiert, etwa durch das Überwachungssystem Echelon.

Und da reiht sich Microsoft neuerdings mit ein: Dokumente, die man lokal erstellt oder bearbeitet, werden ungefragt in OneDrive, Microsofts hauseigenen Cloud-Speicher hochgeladen.

All das hat Folgen für Datenschutz, Datensouveränität und auch für einen gesunden wirtschaftlichen Wettbewerb. Dazu kommt noch ein weiterer Effekt: Die Dominanz von Microsoft Office wirkt weit über Office-Anwendungen hinaus. Wer Office nutzen will, braucht ein Betriebssystem, das Microsoft unterstützt – effektiv also Windows oder macOS. Alternative Betriebssysteme stehen damit schon an dieser Stelle vor ganz unnötigen Hürden.

Warum dominieren Microsoft und Google den Office-Bereich so stark?

Microsofts heutige Dominanz stammt noch aus der Zeit vor dem Internet. Damals gab es im Office-Bereich tatsächlich noch einen halbwegs lebendigen Wettbewerb. Microsoft konnte jedoch mit der Bündelung von Word, Excel, PowerPoint und Outlook ein Gesamtpaket anbieten, dem viele Firmen kaum widerstehen konnten. Einzelne Konkurrenten hatten teilweise bessere Einzelprogramme – aber eben keine komplette Suite. Und sobald genug Unternehmen auf Microsoft Office gesetzt hatten, kippte das Ganze: Wer beim Dokumentenaustausch mitmachen wollte, musste praktisch ebenfalls auf Microsoft umsteigen. Offene, standardisierte Formate gab es kaum, und PDFs spielten im Büroalltag noch keine nennenswerte Rolle.

Privat wollten die Menschen dann natürlich das nutzen, was sie aus dem Büro kannten: erst unter MS-DOS, dann unter Windows 3.11, Windows 95 – und immer begleitet von der vertrauten Office-Umgebung. So setzte sich Microsoft Schritt für Schritt auch im Alltag der Leute fest.

Google landete seinen großen Durchbruch 2005 mit dem E-Mail-Dienst Gmail, hierzulande auch vielen als Google Mail bekannt. Gmail bot etwas, das damals tatsächlich revolutionär war: 1 Gigabyte Speicher – kostenlos. Während andere Anbieter auf 10 oder 20 Megabyte begrenzten oder die Zahl der E-Mails deckelten, traf Google damit einen echten Schmerzpunkt. Die Nutzerzahlen explodierten.

Auf dieser breiten Basis konnte Google nach und nach das ausbauen, was Microsoft lange für sich beansprucht hatte: E-Mail und persönliches Informationsmanagement, also Kalender, Kontakte und Aufgaben. Parallel reiften auch die Office-Anwendungen selbst, wenn auch langsam. Ich erinnere mich noch daran, dass Google Docs vor gut zehn Jahren nicht einmal Kopf- und Fußzeilen konnte – für offizielle Schreiben war das damals schlicht unbrauchbar.

Dafür boten Googles Office-Produkte etwas, das perfekt in den Zeitgeist passte: Zusammenarbeit in Echtzeit über das Internet. Menschen waren ständig online und wollten gemeinsam an Dokumenten arbeiten – und genau das lieferte die Google-Suite.

Der Funktionsumfang war lange „gut genug“ und wurde kontinuierlich besser. Und weil die Nutzung zunächst kostenlos war, konnten sehr viele Menschen früh damit Erfahrungen sammeln. Was im Privaten und im semi-professionellen Umfeld funktionierte, wanderte dann schnell in Unternehmen – besonders in jüngere Firmen und weniger konservative Branchen.

Hinzu kamen später die Chromebooks als günstiges Angebot für Schulen und Bildungseinrichtungen. Spätestens in der COVID-19-Pandemie von 2020 bis 2023 hat das dem Google Workspace noch einmal einen kräftigen Schub gegeben.

Welche freien Office-Alternativen würdest Du unseren Leser*innen empfehlen?

Ganz klar an erster Stelle: LibreOffice. Die Suite ist funktionsreich, gepflegt und für fast alle gängigen Betriebssysteme verfügbar – die sichere Wahl für alle, die eine vollwertige, lokal installierbare Office-Suite wollen.

Danach wird’s dünner, denn echte freie Office-Suiten gibt es kaum. Einzelanwendungen funktionieren aber sehr gut: AbiWord für Textverarbeitung, Gnumeric für Tabellenkalkulation – schlank, schnell und überraschend leistungsfähig.

Besondere Vertreter sind Collabora Online und OnlyOffice: Die laufen nämlich nicht einfach auf dem eigenen Rechner, sondern werden auf einem Server installiert und dann im Browser genutzt. Sie eignen sich super für gemeinsame Arbeit an Dokumenten – ähnlich wie Google Docs, nur eben ohne das große Datensammeln im Hintergrund. Für Privatleute ist das vielleicht etwas viel Aufwand, aber für Vereine, Schulen oder kleine Unternehmen kann das eine spannende Lösung sein.

Was sind die größten Vorteile dieser Alternativen?

All den Alternativen ist gemein, dass sie unabhängig von den großen Anbietern betrieben werden können: entweder komplett lokal im Falle von LibreOffice oder auf eigenen Servern betrieben im Falle von Collabora Online und Only Office. Selbst wenn der Betrieb der beiden Letzteren als Service eingekauft wird, sind es eher kleinere Anbieter, und bei denen gehört die Auswertung von Daten ihrer Kundschaft nicht zum Kerngeschäft. Für den Datenschutz ist das in jedem Fall eine gute Sache.

Als Underdogs haben diese Alternativen zudem Interoperabilität immer großgeschrieben. Besonders das einst von OpenOffice.org initiierte Open Document Format (ODF) hat sich als Standard etabliert. Darüber hinaus glänzen diese Office-Programme auch damit, dass sie nicht nur ihre eigenen Formate, sondern teilweise auch mittlerweile sehr exotische Dateien wie uralte WordPerfect-Dokumente aus den 80er-Jahren öffnen könnten.

Ein Tipp, den ich oft gegeben habe, wenn jemand Probleme mit einem Microsoft-Office-Dokument hatte: Datei in LibreOffice öffnen, neu abspeichern im aktuellen Microsoft-Format – und schon klappt’s meistens. Über Jahre hinweg war es fast schon ein Running Gag, dass Microsoft Office die eigenen älteren Dateien nicht fehlerfrei öffnen konnte.

Collabora Online und OnlyOffice ermöglichen sogar eine Online-Zusammenarbeit, ganz ähnlich wie man es vom Google Workspace kennt – für Teams und Gruppen also eine echte Alternative.

Was könnte sich beim Wechsel von Microsoft Office oder Google Docs anders anfühlen?

Man kann es sich nicht schönreden: Microsoft und Google investieren riesige Summen in ihre Benutzeroberflächen. Die freien Alternativen wirken dagegen manchmal etwas spröde oder wie aus einer anderen Zeit – auch wenn der Open-Source-Charakter es erlaubt, alternative Oberflächen auszuprobieren. LibreOffice kommt vielen, die es noch kennen, eher wie ein Microsoft Office 2003 vor, also wie die letzte Version vor den „Ribbons“, die Symbole und Aktionen in Reitern gruppieren.

Von den Funktionen her muss LibreOffice sich aber keineswegs verstecken: Alles Wichtige ist da, auch wenn manche Dinge an Stellen zu finden sind, an denen man sie nicht sofort erwartet. Aus eigener Erfahrung weiß ich, dass dort manches sehr praktisch gelöst ist und anderes wiederum weniger logisch platziert wirkt.

Unterm Strich braucht es vor allem ein bisschen Geduld und guten Willen, um sich umzugewöhnen. Persönlich mag ich die Arbeit mit LibreOffice sehr – auch, weil es dazu ermutigt, Dokumente wirklich sauber zu formatieren.

Next Steps

  1. Dokumente sichern und sortieren
    Überprüfen Sie alle aktuellen Office-Dateien auf Ihrem Rechner oder in der Cloud. Sortieren Sie sie nach Wichtigkeit und laden Sie eine Kopie herunter – am besten im neutralen ODF-Format. So haben Sie volle Kontrolle über Ihre Daten.
  2. LibreOffice installieren und erstes Projekt starten
    Laden Sie LibreOffice oder eines der anderen hier vorgestellten Programme herunter und erstellen Sie ein Testdokument oder eine Tabelle. Konvertieren Sie eine alte Datei aus Microsoft Office oder Google Docs, um die Kompatibilität zu prüfen.
  3. Alternative Formate ausprobieren
    Speicheren Sie neue Dokumente nicht automatisch in Microsoft- oder Google-Formaten, sondern testen Sie mal ODF oder PDF/A. So stellen Sie sicher, dass Ihre Dateien zukunftssicher sind.
  4. Online-Zusammenarbeit auf freier Basis testen
    Richten Sie ein kleines Projekt in OnlyOffice oder Collabora Online ein – z. B. ein gemeinsames Dokument mit Freunden, Kolleg*innen oder Vereinsmitgliedern. So bekommen Sie ein Gefühl für die Zusammenarbeit ohne große Abhängigkeit. Hilfe zum Einrichten finden sich für Collabora Online hier und für OnlyOffice hier.
  5. Schrittweise umstellen Statt alles auf einmal zu wechseln, nutzen Sie zunächst beide Welten parallel: LibreOffice lokal, OnlyOffice oder Collabora Online für Teamarbeit. Mit kleinen, realistischen Projekten gewöhnen Sie sich an die neuen Tools, ohne dass der Alltag stockt.

Freie Software: Reisen ohne Datenabdruck

Wednesday, 21 January 2026 13:50 UTC

Ob Städtereise, Geschäftsreise oder der lang ersehnte Urlaub – digitale Reiseplaner sind heute aus der Reisevorbereitung kaum wegzudenken. Sie helfen dabei, Routen zu optimieren, Sehenswürdigkeiten zu entdecken oder Buchungen zu koordinieren. Doch viele der gängigen Tools kommen von großen Tech-Konzernen, die vor allem eines tun: Daten sammeln und daraus Profit schlagen.

Deshalb lohnt sich der Blick auf freie, offene Software-Alternativen. Sie versprechen: volle Kontrolle, mehr Privatsphäre und Unabhängigkeit. Was es dabei zu beachten gibt und wie jedem der Umstieg gelingt, darüber sprechen wir dieses Mal mit Volker Krause, einem langjährigen Wikimedia- und KDE-Community-Mitglied.

Begriffe, die Sie vor dem Lesen dieses Artikels kennen sollten:

KDE e.V. ist der gemeinnützige Verein, der die Entwicklung freier, offener Software aus der KDE-Community unterstützt – damit Menschen überall verlässliche, transparente und gemeinschaftlich entwickelte Anwendungen nutzen können.

Wikidata ist eine frei zugängliche Wissensdatenbank, die strukturierte Informationen über Personen, Orte, Organisationen und vieles mehr speichert. Anders als ein klassischer Artikel liefert sie die Daten in maschinenlesbarer Form, sodass Programme und Apps sie automatisch nutzen können. So können beispielsweise Reise- oder Karten-Apps aktuelle Informationen aus Wikidata abrufen, ohne alles selbst recherchieren zu müssen.

OpenStreetMap (OSM) ist eine freie, von der Community erstellte Weltkarte. Jede*r kann Orte, Straßen, Wege oder Sehenswürdigkeiten eintragen und aktualisieren. Die Daten sind offen verfügbar, sodass Apps und Dienste sie für Navigation, Routenplanung oder andere Anwendungen nutzen können – ähnlich wie bei Google Maps, nur dass hier alle mitmachen und die Daten frei bleiben.

Hi Volker, an welchen KDE- und Wikimedia-Projekten arbeitest du mit und was genau machst du da?

Ich arbeite seit ein paar Jahren an der Entwicklung von KDE’s Reise-App Itinerary mit. Darüber bin ich mit der Zeit dann auch in andere Projekte und Initiativen reingerutscht auf denen sowohl die Itinerary-App als auch viele andere freie Anwendungen in diesem Bereich aufbauen, wie beispielsweise der Pflege von Daten zu Bahnhöfen oder Zuglinien in Wikidata oder OpenStreetMap sowie dem Aufbau des freien und Communitybetriebenen Routing-Dienst Transitous.

Was genau ist ein Reise- oder Routenplaner – wozu dient er?

Ein Reise- oder Routenplaner ist im Kern ein System, das ermittelt, wie man zu einer bestimmten Zeit am besten von A nach B kommt – meist mit öffentlichen Verkehrsmitteln.

Je nach Einsatzzweck kann das aber deutlich umfangreicher werden. Dazu gehören zum Beispiel Funktionen zur Verwaltung von Tickets und Buchungen, Hinweise auf Störungen auf der eigenen Pendelstrecke oder auch ergänzende Informationen für Reisende, etwa zu Sehenswürdigkeiten. Kurz: Ein Reiseplaner bündelt die Informationen, die man benötigt, um zuverlässig und möglichst unkompliziert ans Ziel zu kommen.

Wie bist du erstmals mit Reiseplanern in Berührung gekommen?

Volker Krause ist seit vielen Jahren ehrenamtlich für den KDE e. V., Wikidata und viele weitere damit verbundenen Anwendungen tätig.

Ich bin zwar selbst viel unterwegs, aber eigentlich war mein Einstieg in das Thema mehr ein Zufall. Auf dem Rückweg von einer Veranstaltung konnte ich in einer völlig mit Werbung überladenen Buchungs-E-Mail die Informationen zu meiner Anschlussverbindung nicht mehr finden. Weil ich damals am KDE-E-Mail-Programm KMail gearbeitet habe, habe ich mir die Nachricht im „Quelltext“ angesehen – also in der technischen Rohfassung, in der alle versteckten Informationen sichtbar sind. Dabei bin ich auf eine maschinenlesbare Beschreibung der Reise gestoßen.

Daraus entstand dann zunächst ein kleines Zusatzmodul für KMail – ein sogenanntes Plugin –, das die Reiseinformationen aus solchen E-Mails übersichtlich aufbereitet hat und sie automatisch in den Kalender übernehmen konnte. Das war nützlich, zeigte aber schnell, dass man damit viel mehr machen kann. Am Ende ist daraus schließlich KDE Itinerary als eigene Anwendung entstanden, die offiziell 2018 öffentlich vorgestellt wurde.

Warum beschäftigen dich besonders Open Source und freie Reiseplaner – was reizt dich an dem Thema?

Open Source und freie Reiseplaner beschäftigen mich, weil es im Alltag immer schwieriger wird, ohne proprietäre Apps auszukommen. „Proprietär“ bedeutet: Eine App gehört einem Unternehmen, funktioniert nur unter dessen Bedingungen und läuft oft nur auf Plattformen wie von Google oder Apple. Egal ob Online-Banking, Gesundheitsdaten oder einfach eine Fahrkarte für Bus und Bahn – überall wird man zunehmend in solche geschlossenen Systeme gedrängt. Anfang des Jahres gab es ja sogar den Fall, dass Studierende in Berlin ihr Semesterticket nur noch per verpflichtender App nutzen sollten. Das zeigt, wie konkret dieses Problem ist.

Gerade deshalb brauchen wir echte Alternativen. Als ich vor mehr als 20 Jahren mit freier Software angefangen habe, ging es vor allem um technische Fragen, etwa darum, einen Windows-95-Rechner zu ersetzen. Dieser Aspekt ist geblieben, aber digitale Dienste sind heute viel enger mit dem Alltag verknüpft.

Heute reicht es nicht mehr aus, dass Software offen entwickelt und technisch solide ist. Sie muss auch im Alltag nutzbar sein – also Zugang zu relevanten Daten haben, mit bestehenden Systemen zusammenarbeiten dürfen und praktisch einsetzbar sein. Fehlen etwa Fahrplandaten, Echtzeitinformationen oder Buchungsschnittstellen, bleiben freie Anwendungen außen vor, auch wenn sie technisch mithalten könnten. Deshalb geht es inzwischen nicht nur um Softwareentwicklung, sondern auch um die politischen Rahmenbedingungen dafür.

Und das kann niemand alleine durchsetzen. Dafür braucht es eine breite Zusammenarbeit von Menschen und Organisationen, die sich für digitale Freiheit und den Schutz der Privatsphäre einsetzen. Durch diese Zusammenarbeit kann man tatsächlich etwas bewegen.

Welche Nachteile haben die klassischen Anbieter wie Google Maps, Apple Karten, TripAdvisor oder TripIt aus deiner Sicht?

Bei den großen, bekannten Anbietern ist Datenschutz aus meiner Sicht der wichtigste Kritikpunkt. Dabei geht es nicht nur darum, welche persönlichen Daten gespeichert werden, sondern vor allem darum, welche Rückschlüsse daraus möglich sind. Eine einzelne Reise wirkt zunächst oft harmlos. Viele Angaben wie Name, Adresse oder Zahlungsdaten liegen den kommerziellen Unternehmen durch andere Anwendungen, die ihnen ebenfalls gehören, oft schon vor. Diese Daten stammen dann nicht zwingend aus einer konkreten Reisebuchung, sondern aus anderen Diensten: App-Store-Konten, E-Mail, Cloud-Dienste oder frühere Käufe. Selbst wenn man dort kein Ticket kauft, ist das Nutzerprofil oft schon sehr vollständig. Dazu kommt, dass Reiseziele nichts sind, was man grundsätzlich geheim hält und gerne auch mal aus freien Stücken auf Social Media teilt.

Problematischer wird es, wenn man die komplette Reisehistorie betrachtet. Daraus lassen sich Rückschlüsse auf Arbeitsorte, Interessen oder familiäre Beziehungen ziehen. Werden solche Bewegungsdaten vieler Menschen miteinander verglichen – man spricht hier von Korrelation –, lassen sich sogar soziale Zusammenhänge erkennen. Dass zwei Personen einmal zur gleichen Zeit am selben Ort sind, kann Zufall sein. Passiert das regelmäßig, deutet es auf eine Beziehung hin. Es geht also nicht nur um die individuelle Privatsphäre, sondern auch um die gesellschaftliche Auswirkungen.

Daneben gibt es noch eine zweite Gruppe von Anwendungen: die Apps der Verkehrsanbieter selbst, etwa der DB Navigator. Diese sind zwar oft die einzige Möglichkeit, Tickets direkt zu kaufen, überzeugen aber ebenfalls selten durch guten Datenschutz. Außerdem führen sie zu einem Flickenteppich aus Apps – für jede Region oder jedes Land eine andere.

Hinzu kommt, dass solche Anwendungen meist nur das eigene Angebot anzeigen. Im DB Navigator fehlen zum Beispiel Fernbusse. Das ist aus Sicht der Anbieter nachvollziehbar, liegt aber nicht im Interesse der Reisenden, die eigentlich einen vollständigen Überblick über alle verfügbaren Verkehrsmittel brauchen.

Warum dominieren diese großen Plattformen aus deiner Sicht den Markt so sehr?

Ein zentraler Grund für die Dominanz großer Plattformen sind Monopole. Zum einen gibt es die Plattform-Monopole von Google und Apple: Wer ein Smartphone nutzt, ist meist an deren Betriebssysteme gebunden, und diese bevorzugen ihre eigenen Anwendungen automatisch. Das verschafft ihnen einen enormen Marktvorteil.

Zum anderen gibt es Monopole auf Seiten der Verkehrsanbieter. Sie kontrollieren den Zugang zu Fahrplandaten und haben oft exklusiv die Möglichkeit, Tickets für ihre Angebote zu verkaufen. Ohne diese Daten und ohne Ticketverkauf ist ein Reiseplaner aber nur eingeschränkt nutzbar. Das macht es für alternative Anbieter extrem schwierig, konkurrenzfähige Angebote zu entwickeln.

Dass es auch anders geht, zeigen Beispiele aus Norwegen. Dort betreibt die öffentliche Hand eine zentrale Plattform für Fahrplanauskunft und Ticketverkauf, die vollständig mit freier Software umgesetzt ist. Verkehrsanbieter sind verpflichtet – und auch motiviert –, qualitativ hochwertige offene Fahrplandaten bereitzustellen. Tun sie das nicht, erhalten sie keine Einnahmen aus dem Ticketverkauf. So entsteht ein fairer, offener Wettbewerb im Sinne der Reisenden.

Auch in Deutschland gibt es erste Ansätze in diese Richtung, etwa mit Projekten wie Stadtnavi in Herrenberg. Diese zeigen, was mit politischem Willen möglich wäre – bislang allerdings noch in deutlich kleinerem Maßstab.

Welche freien, offenen Alternativen gibt es aktuell?

Es gibt bereits eine ganze Reihe freier und offener Alternativen: Eine der vermutlich am weitesten verbreiteten Apps in Deutschland ist Öffi. Sie ermöglicht Verbindungssuchen im Nah- und Fernverkehr in vielen Regionen, ohne dass man für jede Stadt oder jeden Verkehrsverbund eine eigene App installieren muss. In diesem Bereich – also der reinen Routen- und Verbindungsplanung – gibt es derzeit auch die größte Auswahl an freien Alternativen.

Als Alternative zur Web-Version von Google Maps lohnt sich ein Blick auf Cartes (Karten) aus Frankreich. Neben Routenplanung und Straßen-Navigation bietet Cartes auch Informationen zu Sehenswürdigkeiten, Restaurants und Geschäften, inklusive Fotos. Damit deckt es einen ähnlichen Funktionsumfang ab, setzt aber auf offene Technologien.

Natürlich gehört in dieser Aufzählung auch KDE Itinerary dazu. Diese Anwendung ist am ehesten mit Diensten wie TripIt vergleichbar. Sie richtet sich weniger an die eigentliche Routenplanung, sondern daran, während einer Reise alle wichtigen Informationen gebündelt zur Verfügung zu haben – etwa Buchungen, Fahrkarten oder Reservierungen.

Das sind allerdings nur drei Beispiele. Sie zeigen, wie vielfältig der Bereich bereits ist, decken aber längst nicht das gesamte Spektrum ab. Wer sich für freie Reiseplaner interessiert, sollte ruhig etwas Zeit zum Stöbern einplanen – es lohnt sich.

Screenshot Cartes
Eine gute Alternative zu proprietären Reiseplanern: die französische App Cartes.

Was sind die größten Vorteile dieser freien Reiseplaner?

Der größte Vorteil freier Reiseplaner ist, dass sie von Reisenden für Reisende entwickelt werden. Ihr Ziel ist es, bei der Planung und unterwegs zu unterstützen – nicht, Daten zu sammeln, Werbung anzuzeigen oder bestimmte Produkte zu verkaufen.

Entsprechend unterscheidet sich auch der Umgang mit Datenschutz deutlich. Vollständig offline funktionieren solche Anwendungen zwar meist nicht, das ist aber auch kaum möglich, wenn man aktuelle Verspätungen oder Echtzeitinformationen nutzen möchte. Entscheidend ist: Die Funktionsweise ist offen und transparent, man kann also nachvollziehen, welche Daten übertragen werden und warum.

Ein weiterer wichtiger Punkt sind die Communitys hinter diesen Anwendungen. Sie sind in der Regel leicht ansprechbar, und Nutzer*innen können eigene Erfahrungen und Ideen einbringen. Dafür muss man kein technisches Spezialwissen haben. Wenn man etwa bei einem Umstieg mit dem Kinderwagen von OpenStreetMap – einer frei nutzbaren Weltkarte – über unnötig viele Stufen geführt wird, liegt das oft daran, dass Wege auf der Karte noch nicht ganz korrekt erfasst sind. Das lässt sich einfach korrigieren indem man als Nutzer*in einfach selbst Hand anlegt und die Informationen anpasst. Das verbessert die Situation sofort für alle Menschen, die OpenStreetMap nutzen.

Was ist für Nutzer*innen vielleicht ungewohnt, wenn sie von Google Maps oder TripIt umsteigen?

Beim Umstieg von beispielsweise Google Maps oder TripIt fallen Nutzer*innen vor allem zwei Dinge auf, für die es bislang noch keine wirklich guten freien Alternativen gibt: Bewertungen und Ticketbuchungen.

Bewertungen sind allerdings auch in kommerziellen Anwendungen nicht unumstritten. Sie sind anfällig für Spam und gezielte Manipulationen und erfordern einen hohen Moderationsaufwand. Dazu kommen rechtliche Risiken, etwa bei falschen oder rufschädigenden Bewertungen. All das ist für freie Projekte nur schwer zu stemmen. Zwar gibt es immer wieder Ideen, wie man Bewertungen robuster und fairer gestalten könnte, wirklich überzeugende Konzepte haben sich bisher aber nicht etabliert – sofern das überhaupt möglich ist.

Bei Ticketbuchungen ist die Situation etwas anders. Die meisten freien Projekte möchten selbst nicht als kommerzielle Anbieter auftreten. Für Nutzer+innen wäre es aber sehr hilfreich, eine geplante Reise direkt beim jeweiligen Verkehrs- oder Reiseanbieter buchen zu können. Technisch wäre das über sogenannte „Deep Links“ möglich – also direkte Verweise in die Buchungssysteme. Solche Schnittstellen werden von den Anbietern bislang jedoch nur selten angeboten, was freie Alternativen aktuell deutlich einschränkt.

Wie einfach ist der Umstieg – und wo findet man diese freien Tools?

Der Umstieg ist relativ unkompliziert. Web-Anwendungen wie Cartes lassen sich direkt im Browser nutzen, ohne dass eine Installation nötig ist. Die anderen Apps gibt es wahlweise im freien App-Store F-Droid – einem App-Shop speziell für freie und Open-Source-Anwendungen – oder auch im Google Play Store. Über beide Wege lassen sie sich problemlos auf Smartphones installieren.

Hast du noch ein, zwei Tipps für Einsteiger*innen, um den Wechsel möglichst reibungslos zu gestalten?

Ein guter Einstieg ist, verschiedene Alternativen einfach einmal parallel auszuprobieren. So kann man herausfinden, welche App oder Anwendung für den eigenen Anwendungsfall und die Region, in der man unterwegs ist, am besten passt.

Wohin entwickelt sich die Welt der freien Reiseplaner deiner Meinung nach in den nächsten Jahren?

In der Welt der freien Reiseplaner passiert gerade sehr viel – und ich gehe davon aus, dass sich das in den nächsten Jahren weiter beschleunigt.

Ein gutes Beispiel dafür ist Transitous. Das ist ein offener, von der Community betreuter Routing‑Dienst für den öffentlichen Verkehr, der unabhängig von einzelnen Verkehrsunternehmen oder großen Plattformen funktioniert. Er nutzt frei verfügbare Fahrplandaten aus vielen Ländern (z. B. im Standardformat GTFS und Realtime‑Daten) und stellt daraus eine grenzüberschreitende Reiseplanung bereit, die nicht an nationale Grenzen oder einzelne Betreiber gebunden ist. Transitous konzentriert sich darauf, den Nutzer*innen gute Routenplanung zu bieten, ohne ihre Daten zu sammeln oder kommerziell auszunutzen. Das ist noch relativ neu: Vor nicht allzu langer Zeit war öffentliche Verkehrsrouting‑Technologie jenseits der proprietären Systeme praktisch nicht verfügbar. Inzwischen nutzen mehrere freie Anwendungen Transitous – ein Zeichen, dass die technische Machbarkeit längst da ist und weiter wächst.

Auch die Community drumherum wächst. So fand im Oktober 2025 erstmals die Open Transport Community Conference statt, ein „Unconference“‑Format, bei dem Entwickler*innen sowie Interessierte aus Projekten wie Transitous, OpenStreetMap oder OpenTripPlanner in Wien zusammenkamen. Dort ging es weniger um klassische Vorträge, sondern vor allem um Austausch, Diskussion und Zusammenarbeit rund um freie Software und offene Daten für Mobilität und öffentlichen Verkehr.

Wie genau sich das alles entwickeln wird, ist noch schwer vorherzusagen. Aber ich vermute, dass sich der Fokus zunehmend weg vom bloßen Aufholen der proprietären Lösungen hin zu eigenen, neuen Ideen verschieben wird. Ein Beispiel dafür sind Ansätze, barrierefreie Informationen ins Routing einzubeziehen – etwa alternative Verbindungsoptionen, wenn ein Bahnsteig nicht durch einen defekten Aufzug erreichbar ist. Solche Funktionen sind für bestimmte Nutzergruppen essentiell und finden sich in proprietären Anwendungen oft nur zögerlich oder überhaupt nicht, wenn kein regulatorischer Druck besteht.

Takeaways

  • Es gibt überzeugende Alternativen: KDE Itinerary, Öffi oder Cartes decken verschiedene Aspekte der Reiseplanung ab – von Routenplanung über Fahrplandaten bis zur Übersicht über Reiseinformationen.
  • Datenschutz bleibt das stärkste Argument: Keine versteckte Datensammlung, keine personalisierte Werbung – volle Kontrolle über die eigenen Reisedaten.
  • Der Umstieg ist einfacher als gedacht: Viele Tools laufen offline, funktionieren auf allen Geräten und lassen sich parallel zu bestehenden Apps nutzen.
  • Tipp: Erst einmal ausprobieren – ein Wochenende nur mit einem freien Reiseplaner planen und erleben, wie unabhängig Reisen sich anfühlen kann.

Next Steps

  1. Testen: KDE Itinerary, Öffi oder Cartes direkt über die Website oder den App-Store herunterladen und ausprobieren.
  2. Entdecken: Die nächste Reise oder Route bewusst mit einem dieser Tools planen, um die Funktionsweisen kennenzulernen.
  3. Vertiefen: Mitglied einer Community werden, die an freien Reiseplanern arbeitet, und aktiv Erfahrungen oder Daten beitragen – zum Beispiel bei Transitous oder OpenStreetMap.

Es war einmal … ein freies Internet

Das Netz fühlte sich einst an wie ein offener Spielplatz für alle Menschen: für Ideen, Austausch und Neugier. Heute gleicht es eher einem Shoppingcenter mit Überwachungskameras, Hausrecht und Dauerbeschallung. Während die Anzahl der Websites explodiert ist, schrumpft unsere tatsächliche Freiheit online. Der Grund: Eine Handvoll Big-Tech-Konzerne kontrolliert einen Großteil des digitalen Raums und damit die Entwicklung unserer Gesellschaft.

Wer sichtbar sein will, muss zahlen. Wer teilnehmen will, gibt Daten ab. Und wer glaubt, selbst zu entscheiden, was sie/er sieht, unterschätzt die Macht unsichtbarer Algorithmen. Genau hier setzt die Initiative Save Social an – und ruft mit dem Digital Independence Day (DI.DAY) zur digitalen Selbstbefreiung auf!

Die Aktion wir von insgesamt 41 Organisationen unterstützt, darunter Wikimedia Deutschland.

Digitale Unabhängigkeit mit Schritt für Schritt-Anleitung

Der DI.DAY ist kein einmaliger Aktionstag, sondern ein monatliches Ritual. An jedem ersten Sonntag im Monat sollen Menschen und Organisationen bewusst von profitorientierten Plattformen zu freien Alternativen wechseln. Heute die Plattform X verlassen und zu Mastodon gehen, morgen WhatsApp gegen Signal tauschen, übermorgen Gmail durch einen datenschutzfreundlichen Mailanbieter ersetzen.

Auf der Webseite stellt die Initiative sogenannte Wechselrezepte bereit: einfache, alltagstaugliche Schritt-für-Schritt-Anleitungen zum Wechseln von Messenger, Browser, E-Mail und mehr. Laut Save Social gibt es nämlich mehr als genug Alternativen, die nur deshalb nicht sichtbar sind, weil die Big-Tech-Angebote so überpräsent sind. Ergänzt wird das Angebot durch Workshops und Veranstaltungen, online wie offline.

So sollen jeden Monat immer mehr Menschen und Organisationen von profitorientierten zu  gemeinwohlorientierten Alternativen wechseln. Wer den Umzug vollzogen hat, sagt mit dem Hashtag #DIDit in den eigenen sozialen Netzwerken Bescheid – und zieht andere nach und nach mit. So retten wir unsere digitale Freiheit und unsere Demokratie.

Breite Unterstützung – und politischer Druck

Der DI.DAY wurde Ende 2025 auf dem Chaos Communication Congress von Autor Marc-Uwe Kling vorgestellt, der die Initiative auch konzeptionell mitentwickelt hat. Kling kritisiert seit Längerem, dass Plattformen wie X oder Facebook zunehmend steuern, wie Menschen Wirklichkeit wahrnehmen. In einem Beitrag der Tagesschau macht er deutlich, wie massiv Demokratie und Freiheit dadurch unter Druck geraten – und warum es höchste Zeit ist, sich aus dieser „Umarmung“ zu lösen.

Autor Marc-Uwe Kling (links) und CCC-Sprecher Linus Neumann (rechts) sind Unterstützer von Save Social und der DI.DAY Initiative.

Getragen wird die Initiative von einem beeindruckend breiten Bündnis. Dazu gehören unter anderem Wikimedia Deutschland, der Chaos Computer Club, Ecosia, die Digitale Gesellschaft, Robin Wood, Nextcloud, ver.di Hamburg sowie viele weitere Organisationen aus der Zivilgesellschaft. Diese Vielfalt zeigt: Digitale Unabhängigkeit ist kein Nischenthema.

Passend dazu haben bereits über 155.000 Menschen eine Petition von Save Social unterzeichnet, die den Abschied der Bundesregierung von der Plattform X fordert. Franziska Heine, Vorständin von Wikimedia Deutschland, bringt es zum Start des DI.DAY mit einem Augenzwinkern auf den Punkt:

„Weil digitale Unabhängigkeit für jede und jeden wichtiger denn je ist, haben wir dem Bundeskanzler zu Weihnachten einen Mastodon-Account geschenkt. Das könnt ihr auch – schenkt euch selbst, den Nachbarn oder der Oma ein Stück Freiheit und digitale Selbstbestimmung!“

Digitale Selbstbestimmung: Endlich unabhängig von Big Tech

Viele von uns greifen im Alltag auf Software großer Tech-Konzerne zurück. Sie ist bequem, gut gestaltet und funktioniert meist problemlos – doch häufig zahlen wir dafür mit unseren Daten, intransparenten Algorithmen und fehlender Kontrolle durch Zwangsupdates. Wer digital selbstbestimmt bleiben möchte, kann auf Freie Software setzen. In einer Blogreihe zeigen wir, welche Alternativen es gibt – von Betriebssystemen über Browser und Messenger bis hin zu Social Media.

Laptopscreen mit Galaxie-Darstellung

Teil 1: Warum Freie Software wichtig ist – und wie wir alle davon profitieren

Der meistgelesene Artikel 2025

Auf Platz eins der meistgelesenen Artikel in der deutschsprachigen Wikipedia steht – wie in fast jedem Jahr – der Nekrolog 2025, also die Übersicht verstorbener Persönlichkeiten. Mehr als 4,6 Millionen Aufrufe verzeichnete dieser Artikel, der Jahr für Jahr aktualisiert wird. Zwischen bekannten Namen finden sich dort auch viele rote Links – sie zeigen biographische Einträge, die es noch nicht gibt. Was immer ein Hinweis darauf ist, wie viel Wissen in der Wikipedia noch entstehen kann.

Das sind die Top Ten:

  1. Nekrolog 2025 (4,69 Millionen Aufrufe)
  2. ChatGPT (3,91 Millionen Aufrufe)
  3. Deutschland (3,78 Millionen Aufrufe)
  4. Alice Weidel (3,76 Millionen Aufrufe)
  5. Friedrich Merz (3,35 Millionen Aufrufe)
  6. Ed Gein (3,12 Millionen Aufrufe)
  7. Elon Musk (2,60 Millionen Aufrufe)
  8. Donald Trump (2,41 Millionen Aufrufe)
  9. Leo XIV. (2,40 Millionen Aufrufe)
  10. Laura Dahlmeier (2,31 Millionen Aufrufe)

Von der Bundestagswahl bis zur Weltpolitik: 2025 war ein politisches Jahr

Das politische Interesse prägte die Wikipedia-Nutzung 2025 besonders stark. Unter den Top 20 finden sich gleich mehrere Politiker*innen: Neben Alice Weidel und Friedrich Merz stießen auch die Artikel zu Heidi Reichinnek (Platz 14), Lars Klingbeil (Platz 17) und Julia Klöckner (Platz 20) auf großes Interesse. Auch zur Bundestagswahl 2025 (Platz 19) informierten sich viele Lesende auf Wikipedia, was die fast 1,8 Millionen Aufrufe des Artikels bestätigen, genauso wie zur Chronik des russischen Überfalls auf die Ukraine ab 2025 (Platz 32). Auch internationale Akteur*innen wie Elon Musk (Platz 7), Donald Trump (Platz 8) oder JD Vance, der neue US-Vizepräsident (Platz 24), bleiben viel gesuchte Namen.

Diese Zahlen zeigen, wie stark Wikipedia als Nachschlagewerk für politische Orientierung dient: Ob bei aktuellen Wahlen, Kriegen oder politischen Debatten – viele Menschen suchen in der freien Online-Enzyklopädie nach belegten Fakten statt Schlagzeilen.

Wie Wikipedia über digitale Trends informiert

Dass der Artikel zu ChatGPT mit über 3,9 Millionen Aufrufen auf Platz zwei der Top 100 landet, überrascht nicht. Kaum ein Thema hat die Diskussionen des vergangenen Jahres über Technik und Bildung so bestimmt wie der Umgang mit generativer KI. Die Wikipedia dient hier oftmals als Kompass: Menschen suchen nach einer verlässlichen Einordnung, wie künstliche Intelligenz funktioniert – und was sie für den Alltag bedeutet.

Einen anderen Nerv traf der Artikel zum US-amerikanischen Mörder Ed Gein auf Platz sechs. Das Interesse an wahren Kriminalfällen, sogenannten „True Crime“, bleibt groß. Die hohe mobile Nutzung des Artikels (über 90 %) zeigt zudem: Wikipedia-Wissen wird heute oft und gern unterwegs konsumiert.

Popkultur und Sport: Wissen zum Mitreden

Auch popkulturelle Themen wurden viel gesucht. Artikel über Musiker*innen wie Ozzy Osbourne (Platz 21), Shirin David (Platz 75), Haftbefehl (Platz 34), Nina Chuba (Platz 78) oder Serien wie Stranger Things (Platz 31), Yellowstone (Platz 37) und The White Lotus (Platz 92) zeigen, wie Wikipedia Teil des Alltags von Vielen ist.

Sportlich lasen Viele (Platz 16) über die Fußball-Weltmeisterschaft 2026 – schon im Jahr vor dem Großereignis verzeichnete der Artikel fast zwei Millionen Aufrufe.

Der tragische Tod der Biathletin Laura Dahlmeier bewegte 2025 viele Menschen – erkennbar auch daran, dass der Artikel über sie 2,3 Millionen Mal aufgerufen wurde und damit Platz 10 der meistgelesenen Artikel ist.

Zeitlose Themen in der Wikipedia

Neben aktuellen Themen wie der Papstwahl im letzten Jahr (die neben der Liste der Päpste auf Platz 15 den Artikel über Leo XIV. auf Platz 9 brachte) enthält die Liste der meistgelesenen Artikel auch Klassiker: Das Interesse an geschichtlichen Artikeln ist gleichbleibend hoch. Die Artikel zu Adolf Hitler (Platz 30) oder dem Zweiten Weltkrieg (Platz 86) gehören weiterhin zu den meistgelesenen Einträgen.

Was die Liste der meistgelesenen Artikel verrät

Die Liste der meistgelesenen Wikipedia-Artikel 2025 zeigt mehr als nur, was im vergangenen Jahr im Fokus der öffentlichen Aufmerksamkeit stand – sie gibt Einblick darin, wie Menschen Wissen suchen, teilen und gemeinsam bewahren.

Denn: Hinter jedem Artikel auf dieser Liste stehen Menschen, die sich täglich für Freies Wissen einsetzen – Ehrenamtliche, die Texte überarbeiten, Quellen prüfen oder neue Themen anlegen. Rund 18.000 Bearbeitungen der 100 meistgelesenen Artikeln des Jahres belegen, wie lebendig diese Arbeit an der Wikipedia ist.

Doch Freies Wissen braucht stetig neue Impulse. Wir alle können dazu beitragen, dass Inhalte aktuell, ausgewogen und zugänglich bleiben – sei es durch kleine Korrekturen, Recherchen oder den ersten eigenen Artikel. Wichtig ist dabei: Alles muss mit seriösen Quellen belegt und sachlich und neutral dargestellt sein.

Die Wikipedia-Challenge. Bist du bereit?

Mach mit mit deinem Wissen!

Die 30‑Tage‑Wikipedia‑Challenge bietet allen Interessierten einen einfachen Einstieg in die Praxis der freien Enzyklopädie.

So kommen die Top 100 zustande

Das Tool Pageviews wertet zahlreiche Daten zur Wikipedia-Nutzung aus. Darunter auch die tausend monatlich am häufigsten aufgerufenen Artikel oder die pro Jahr am häufigsten aufgerufenen Artikel. Für die Rangliste wurden ausschließlich Wikipedia-Artikel zu Themen berücksichtigt, nach denen Menschen gesucht haben – also nicht die Hauptseite der Wikipedia oder die Wikipedia-Suche-Seite. Auch sogenannte falsche Positive oder Aufrufe, die durch Bots, SEO-Maßnahmen oder spezielle Verlinkungen zustande gekommen sind, wurden ausgeschlossen.

Unsere Highlights vom Chaos Communication Congress

Monday, 5 January 2026 15:06 UTC

Jeden ersten Sonntag auf die gute Seite wechseln

Die Idee des Digital Independence Day: Jeden Monat sollen immer mehr Menschen und Organisationen von einer profitorientierten, zu einer offenen und gemeinwohlorientierten Alternative wechseln. Wer den Umzug vollzogen hat, gibt den Freunden, der Kita-Gruppe oderder Arbeitskollegin mit dem Hashtag #DIDit Bescheid – und zieht so immer mehr Menschen mit! An jedem ersten Sonntag im Monat machen wir gemeinsam einen Schritt auf die bessere Seite des Netzes.

Medienbereichte zum DI.Day

Tagesschau: CCC-Kongress in Hamburg: Wege in die digitale Unabhängigkeit

radioeins: Mission: Digitale Freiheit – Der erste Digital Independence Day

BR24: Digital Independence Day: Abschied von Big Tech

Frankfurter Rundschau: Demokratie kann es nur ohne digitale Fremdbestimmung geben

Der CCC – ehrenamtlich und nicht-kommerziell

Immer wieder beeindruckend: Es sind tausende Ehrenamtliche, die das Kongresszentrum Hamburg in ein offenes Haus für die rund 16.000 Teilnehmenden verwandeln, die sich zu aktuellen technologischen und digitalpolitischen Entwicklungen austauschen wollen. Beim CCC wird der nicht-kommerzielle Anspruch tatsächlich gelebt. Jedes Jahr Ende Dezember wird das Congress Centrum in Hamburg zu einemfast magischen Ort – voller kleiner sogenannter Habitate von und für unterschiedliche Interessengruppen.

Eines dieser Habitate war in diesem Jahr das Free Knowledge Habitat. Organisiert vor allem von Wikimedia Deutschland, temporärhaus, Code for Germany, Frag den Staat und weiteren Akteur*innen aus der Welt des Freien Wissens.In unseremVortrags- und Workshop-Bereich gab es Einführungen und Talks zu offenen Daten, Wikidata, internationaler Digitalpolitik und viel Raum für Austausch zu unserem politischen Engagement für Freies Wissen.

6 Highlights rund um Freies Wissen:

  1. Who runs the www? WSIS+20 and the future of Internet governance, Sophia Tawonga Longwe von Wikimedia Deutschland gibt einen Überblick über Gremien und Prozesse internationaler Digitalpolitik
  2. Gegenmacht – Best of Informationsfreiheit, Arne Semsrott spricht über das politische Jahr 2025 aus Sicht von Informationsfreiheit und Transparenz
  3. Die Känguru-Rebellion: Digital Independence Day, Marc Uwe Kling liest Geschichten mit digitalpolitischer Systemkritik und ruft den Digital Independence Day aus
  4. Power Cycles statt Burnout – Wie Einflussnahme nicht verpufft, Die beiden Digitalpolitikerinnen Rahel Becker und Anna Kassautzki geben Tipps aus dem Maschinenraum politischer Wirkung im Bundestag
  5. A post-American, enshittification-resistant internet, Cory Doctorow skizziert Ideen, wie Staaten und Nutzende sich gegen die Übermacht von Big Tech wehren können.
  6. AI-generated content in Wikipedia – a tale of caution, Mathias Schindler berichtet davon, wie er versehentlich einen Detektor gebaut hat, mit dem man bestimmte KI-generierte Inhalte in Wikipedia entdecken kann. 

Sofa, Snacks und Systemkritik

Der Congress bietet eine bunte Mischung aus Themen: von Informationsfreiheit, IT-Sicherheit und Freier Software bis hin zu kreativen Hacks und ungewöhnlichen Nutzungen von Technik, die so garantiert nicht im Handbuch stehen. Besonders viel Spaß machen die praktischen Hacks und Spielereien, die man in entspannter Atmosphäre gemeinsam ausprobiert. Künstler*innen bringen Musik, Installationen oder Skulpturen mit und erschaffen so ihr ganz eigenes, temporäres Utopia. Dabei entsteht ein Gefühl dafür, dass andere Welten möglich sind: Orte, an denen Ungerechtigkeiten hinterfragt werden und gemeinsam an besseren Zukünften gebastelt wird. Alle können sich mit dem einbringen, was sie können

Weiterführende Links

Aufzeichnungen der Vorträge des 39c3

Wikipedia-Artikel Chaos Communication Congress

Fotos des 39C3 unter freier Lizenz auf Wikimedia Commons

Tag der Gemeinfreiheit 2026: Das Wissen ist frei!

Thursday, 1 January 2026 05:00 UTC

Jedes Jahr dürfen wir am 1. Januar einen neuen Schatz an neu gemeinfrei gewordenen Werken heben – für die Communitys der Wikipedia und ihrer Schwesterprojekte können dann neue Inhalte ohne Beschränkungen online verfügbar gemacht werden. Manchmal sind das ikonische Bilder, wie 2025 die Gemälde von Henri Matisses, manchmal alte Fotos und manchmal Musik, wie 2024 die Jazz-Standards von Django Reinhardt.

In diesem Jahr feiern wir am Tag der Gemeinfreiheit (Public Domain Day) einen großen Schriftsteller und einen bahnbrechenden Wissenschaftler: die beiden deutschen Nobelpreisträger Thomas Mann und Albert Einstein. Beide flohen vor den Nazis in die Vereinigten Staaten und hinterließen nach ihrem Tod 1955 jeweils ein gewaltiges Oeuvre: Von Thomas Mann sind die Romane Buddenbrooks und Der Zauberberg sowie die Erzählungen Tonio Kröger und Der Tod in Venedig zu nennen. Albert Einsteins wichtigste Veröffentlichungen Zur Elektrodynamik bewegter Körper und die Allgemeine Relativitätstheorie haben wohl ungleich weniger Menschen selbst gelesen, aber E = m·c2 – die darin enthaltene Formel von der Äquivalenz von Masse und Energie – kennt heute wirklich jeder.

Warum vor allem freie Wissensprojekte vom Gemeinfreiheit profitieren

Für die Wikipedia ist der Ablauf der Urheberrechte an diesen Werken in diesem Fall tatsächlich kein so besonderes Ereignis: Denn sowohl eine physikalische Formel als auch die Inhaltsangabe eines Romans sind vom Urheberrecht gar nicht erfasst – in der Wikipedia war dieses Wissen also auch bisher schon zu finden. Wer aber heute profitiert, sind andere Projekte, die Freie Inhalte in der Originalfassung erschließen und nachnutzbar machen: Zu nennen ist einerseits das Wikipedia-Schwesterprojekt Wikisource oder das einen ähnlichen Ansatz verfolgende Plattform Project Gutenberg. Dort kann ab heute die ehrenamtliche Wissens-Community grundlegende physikalische Abhandlungen oder literarisch anspruchsvolle Erzählungen im ursprünglichen Volltext abrufbar machen.

Es gibt also viele Möglichkeiten, den heutigen Tag der Gemeinfreiheit zu feiern: Entweder man schmökert in den jetzt ohne urheberrechtliche Beschränkungen nutzbaren Original-Werken Thomas Manns, Albert Einstein, oder man sieht sich erst einmal die etwas zugänglicheren Erläuterungen in der Wikipedia an – viel Spaß dabei! Eine ausführliche Liste der ab heute gemeinfreien Werke findet sich, natürlich, in der Wikipedia.

Lukas Mezger ist Wikipedianer und Rechtsanwalt. Bis 2022 war er Vorsitzender des Präsidiums von Wikimedia Deutschland.

Wie Wiki Loves-Wettbewerbe Freies Wissen sichtbar machen

Jedes Jahr halten Profi- und Hobbyfotograf*innen weltweit Wissen in Bildern fest und reichen ihre Aufnahmen bei den „Wiki Loves“-Wettbewerbe ein. Diese zeigen eindrucksvoll, wie vielfältig und wertvoll das Engagement für freies Wissen ist. Die Fotos machen Geschichte, Natur und Kultur sichtbar und bewahren, was oft vom Verschwinden bedroht ist. Dafür gebührt allen Teilnehmenden großer Dank.

Bei Wiki Loves Monuments stehen Kultur- und Baudenkmäler im Fokus, bei Wiki Loves Earth die Natur und bei Wiki Loves Folklore Bräuche und Traditionen. Die Fotos werden unter freier Lizenz auf Wikimedia Commons hochgeladen und können damit nicht nur von uns allen frei genutzt werden, sondern bereichern vor allem etliche Wikipedia-Artikel. In diesem Jahr kamen bei den drei Wettbewerben mehr als 380.000 Fotos aus 57 Ländern zusammen.

Feierliche Preisverleihung in Berlin

Mit dem Abspielen des Videos erklären Sie sich damit einverstanden, dass YouTube und Google Ihre Daten speichern und verarbeiten dürfen. Bitte beachten Sie die Datenschutzerklärung von Google.

Im Dezember 2025 ehrte Wikimedia Deutschland die Erstplatzierten der deutschen Wettbewerbe. Die Veranstaltung machte deutlich, wie sehr das Engagement der ehrenamtlichen Fotograf*innen auch über die Wiki-Community hinaus anerkannt wird.

Wiki Loves Monuments

Wiki Loves Monuments (WLM) ist der größte und älteste Fotowettbewerb der Wiki-Community. Im Mittelpunkt stehen Fotos von Kultur- und Baudenkmälern – von Schlössern über Kirchen bis hin zu Brücken und Monumenten. In diesem Jahr haben sich 57 Länder an der Wettbewerbsrunde beteiligt – insgesamt wurden über 230.000 Fotos unter freier Lizenz eingereicht. Die meisten kamen aus der Ukraine, Polen und Italien. Aus Deutschland wurden mehr als 14.000 Bilder auf Wikimedia Commons hochgeladen.

Hier kommen die Top 5-Gewinnerbilder aus Deutschland. Alle weiteren ausgezeichneten Fotos finden Sie hier.

Sonderpreis Bauernhöfe

Auch in diesem Jahr hat Wiki Loves Monuments Deutschland wieder einen Sonderpreis ausgelobt. Neben dem regulären Wettbewerb wurden zusätzlich die drei besten Fotografien von Bauernhäusern und Bauerngehöften prämiert. Denn es gibt zahlreiche Bauernhöfe in den Denkmallisten der Wikipedia, aber noch viel zu wenige Bilder dazu. Das sind die Gewinnerbilder:

Wiki Loves Earth

Wiki Loves Earth (WLE) ist ein weltweit ausgerichteter Fotowettbewerb, der den Fokus auf den Erhalt und die visuelle Erfassung des Natur- und Landschaftserbes legt. Ziel des Wettbewerbs ist es, das öffentliche Bewusstsein für die Bedeutung von Schutzgebieten und Naturdenkmälern zu stärken und gleichzeitig eine frei zugängliche, umfassende Bildsammlung auf Wikimedia Commons aufzubauen.

Die internationalen Gewinnerbilder

Mit 57 teilnehmenden Ländern und Gebieten wurde in diesem Jahr ein neuer Rekord erreicht. Insgesamt gingen rund 80.000 Einsendungen von mehr als 5.200 Teilnehmenden aus aller Welt ein.
Wir zeigen jeweils drei ausgezeichnete Makro- und Landschaftsaufnahmen. Besonders schön: Unter den internationalen Gewinnerbildern sind auch zwei Fotos aus Deutschland.

Die Gewinnerbilder aus Deutschland

Hier sind die bestplatzierten Landschaftsbilder des Wettbewerbs „Wiki Loves Earth 2025” aus Deutschland zu sehen.

Die schönsten Detailaufnahmen aus Deutschland

Hier sind die bestplatzierten Detailaufnahmen des Wettbewerbs „Wiki Loves Earth 2025” aus Deutschland zu sehen.

Sonderpreis Biodiversität

Der Begriff Geodiversität bezeichnet die Vielfalt geologischer, geomorphologischer, pedologischer und hydrologischer Merkmale und Prozesse. Zusammen mit der Biodiversität bildet sie die natürliche Vielfalt der Erde. Um ihre Bedeutung zu betonen, hat die UNESCO den 6. Oktober zum Tag der Geodiversität erklärt. In diesem Jahr hat Wiki Loves Earth das Thema aufgegriffen und Sonderpreise in der Kategorie „Geodiversität” vergeben.

Wiki Loves Folklore

Bei Wiki Loves Folklore dreht sich alles um lebende und gelebte Traditionen, z. B. Feste, Aufführungen, Tänze, Musiktradition, Bräuche, Spiele, Küche, Handwerk, Tracht, Märchen und Sagen. Der jüngste der großen Fotowettbewerbe hat dieses Jahr wieder seinen eigenen Rekord geknackt: International wurden 2025 doppelt so viele Fotos hochgeladen wie im Vorjahr.

Die internationalen Gewinnerbilder

Über 72.000 Bilder wurden 2025 weltweit bei Wiki Loves Folklore eingereicht. Hier sind die bestplatzierten aus dem internationalen Wettbewerb:

Die Gewinnerbilder aus Deutschland

Hier sind einige der Siegerbilder aus Deutschland. Alle Preisträger*innen des Fotowettbewerbs finden Sie auf der offiziellen Wikipedia-Seite von Wiki Loves Folklore Deutschland.

Wikimedia Commons frei nutzen

Alle Fotos der Wiki Loves-Wettbewerbe werden auf Wikimedia Commons hochgeladen – der weltweit größten Sammlung freier Medien. Dort stehen mittlerweile über 125 Millionen gemeinfreie und frei lizenzierte Fotos, Audio- und Videodateien zur Verfügung. Und das Beste daran: Diese Inhalte können nicht nur in alle Wiki-Projekte eingebunden, sondern auch jederzeit und überall genutzt werden. Wie Sie auf Wikimedia Commons nach Bildern suchen, erfahren Sie hier.

Bezahltes Wikipedia-Schreiben in der Belletristik

Monday, 12 September 2022 20:02 UTC

Bezahltes Schreiben im PR-Auftrag in der Wikipedia, ist ein Thema, das mich und die Wikipedia-Community seit einigen Jahren umtreibt. Das Thema wabert seit etwa 2010 durch die Wikipedia, mal intensiver und mal weniger intensiv diskutiert; mal mit Skandal und mal ohne. Aber wenn man sich, ganz ohne Insiderkenntnisse, einfach mal durch Wikipedia-Artikel lebender Personen clickt (sei es in der deutschen Ausgabe oder der englischen): normalerweise riecht man die gekauften und geschönten Artikel 500 Kilobyte gegen den Wind. Die peinlichen PR-Artikel: weil auch die siebte Teilnahme am Rettet-die-Bergdackel-Benefiz-Gala-Dinner getreulich unter dem Punkt „gesellschaftliches Engagement“ gelistet wird. Die weniger peinlichen PR-Artikel: weil sie so nichtssagend sind.

Wie lange das Problem existiert und wie sehr es schon vor vielen Jahren auffiel, wurde mir letztens beim lesen gewahr. Es war ein Fantasy-Crime Roman – komplett fiktiv, mit vagen Bezugspunkten zu unserer Welt. Und selbst dort kommt Wikipedia-PR-Schreiben vor. Es geht um „Moon over Soho“ von Ben Aaronovitch. Erstmal erschienen 2012 bringt es der Roman auf den Punkt:

Auf deutsch etwa:

„Die Reichen, vorausgesetzt sie vermeiden Prominenz, können etwas Unternehmen um ihre Anonymität zu bewahren. Lady Tys Wikipedia-Artikel las sich als wäre sie von einem PR-Schreiber verfasst worden, denn zweifellos hatte Lady Ty einen PR-Schreiber beschäftigt, um sicherzustellen, dass die Seite ihren Vorstellungen entsprach. Oder wahrscheinlicher: Einer ihrer „Leute“ hatte eine PR-Agentur beauftragt, die einen Freelancer beschäftigt hatte, der das in einer halben Stunde runtergeschrieben hatte, damit er sich schneller wieder auf den Roman konzentrieren konnte, den er grade schrieb. Der Artikel gab preis, dass Lady Ty verheiratet war, zu nicht weniger als einem Bauingenieur, dass sie zwei schöne Kinder hatten von denen der Junge 18 Jahre alt war. Alt genug um Auto zu fahren aber jung genug um noch zu Hause zu wohnen.“

Diese Beschreibung trifft auch zehn Jahre später auf einen Großteil aller PR-Artikel zu. Schnell und lieblos, aber professionell gemacht. Oft genug mit Versatzstücken aus anderen Werbematerialien; zu unauffällig, um jemand ernstlich zu stören. Aber auch zu nichtssagend, um der Leser*in auch nur den geringsten Mehrwert zu bieten.

Damit hat ein Roman-Autor, der selber kein aktives Mitglied der Wikipedia-Community ist, die PR-Problematik schon im Jahr 2012 richtiger eingeschätzt als ein relevanter Teil der diskutierenden Community im Jahr 2022.

(Und Randbemerkung: die Community rächte sich, indem sie Aaronovitchs Autoren-Artikel mit einem unvorteilhaften Autorenfoto versah – no PR-flack weit und breit war hier unterwegs.)

Von einer anderen Form des beeinflussten Schreibens erfuhr ich heute beim Mittagsessen. In immer mehr autoritären Regimes scheint es vorzukommen, dass einzelne Wikipedia-Autor*innen, die in dem jeweiligen Land leben, einen Anruf oder einen Besuch bekommen. Mit dem freundlichen Tipp, doch den ein oder anderen Artikel zu „verbessern“ sonst.. Das ist natürlich noch raffinierter: Einfach einen etablierten Nutzer und dessen Vertrauensvorschuss nehmen und in dieser Tarnung PR-Edits durchführen.

Die Lyrik der Wikipedia-Auskunft

Monday, 18 July 2022 17:15 UTC

Menschen können auf der Wikipedia:Auskunft Fragen an die Wikipedia richten. Die Fragen sind mal banal, mal lehrreich, und manchmal hohe Poesie. Daran solltet ihr teilhaben.

Ich stelle mich auf, Brust nach vorne, Kinn nach oben, räuspere mich noch einmal und deklamiere:

Honda Motorrad,
6-Zylinder,
6 Vergaser,
Blockmotor quer,
luftgekühlt.

Alle Daten fehlen!
Keine Daten vorhanden.
Warum?

Die Frage stammte von einer nicht angemeldeten Person, die am 17. Juli um 16:19h mit der IP 2003:D4:2713:1F50:F120:9BAE:47CF:6C2A unterwegs war.

Beitragsbild: 2016-08-05 Tokaido Seki Juku Kameyama City Mie,東海道五十三次 関宿 DSCF6949☆ von: 松岡明芳 Lizenz: Creative Commons Attribution-Share Alike 4.0 International

Wir waren dieses Jahr mit WikiAhoi wieder bei der SMWCon dabei. Die Konferenz zu Semantic MediaWiki findet zweimal pro Jahr statt, im Frühling in Nordamerika und im Herbst in Europa. Letztes Jahr waren wir schon in Wien dabei und dieses Jahr gings ins herbstlich-sonnige Barcelona. In freundlicher, persönlicher Atmosphäre wurden technische Neuigkeiten, innovative Projekte und besondere Anwendungsfälle besprochen. Wir möchten Sie an den wichtigsten Neuerungen teilhaben lassen.

Neuigkeiten aus der Semantic MediaWiki-Welt

Semantic Forms (Version 3.4 September 2015) hat sich mittlerweile als eigenständige Erweiterung etabliert und ist nun technisch nicht mehr von der Grunderweiterung Semantic MediaWiki abhängig. Weitere wichtige Änderungen:

  • Statt den Spezialattributen werden nun ParserFunctions eingesetzt.
  • Kartenbasierte Eingabeformate (Google Maps, Open Layers) sind nun möglich – diese werden nur eingesetzt, wenn Semantic Maps nicht vorhanden ist.
  • Weiters wird nun Cargo unterstützt, es lassen sich in Formularen auch Eingabeformate und die Autovervollständigungsfunktion aus Cargo nutzen.
  • Dazu kann man nun auch „mapping“-Werte hinterlegen, das sind andere Werte, als auf der Seite angezeigt werden.
  • Ein neuer Parameter erlaubt es, nur einzigartige Werte speichern zu lassen.
  • Alle roten Links können nun mit einer einzelnen Einstellung auf eine Formularauswahlliste weitergeleitet werden.

Die MediaWiki Stakeholder’s Group nahm die Konferenz zum Anlass, um weitere Schritte zu besprechen: Ziel der Gruppe ist die Koordination und die Kommunikation mit Wiki-Nutzern in Unternehmen, die Unterstützung von Entwicklern und Administratoren und die offizielle Kommunikation mit der Wikimedia Foundation. Wikipedia hat etwas andere Ziele als einzelne Drittnutzer der Software MediaWiki. Es geht also stark darum, die Interessen der Nutzer von Wiki in Unternehmen zu vertreten und in der Weiterentwicklung der Software voranzutreiben.

Interessante neue semantische Erweiterungen gibt es zu Breadcrumbs, Zitaten, Sprachenlinks und Metatags:

Und warum „eine Konferenz mit Folgen“? Diese Konferenz hat Folgen auf mehreren Ebenen: Wir haben persönliche Kontakte für Zusammenarbeit und Austausch geknüpft, es wurden Ideen beflügelt und Inspirationen für neue Projekte ausgetauscht, die Motivation wieder gestärkt, das Projekt MediaWiki als Ganzes voranzubringen und nicht zuletzt viele Features und Software-Änderungen besprochen, die in der Regel meist recht schnell umgesetzt werden. Die Konferenz war somit ein voller Erfolg.

Die Konferenz fand von 28.–30.10.2015 in Barcelona statt, in der schönen Fabra i Coats Kunstfabrik im Stadtteil Sant Andreu. Knappe 40 Teilnehmer nahmen an einem Tutorial- und zwei Konferenztagen teil.

WikiPRedia

Tuesday, 23 November 2021 17:31 UTC

Die deutschsprachige Wikipedia-Community versucht wieder einmal, die Regeln zum bezahlten Schreiben zu verschärfen. Das Thema wabert ungelöst seit Jahren durch das Wikiversum. Und auch dieses Meinungsbild ist ein notwendiger Schritt voran. Aber der Weg ist noch weit. Der beste Kommentar meinerseits wäre die Komposition eines Quartetts für Singende Säge, Bassdrum, Cembalo und Spottdrossel.

Aber ich kann nicht komponieren. Deshalb kommt das Nächstbeste: ein Gedicht.

Wikipredia

Die Regeln
existieren und doch nicht
nach Mondstand

Die Ethik
absolut seit Anbeginn
nein denn ja

Die Praxis
gesperrt verworfen gelöscht
freigeschaltet

Wikipredia
Darwinismus der Agenturen
Überleben des Dreistesten

Allein mit der Madonna zum Hasen

Thursday, 30 September 2021 19:49 UTC

Darmstädter Madonna
Hans Holbein der Jüngere, 1526/1528
Öl auf Nadelholz (?), 146,5 × 102 cm
Sammlung Würth, Johanniterhalle (Schwäbisch Hall)

Wikipedia-KNORKE erwähnte ich ja an dieser Stelle schon einmal. Berliner Wikipedianerinnen und Wikipedianer treffen sich und erkunden zusammen eine ihnen unbekannte Gegend. Soweit so üblich. Diesmal jedoch gab es etwas besonderes: Auf ins Museum!

In Berlin gastiert gerade die Darmstädter Madonna, ein 1526 entstandenes Gemälde von Hans Holbeim dem Jüngeren. Diese Madonna hat eine bewegte Lebens- und Reisegeschichte, ist eines der bedeutendsten deutschen Gemälde des 16. Jahrhunderts und kann Menschen auch über Jahre faszinieren. Wunderbar, wenn man eine kundige Bilderklärung der Autorin des exzellenten Wikipedia-Artikels dazu bekommt.

Wir trafen uns einige Minuten vor der Öffnung in kleiner Gruppe vor dem Bode-Museum und konnten - da alle Anwesenden über eine Jahreskarte verfügten - auch sofort zur Madonna und zur Sonderausstellung "Holbein in Berlin" begeben. Der Raum war noch leer, die Museumswachmannschaft ließ freundlicherweise die leise aber engagiert redende Gruppe gewähren. Ein einziger Saal, in dessen Mittelpunkt die Madonna hängt. Links davon einige Holbein-Teppiche, ansonsten weitere Bilder und Zeichnungen von Holbein, Inspiratoren und andere Madonnen. Nicht überladen, sinnvoll aufbereitet und mit einem klaren Konzept - eine der besseren Kunstausstellungen.



Und dann ging es los: Es begann mit Schilderungen von der bewegten Entstehungszeit zur Zeit des Basler Bildersturms im Auftrag des Basler Ex-Bürgermeisters Jakob Meyer zum Hasen. Die Aussage des Bildes traditioneller Marienfrömmigkeit in Zeiten der Reformation war Thema, ebenso natürlich wie der Teppich und seine Falte. Wir staunten über die Eigentümlichkeit, dass sich niemand auf dem Gemälde eigentlich anschaut und wurden über dden Unterschied zwischen Schutzmantelmadonnen und Stifterbildern aufgeklärt. Vermutungen tauchten auf, wo das Bild wohl im Original hing - vermutlich in der Martinskirche als Epitaph - und wir verfolgten gedanklich seine Wanderung aus Basel über den Grünen Salon im Berliner Stadtschloss bis hin zum Hause Hessen und das Frankfurter Städelmuseum bis hin zum spektakulären Verkauf an die Privatsammlung Würth. Die Meinungen über die Sammlung Würth in der Gruppe waren durchaus geteilt, ebenso wie die richtige Benennung des Bildes: ist es nun eher die Darmstädter Madonna oder eher die Madonna des Bürgermeisters Jakob Meyer zum Hasen?

Über die Darmstädter Madonna ging es dann zur Dresdner Madonna und einem der prägenden Momente deutscher Kunstgeschichte: dem Dresdner Holbeinstreit. Im 19. Jahrhundert wurde es den Menschen bewusst, dass es zwei fast identische Holbein-Madonnas gab und nur eine die echte sein konnte. In einer großen Ausstellung, unter lebhafter Anteilnahme der Öffentlichkeit und erregten Debatten der Experten entschieden sich die Kunsthistoriker schließlich für das Darmstädter Gemälde. Eine Sensation,  da die Kunstkennerschaft vorher felsenhaft von der Originalität des Dresdner Gemäldes ausging. Hier zeigte sich erstmals das Bemühen, um eine rein sachlich, objektive Abwägung der verschiedenen Gesichtspunkte - der Dresdner Holbeinstreit ist einer der Ausgangspunkte um die Kunstwissenschaft als Wissenschaft zu etablieren. Und - wie sich später herausstellte - lag die Kunstwissenschaft auch in diesem ihren Anfangsurteil richtig; sämtliche mittlerweile vorhandenen naturwissenschaften Verfahren die Darmstädter Madonna als die originale der beiden bestätigten.

Erkenntnisse am Rande: eine weitere Kopie des Gemäldes (beziehungsweise eine Kopie der Kopie - es stellt aus unerfindlichen Gründen das Dresdner Exemplar dar) hat sich in das Set des James-Bond-Filmes "Man lebt nur zweimal verirrt".

Hans Holbein der Jüngere: Bildnis des Danziger Hansekaufmanns Georg Gisze in London, 1532. Eichenholz, 96,3 × 85,7 cm. Gemäldegalerie Dahlem der Staatlichen Museen zu Berlin – Preussischer Kulturbesitz

Und nachdem wir dann auch noch gerätselt hatten, wer die beiden Knaben unterhalb der Madonna sind, den verschwundenen Haaren der Tochter nachspürten und weiter über den Teppich in der Renaissancemalerei sinniert hatten, kamen wir dann nach knapp einer Stunde noch zu Georg Giesze. Giesze (auch Georg Giese) ist Titelheld in einem anderen Holein-Hauptwerk, das praktischerweise fünf Meter weiter links hing. Wieder mit Teppich und nun auch noch mit Glas, Metall, Bücherregalen und Briefen. Gedanklich begleitete wir Holbein dann weiter von Basel nach Antwerpen und London. Mittlerweile hatte sich der Raum etwas gefüllt. Nachdem wir dann noch den Weg aus dem Museum gefunden hatte (wie immer im Bodemuseum nicht ganz einfach und jedes mal findet man zwischendurch neue Säle) folgte noch ein erschöpfter Abschlusskaffee.

Eine Stunde fast allein mit der Madonna. Und immer noch Neues zu entdecken.

Wen wählen in das Board der Wikimedia Foundation?

Friday, 20 August 2021 21:03 UTC

Vorweg, für die Eiligen

Meine Wahlvorschläge

  • Top 4: Douglas Ian Scott, Iván Martínez, Adam Wight, Dariusz Jemielniak
  • Top 8: Rosie Stephenson-Goodknight, Lorenzo Losa, Farah Jack Mustaklem, Gerard Meijssen
  • Wählbar: Reda Kerbouche, Pavan Santhosh Surampudi, Ravishankar Ayyakkannu

Wichtige Links

Vote now für das Wikimedia-Board

Für die nicht so Eiligen

Über den Dächern, Türmen und Gasometern Westberlins senkte sich die Abendsonne. Ich stand auf den Zinnen des Ullstein Castles und sinnierte. Direkt unter mir Straßentreiben, Sirenen, betrunkene Jugendliche, ein Ausflugsboot auf dem Teltowkanal, radelnde Ausflügler überquerten die Stubenrauchbrücke.

In der Ferne betrachtete ich die Türme des Spitzenlastheizkraftwerks Lichterfelde, der Sendeturm auf der Marienhöhe, den BfA-Büroturm und den ehemaligen Wasserturm im Naturpark Schöneberger Südgelände. Heute Nacht auf dem Heinweg: Welchen Weg sollte ich wählen? Unten, im Süden, über den Prellerweg vorbei am Sommerbad am Insulaner? Die Nordvariante über den Tempelhofer Damm und durch die Kopfsteinpflaster Tempelhofs? Oder die Mittelweg, mit Erklimmen der Höhe am Attilaplatz und später über den Ikea-Parkplatz? So viel zu wählen.

Wahlen spukten in meinem Kopf herum. Da war die Mitgliedsversammlung unseres Dauergartenvereins. Die Vorstandswahlen dort sollten wahrscheinlich, hoffentlich, unspektakulär verloren. Aber die Anträge. Wenn ein einzelnes Mitglied auf einem A4-Blatt 40 verschiedene Anträge stellt, richtig ernsthaft, dann verspricht das Unterhaltung.

Die Bundestagswahl: Auf dem Weg zum Ullstein Castle passierte ich zahlreiche Bundestagstagswahlplakate: den unlesbaren Blob der Grünen in Tarnfarbenoliv, die bildhaft dargestellte Biederkeit der Berliner SPD, zahlreiche Kleinparteien von Team Tödenhöfer über Volt bis zur Tierschutzpartei. Und so sehr es mich schmerzte das zu sagen: Das Plakatgame gewannen bisher die CDU und ihr Wahlkreiskandidat Jan-Marco Luczak. Sowohl optisch – als auch damit, überhaupt inhaltliche Aussagen fern von Plattitüden zu machen.

Vor allem aber war ich innerlich bei einer ganz anderen Wahl. Die Wikimedia Foundation wählte und wählt ihr Board, auf Deutsch das ehrenamtliche Präsidium der Wikimedia Stiftung. Die Wikipedia steht meinem Herzen näher als der Bundestag und selbst als der Dauergartenverein. Aber die Board-Wahlen erfordern merh Gedanken. Diese Gedanken bedurften des Kontextes.

Was ist die Wikimedia Foundation?

Die Wikimedia Foundation (WMF) ist die Betreiberin der Wikimedia-Projekte wie zum Beispiel der Wikipedia aber auch Wikimedia Commons und Wikidata. Die Foundation hostet die Server, stellt die Technik, ist am Ende rechtlich dafür verantwortlich was in den Wikipedien passiert. Dafür hat die Foundation derzeit etwa 450 Angestellte, ein Endowment von 90 Millionen Dollar und hatte 2020 Jahreseinnahmen von 127 Millionen US-Dollar.

Wo genau die Grenzen zwischen dem Einfluss der Wikimedia Foundation und den Communities liegen, ist umstritten. Letztlich kann die Foundation alles ändern und machen in den Projekten. Sie ist meistens weise genug, es nicht zu tun. Insbesondere schreiben keine Foundation-Mitarbeiter*innen in ihrer Arbeitszeit Artikel oder legen Inhalte in den Projekten an.

Die Foundation ist eine Organisation eigener selbstgenügsamer Vollkommenheit. Sie hat keine Mitglieder und ist – rechtlich – niemand rechenschaftspflichtig. Das Board besetzt sich prinzipiell aus sich selbst heraus. Es hat entschieden die Hälfte der Sitze Wahlen der weltweiten Wikip/media-Communities besetzen zu lassen zu lassen.

Was ist das Board of Trustees?

Das Board of Trustees ist das ehrenamtliche Aufsichtsgremium der Foundation. Es hat derzeit 16 Sitze. Davon steht einer Jimmy Wales als Gründer zu, sieben Sitze besetzt das Board selber, acht Sitze werden durch eine weltweite Communitywahl bestimmt.

Nun ist allein aus den Worten „ehrenamtlich“ und „weltweit / 450 Mitarbeiter / 127 Millionen Dollar Einnahmen“ klar, dass das Board eine abstrakte Leitungsposition einnimmt. Alleine, einen Überblick über so eine Organisation zu behalten, ist eine Mammutaufgabe. Dieser Organisation noch Vorgaben zu machen und sie in eine bestimmte Richtung zu lenken, eine Herausforderung.

Die Gefahr, in Detailinformationen zu ertrinken oder sich hoffnungslos im Alltagsgeschäft zu verfangen, ist groß. Seiner Aufgabe nach, beaufsichtigt das Board, was die Vollzeitkräfte machen und besetzt die Geschäftsführung.

Was zur Zeit ein besonderer Job ist: Die Geschäftsführerin der Foundation Catherine Maher verschwand im April 2021 überraschend. Der Posten ist seitdem unbesetzt. Ebenso wie sich die Chief Operations Officer im Jahr 2021 verabschiedete, die Abteilungen Communication und Technology auch niemand im Vorstand haben. Auf dem Schiff besetzt nur eine Notbesatzung an Offizier*innen die Brücke. Dem Board obliegt es derzeit, dieses Führungsvakuum schnell und kompetent zu beenden.

Welche Kriterien habe ich?

Grundsätzlich sollte jede*r Kandidat*in zwei Kriterien erfüllen. Sie sollte meine inhaltlichen Ziele teilen. Und sie sollte in der Lage sein, sich in einem ehrenamtlichen Job gegen eine komplette Organisation aus Vollzeitangestellten zu behaupten. Oft genug stehen bei solch ehrenamtlichen Gremien Kandidat*nnen zur Wahl, bei denen ich denke „Will Schlechtes, aber wird das erreichen“ und „Will Gutes, ist aber planlos. Am Ende werden die Hauptberuflichen machen was sie wollen. Oder es gibt Chaos.“

Angesichts der bewegten Zeiten, in denen wir leben; angesichts der latenten Führungslosigkeit der Foundation derzeit, möchte ich Kandidat*innen, die sich durchsetzen können. Kandidat*innen, die nach Möglichkeit die US-Zentrik der Foundation aufbrechen können. Ich möchte Kandidat*innen, die verstehen, dass Wikip/media keine allgemeine Weltbeglückungsorganisation ist, sondern sehr spezifische Sachen sehr gut durchführt – und andere überhaupt nicht kann. Es bringt nichts, sich auf allgemeine Weltbeglückungsziele zu stürzen, die weder die Foundation noch die Communities umsetzen können.

Wählenswert: Adam Wight. Bild: Recent selfie. Von: Adamw Lizenz: Creative Commons Attribution-Share Alike 4.0 International

Welche Kandidaten?

Insgesamt stehen 19 Kandidat*innen zur Auswahl, die um vier Plätze streiten. Dabei sind Wikimedia-Urgesteine ebenso wie Newbies, viele Männer, mir auffallend viele Inder, viele Kandidat*innen mit NGO-Hintergrund, kaum eine*r, der/die fortgeschrittene IT-Kenntnisse hat.

Die Urgesteine

Dariusz Jemielniak – Professor of Management, daueraktiv auf allen Ebenen und vielleicht der einzige Mensch, der intellektuell versteht wie Wikipedia funktioniert.

Rosie Stephenson-Goodknight – WikiWomensGroup, Women in red, you name it. Bei überraschend vielen der Wikipmedia-Genderaktivitäten, die funktionieren, ist Rosie Stephenson-Goodknight beteiligt.

Gerard Meijssen – gefühlt war Gerard schon Wikipedianer bevor es Wikipedia gab. Vielleicht der spannendste Autor des Meta-Wikiversums und ein Chaot.

Mike Peel – langjähriges Mitglied des Funds Dissemantion Committees. (FDC) Hat bei mir in der Rolle durchgehend einen schlechten Eindruck hinterlassen.

Ravishankar Ayyakkannu – Mr. Tamil Wikipedia, der seinem Resumee zufolge seit 2005 in der Community und mit externen Partnern (wie Wikipedia Zero, Google) zusammenarbeitete. Gewinnt bei mir Diversitätspunkte, weil er nicht nur aus dem Global South stammt, sondern auch Ausbildung und Berufstätigkeit dort durchführte.

Wählenswert: Dariusz Jemielniak Bild: Dr. Dariusz Jemielniak – Wikimedia Foundation Board von: VGrigas (WMF) Lizenz: Creative Commons Attribution-Share Alike 3.0 Unported

Im Wikiversum aktiv


Reda Kerbouche – Aktiv bei Wikimedia Algeria, Founding member der Wikimedia of Tamazight User Group. Lebt in Europa.


Lorenzo Losa – Ex-Vorsitzender von Wikimedia Italia.


Farah Jack Mustaklem
– Software Engineer, einer der wenigen Kandidaten mit Ahnung von Software. Aktiv bei den Wikimedians of the Levant und der Arabic language User Group. Mir persönlich zu sehr USA-sozialisiert für eine Board-Mitgliedschaft, andererseits sicher in jeder Hinsicht kompetent.

Douglas Ian Scott – Präsident von Wikimedia South Africa, Organisator der Wikimania 2018 und einziger Kandidat, den ich dank eines langen Wartepause am Kofferband irgendeines Wikimania-Flughafens persönlich besser kennenlernte – und begeistert war.

Iván Martínez – langjährig engagiert bei Wikimedia Mexiko, LGBTQ+-Aktivist und soweit ich hörte, das Wikiversum Lateinamerika ist begeistert von ihm.

Pavan Santhosh Surampudi – Community Manager at Quora. Versteht also vermutlich professionell etwas von Communities.

Adam Wight – Programmierer, Ex-Angestellter und WMF und WMDE und neben Gerard der Vertreter des Ur-basisdemokratischen, selbstorganisierten und Gegen-Informationsmonopole-Geistes des frühen Movements.

Vinicius Siqueira – in Wiki Movimento Brasil

Newbies

Es kann sich hierbei um langjährige und erfahrene Wikipedianer*innen handeln, die im kleinen Rahmen auch Projekte oder Gruppen organisiert haben. Erfahrungen in oder mit größeren Organisationen im Wikiversum fehlt vollkommen.

Lionel Scheepmans
Pascale Camus-Walter
Raavi Mohanty
Victoria Doronina
Eliane Dominique Yao
Ashwin Baindur

Wen werde ich wählen?

Leute, die sich durchsetzen können, und die auch die Grenzen des Wikiversums sinnvoll einschätzen können. Perspektiven auf das Leben, anders aussehen als „in US-NGOs sozialisiert“ werden bevorzugt.

Die Top 4

  • Douglas Ian Scott
  • Iván Martínez
  • Adam Wight
  • Dariusz Jemielniak

Top 8

  • Rosie Stephenson-Goodknight
  • Lorenzo Losa
  • Farah Jack Mustaklem
  • Gerard Meijssen

Wählbar

  • Reda Kerbouche
  • Pavan Santhosh Surampudi
  • Ravishankar Ayyakkannu

Wer wird wählen

Es wählen alle Menschen, die vage aktive Accounts in einem Wikimedia-Projekt haben. Die Bedingungen dafür sind niedrig angesetzt. Für Autor*innen ist es nötig 300 Bearbeitungen zu haben, kein Bot zu sein und höchstens in einem Projekt gesperrt zu sein. Die Bedingungen für die Board-Wahlen sind somit einfacher zu erfüllen als die Bedingungen zum Sichten in der deutschen Wikipedia. Die Kriterien mussten am 5. Juli 2021 erfüllt sein. Es hilft nicht, jetzt noch schnell zu editieren.

Das Wahlsystem

Es gilt das Präferenzwahlsystem. Dieses wird weltweit von einschlägigen Fachleuten als besonders fair bezeichnet. Es verzerrt den Wählerwillen weniger als viele andere Wahlsysteme. Praktisch wird es allerdings nur selten eingesetzt. Die bekannteste Wahl mit Präferenzwahl in letzter Zeit war die Bürgermeister*in-Wahl in New York, New York.

Bei Wahlsystem nummeriert man „seine“ Kandidat*nnen nach Präferenzen. Die beste Kandidatin bekommt eine Eins, der Kandidat danach eine zwei und so weiter. Hält man keine Kandidatin mehr für geeignet, hört man auf zu nummerieren.

Bei der Wahl werden in der ersten Runde alle Präferenzen mit „1“ gezählt. Ein Kandidat hat am wenigsten davon. Dieser scheidet aus. Von allen „1“-Wählerinnen des Kandidaten werden nun die „2“-Präferenzen seiner Wählerinnen auf die entsprechenden weiteren Kandidaten verteilt. Und so weiter, bis nur noch so viele Kandidatinnen übrig sind, wie es Plätze zu besetzen gilt.

Zur Wahl

Geht es hier.

Beitragsbild: Die Apostel wählen einen zwölften Zeugen als Ersatz für Judas. Aus dem Rabbula-Evangeliar.

Wiki Loves Jules Verne. Mit Wikipedia in Braunschweig.

Tuesday, 17 August 2021 08:28 UTC


Mensch-Maschine Braunschweig


Im ICE ist Deutschland. Der Zug fährt ein und hält. Das Schild am Gleis behauptet tapfer „Zugdurchfahrt“. Die Türen lassen sich öffnen. Am Zug steht nichts geschrieben, außer Wagennummern, die nicht zu den Reservierungen passen. Das Publikum bleibt irritiert. Etwa die Hälfte der Anwesenden geht in den Zug und bleibt im Wageninnern ratlos stehen. Die andere Hälfte steht ratlos am Bahnsteig. 

Schließlich: Lichter gehen an. Der Zug verkündet mittels seiner Anzeigen nun auch, nach Kassel zu fahren.  Eine Frau entschuldigt sich über die Lautsprecheranlage über die falschen Wagennummern, man solle ich immer zehn wegdenken „Also 22 statt der angezeigten 32.“

Ein Mensch mit re:publica-Bändchen am Arm verscheucht die ältere Dame ohne Reservierung von seinem Platz und liest den gedruckten Spiegel. Ich höre ein angeregtes Gespräch zwischen einem Musicaldarsteller und einer Abteilungsleiterin im Innenministerium, die sich gerade kennenlernen über, den relativen Wert von Musikgymnasien in Berlin. Geht es noch deutscher?

Illustration aus dem Buch ""Le tour du monde en quatre-vingts jours" Alphonse de Neuville & Léon Benett


Passenderweise habe ich ein entsprechendes Buch mitgenommen. Nils Minkmars „Mit dem Kopf durch die Welt.“ Das hat schon auf dem Cover ein ICE-Fenster und geht der Frage nach, was Deutschland bewegt. Minkmar lässt sich über deutsche Normalität aus. Der deutsche Ingenieur, lange Jahrzehnte Sinnbild der Normalität, sei nicht mehr normal. Minkmar erzählt aus seiner französisch-deutschen Kindheit:


„Meine Mutter nannte dann immer eine Berufsgruppe, die uns besonders fern war, nämlich les ingenieurs. Wir waren in Deutschland […] und das ganze frisch aufgebaute Land ruhte auf Säulen, die les ingenieurs berechnet, gegossen und zum Schluss noch festgedübelt hatten. […] Viele Jahre später sollte ich die Gelegenheit haben, diese seltene Spezies besser studieren zu können. Sie saßen direkt hinter mir, zwei ausgewachsene Exemplare: Ingenieure, Familienväter, auf der Rückfahrt von einer Dienstreise. Sie plauderten über die sich verändernden Zeiten. […] Fernsehen, Marken, Politiker, auf keinem Gebiet fanden sich diese beiden braven Männer wieder, alles zu grell und bunt, zu aufgeregt. Ihre spezifischen Werte und Tugenden, Sorgfalt und diese stille Freude an der eigenen Biederkeit, das alles war an den Rand gerückt. Ingenieure waren nun Exzentriker. […] Diese Männer fanden sich kulturell kaum zurecht.“

Wenn „der deutsche Ingenieur“ nicht mehr normal in Deutschland ist, sind es jetzt Ministerialbeamtinnen und Musicaldarsteller?




Forschung Maschinenbau Braunschweig


Minkmar war noch nicht in Braunschweig. Oder Braunschweig ist nicht normal. Da steige ich harmlos aus dem Zug und die Stadt schlägt mir „Deutscher Ingenieur“ rechts und links um die Ohren. Braunschweig hebt das Thema "autogerechte Stadt" in Höhen, die selbst mir als gebürtigem Hannoveraner unerreichbar schienen.

Braunschweig. Bahnhofsvorplatz.


VW ist daran beteiligt, ist klar in der Gegend. Aber nicht nur. Ich wandelte also Freitagabend gegen 21 Uhr auf der Suche nach einem Wegbier durch das verlassene Braunschweig, passierte die Stadthalle und wurde prompt begrüßt mit „Tag des Maschinenbaus. Herzlich Willkommen.“



Vor allem aber  fiel mir bei diesem Wandeln auf, wie unglaublich gepflegt diese Stadt aussieht. Ich erblickte  keine einzige Kippe auf dem Weg. Selbst die Großbaustelle, über die irrte, wirkte irgendwie aufgeräumt. Viel verwunderlicher war, dass selbst die in Braunschweig reichlich vorhandenen 1970er-Großbauten gepflegt und sorgsam hergerichtet wirkten. Die Stadthalle selber, offensichtlicher spät 1960er/früh 1970er-Stil wirkte besser gepflegt als Berliner Gebäude nach zwei Jahren. Die Wege und Lampen darum herum: offensichtlich keine zehn Jahre alt. Sie wirkten wie frisch aus der Packung genommen.

Wegbier. In Braunschweig nur schwerlich aufzutreiben, dann aber stilgerecht,


Selbst die Schwimmbäder sind alle gepflegt(*), alle haben gleichzeitig geöffnet und keines ist aus obskuren Gründen gesperrt. Da spielt nicht nur bürgerschaftliches Engagement eine Rolle, sondern offensichtlich ist auch Geld vorhanden.

Auf dem Hotelzimmer, noch so ein sehr gut gepflegter und hergerichteter Bau, der einem „1970er!“ ästhetisch schon ins Gesicht schreit, mit dem Hotel-Wlan (7 Tage, 7 Geräte) nachlesend, wie das nun ist mit Braunschweig. Bekanntes taucht beim Nachlesen auf: Die physikalische-technische Bundesanstalt mit der Atomuhr; geahntes lese ich (Volkswagen – hey, das ist Niedersachsen und die Technische Universität existiert ja auch) und nicht bekanntes:

„Im gesamten Europäischen Wirtschaftsraum (EWR) verfügt die Region Braunschweig über die höchste Wissenschaftlerdichte,[103] im bundesweiten Vergleich über eine hohe Ingenieurquote[104] sowie über die höchste Intensität auf dem Gebiet der Ausgaben für Forschung und Entwicklung. In der Region Braunschweig arbeiten und forschen mehr als 16.000 Menschen aus über 80 Ländern[105] in 27 Forschungseinrichtungen sowie 20.000 Beschäftigte in 250 Unternehmen der Hochtechnologie[106]“

Dazu noch „Braunschweig ist die Stadt mit der niedrigsten Verschuldung Deutschlands.“ Und nach einer obskuren EU-Rangliste ist Braunschweig  die innovationsfreudigste Region der EU vor Westschweden und Stuttgart. Hier lebt der deutsche Ingenieur. Hier lebt die deutsche Technik. Was für ein passender Ort für Jules Verne.


Jules Verne


Jules Verne; französischer Erfolgsautor des 19. Jahrhunderts und vor allem bekannt als "Vater der Science Fiction." Von seinem vielfältigen Werk sind vor allem die Abenteuer-Techno-Knaller wie Zwanzigtausend Meilen unter dem Meer, die Reise Von der Erde zum Mond oder die Reise zum Mittelpunkt der Erde bekannt. Wikipedia und die Deutsche Jules-Verne-Gesellschaft hatten ein gemeinsames Wochenende organisiert mit einer Tagung zu Jules Verne und Gesprächen zu Wikipedia.

Volker Dehs bestreitet das halbe Programm


Jules Verne, mir vor allem bekannt durch vage Erinnerungen an den 1954er Nemo-Film, Weiß-orange Taschenbücher und einen blau eingebunden Robur-Roman, der mich verstörte, weil er so anders war als die großen mir bekannten Abenteuerromane von Jules Verne. Warum ich überhaupt fuhr: Intuition. Ich hätte nur schwerlich begründen können, was genau mich reizte, aber die Mischung aus Vertrauen in die Veranstalter, Science Fiction und Neugier auf diese andere niedersächsische Stadt nach Hannover, trieben mich dorthin.

Verne selber gilt als Begründer Science Fiction. Und so bringt er als Autor frankophile Literaten und Groschenromanfans, Ingenieure und Naturwissenschaftler zusammen. Besessene Bibliographen waren Thema und Anwesend, ebenso wie die phantastische Bibliothek in Wetzlar – die Mischung der Jules-Verne-Aktiven unterscheidet sich gar nicht so sehr von der Mischung der Wikipedia-Aktiven. Die Perspektiven, aus denen Verne hier unter die Lupe genommen wurden, waren vielgestaltiger als sie es in der Literatur sonst sind. Faszinierend hier war die Neigung unterschiedlicher und leicht besessener Menschen sich zu einem Thema auseinanderzusetzen.

Haus der Braunschweigischen Stiftungen - Veranstaltungsort.



Dementsprechend hatte der Veranstalter, der Wikipedia-Autor Brunswyk das Programm gestaltet: ist Verne eher katholisch oder eher laizistisch? Kam der Wille zur Aufklärung in seinen Büchern durch seinen Verleger Pierre-Jules Hetzel hinein, während auf Verne eher zurückgeht, dass alles menschliche Streben gegenüber der göttlichen Macht sinnlos bleibt? Wen inspirierte er? Ist es eine sinnvolle Frage, dem nachzugehen, welche seiner Voraussagen, sich bewahrheiten? Dazu kamen dann noch Exkursionen zu Friedrich Gerstäcker, Fenimore Cooper, die Ingenieure, die ihre U-Boote dann nach Jules Verne „Nautilus“ nannten – und stark von diesem beeinflusst waren

Für mich brachte das Treffen interessante Erkenntnisse, wie die Tatsache, dass Verne immer Theaterautor oder – produzent werden wollte und wie sehr der Katholizismus sein Denken beeinflusste. Romancier war er eher gezwungenermaßen – und verdiente mit seinen zwei erfolgreichen Theaterstücken in seinem Leben ein Viertel so viel Geld wie mit etwa 80 bis 100 Romanen.

Interessant das Rätseln aller Anwesenden, warum Vernes Roman "der Grüne Strahl" so ein kommerzieller Erfolg war, was niemand der Anwesenden nachvollziehen konnte. Und dann eine Dreiviertelstunde später kam die Bemerkung in einem anderen Zusammenhang, dass "der Grüne Strahl" quasi Vernes einziges Buch mit einer weiblichen Hauptfigur war. Ich ahne einen Zusammenhang, Update: Es kam wie es kommen musst. Da denke ich mal, ich habe etwas entdeckt, dabei habe ich nur etwas falsch verstanden. Tatsächlich ist Der Grüne Strahl nicht das einzige Werk mit einer Protagonistin. Das prägnanteste Buch ist dabei Mistress Branican*, da hier die Titelfigur die komplette Handlung quasi im Alleingang bestreitet. Aber auch in anderen Büchern spielen Frauen eine wichtige Rolle (und dieser Umstand war Jules Verne sogar so wichtig, dass er in Interviews darauf hinwies): Die Kinder des Kapitän Grant*, Nord gegen Süd*, Reise um die Erde in 80 Tagen*, Ein Lotterielos* ... und einige mehr. (*Affiliate Links)

Für mich neu war die Erkenntnis, dass ein Großteil von Vernes Werk gar nicht in den Bereich Science Fiction gehört, sondern es (fiktive) Reisebeschreibungen sind. Und selbst dort wo Verne Maschinen und phantastische Gerätschaften erfindet, dienen diese vor allem dem Zweck zu reisen.

Und jetzt recherchiere ich, natürlich, zum Grünen Strahl.

Die Phantastische Bibliothek


Meine beiden Programmhighlights beschäftigten sich nur mittelbar mit Jules Verne. Sie kamen von der Phantastischen Bibliothek Wetzlar: zum einen der Rückblick von Thomas Le Blanc auf Wolfgang Thadewald. Den großen Phantastik- und Jules-Verne-Sammler. Thadewald verstarb 2014. Er lebte in Langenhagen. Mehrere der Anwesenden hatten ihn noch persönlich gekannt. Und die Schilderung seiner Sammlertätigkeit, seiner Liebe zu Büchern und zu Menschen, aber auch die Besessenheit mit der Thadewald an ein Thema heranging und auch von Krankheit schon schwer gekennzeichnet das Arbeiten an Bibliographien nicht lassen konnte – es ließ sich nicht anders beschreiben als bewegend. Sicher war dieser Vortrag mein emotionaler Vortrag des Programms.

Wer auch immer aber auf die Idee kam, den Vortrag von Klaudia Seibel zu Future Life: Wie (nicht nur) Jules Verne dabei hilft, die Zukunft zu gestalten an Ende der Konferenz zu legen: Chapeau! Das Projekt ist, kurz gesagt, ein Projekt der Phantastischen Bibliothek. Die stellt zu bestimmten Themen Dossiers zusammen, wie Science-Fiction-Autoren sie sich vorstellen. Die Berichte  werden manchmal von öffentlichen Stellen, öfter von Großunternehmen bestellt, die damit selber zukunftsfähig werden wollen und in die Zukunft denken.

So als Beispiel: Nanotechnische Ideen in der Science Fiction



Wobei Auftraggeber von Staats wegen selten sind. Die meisten Aufträge kommen aus der Privatwirtschaft. Die allerdings meist gleich umfangreiche Verschwiegenheitsklauseln verlangt, weshalb die Phantastische Bibliothek da wenig zu sagen kann.

Da haben also Autoren und Mitarbeiter der Bibliothek ein profundes Wissen über die Science-Fiction-Literatur und die größte Bibliothek ihrer Art im Hintergrund und seit mittlerweile einigen Jahren eine große Datenbank aufgebaut, was Autoren zu verschiedenen Themen schreiben.

Als jemand, der ich selbst weiß, wie viele Situationen ich durch gelesene Bücher interpretiere – Bilder aus diesen Büchern im Hinterkopf habe und mir immer wieder mal sagen muss, dass ein Roman nur bedingt real ist, glaube ich sofort, dass es nichts gibt, was so sehr Denkprozesse auslösen und Kreativität triggern kann, wie Romane. Der befreit das Hirn gerade vom strikt logisch-folgerichtigen Denken, verrückt die Perspektive etwas nach links oder oben, und schon öffnen sich vollkommen neue Gedankenwege. Die Idee ist so brillant, dass es überraschend ist, dass sie wirklich angenommen wird. Anscheinend wird sie das.


Mensch Maschine Normal


Und nachdem ich dann wieder im Zug saß und das erste Handy-Ticket meines Lebens gekauft hatte, fragte ich mich wieder. Ist diese Stadt – die mir in vieler Hinsicht – so unfassbar „normal“ vorkommt, vielleicht die große Ausnahme? Sind die Musicaldarsteller, die mit „dem Alex“ [Alexander Klaws] telefonieren, normal? Die Menschen im Ministerium? Die größten Jules-Verne-Experten des Landes, die alle noch einen anderen Brotjob haben? Oder eher die Normalität vieler Menschen, die darin besteht, am Ende des Monats zu überlegen, wie denn die letzten 10 Tage mit dem leeren Konto noch überbrückt werden können?





Brauschweig ist die verstädterte Mensch-Maschine-Kopplung. In seiner Normalität sicher schon wieder ein Ausnahmefall in Deutschland. Aber ich sah die Zukunft: sie sitzt in einer Bibliothek in Wetzlar und liest Science-Fiction-Romane.

Weiterlesen


Mit Wikipedianern kann man nicht nur Verne lesen, sondern auch Cocktails mischen: Ramos Gin Fizz für die Enzyklopädie.

Oder man läuft mit Wikipedianern durch den Wedding:Tanz auf dem Guglhupf, Automatenmaden und die „brutalism appreciation society“ im #wedding

Mehr zu Future Life bei der phantastischen Bibliothek: Future Life. 

Zum Jules-Verne-Club

Die Wikipedia-Seiten zur Veranstaltung: Wikipedia:Wiki Loves Jules Verne

Beiträge zur Veranstaltung im Wikipedia-Kurier und im Blog von Wikimedia Deutschland.

Der grüne Strahl im Gesamttext bei zeno.org: Der grüne Strahl

Alle Iberty-Posts zur Kultur stehen unter: Kultur in Iberty!

Anmerkungen


Auch zu Schwimmbädern ein schönes Minkmar-Zitat aus dem Mit-dem-Kopf-durch-die-Welt.Buch:

„Nichts gegen das große Geld und die wenigen, die es genießen können, aber die Stärke mitteleuropäischer Gesellschaften liegt gerade in der Mischung. Für Reiche ist es in Singapur, Russland und Malaysia ideal. […]Glaspaläste und Shopping Malls gibt es auf der ganzen Welt, bald vermutlich auch unter Wasser und auf dem Mond. Öffentliche Freibäder, Stadtteilfeste oder Fußgängerzonen, in denen sich Reiche und Arme, Helle und Dunkle, Christen und Muslime mit ihren Kindern vergnügen und drängeln, gibt es nur hier. Ich fand es immer erstaunlich, dass es in Algerien beispielsweise keine öffentlichen Schwimmbäder gibt oder dass man in den USA oder in Brasilien Mitglied in einem Club werden muss. Das ist eine teure und in vieler Hinsicht sozial sehr voraussetzungsreiche Angelegenheit, nur um mit den Kindern mal schwimmen zu gehen, es sei denn natürlich, jeder hat seinen eigenen Pool im Garten, was, für mich zumindest, wie eine Definition von struktureller Langeweile klingt.“ (s. 104)


 

*Dieser Post enthält Affiliate Links zu geniallokal. Es handelt sich dabei um Werbung. Ich bekomme eine kleine Provision, wenn ihr dort bestellt, und ihr habt bei den Guten bestellt.


Berlin celebrates old school #wikipedia15

Tuesday, 17 August 2021 08:13 UTC

I still remember the time when real life meetings for Wikipedians were new and adventurous and a bit scary. Did one really want to meet these strange other people from the Internet? How would they be? Could they even talk in real life or would they just sit behind a laptop screen staring on it for hours?

My first meeting in Hamburg – THE first Wikipedia meeting in Hamburg - would consist of three people (Hi Anneke, Hi Baldhur!) sitting in a pub, and just waiting and seeing what would happen. These meetings were kind of improvised, in a pub, quite private and personal in nature and no talk about projects, collaborations, “the movement” whatever. Just Wikipedia and Wikipedians having a nice evening.

WP15 Germany Berlin 01
Bild: By Sargoth, CC BY-SA 3.0

So what a fitting setting to celebrate this day in Berlin just the old school way. Half improvised, organized by our dearest local troll user:Schlesinger on a talk page, we met in a pub, it was not clear who would come and what would happen except some people having a good time.

And so It was. In the “Matzbach” in the heart of Berlin-Kreuzberg seven people promised to come, in the end we were almost twenty. Long time Wikipedians, long-time-no-see-Wikipedians, a Wikipedian active mostly in Polish and Afrikaans, some newbies and two and a half people from Wikimedia Deutschland. Veronica from Wikimedia Deutschland brought a tiny but wonderful home-baked cake, and we just talked and laughed, talked about history and future.  Actually, mostly we talked about future.

WP15 Germany Berlin 03
Bild: By Sargoth, CC BY-SA 3.0

About the Wikipedian above 30, who has just started a new a university degree in archaeology, the question whether the Berlin community should have its own independent space, industrial beer, craft beer and the differences, the district of Berlin-Wedding, the temporary David-Bowie-memorial in Berlin-Schöneberg, the vending machine for fishing bait in Wedding, new pub meet-ups in the future, who should come to the open editing events, how to work better with libraries, colorful Wikipedians who weren’t there, looking for a new flat, whether perfectionism is helpful or rather not when planning something for Wikipedians, explaining Wikipedia to the newbie, the difficulties of cake-cutting and whatsoever.

No frustration, almost no talk about meta and politics, just Wikipedians interested in the world, Wikipedia and eager to be active in and for Wikipedia and with big plans for the future. Old school. So good.

WP15 Berlin Torte angeschnitten

Die Verschwundenen

Tuesday, 17 August 2021 08:13 UTC

Crossposting eines Posts von mir aus dem Wikipedia Kurier. Erfahrungsgemäß lesen das dort und hier ja doch andere Menschen.

Wikipedistas kommen und gehen. Manchmal gehen mehr, manchmal weniger. Einzelne davon fallen durch ihr Wirken in der gesamten Wikipedia auf oder versuchen sich wenigstens durch einen spektakulären Abgang in Szene zu setzen. Die meisten Autoren und Autorinnen aber gehen genauso still und leise wie sie gekommen sind und gearbeitet haben.

Die unseligen Autorenschwund-Debatten der unseligen Wikimedias kümmern sich ja um Zahlen und nicht um Autorinnen und Autoren. Wie armselig! Den Meta-aktiven Communitymitgliedern - aka Wikifanten - fallen vor allem die anderen Wikifanten auf, die entschwanden. Dabei zeigt sich bei genauerer Betrachtung, dass es um lauter einzelne Individuen mit verschiedenen Vorlieben, Arbeitsstilen und Interessen geht, die in Wikipedia tätig waren und sind. Es gibt vor allem diejenigen, die kommen, einen Beitrag leisten und dann wieder verschwinden. Der größte Teil der tatsächlichen Wikipedia wird von Menschen und Accounts gestaltet, deren Edits fast nur im Artikelnamensraum aufzufinden sind. Manchmal arbeiten sie unermütlich über viele Jahre, manchmal auch nur einige Wochen an einen oder zwei Artikeln. Viele davon sind als IP aktiv, so dass sich fast nichts über sie sagen lässt. Vielleicht sind die Beitragenden per IP auch gar nicht viele, sondern eine einzige sehr fleißige Autorin? Wer weiß?


 Viele Wikipedianerinnen und Wikipedianer sind derzeit inaktiv.

Anlässlich des Projektes WikiWedding und in meinem Bestreben möglichst viele Wedding-Aktive daran zu beteiligen, lese ich ja derzeit viele Artikel zu einem Themengebiet, das mir in den letzten Jahren eher fremd war und an dessen Entstehung ich nicht beteiligt war. Wer sich in den letzten Monaten am Thema beteiligt hat, ist mir bewusst, wer sich von 2001 bis 2014 des Weddings angenommen hat, musste ich nachlesen. Eine spannende Lektüre voller mir unbekannter Namen und Accounts. Neben einigen mir bekannten Wikipedistas waren dort vor allem mir unbekannte Accounts. Accounts, die oft aufgehört haben zu editieren. Meist sind sie still und leise gegangen. Ihre Edits und Kommentare geben keinen Hinweis warum. Aber anscheinend war es anderswo schöner. Oder sie hatten den Einruck, alles in Wikipedia geschrieben zu haben, was sie beitragen wollten. Um diesen Autorinnen und Autoren zumindest nachträglich etwas Aufmerksamkeit zu geben, um ihre Namen kurz aus den Tiefen der Versionsgeschichten zu retten, sollen hier einfach einige Autorinnen(?) und Autoren gewürdigt werden, die sich um den Wedding in Wikpedia bemühten bevor sie verschwanden.



Da ist zum Beispiel der Artikel zur Chausseestraße. Ein Mammutwerk von Gtelloke, dessen Wikipedia-Edits sich von Juni bis Dezember 2012 fast ausschließlich auf diesen Artikel beschränkten.


Bild: Die Chausseestraße 114-118 in Richtung Invalidenstraße von Gtelloke
Lizenz: CC-BY-SA 3.0



Da ist der Artikel zum Wedding selber. Angelegt 2002 von Otto, dessen letzter Edit aus dem Dezember 2004 stammt. Im November 2004 dann maßgeblich ausgebaut von Nauck, der sich auch sonst dem Ortsteil und seinen Themen widmete. Artikel zu Moabit, den Meyerschen Höfen, Mietskasernen und Schlafgängern waren Teil seines kurzen Werks, das im Wesentlichen nur zwei Wochen im November 2004 dauerte, aber die Grundlagen wichtiger Artikel zur Berliner Sozialgeschichte legte. Ein Blick auf seine Benutzerseite zeigt auch den Geist der Wikipedia-Frühzeit: ''GNU rockt! Der König ist tod, lang lebe das Volk! Lang lebe die Anarchie des Netzes! Licht und Liebe''

Weiterer Ausbau erfolgte durch 87.123.84.64, auch zu wikipedianischen Urzeiten. Dann passierte 500 Edits und acht Jahre im Wesentlichen nichts – mal ein Halbsatz hier, mal die Hinzufügung von drei Bahnstrecken dort, Hinzufügen und Löschen von berühmten Persönlichkeiten bis im Dezember 2014 der erste heute noch aktive Wikipedianer hinzukommt: Fridolin freudenfett verpasst dem Artikel mit „Katastrophalen Artikel etwas verbessert)“ eine Generalüberholung.

Der Leopoldplatz; angelegt von Frerix, der in den immerhin fünf Jahren seiner Wikipedia-Aktivität nie auch nur eine Benutzerseite für nötig hielt und anscheinend auch in keine Diskussion verwickelt wurde.  Zu seinen wenigen Beiträgen gehören neben der Anlage des Leopoldplatzes auch noch die Anlage der englischen Stadt Sandhurst, die Anlage des Kreuzviertels in Münster und des Three Horses Biers. Dann war er/sie wieder weg. Mutter des Artikels ist hier aber 44Pinguine, die den heutigen Inhalt maßgeblich prägt und auch heute noch aktiv ist.

Da wäre das Wahrzeichen des Weddings. Die Alte Nazarethkirche. Der Artikel stammt vor allem von 62.246.210.30.


Bild: Leopoldplatz, Ev. Alte Nazarethkirche, 1832–35 von Karl Friedrich Schinkel von Schliwiju

Nichts war für die Entwicklung des Weddings wohl so entscheidend wie die Geschichte der AEG. Dieser Artikel stammte in seiner Frühzeit von WHell, engagiertem Wikifanten, mit ausführlicher Artikelliste und Diskussionsseite, der uns 2007 verließ. Der letzte Eintrag auf seiner Diskussionsseite war „Hallo WHell, ich möchte Dich als den Hauptautor darüber informieren, dass ich den Artikel John Bull (Lokomotive) in die Wiederwahl zum Exzellenten Artikel gestellt habe,“ Größere Beiträge zur WEG folgten in den späteren Jahren durch Peterobst – aktiv von Februar bis April 2006 vor allem mit Beiträgen zur Berliner Industriegeschichte, nach seiner Benutzerseite AEG-Kenner und in Arbeit an einem Buch über den Konzern. Es folgten 80.226.238.197, von Georg Slickers 2006 (auch heute noch aktiv, wenn auch recht unregelmäßig), Flibbertigibbet 2006 , 79.201.110.89 im Jahr 2008 und der unermüdlichen 44Pinguine. Weiter ausgebaut von Onkel Dittmeyer, aktiv von 2009 bis Juli 2015 in Technikthemen und vielleicht immer noch unter neuem Account? Begann seine Karrier mit der Nutzerseite „Hier ist Nichts und das soll so bleiben !“ und hielt sich im Wesentlichen daran.

Da ist der Volkspark Rehberge. Angelegt von Ramiro 2005, aktiv 2005/2006, vor allem zum Thema Fußball. Maßgeblich ausgebaut, umfassend überarbeitet 2007 von 84.190.89.208 und noch einmal 2010 stark erweitert von Katonka. Landschaftsplaner mit unregelmäßigen Edits zwischen 2009 und 2014, die Edits waren wenige, aber die Qualität war hoch.


Bild: LSG-6 Volkspark Rehberge Berlin Mitte - Panoramabild auf die Wiesen des Volkspark Rehberge in Berlin, Wedding (Mitte). Von: Patrick Franke Lizenz: CC-BY-SA 3.0

Neben diesen Verschwundenen tauchen glücklicherweise aber auch heute noch aktive Wikifanten auf. Immer wieder 44Pinguine und Fridolin freudenfett. Darüber hinaus Definitiv, Magadan, Flibbertigibbet und Jo.Fruechtnicht.

Die Artikel entstanden durch Wikifanten und IPs. Accounts mit nur einem Thema oder anderen, die über Jahre thematisch sprangen. Während in der Frühzeit aber viele verschiedene Accounts und IPs an den Artikel beteiligt waren, waren in den letzten Jahren deutlich weniger Menschen aktiv. Fast alle inhaltlichen Edits in den von mir angesehenen Artikeln verteilen sich auf 44Pinguine,  Fridolin freudenfett und Definitiv. Wikipedia wird kleiner und noch lebt sie. Aber wir können all‘ den Verschwundenen danken, die vor uns kamen.

Seit nun schon ein paar Jahren hört man immer wieder über Probleme in der kroatischen (und zu einem gewissen Grad auch der serbischen) Wikipedia. Rechte Gruppen sollen das Projekt übernommen haben und alle Wikipedianer, die nicht ihrer Meinung sind, rausgeekelt oder einfach gesperrt haben.

Lange war nichts passiert, aber seit Ende letzten Jahres sah sich die WMF dann doch mal die Situation an und es wurde schon zumindest ein Admin gebannt.

Nun hat die WMF ein Abschlußdokument veröffentlicht; oder genauer schon Mitte Juni und ich habe es erst heute bei reddit gesehen. In dem Dokument finden sich solche Perlen, als das in hrwp behauptet wurde, Nazi-Deutschland habe Polen überfallen weil Polen einen Genozid an Deutschen verübt hätten.

Der ganze Bericht kann hier gefunden werden. Mich macht die ganze Geschichte sowohl traurig als auch wütend. Wikipedia soll die Leute so gut es geht aufklären und nicht Propaganda verbreiten!

IeS: Blog ist zurück

Friday, 16 April 2021 21:38 UTC

Ich habe heute dieses Blog auf einen neuen Server umgezogen, sein DNS aktualisiert und sein SSL repariert. Werde versuchen, es nun wieder öfters zu befüllen. Wünscht mir Glück 🙂.

Wahl: Oversighter-Wahlen

Friday, 16 April 2021 21:11 UTC

Bereits seit gestern und noch bis zum 28. April laufen die Oversighter-Wahlen. Doc Taxon, User:He3nry und Nolispanmo treten zur Wiederwahl an. Ich wünsche: Viel Erfolg!

Gab es in der DDR Spaghetti?

Friday, 26 March 2021 09:39 UTC

Eine der schöneren unbekannten Ecken der Wikipedia ist die Seite zur Auskunft. Dort können Menschen mögliche und unmögliche Fragen stellen, die dann mal launisch, mal larmoyant, mal ernsthaft oder auch gar nicht beantwortet werden. Wie im wahren Leben und eine ewige Fundgrube obskuren Wissens, seltsamer Fragestellungen und logischen Extremsports.

Nicht die DDR. Bild: Giorgio Conrad (1827-1889) - Mangiatori di maccheroni. Numero di catalogo: 102.



Dort nun fragte vor ein paar Tagen ein unangemeldeter Nutzer:

 "Warum gab es in der DDR eigentlich nur Makkaroni (die in Wirklichkeit Maccheroncini waren), aber keine Spaghetti? Das erscheint mir nach Lektüre einiger Bücher aus der DDR so gewesen zu sein und ist mir auch so von meiner aus Ex-DDR-Bürgern bestehenden Verwandtschaft bestätigt worden. Warum?"

Es folgte eine längere und mäandernde ausgiebige Diskussion, die immerhin folgendes ergab:

* Anscheinend gab es in der DDR Spaghetti, zumindest erinnerten sich einige der Diskutanten an derartige Kindheitserlebnisse.
* Ob Spaghetti so verbreitet waren wie Makkaroni oder Spirelli, darüber bestand Uneinigkeit.
* Die Nudelsaucensituation war in Berlin besser als im Rest der DDR.
* Die DDR allgemein pflegte in vielerlei Hinsicht traditionellere Essgewohnheiten als Westdeutschland, die Küche der DDR ähnelte in vielem mehr der deutschen Vorkriegsküche als dies für die westdeutsche Küche gilt.
* In Vorkriegszeiten waren Makkaroni verbreiteter als Spaghetti.
* Schon bei Erich Kästner wurden Makkaroni gegessen
* Der Makkaroni-Spaghetti turn im (west-)deutschen Sprachraum war Mitte der 1960er
* Schuld könnten wahlweise das mangelnde Basilikum, die mangelnde Tomatensauce, überhaupt mangelnde Kräuter, Italienreisen, Gastarbeiter, Miracoli oder auch was ganz anderes sein.
* Klarer Konsens im Rahme: Sahne gehört keineswegs in Sauce Carbonara!


Gab es in der DDR nicht: Miracoli. Bild: Miracoli-Nudeln mit Mirácoli-Soße von Kraft. Von: Brian Ammon, Lizenz: CC-BY-SA 3.0
 
Daneben tauchten eine ganze Menge Kindheitserinnerungen auf an exotische Spaghettimahlzeiten mit kleingeschnittenen Spaghetti, Ketchup-basierter Tomatensauce und anderen kulinarischen Exotika des geteilten Deutschlands.

Einige Antworten, viel mehr Fragen:
* seit wann wird in Deutschland überhaupt Pasta gegessen?
* wie lange schon ist Tomatensauce verbreitet?
* seit wann essen westdeutsche Spaghetti?
* Und wer ist Schuld? Die Gastarbeiter? Die Italienurlauber? Miracoli?
* Und wie kommen eigentlich die Löcher in die Makkaroni?

Also verließen wir dann erst einmal die Auskunft und die dortige Diskussion und betrieben etwas weitere Recherche. Das heimische "Kochbuch der Haushaltungs- und Kochschule des Badischen Frauenvereins", veröffentlicht 1913 in Karlsruhe, kennt sowohl Makkaroni wie auch Spaghetti. Ungewohnt für heute: die Makkaroni werden in "halbfingerlange Stückchen gebrochen" und dann 25 bis 30 Minuten gekocht.

Neben den diversen Makkaroni-Gerichten gibt es auch einmal Spaghetti. Die Priorität ist klar. Spaghetti werden erklärt als "Spaghetti ist eine Art feine Makkaronisorte. Beim Einkauf achte man darauf, daß sie nicht hohl sind"

Die "Basler Kochschule. Eine leichtfaßliche Anleitung zur bürgerlichen und feineren Kochkunst" von 1908 kennt keine Spaghetti aber diverse Gericht mit "Maccaronis". Darunter sogar schon die Variante "a la napolitaine" mit Tomatensauce.

Weitere Recherche. Weitere Erkenntnisse bringt das Buch "Meine Suche nach der besten Pasta der Welt: Eine Abenteuerreise durch Italien", das die Ankunft der Makkaroni in Deutschland auf das frühe 18. Jahrhundert verlegt. Die 1701 nachweisbaren "Macronen" waren wohl eher Lasagne, aber Anfang des 18. Jahrhunderts entstanden in Prag und Wien echte Makkaroni-Fabriken.

Die Pasta folgte anscheinend den jungen Männern der Grand Tour aus Italien in das restliche Europa. Bestimmt waren die Grand Tours für junge Männer, die mal etwas von der Welt sehen und klassische europäische Bildung mitbekommen sollten, die auf der Tour aber anscheinend nicht nur Statuen und Kirchen kennenlernten, sondern auch Pasta.

Philip Dawe, The Macaroni. A Real Character at the Late Masquerade (1773) - 02
Der Macaroni. Der Hipster seiner Zeit. Bild: Philip Dawe: The Macaroni. A Real Character at the Late Masquerade, 1773.

In England gab es sogar einen eigenen Modestil Macaroni für exaltierte junge Männer - "a fashionable fellow who dressed and even spoke in an outlandishly affected and epicene manner". Die englische Wikipedia schreibt dazu lakonisch: "Siehe auch: Hipster. Metrosexuell." Komplett falsch wäre wohl auch die Assoziation zur Toskana-Fraktion nicht.

Nach diesen extravagant und auffallend auftretenden jungen Männern ist nun wiederum im Englischen der Macaroni penguin - auf deutsch der Goldschopfpinguin - benannt.


Makkaroni-Penguin. Benannt nach dem Stil, nicht nach den Nudeln. Bild: Macaroni Penguin at Cooper Bay, South Georgia von Liam Quinn, Lizenz: CC-BY-SA 2.0

Wie aber kommen nun die Löcher in die Makkaroni? Und seit wann? Licht in dieses Dunkel bringt die "Encyclopedia of Pasta." Diese lokalisiert die Entstehung der maschinellen Pastafertigung - die für Makkaroni in zumutbarer Menge unvermeidlich ist - in die Bucht von Neapel in das 16. Jahrhundert. Dort existerte eine Heimindustrie mit Mühlen, an die sich relativ problemlos eine im 16. Jahrhundert aufkommende ’ngegno da maccarun anschließen lies, die es den Neapolitanern ersparte stundenlang im Teig herumzulaufen, um ihn zu kneten: im Wesentlichen Holzpressen mit einem Einsatz aus Kupfer, je nach Form des Einsatzes entstehen verschiedene Nudelsorten und damit unter anderem Makkaroni. Die Makkaroni wurden dann in langen Fäden zum trocknen in die süditalienische Sonne gehängt.


Sommer, Giorgio (1834-1914) - n. 6204 - Napoli - Fabbrica di maccheroni
Neapel, 19. Jahrhundert. Bild: Giorgio Sommer (1834-1914), "Torre Annunziata-Napoli - Fabbrica di maccheroni". Fotografia colorita a mano. Numero di catalogo: 6204. 


Das hat alles nicht mehr wirklich etwas mit Spaghetti und der DDR zu tun, beantwortet nicht, warum die Deutschen in den 1960ern plötzlich lieber Spaghetti als Makkaroni mochten, oder warum die Makkaroni bei ihrem ersten Zug über die Alpen die Tomatensauce in der Schweiz ließen? Warum gibt es in Deutschland kein Äquivalent zu "Macaroni and cheese" (mehr)? Gab es ein Miracoli-Äquivalent in der DDR, bei dem es Pasta, Sauce und Käse schon in einer Packung gab? Warum sind Makkaroni in Deutschland tendenziell lang und dünn in vielen anderen Ländern aber dicker und hörnchenförmig-gebogen? Es ist hochspannend. Und ein Grund, noch viel mehr zu recherchieren.

Weiterlesen

Eine Investigation: Es gibt kein Mirácoli Carbonara mehr.

Coolest Wikipedia Tool 2020: Pywikibot

Thursday, 7 January 2021 17:31 UTC

Seit 2019 wählt das Wikiversum die coolsten Tools, die besten Hilfsmittel, um in Wikipedia und anderen Wikis zu werken. Eines davon ist der Pywikibot, der Bot aller Bots.

Schneeregen fegte waagerecht über Vorplatz des Tempelhofer Hafens. Mein Pullover war gar nicht so kuschlig und dicht wie ich ihn in Erinnerung hatte. Die Handschuhe waren im Laufe der Jahre so fadenscheinig geworden, dass eine einzelne kurze Radtour die Finger vereisen ließ.

Ein einsamer, von Weihnachten übrig gebliebener, Quarkkeulchen-Stand vor dem Tempelhofer Hafen. Seine Lichter verhießen Wärme. Der Weg dorthin: Von Entbehrungen gezeichnet. Der Wind, der einem aus allen Richtungen ins Gesicht blies, trieb die Leute davon. Sie wussten nicht wohin, denn alles war geschlossen und zu Hause wollten sie ihre Mitbewohner nicht mehr sehen. Über der Szene kreiste ein hungriger Taubenschwarm.

„Ist es nicht herrlich“, fragte ich DJ Hüpfburg. „So viel Platz! Fast das ganze Hafengelände gehört uns. Und wir können uns problemlos aus drei Meter Sicherheitsabstand anschreien.“ – Sie antwortete „Du spinnst. Es ist scheißkalt. Ich bibbere. Das letzte Mal, als ich so gefroren habe, bin ich im Rozbrat mit meiner ehemaligen Band aufgetreten: „Pierdzące Zakonnice“.

Wir spielten Prog-Punk. Kein Wasser, keine Heizung und ein sibirischer Windhauch kam aus Richtung Minsk. Wer auf Toilette wollte, hat einen Eispickel in die Hand bekommen, falls das Plumpsklo wieder zugefroren war. Und am Ende des Abends haben wir Wahlplakate im Konzertsaal verbrannt, um nicht ganz zu erfrieren.

Aber wir haben gerockt: Kasia an der Geige, die andere Kasia am Theremin, ich an der KitchenAid und Anna am Gong und an der Rezitation. So viel Kunst war nie wieder davor oder danach im Rozbrat. Leider war es den Pferden zu kalt, so dass die weiße Kutsche ausgefallen ist. Hier am Hafen ist keine Kunst. Hier ist es nur scheißkalt. Ich gehe.“

Später, im Chat. Hüpfburgs Schilderung hatte mich an ein Video erinnert, das ich kurz vorher gesehen hatte: „Wikimedia Coolest Tool Award 2020.“ in meinen Versuchen, DJ Hüpfburg für die Wikipedia und ihr Umfeld zu begeistern, postete ich ihr den Link.

Southgeist: https://www.youtube.com/watch?v=zYM4k_LD_9w – Tools sind doch was für Dich

Hüpfburg: click

Hüpfburg: Das ist Wikipedia. Was soll ich damit?

Southgeist: Aber Tools. Nur mit ausgewählten Menschen. Fast nur Technik und kreative Sachen.


Hüpfburg: Wikipedia spießerfrei? Du meinst, das soll gehen?

Southgeist: Schau doch mal.

Hüpfburg: Ich sehe jetzt schon drei Minuten lang Berliner Straßen ohne Ton. Ich dachte schon, meine Lautsprecher wären kaputt.

Hüpfburg: I like the music.

Southgeist: Eben. Warte erst auf die Tools.

Hüpfburg: 52 Minuten! So lange soll ich Wikipedia schauen? In der Zeit zerstöre ich zwei Ehen, bringe einen Priester vom Glauben ab und bringe drei Paare neu zueinander. Sage mir lieber, was für Tools vorkommen.

Die coolest Tools

Ich erzählte.

Im Video werden vorgestellt: Der AutoWikiBrowser (Hüpfburg: „Da klingt der Name schon langweilig“), SDZeroBot generiert Benutzerseitenreports („Mich interessieren weder Benutzer noch ihre Seiten“), Proofread Page Extension („Korrekturlesen, geht es noch spießiger?“), Listen to Wikipedia („Schön, aber reichlich Kitsch. Wenn eines Tages zwei Wikipedianer kommen und einander heiraten wollen, werde ich das Tool in den Event integrieren“), AbuseFilter („Zu sehr Polizei“), LinguaLibre („I like“), und Pywikibot – ein Tool zum Erstellen weiterer Tools. („Das klingt spannend – erzähle mir mehr.“)

Pywikibot

Pywikibot ist ein Framework zum Erstellen von Bots. Oder anders gesagt: wer sich den Pywikibot installiert, kann mit überschaubarem Aufwand eigene Bots schaffen. Oder sich an einem der bereits auf dieser Basis geschaffenen Skripte bedienen. Die Bots können prinzipiell alles, was menschliche Nutzer von MediaWiki-Wikis auch können – nur schneller.

Wobei können in diesem Zusammenhang natürlich bedeutet: jemensch muss dem Bot vorher sagen, was er tun soll. Das dauert länger als ein Edit. Der Bot kommt sinnvoll ins Spiel, wo es eine hohe Zahl gleichartiger Edits gibt. Zum Artikelschreiben ist das wenig – zum Anpassen von Formalien ist es super. Und dazwischen liegt ein Graubereich. Nicht alles ist sinnvoll, nicht alles ist erlaubt – und um die Kontrolle zu wahren, hat der Pywikibot einen automatischen Slow-Down-Mechanismus, der den Bot absichtlich ausbremst.

Pywikibot geht zurück auf verschiedene Bots und Skripte aus dem Jahr 2003, existiert in dieser Form seit etwa 2008. Die aktuelle Variante ist in und für Python 3 geschrieben. Die Community, die sich um das Framework kümmert, hat eine dreistellige Zahl von Mitgliedern und ist so international, wie es die frühe Wikipedia war. Rein aus dem Bauchgefühl heraus würde ich auch sagen, was Charaktertypen und Soziodemographie angeht, ist die Pywikibot-Gruppe sehr viel näher an der Ur-Wikipedia als die heutigen Wikipedistas.

DJ Hüpfburg: „Du sagst es. Alt-Wikipedia. Diese Tool-Awards sind solche Lebenswerkauszeichungen? Das Bot-Framework gibt es seit fast 20 Jahren, das Proofread-Tool existiert seit fast 15 Jahren. Ist der Award so langsam oder gibt es so wenig Neues?“

Ich glaube, der Award ist langsam. Beziehungsweise er existiert erst seit letztem Jahr. Jetzt muss er die ganzen Tools der letzten Jahrzehnte durchprämieren, damit die nicht vergessen werden. Wie bei der Wikipedia auch: Die Grundlagen wurden vor langer Zeit gelegt. Alles, was jetzt kommt, baut darauf an, verbessert, schafft aber nur selten fundamental Neues.

Change Musiker to Musiker*innen

„Außer dem Tool-Award. Der ist neu? Und dem Video nach zu urteilen reichlich großartig.“
Yup. Und er hat mir und dir den Pywikibot gelehrt und damit eine wichtige Aufgabe erfüllt.

DJ Hüpfburg: „Ich kann also auf Basis von Pywikibot alle ‚Musiker‘ in Wikipedia durch ‚Musiker*innen‘ ersetzen?“
Ich: „Theoretisch ja. Praktisch gibt es verschiedene Hindernisse. Und du wirst auf ewig gesperrt werden.“

DJ Hüpfburg: „Dachte ich. Noch so jung und schon so strukturkonservativ diese Website. Wäre sie ein Mensch, würde sie einen beigen Pullunder über weißem Hemd tragen und Leserbriefe an die Fernsehzeitschrift schreiben. Aber ich kann mein eigenes Wiki aufsetzen und da noch Herzenslust alles bot-mäßig umbauen?“

Ich: „Yup. Wikidata freut sich auch. Da gibt es noch viel zu tun und die sind superfreundlich dort.“

DJ Hüpfburg: „Ich auf meinem Pybot einreitend in Wikidata! Das wäre fast so gut wie im Rozbrat. Mit der Kutsche, die dann doch nicht kam. Irgendwann im Laufe des Abends spielten wir Mozart. Da haben die Squatter angefangen mit Äpfeln zu werfen. Wir uns hinter dem Gong geduckt und ich ein Kitchen-Aid-Solo. Ich erinnere mich noch an den einen Tänzer, der allein Stand und Luft-Küchenmaschine gespielt hat. Ein Arm angwickelt am Körper als würde er die Maschine an sich drücken, mit dem anderen weit ausholende Bewegungen, um dann auf dem Einschaltknopf zu laden.“

„Leider hatten wir dem Publikum einen Mozart-Schock versetzt und die wollten uns nicht mehr gehen. Dadurch hatten wir alle Auftrittsorte in Posen durch. Kasia ging nach Prag und Paris, Jazz-Theremin studieren. „Ein Juwel unter unserer Studentinnen“ sagte mal eine Professorin. Kasia wäre fast dieses Jahr in der Philharmonie aufgetreten. Aber Deine komische Wikipedia hat immer noch keinen Artikel von ihr.“

Ich: „Es ist nicht meine Wikipedia.“

Ruhe. Hüpfburg dachte.

„Dieser Bot. Der kann doch sicher in Wikidata alle Personen auslesen, die Theremin spielen. Und dann eine Liste in Wikipedia anlegen. Die regelmäßig erneuert wird. Das müsste doch gehen. Vielleicht ist es einen Versuch wert.“

(Beitragsbild: Brødmaskin med striper i mange farger von: Øyvind Holmstad Lizenz: Creative Commons Attribution-Share Alike 4.0 International