Im Januar veröffentlichte das Justizministerium der Vereinigten
Staaten weitere Dokumente der Epstein-Akten, einer Sammlung
von mehreren Millionen Dokumenten, Bildern und Videos. Sie lösten
unter anderem die vorläufige Festnahme des ehemaligen Prinzen
Andrew Mountbatten-Windsor aus. 2,4 Millionen mal wurde der
Wikipedia-Artikel des 2019 angeklagten und verstorbenen
Sexualstraftäters Jeffrey Eppstein aufgerufen.
Der Februar stand ganz im Zeichen des Wintersports.
Informationen über die an sechs Orten in Norditalien ausgetragenen
Winterspiele, die Eröffnungs- und Schlussfeier, den traditionellen
Fackellauf und natürlich das Wettkampfprogramm, aber auch zu Kritik
und Kontroversen wurden rund 850.000 mal auf Wikipedia
gefunden.
Gil Ofarim machte 2021 durch eine
Falschbeschuldigung auf sich aufmerksam und war nun im
Dschungelcamp dabei – Grund genug, sich nochmals genauer
anzuschauen, wer das eigentlich ist, dachten sich viele
Wikipedia-Nutzer*innen und riefen den Wikipedia-Artikel zur Gil
Ofarim 648.796 mal auf.
Lindsey Vonn, die
zweiterfolgreichste Skirennläuferin der Weltgeschichte, wollte bei
den Olympischen Winterspielen ihr Comeback feiern. Doch leider
zwang sie zu Beginn des Wettbewerbs ein Unfall, die Spiele
abzubrechen. In der Wikipedia wurde das 632.875 mal
nachgelesen.
Welches Land bei Olympia wie viele
Medaillen gewonnen hat, wurde in der Wikipedia in
Sekundenschnelle aktualisiert – auf Wikipedia ist eben Verlass,
dachten sich Lesende 602.960 mal.
Ghislaine Maxwell gilt als
Schlüsselfigur der Epstein-Affäre. Nun ist die 2021 Verurteilte
wieder ins öffentliche Interesse gerückt. Ihr Wikipedia-Artikel
wurde im Februar 553.181 mal aufgerufen.
Nicht nur in den 90er Jahren schwärmten Teenager für den durch
die US-Serie Dawsons Creek berühmt gewordenen James Van Der Beek. Im Februar starb der
Schauspieler an Darmkrebs. 467.312 mal informierten sich
Menschen zu ihm auf der Wikipedia.
Der US-Amerikaner Ilia Malinin gilt als absolutes Ausnahmetalent und ist
der bisher einzige Eiskunstläufer, dem ein vierfacher Axel, einem vierfachen Sprung in einem
Wettbewerb, gelang. Bei den Olympischen Winterspielen verhalf er
seinem Team zur Goldmedaille, im Einzel belegte er aufgrund
mehrerer Stürze nur den 8. Platz – wie auch auf dieser Liste der
meist aufgerufenen deutschsprachigen Wikipedia-Artikel, mit
434.555 Aufrufen.
Der Fall Gil Ofarim schlug, wie bereits
erwähnt, auch im Februar 2026 Wellen. Neben dem Artikel über seine
Person, interessierten sich Wikipedia-Leser*innen 417.422
mal natürlich auch für den Fall an sich.
Die ehemalige CDU Politikerin Rita Süssmuth war zunächst Bundesministerin für
Jugend, Familie und Gesundheit und von 1988 bis 1998 Präsidentin
des Deutschen Bundestages. Nach der Veröffentlichung ihrer
Brustkrebsdiagnose im Juni 2024, verstarb sie am 1. Februar 2026 in
Neuss. Der Wikipedia-Artikel zu Rita Süssmuth wurde im Februar
416.559 mal aufgerufen.
Webinar: Schreiben für
Wikipedia
Wikimedia Deutschland unterstützt verschiedene Projekte, die
Engagierten den Einstieg in die Wikipedia lehren. Wer selbst Lust
hat, Wissen zu teilen oder zu verbessern, kann jederzeit
mitmachen.
Einen Online-Kurs zur Einführung gibt es am 10. März und 15.
April, online und kostenfrei.
MOR im Auftrag von Wikimedia Deutschland,
basierend auf einer Illustration Mam’Gobozi Design Factory (MDF)
für die Wikimedia Foundation., Wikipedia Online-Einführungskurs, CC
BY 4.0
Seit 25 Jahren steht Wikipedia für ein Internet, wie es im
besten Sinne gedacht ist: kollaborativ, menschenzentriert und
getragen von einem gemeinsamen Engagement, das Leben aller Menschen
zu verbessern. Von Ehrenamtlichen weltweit aufgebaut und von
Wikimedia-Organisationen unterstützt, ist sie zu einer der
vertrauenswürdigsten und meistgenutzten Informationsquellen
überhaupt geworden.
Doch das digitale Umfeld verändert sich rasant.
Künstliche Intelligenz prägt zunehmend, wie Wissen entsteht,
verbreitet und konsumiert wird. Besonders jüngere Menschen
informieren sich häufiger über soziale Medien wie TikTok statt über
klassische Nachrichtenformate. Sie orientieren sich stärker an
einzelnen Influencern – und wenn Fakten gefragt sind, genügt vielen
die KI-Zusammenfassung in ihrer Suchmaschine. Chatbots verändern
grundlegend, wie Informationen recherchiert und verarbeitet werden.
Gleichzeitig wandeln sich die Erwartungen an Zusammenarbeit,
Sichtbarkeit und Anerkennung auf digitalen Plattformen.
Für Wikipedia hat das spürbare Folgen: Besonders in großen
Sprachversionen sind die Zugriffszahlen rückläufig. Die Wikimedia
Foundation verzeichnete von Mai bis September 2025 in der
englischsprachigen Version einen Rückgang der Seitenaufrufe um acht
Prozent, in der deutschsprachigen Wikipedia waren es im selben
Zeitraum sogar zehn Prozent. Weniger Sichtbarkeit bedeutet auch:
Potenziell neue Ehrenamtliche finden seltener den Weg zur
Mitarbeit. Sinkt die bewusste Wahrnehmung von Wikipedia, kann das
langfristig auch Auswirkungen auf ihre Relevanz und
Spendenbereitschaft haben.
Wikipedia Forever – aber dafür
müssen wir etwas tun
Doch diese Zahlen sollen nicht darüber hinwegtäuschen, dass es
gleichzeitig immer noch sehr viele Menschen gibt, die die Wikipedia
nutzen: Laut Semrush verzeichnet Wikipedia 2025
rund 4,28 Milliarden Seitenaufrufe und gehört damit weiterhin zu
den zehn am häufigsten aufgerufenen Webseiten weltweit. In Zeiten
von
generativer KI und wachsender Desinformation schätzen viele
Menschen
verlässliches, freies Wissen mehr denn je. Verloren ist also
nichts – aber es ist Zeit zu handeln.
Genau hier setzt das Wikimedia Futures Lab an. Ende
Januar kamen in Frankfurt am Main 110 Teilnehmende aus der
weltweiten Wikipedia-Community und aus Wikimedia-Organisationen
zusammen. Die Veranstaltung wurde gemeinsam von Wikimedia
Deutschland und der Wikimedia Foundation organisiert. Auch externe
Expert*innen von Organisationen wie Reddit, Creative Commons,
Britannica oder Signal brachten ihre Perspektiven ein und
diskutierten über gemeinsame Herausforderungen.
Drei Leitfragen für die
Wikipedia der Zukunft
Auf der Veranstaltung galt es zunächst, die globalen Trends
besser zu verstehen, die das Internet prägen. Deshalb gab es an
jedem der drei Tagen inspirierende Impulse von externen
Expert*innen aus Wissenschaft, Forschung und Wirtschaft. Die
daraus resultierenden Denkanstöße mündeten in intensive
Diskussionen, die auf den Erfahrungen der Wikimedia- Ehrenamtlichen
und Organisationen aufbauten. Am Ende standen mehr als 80 Ideen im Raum. Über zwanzig
davon wurden zu konkreten Projekten bzw. Experimenten weiterentwickelt,
die verbindlich umgesetzt werden sollen.
Die Programmschwerpunkte orientierten sich an drei
Leitfragen:
Wie wird KI menschengemachte Inhalte beeinflussen?
Wie werden Menschen in Zukunft Informationen konsumieren?
?
Was erwarten Beitragende vom Internet – und wie werden sich
diese Erwartungen verändern?
Der
Moderator Matt Thompson stellt einige der rund 80 Ideen vor, die
von den Teilnehmenden entwickelt und im Rahmen eines Gallery Walks
visualisiert wurden.
Wie wird KI menschengemachte
Inhalte beeinflussen?
Der erste Programmschwerpunkt widmete sich einer zentralen
Herausforderung: Wie stellen wir sicher, dass von Menschen
geschaffenes Wissen in einer zunehmend von generativen KI geprägten
Umgebung sichtbar, vertrauenswürdig und relevant bleibt?
Im Fokus der Teilnehmenden standen dabei vor allem Large
Language Models – also große Sprachmodelle, die Texte generieren
können – sowie die Chatbots, über die diese Modelle für
Nutzer*innen niedrigschwellig zugänglich sind. Eine wichtige
Erkenntnis zog sich durch die Diskussionen: Ein von KI dominiertes
Wissensökosystem ist kein unausweichliches Schicksal, dem wir uns
fügen müssen. Die Zukunft des Freien Wissens im Netz hängt von den
Entscheidungen ab, die die Communitys und Wikimedia heute
treffen.
Ich habe (heute) bereits dreimal von den Auswirkungen von KI
gehört, aber noch nichts über die Auswirkungen von Wikis. Ich halte
es für sehr wichtig, den Spieß umzudrehen. Uns wird ständig gesagt,
dass wir von der KI beeinflusst werden – was in gewisser Weise auch
stimmt. Aber wir können ebenso Einfluss auf das entstehende
KI-Ökosystem nehmen.
Alek
Tarkowski Director of
Strategy bei Open Future
KI bringt ohne Zweifel Herausforderungen für die
Wikimedia-Ehrenamtlichen und Projekte mit sich. Gleichzeitig
eröffnet sie Chancen, die Mission zu stärken – vorausgesetzt, sie
wird verantwortungsvoll und im Einklang mit unseren Werten
eingesetzt. Diskutiert wurde in diesem
Kontext unter anderem, wie KI-Chatbots – zum Beispiel in
Kooperation mit Unternehmen – so gestaltet werden können, dass sie
nicht nur Wikipedia-Inhalte nutzen, sondern auch etwas an das
Projekt zurückgeben.
Ebenso ging es um KI-gestützte Werkzeuge, die die
Arbeitsbelastung von Ehrenamtlichen reduzieren können. Solche Tools
könnten auch die Begleitung und Einarbeitung neuer Autor*innen
unterstützen – etwa durch konstruktives Feedback bei
überarbeitungsbedürftigen Beiträgen. Das würde nicht nur entlasten,
sondern zugleich dazu beitragen, neuen Autor*innen ein Gefühl des
Willkommenseins zu vermitteln.
Im Mittelpunkt stand dabei nie die Idee, menschliche Beitragende
durch Maschinen zu ersetzen, sondern sie sinnvoll zu unterstützen.
Deutlich wurde auch: Ethische, gemeinwohlorientierte Experimente
mit KI sind ausschlaggebend, wenn die Wikimedia-Bewegung
technologische Entwicklungen aktiv mitgestalten will. Genau für
diese Art von Experimenten wurden beim Futures Lab zahlreiche Ideen
entwickelt.
Wie werden Menschen in Zukunft
Informationen konsumieren?
Der zweite Schwerpunkt widmete sich den Nutzenden: den
Leser*innen und Menschen, die Inhalte aus den Wiki-Projekten
weiterverwerten. Auf Grundlage der Einblicke der Panelist*innen,
die aus den Bereichen Medien und digitale Kommunikation kommen,
wurde diskutiert, wie Wikimedia in einem zunehmend fragmentierten
Informationsökosystem neue Zielgruppen erreichen kann.
Wie können wir Menschen dort ansprechen, wo sie sich heute im
Netz aufhalten? Wie sichtbar sind Wikipedia und Wikimedia als
Marken in digitalen Räumen, die insbesondere von jüngeren
Generationen genutzt werden? Und wie kann die Benutzeroberfläche
der Wikimedia-Projekte noch ansprechender, intuitiver und
vielleicht auch spielerischer gestaltet werden?
Diskutiert wurden in diesem Zusammenhang die Entwicklung von
Initiativen zur stärkeren Markenwahrnehmung sowie neue, stärker an
Leser*innen orientierte Funktionen und Produkte. Ziel war es, die
Nutzung von Wikimedia nicht nur weiterhin verlässlich, sondern
zugleich einladender und mit klarem Mehrwert zu gestalten. All
diese Überlegungen verfolgen ein gemeinsames Ziel: Freies Wissen
auch künftig dort präsent zu halten, wo Menschen nach Informationen
suchen.
Was erwarten Beitragende vom
Internet?
Der dritte Schwerpunkt stellte die Beitragenden in den
Mittelpunkt – also die ehrenamtliche Community unserer Projekte. Im
Fokus stand die Frage, was Menschen heute motiviert, online
beizutragen, und wie sich diese Motivation verändert. Auf vielen
digitalen Plattformen erwarten Beitragende neue Nutzererfahrungen,
vielfältigere Kooperationsmöglichkeiten und eine stärkere
Anerkennung ihrer Arbeit. Beiträge sollen leicht umsetzbar und
zugleich sichtbar wirksam sein.
Auch hier ist für Wikimedia und die Community das
Experimentieren unverzichtbar. Könnte KI-gestütztes Feedback dazu
beitragen, neue Autor*innen zu halten und die Qualität ihrer ersten
Bearbeitungen zu verbessern? Können Werkzeuge repetitive Aufgaben
reduzieren und mehr Raum für die eigentliche inhaltliche
Zusammenarbeit schaffen? Und wie können wir mit Geschichten über
Wikimedia noch mehr Menschen begeistern, ihr Wissen in unseren
Projekten zu teilen?
Wenn Sie einem 10-Jährigen jedes Jahr 15 neue Themen beibringen
müssten, wie würden Sie das tun? In welcher Form würden Sie ihm
diese Themen vermitteln? […] Der Grund, warum ich mich immer wieder
auf jüngere Menschen beziehe, ist, dass dies die eigentliche
Herausforderung ist. […] Wenn sie (die jungen Menschen) in Zukunft
die Mehrheit der Internetnutzenden stellen, wird die Welt eine ganz
andere sein. Deshalb müssen wir uns Gedanken über sie machen – über
den Weg, den sie einschlagen, und über den Weg, den sie einschlagen
sollten.
Udbhav
Tiwari VP Strategy and Global
Affairs bei Signal
Ein Startschuss für Experimente
– nicht für fertige Lösungen
Während des Futures Lab wurde eines immer wieder betont:
Relevanz entsteht nicht von selbst. Sie erfordert eine ständige
Entwicklung und neue, mutige Experimente. Dabei geht es nicht nur
um technologische Innovationen – ebenso wichtig sind Ansätze, die
kulturelle und soziale Fragen einbeziehen. Denn nachhaltiger Wandel
gelingt nur, wenn Technik, Kultur und Gemeinschaft zusammengedacht
werden.
Ein Beispiel dafür ist das Experiment „Early Adopter Wikis“. Hier
melden sich ausgewählte Wikis freiwillig, um neue Funktionen
frühzeitig zu testen – etwa über A/B-Tests. So können Innovationen
unter realen Bedingungen erprobt und schneller weiterentwickelt
werden.
Der
Moderator Matt Thompson präsentiert eine Auswahl von Themen, die in
den Breakout-Sessions besprochen wurden.
Mit dem Abschluss des Futures Lab beginnt für die Teilnehmenden
die eigentliche Arbeit: Die Verantwortlichen der Experimente
treiben nun die Umsetzung ihrer Ideen voran. In den kommenden
Monaten werden weitere Austauschformate folgen, um den Dialog
fortzuführen und die entstandene Dynamik aufrechtzuerhalten.
Das Wikimedia Futures Lab war selbst ein Experiment – und es hat
gezeigt, dass Wikipedianer*innen aus aller Welt bereit sind, nicht
nur auf Veränderungen zu reagieren, sondern die Zukunft des
Ökosystems Freien Wissens aktiv mitzugestalten. Wikipedia ist kein
Relikt aus den Anfangstagen des Internets, sondern ein lebendiges
Projekt – getragen von Menschen, denen Freies Wissen am Herzen
liegt.
Online-Meetings sind aus unserem Alltag nicht mehr wegzudenken:
Arbeit, Ehrenamt, Schule, Politik – Video- und Audio-Calls sind der
Kitt, der uns Menschen zusammenbringt..
Meist greifen wir dabei automatisch zu Zoom, Teams oder Google
Meet. Oft, weil sie vorgegeben sind. Oder einfach auch weil „alle
anderen“ sie nutzen.
Aber: Diese Tools gehören großen Konzernen, laufen meist über
deren Server und sammeln eine Menge Metadaten. Heute stellen wir
deshalb die Frage: Gibt es gute freie Alternativen für Video- und
Audio-Kommunikation – und was können sie leisten?
Darüber sprechen wir mit Julian Hahn, Mitarbeiter der Internen
IT bei Wikimedia Deutschland.
Takeaways
Es gibt echte Alternativen: Tools wie Jitsi Meet
oder BigBlueButton eignen sich für unterschiedliche
Anforderungen – sowohl privat als auch in der Organisation.
OpenTalk ist ebenfalls einen
Blick wert.
Mehr Kontrolle:Freie Software bietet Ihnen
Transparenz, besseren Datenschutz und oft die Möglichkeit, die
Plattform selbst zu hosten.
Einfacher Einstieg: Viele Tools laufen direkt im
Browser; ein Account ist nicht zwingend nötig, eine Installation
entfällt häufig.
Gewohnheit ist die größte Hürde: Technik ist selten das
Problem – es geht eher darum, sich an neue Abläufe und Oberflächen
zu gewöhnen.
Hi Julian, magst du dich kurz
vorstellen?
Hi, ich bin Systemadministrator bei Wikimedia Deutschland und
beschäftige mich viel damit, dass alle internen Programme und
Geräte reibungslos laufen. Wenn ich alles richtig mache, dann
können meine Kolleg*innen alle gut arbeiten.
Was versteht man eigentlich unter
Video- und Audio-Call-Tools – und was leisten sie technisch im
Hintergrund?
Video- und Audio-Call-Tools sind Programme, mit denen Menschen
miteinander sprechen können – entweder zu zweit oder in Gruppen,
mit oder ohne Kamera. Gerade für Meetings mit mehreren
Teilnehmenden, auch über Organisationsgrenzen hinweg, sind sie
heute kaum noch wegzudenken. Bekannte Beispiele sind etwa Zoom oder
Microsoft Teams.
Technisch passiert dabei mehr, als man auf den ersten Blick
sieht. Jede Person nutzt auf ihrem Gerät ein Programm – den
sogenannten Client. Das ist die App auf dem Laptop oder Smartphone,
die das eigene Mikrofon und Kamerabild aufnimmt, diese Daten ins
Internet sendet und gleichzeitig die Audio- und Videodaten der
anderen Teilnehmenden empfängt und darstellt.
Damit all diese Daten bei allen Beteiligten ankommen, gibt es im
Hintergrund Server. Diese kann man sich wie eine zentrale
Vermittlungsstelle vorstellen: Sie sammeln die Audio- und
Videoströme aller Teilnehmenden und verteilen sie wieder an die
jeweiligen Geräte. In einem Gruppen-Call laufen dort also viele
Daten gleichzeitig zusammen, die verarbeitet und weitergeleitet
werden müssen.
Gerade bei größeren Meetings entsteht dadurch eine hohe
Belastung für die Server, weil viele Video- und Audiosignale
gleichzeitig verarbeitet werden. Deshalb benötigen diese Systeme in
der Regel leistungsfähige Hardware und eine stabile
Internetanbindung.
Die Server können unterschiedlich betrieben werden:
Organisationen können sie selbst auf eigener Hardware betreiben
bzw. hosten – entweder direkt vor Ort oder in einem angemieteten
Rechenzentrum. Alternativ lassen sich Server in der Cloud mieten
und selbst verwalten. Häufig greifen Nutzer*innen aber auch direkt
auf die Infrastruktur von Anbietern zurück, bei denen die Server
komplett vom Dienstleister betrieben werden.
Julian
hat sich besonders während der Corona-Pandemie mit Freien
Alternativen für Video-Call Tools auseinandergesetzt. Heute is er
überzeugter BigBlueButton und Jitsi-Poweruser.
Wie bist du selbst mit solchen Tools
das erste Mal in Berührung gekommen?
Eigentlich ganz klassisch: im Studium und im Freundeskreis. In
beiden Kontexten ging es oft darum, sich abzustimmen oder gemeinsam
Zeit zu verbringen, ohne sich physisch treffen zu müssen. An der TU
Berlin, an der ich bis vor kurzem studiert habe, wurden dafür
häufig bestimmte Tools vorgegeben, die für Lehrveranstaltungen oder
Gruppenarbeiten genutzt werden sollten. Gleichzeitig haben wir im
privaten Umfeld auch selbst nach Alternativen gesucht – zum
Beispiel, wenn die vorgegebenen Lösungen nicht gut funktioniert
haben oder nicht zu unseren Bedürfnissen gepasst haben. So bin ich
relativ früh mit verschiedenen Video- und Audio-Call-Tools in
Kontakt gekommen.
Warum beschäftigst du dich speziell
mit freien Alternativen zu Zoom & Co.?
Ein wichtiger Auslöser war die Corona-Pandemie. In dieser Zeit
ist der Bedarf an Video- und Audio-Call-Tools plötzlich stark
gestiegen, und viele Menschen und Organisationen waren gezwungen,
sich intensiver mit passenden Lösungen auseinanderzusetzen. An der
TU Berlin gab es beispielsweise eine vorgegebene Nutzung von Zoom,
mit der wir jedoch nicht vollständig zufrieden waren. Man wurde
immer dazu gedrängt, eine App zu nutzen und niemand war sich
wirklich sicher, ob der Vertrag der TU mit Zoom tatsächlich dafür
sorgte, dass die Daten innerhalb der EU blieben. Gerade auch die
Benutzbarkeit mit verschiedenen Betriebssystemen
(Windows, Linux, Android, etc.) war nicht durchgängig gut. Das hat
dazu geführt, dass wir aktiv nach Alternativen gesucht haben, die
unterschiedlichen Kontexten gerecht werden können. Im privaten
Umfeld etwa hatte ich einen festen Freundeskreis, der sich
regelmäßig zu einem digitalen „Stammtisch“ getroffen hat. Hier
standen vor allem einfache Nutzung und Verlässlichkeit im
Vordergrund.
Parallel dazu war ich in ein Uni-Projekt mit über 50 Studierenden
eingebunden, die sich wöchentlich zu größeren Update-Meetings
getroffen haben. In diesem Rahmen waren die Anforderungen deutlich
komplexer – etwa in Bezug auf Stabilität, Skalierbarkeit und
Moderation.
Wo liegen die typischen Probleme bei
proprietären Tools wie Zoom, Teams oder Google Meet?
Proprietäre Tools wie Zoom, Microsoft Teams oder Google Meet
funktionieren in der Regel sehr gut, haben aber einen
entscheidenden Nachteil: Sie liegen vollständig in der Hand der
Anbieter. Das bedeutet, dass Daten, Infrastruktur und Einstellungen
dort verwaltet werden.
Nutzer*innen sind darauf angewiesen, wie die Anbieter mit
Datensicherheit umgehen und welche Preise oder Lizenzmodelle sie
festlegen. Die Nutzungsbedingungen müssen meist so akzeptiert
werden, wie sie sind.
Gerade deshalb fühlen sich viele Menschen damit nicht wohl –
insbesondere bei großen Anbietern und deren Verbindungen zu anderen
Organisationen oder staatlichen Stellen. Google mit Meet und
Microsoft mit Teams etwa unterliegen der Gesetzgebung in den USA,
was unter anderem dafür sorgt, dass Daten auf Anfrage von Behörden
von den Unternehmen rausgegeben werden müssen. Gleiches gilt für
Zoom oder Webex, während Discord Verbindungen nach China hat, da
sie von Tencent mitfinanziert werden.
Warum dominieren diese Tools den
Markt so stark?
Ein wichtiger Grund ist, dass viele große Organisationen Rahmen-
oder Lizenzverträge mit Anbietern solcher Tools abschließen.
Dadurch können – und sollen – alle Mitarbeitenden innerhalb der
Organisation dieselbe Plattform nutzen.
Hinzu kommt, dass diese Tools oft Teil eines größeren
Software-Ökosystems sind. Wer zum Beispiel bereits Programme von
Microsoft wie Microsoft Office nutzt, greift häufig auch zu
Microsoft Teams. Ähnlich ist es bei Google, wo Google Workspace eng
mit Google Meet verzahnt ist. Diese Integration macht die Nutzung
bequem und effizient – führt aber auch dazu, dass sich bestimmte
Lösungen stark verbreiten und andere es schwer haben, sich
durchzusetzen.
Welche freien Video- und
Audio-Call-Alternativen würdest du empfehlen?
Zwei Tools, die ich häufig empfehle, sind Jitsi Meet
aus Frankreich und BigBlueButton aus Canada. Beide sind
Open-Source-Anwendungen, und ich nutze bzw. empfehle sie für
unterschiedliche Anwendungsfälle.
Jitsi Meet eignet sich besonders gut für kurze, unkomplizierte
Treffen, die man schnell starten möchte – ganz ohne großen
Setup-Aufwand für jedes Betriebssystem. Man kann einfach einen Raum
erstellen und direkt loslegen. Allerdings läuft das Ganze dann über
die Infrastruktur von Jitsi, wodurch man weniger Kontrolle über die
Daten und die technische Umgebung hat. Man kann Jitsi Meet auch
selber hosten, aber damit habe ich mich bisher noch nicht
auseinandergesetzt.
BigBlueButton ist dagegen stärker auf größere und dynamischere
Veranstaltungen ausgelegt, zum Beispiel Vorlesungen oder Meetings
mit vielen Teilnehmenden. Es bietet mehr Funktionen für Moderation
und Zusammenarbeit, ist aber in der Einrichtung und im Betrieb
etwas aufwendiger. Auch hier gibt es die Möglichkeit, die Anwendung
selbst zu hosten. Wie bei allen Tools gibt es auch hier jeweils
Vor- und Nachteile – die passende Lösung hängt letztlich davon ab,
wofür man sie einsetzen möchte.
Es gibt auch noch OpenTalk aus Deutschland, damit
habe ich persönlich noch keine Erfahrungen gemacht, aber ich denke
es wäre auch mal einen Blick als weitere Alternative wert.
Jitsi
ist ein beliebtes Video-Call Tool für weniger Komplexe
Meetings.
Was sind die größten Vorteile dieser
freien Tools?
Der größte Vorteil freier Tools wie Jitsi und BigBlueBotton
liegt darin, dass sich beide auch selbst hosten lassen: Wer die
Plattform selbst hostet, entscheidet selbst, wer an Meetings
teilnimmt, wo die Daten gespeichert werden und welche technischen
Ressourcen zur Verfügung stehen – man hat dann einfach die volle
Kontrolle. Zusätzlich laufen beide Services beim Teilnehmenden dann
im Browser,
also muss er/sie sich nicht noch umständlich eine weitere Software
herunterladen, die aktuell gehalten werden muss.
Außerdem lassen sich auf diese Weise die laufenden Kosten
deutlich reduzieren, weil teure Lizenzgebühren wegfallen.
Gleichzeitig erfordert das Selbsthosten aber auch eigenen Aufwand –
man muss Zeit für Installation, Wartung und Betreuung der Plattform
einplanen. Wer sich dafür interessiert, findet hier übersichtliche
Leitfäden für BigBlueButton und für Jitsi.
Gibt es weitere Vorteile bei den
Tools, falls man nicht selbsthosten kann, oder ist das der
Hauptvorteil?
Nutzende, die nicht selbst hosten können oder möchten,
verlieren die Kontrolle darüber, wo die eigenen Daten
gespeichert werden. Auch wenn es sich bei Video-Tools nur um eine
vorübergehende Zwischenspeicherung handelt, lässt das theoretisch
schon Einblicke in individuelle Verhaltensweisen zu. . Trotzdem
sind Open-Source Tools, wie Jitsi und BigBlueButton dahingehend
beruhigend, dass durch den offen einsehbaren Code nichts verborgen
bleibt. Wenn sich also kundige Menschen kritisch mit dem Programm
auseinandersetzen wollen, können sie das jederzeit tun. Zusätzlich
sorgt die Möglichkeit des Selbst-Hostens oft dafür, dass mehrere
kleinere Anbieter entstehen, die diese Aufgabe für Nutzende
übernehmen und Bandbreite vermieten. Dank dieser Anbieter kann man
dann immerhin die Infrastruktur einsehen, ohne sich direkt um das
Programm und dessen Installation kümmern zu müssen.
Wie einfach ist der Einstieg – wenn
wir dich richtig verstanden haben, ist ein eigenes Hosting zwar die
sicherste Version, aber nicht zwingend notwendig.
Es geht in der Tat auch ohne Selbst-Hosting. Bei Jitsi Meet zum
Beispiel klickt man einfach auf „kostenloses Meeting starten“ –
alles läuft direkt im Browser, man muss nichts installieren und in
der Regel auch keinen Account anlegen. Den Link teilt man dann mit
den Leuten, die teilnehmen sollen, und schon kann das Meeting
losgehen. Wer mag, kann sich später einen Account anlegen, um
eigene Räume besser zu verwalten, muss es aber nicht.
Wer die Vorteile einer eigenen Plattform haben möchte, aber
keine Lust auf die ganze Technik drumherum hat, kann wie oben
erwähnt einen vorkonfigurierten Server mieten. Der läuft dann schon
fertig eingerichtet, man zahlt ein bisschen dafür, hat aber
trotzdem die Kontrolle über Links, Teilnehmende und Daten – ohne
selbst Server warten oder Updates machen zu müssen.
Am Ende gibt es also für fast jede Situation eine passende Lösung:
direkt im Browser loslegen, selbst hosten für maximale Kontrolle
oder gemietete Server für den Mittelweg.
Auch die
Wikipedia Community nutzt gerne BigBlueButton – hier zu sehen bei
einem Treffen im Contor Hamburg – einem ehemaligen lokalen
Wikipedia Raum.
Gibt es Dinge, die für Nutzer*innen
erstmal ungewohnt sind, wenn sie umsteigen?
Der Umstieg auf freie Tools ist letztendlich mit jedem
Umstieg auf ein anderes Tool vergleichbar: Schaltflächen befinden
sich an anderen Stellen, manche Funktionen gibt es zusätzlich,
andere fehlen. Man muss ein wenig ausprobieren, welche
Einstellungen und Features für den eigenen Anwendungsfall am besten
passen. Das ist bei den proprietären Tools gar nicht so anders – es
ist vergleichbar mit dem Kauf eines neuen Handys: Es gibt viele
objektiv gute Modelle, aber nicht jedes passt zu den individuellen
Bedürfnissen.
Video-Call Tools, sind mit einer Vielzahl von FeatureFs
ausgestattet, um zum Beispiel kollaborativ zu arbeiten. In Zukunft
werden die meisten Video-Calls alle wichtigen Features besitzen, um
keinen Wettbewerbsnachteil zu haben.
Hast du praktische Tipps für
Einsteiger*innen, damit Meetings mit freier Software gut
funktionieren?
Mein Tipp ist Testen :) Das Tool erstmal in Ruhe im kleinen
Kreis mit Freunden, Familie oder wenigen Kolleg*innen ausprobieren.
Man muss dabei nicht direkt selbst das Tool hosten, um zu sehen, ob
es zu den individuellen Anforderungen passt. Und bevor wichtige
Meetings mit Menschen außerhalb der Organisation stattfinden, würde
ich ebenfalls dazu raten, alles vorher noch einmal zu testen – so
kann sichergestellt werden, dass Audio, Video und alle Funktionen
reibungslos laufen, sobald es drauf ankommt.
Was denkst du – wohin werden sich
freie Video- und Audio-Call-Tools in den nächsten Jahren
entwickeln?
Ich glaube, dass freie Tools in Zukunft noch flexibler werden.
Zum Beispiel werden sie wahrscheinlich auf immer mehr Hardware- und
Software-Systemen laufen, sodass man dasselbe Tool auf ganz
unterschiedlichen Servern hosten kann.
Außerdem werden die zusätzlichen Funktionen wie Whiteboards,
Umfragen oder andere interaktive Features weiter angepasst und
ausgebaut. Dadurch werden viele Tools in ihren Möglichkeiten immer
ähnlicher, aber gleichzeitig einfacher zu nutzen und noch besser
auf die Bedürfnisse der Nutzer*innen zugeschnitten.
Next Steps
Einfaches ausprobieren
Starten Sie ein Meeting mit einem freien Tool wie Jitsi Meet oder
BigBlueButton – viele Instanzen sind kostenlos zugänglich.
Klein testen
Probieren Sie das Tool zunächst in kleiner Runde mit Kollegi*nnen,
Freund*innen oder Familie aus, bevor Sie wichtige Meetings
abhalten.
Optionen vergleichen
Überlegen Sie, ob Sie selbst hosten möchten, einen
vorkonfigurierten Server nutzen wollen oder lieber die kostenlose
Browser-Variante einsetzen.
Bedürfnisse klären
Prüfen Sie, welche Funktionen Sie wirklich benötigen (Whiteboard,
Umfragen, Moderation), damit das Tool langfristig zu Ihren
Anforderungen passt.
Noch immer sind Frauen in der Filmbranche weniger sichtbar – ob
als Regisseurinnen, Produzentinnen, Kamerafrauen, Tonfrauen oder
Drehbuchautorinnen. Und das spiegelt sich auch in der Wikipedia
wider.
Ende vergangenen Jahres waren 36,8 Prozent aller
Wikipedia-Biografien zu Filmschaffenden Frauenbiografien. „Während
Frauen vor der Kamera mit 45,8 Prozent beinahe paritätisch
vertreten sind, sind Frauenbiografien in den Gewerken „hinter der
Kamera“ wie Drehbuch, Kameraführung, Tontechnik, Sounddesign
deutlich unterrepräsentiert,“ erläutert Grizma, eine der
Organisatorinnen des Edit-a-thons.
Der Filmfrauen Edit-a-thon wirkt diesem Ungleichgewicht seit
2020 entgegen. Was als engagierte Initiative begann, ist inzwischen
zu einer festen Größe im Terminkalender der Wikipedianer*innen
geworden. Jedes Jahr kommen filminteressierte Wikipedia-Aktive und
die, die es werden wollen, zusammen, um die Präsenz von Frauen in
der Filmgeschichte zu stärken: Gemeinsam werden Artikel und
Einträge in Wikidata neu angelegt, ergänzt, mit Quellen belegt,
strukturell verbessert und bebildert.
Highlights aus sieben Ausgaben
Berlinale-Edit-a-thon
Insgesamt sind in der deutschsprachigen Wikipedia über die
Jahre 249 Artikel zu Filmen und 248 Artikel zu Filmfrauen
entstanden.
Hinzu kommen 149 Artikel in der alemannischen Wikipedia sowie
über 700 Bilder
Einige der entstandenen Artikel beschreiben Filme, die später
renommierte Awards gewonnen haben: Beispielsweise der Teddy Award
Preisträger „Playback. Ensayo de una
despedida“ (2020) und „Walchensee Forever“ (2020), der später den
Bayerischen Filmpreis gewann.
Gleichzeitig sind auch Filmfrauen, die keine Hollywoodgrößen
sind, jetzt dank der Edit-a-thons in der Wikipedia vertreten – etwa
das Berlinale-Team selbst: Mariette Rissenbeek, Linda Söffker,
Marie Losier, Paz Lázaro, Cristina Nord (2020).
Mehr als Editieren:
Gemeinschaft, Begegnung und neue Impulse beim
Edit-a-thon
Das gemeinsame Bearbeiten von Artikeln macht Spaß, und auch der
ein oder andere Löschantrag konnte in Gemeinschaftsleistung
abgewehrt werden. Dabei geht es um noch viel mehr als das reine
Editieren: Auch persönliche Begegnungen spielen eine große Rolle.
Die Teilnehmenden, die aus ganz unterschiedlichen Regionen des
DACH-Raumes anreisen, sehen sich wieder, tauschen sich aus und
schmieden neue Pläne. Einige sind erst durch den Edit-a-thon zur
Wikipedia gekommen und inzwischen seit mehreren Jahren dabei. Und
auch Fortgeschrittene nehmen jedes Jahr etwas Praxisnahes mit. So
lag 2025 beispielsweise der Fokus auf Filmtonfrauen. Die
Teilnehmenden lernten, wie eine Tondatei mit der Aussprache eines
Filmtitels oder Namens Schritt für Schritt in einen Artikel
eingebaut werden kann.
Wie Wikipedia-Aktive und
Filmfrauen voneinander lernen
Die Organisatorinnen Grizma, und Reisen8 freuen sich sehr, dass
der Edit-a-thon sich verstetigt hat, schließlich konnte er
pandemiebedingt 2021 nur online und 2022 nur unter strengen
Auflagen stattfinden.
„Mir gefällt die Verbindung zu anderen Wikipedia-Projekten aus
der Community,“ so Reisen8. So wurden Artikel, die während des
Edit-a-thons entstanden sind, auch bei den 100WomenDays präsentiert, einem
Wettbewerb, der jedes Jahr 100 Tage vor dem internationalen
Frauentag beginnt und sich zum Ziel gesetzt hat, so viele
Wikipedia-Artikel mit Frauenbezug wie möglich zu erstellen oder zu
überarbeiten. Auch ist der Berlinale Edit-a-thon inzwischen zum
Vorbild für ähnliche Formate geworden: Letztes Jahr fand in München
ein Edit-a-thon zum DOKfest nach ähnlichem Muster statt. „Mir
gefällt, dass wir so viel Freiheit bei den Themen haben – uns also
auch auf Artikel über Kurz- oder Kinderfilme stürzen können“,
erzählt Reisen8 weiter.
Mir gefällt, dass wir so viel Freiheit bei den Themen haben – uns
also auch auf Artikel über Kurz- oder Kinderfilme stürzen können.
Gleichzeitig zeigt zum Beispiel der Artikel „No Other Land“, den
ich 2024 angelegt habe, wie schnell unsere Arbeit ins
gesellschaftliche Rampenlicht rücken kann.
Reisen8
Wikipedianerin
Was sich in den letzten Jahren ebenfalls verstetigt hat, ist die
Zusammenarbeit zwischen erfahrenen Wikipedianer*innen und
Expertinnen aus der Filmbranche. So war etwa in diesem Jahr
Sabine Jainski zu Gast. Die
Filmemacherin und Journalistin betonte, wie hilfreich die Arbeit
der Wikipedianer*innen sei – gerade in Zeiten, in denen die Rechte
von Frauen auch in der Filmbranche immer noch beschnitten würden.
Vom Austausch profitieren beide Seiten gleichermaßen: Die
Filmemacherinnen freuen sich über gewonnene Sichtbarkeit in der
Wikipedia und Wikipedianer*innen erhalten Expert*innenwissen aus
der Branche.
25 Jahre Wikipedia – und warum
Edit-a-thons so wirkungsvoll sind
Gerade im Jahr des 25. Geburtstags der Wikipedia kommt diesem Engagement
eine besondere Bedeutung zu. Seit 2001 hat sich die Plattform zur
größten Enzyklopädie der Welt entwickelt. In der Wikipedia spiegeln
sich jedoch gesellschaftliche Strukturen wider – sowohl was ihre
Inhalte, als auch was die Zusammensetzung der
Ehrenamtlichen-Community betrifft. Und hier setzen Initiativen wie
der Berlinale Edit-a-thon an. Viele Initiativen und Gruppen aus der
Wikipedia-Community setzen sich erfolgreich für mehr Diversität ein
– in der Filmbranche, in Wikipedia-Artikeln und unter denen, die
mitmachen.
Xikipedia hat sich die Entwicklerin Lyra Rebane
ausgedacht, um dem verbreiteten Doomscrolling etwas
entgegenzusetzen – also dem endlosen Wischen durch schlechte
Nachrichten, das von den meisten Social-Media-Algorithmen gern
befeuert wird. Ihre Web-App funktioniert zwar nach dem gleichen
Prinzip wie die der großen Plattformen. Aber liefert ausschließlich
Inhalte, die uns schlauer machen – und für alle verständlich sind.
Der angezeigte Content stammt aus der Simple Wikipedia, der englischen Wikipedia in
einfacher Sprache.
Wissen statt Frust beim Scrollen
– so funktioniert Xikipedia
Zu Beginn können wir aus einer Reihe von Kategorien auswählen,
zum Beispiel Wissenschaft, Musik, Natur oder Kunst. Entsprechend
werden dann Wikipedia-Artikel aus dem jeweiligen Gebiet zum
Durchscrollen angezeigt. Über den Klick auf Titel oder Teaser geht
es zum jeweiligen Artikel in der Simple Wikipedia.
Außerdem bietet uns Rebanes Anwendung die Möglichkeit, einen
Artikel zu liken und so die eigene Feed-Auswahl zu steuern. Ein
Wiki-Algorithmus, der garantiert nicht in Weltuntergangsstimmung
versetzt! Noch dazu kommt er ohne KI aus, läuft lokal und gibt
keine Daten weiter. So macht Doomscrolling Spaß.
Wikipedia ist ein Projekt von Menschen für Menschen. Die Inhalte
sind durch die Creative Commons Lizenz zu jedem Zweck für alle frei
nachnutzbar. Und alle heißt, alle: Egal ob es Menschen sind, die
Informationen zu ihrem Lieblingskünstler oder einem aktuellen
Ereignis suchen, Forschende, gemeinnützige Organisationen oder
kleine wie große Unternehmen.
Technologieunternehmen nutzen Wikipedia schon lange.
Sprachassistenten wie Alexa oder Siri sowie Googles Infobox – das
sogenannte Knowledge Panel – greifen auf die Inhalte zu. YouTube
und Facebook verweisen als Gegengewicht zu Desinformation auf
Wikipedia. Sie verbessern oder entwickeln also Produkte basierend
auf der ehrenamtlichen Arbeit hunderttausender Menschen
weltweit.
Das Wissen ist frei – die
Infrastruktur nicht
Mit dem Aufkommen der KI-Chatbots hat die Nutzung von
Wikipedia-Inhalten neue Dimensionen angenommen. Die Sprachmodelle,
auf denen ChatGPT und Co. basieren, müssen mit Texten trainiert
werden. Nur so können sie Sprachmuster lernen und reproduzieren.
Daher grasen Bots und Crawler von KI-Unternehmen auf der Suche nach
Trainingsdatenfutter die Wikimedia Projekte ab. Diese massiven
Datenabrufe
belasten die Server enorm. Die Infrastruktur des Freien Wissens
ist vorrangig auf menschliche Nutzung ausgelegt – und sie
wird überwiegend mit Spendengeldern der Menschen finanziert, die
Wikipedia im Alltag nutzen.
Es sind aber nicht nur Tech-Konzerne, die freie Inhalte von
Wikipedia und Co. nutzen. Auch Forschende oder
Software-Entwickler*innen, die ehrenamtlich Apps entwickeln nutzen
sie. Schon bevor es Enterprise gab, hat die Wikimedia Foundation
regelmäßig Daten-Dumps der Wikipedia
veröffentlicht, die jede*r herunterladen und für eigene Projekte
nutzen konnte. Das entspricht der Philosophie der weltweiten
Wikimedia Bewegung: Verlässliches Wissen soll für alle frei
zugänglich sein.
Ein Lösungsansatz: Wikimedia
Enterprise
Wie gelingt es also, dass Millionen Nutzer*innen Wikipedia im
Alltag störungsfrei nutzen können? Dass Forschende, Start-ups,
gemeinnützige Organisationen ebenso wie große Unternehmen die
Inhalte der freien Enzyklopädie für eigene Projekte
weiterverwenden? Und dass all dies möglich ist, ohne dass die
Wikimedia-Bewegung die hohen Kosten für Betrieb und Infrastruktur
alleine tragen muss?
Mit Wikimedia Enterprise hat die Wikimedia
Foundation bereits 2022 ein Angebot entwickelt, um diesen Spagat zu
schaffen. Klar ist: Forschende, Softwareentwickler*innen und
Unternehmen, die Inhalte aus Wikimedia-Projekten nutzen, haben ganz
andere Anforderungen als Menschen, die Wikipedia im Alltag
lesen.
Forschende benötigen häufig den gesamten Datenbestand der
Wikipedia in komprimierter Form, um damit arbeiten zu können.
Softwareentwickler*innen und Technologieunternehmen hingegen
brauchen die Inhalte so aufbereitet, dass Maschinen sie verarbeiten
können – also als strukturierte Daten in maschinenlesbaren Formaten
wie JSON. Unternehmen, die Suchmaschinen betreiben, brauchen
Zugriff auf einzelne Artikel, während KI-Entwickler*innen ständig
neue Daten für das Training ihrer KI-Modelle suchen: Für sie ist
vor allem das Streaming jeder einzelnen Änderung an Wikipedia
relevant.
Für diese unterschiedlichen Anforderungen stellt Wikimedia
Enterprise drei Programmierschnittstellen, sogenannte APIs, bereit.
Sie liefern dieselben Daten – aber jeweils in der Form und über die
Abrufmethode, die den jeweiligen Nutzungsszenarien entsprechen.
Was bieten die APIs?
Mit der Snapshot API ist der Abruf von Massendaten möglich.
Nutzende können kostenfrei Momentaufnahmen von Wikimedia-Projekten
als Datei herunterladen. Dazu gehört Wikipedia ebenso wie
Wikibooks, Wikivoyage und andere. Alle zwei Wochen kann eine neue
Momentaufnahme heruntergeladen werden.
Einzelne Artikel können in der On-demand API abgerufen werden.
Sie ermöglicht den Abruf von mindestens 5.000 einzelnen Artikeln
pro Monat und den Abruf von Structured Content Articles. Die
Inhalte sind dann so strukturiert, dass Maschinen sie verstehen und
weiterverarbeiten können.
Die kostenpflichtige Realtime API wurde für Unternehmen
entwickelt, die auf die Inhalte der Wikimedia-Projekte in einer
Weise zugreifen, die zu einer kostenintensiven Nutzung der
Infrastruktur führen oder die Dienstleistungen und Beratung beim
Umgang mit den Daten brauchen.
Wer die Realtime API nutzt, kann sowohl bestehende Inhalte als
auch Veränderungen an Wikimedia Projekten in Echtzeit streamen. Das
funktioniert mit der sogenannten Firehose. Eine digitale
Technologie, die einen dauerhaften, sehr schnellen und
hochvolumigen Datenstrom liefert. Hinzu kommen Support-Leistungen
und Dienstleistungen von Wikimedia-Softwareingenieur*innen.
Das bedeutet, dass Spenden von Lesenden nicht dazu verwendet
werden, die Belastung zu decken, die kommerzielle Wiederverwender
von Wikimedia-Inhalten auf die technische Infrastruktur ausüben.
Die Einnahmen von Wikimedia Enterprise gehen an die Wikimedia
Foundation. Sie sind auf 30 % der Gesamteinnahmen der Wikimedia
Foundation begrenzt, die zum Betrieb der Infrastruktur und zur
Förderung von Freiwilligen genutzt werden.
Wer nutzt Wikimedia
Enterprise?
Neben der bekannten Partnerschaft mit Google, die Enterprise für
das Knowledge-Panel in Google-Suchergebnissen nutzt, und Amazon,
Microsoft und den Unternehmen aus dem KI-Sektor gibt es zahlreiche
andere.
Dazu gehört auch das Internet Archive. Es kann den
Echtzeit-Stream der Wikimedia-Inhalte kostenlos nutzen. Denn das
Archiv für alle Internet-Inhalte ist eine gemeinnützige
Organisation und leistet einen wichtigen Beitrag dazu, Wissen im
Netz zu sichern.
2025 haben Wikimedia Enterprise und die Suchmaschine Ecosia
bekanntgegeben, dass sie zusammenarbeiten. Ecosia ist eine
Suchmaschine aus Berlin, die mit ihren Gewinnen Bäume pflanzt.
Statt selbst komplette Wikipedia-Inhalte herunterzuladen und zu
verarbeiten, nutzt Ecosia die Enterprise APIs, um fertige,
strukturierte Daten zu erhalten. Ecosia kann damit über drei
Millionen Suchanfragen täglich mit verlässlichen Informationen aus
Wikipedia anreichern – zum Beispiel in Form von Infoboxen
(Knowledge Panels) über Personen, Orte und Ereignisse. Indem Ecosia
die kostenpflichtige Variante der
Snapshot API nutzt, kann die Suchmaschine tägliche
Schnappschüsse der Wikipedia-Inhalte nutzen.
Im Gegenzug arbeitet Ecosia mit Wikimedia Enterprise am
Beta-Testing und hilft so, neue technische Funktionen zu testen und
weiterzuentwickeln, bevor sie allgemein verfügbar sind.
Wikimedia Enterprise agiert damit nach dem Prinzip: Das Wissen
ist frei – die Infrastruktur ist es nicht.
Im Blog von Wikimedia Enterprise finden sich weitere
Informationen dazu, wer die APIs nutzt und was damit möglich
ist.
Die Wikipedia funktioniert nach Grundprinzipien – unter anderem
sind das Nachprüfbarkeit, Neutralität und Belegpflicht. Diese
Prinzipien machen sie in Kombination mit ihrem umfangreichen
Regelwerk so verlässlich und resistent gegen Desinformation.
Generative KI funktioniert ganz anders: Sie formuliert Texte nicht
faktenbasiert, sondern auf Wahrscheinlichkeit und Plausibilität
basierend. Das passt nicht zur Idee einer menschengemachten
Enzyklopädie: Wenn mit Textgeneratoren erstellte Bearbeitungen oder
ganze Wikipedia-Artikel nicht auf Richtigkeit geprüft, nicht mit
geeigneten Quellenangaben versehen und nicht in enzyklopädischer
Sprache formuliert sind, widersprechen sie den Grundprinzipien des
Online-Lexikons – und schmälern somit dessen Qualität.
Die Abstimmung (in der Wikipedia „Meinungsbild” genannt) zielte
darauf ab, die menschliche Produktion von Artikelinhalten und
Diskussionsbeiträgen in den Vordergrund zu rücken und nur wenige
Ausnahmen zuzulassen. Die Abstimmung lief vom 1. bis zum 15.
Februar. Sich beteiligen durften alle Wikipedianer*innen, die seit
mindestens zwei Monaten aktiv sind und mindestens 200 Bearbeitungen
vorgenommen haben – davon mindestens 50 Artikelbearbeitungen in den
letzten 12 Monaten.
Zum Ende des Meinungsbildes, für dessen Annahme eine einfache
Mehrheit vorausgesetzt wurde, waren 208 Stimmen dafür abgegeben
worden, den restriktiven Umgang mit KI verbindlich festzuschreiben.
108 stimmten dagegen, 16 enthielten sich. Damit ergibt sich eine
deutliche Mehrheit für eine strenge Begrenzung und klare Regelung
für KI-generierte Inhalte in der Online-Enzyklopädie.
Was bedeutet das Ergebnis für
die Wikipedia?
Verbot von KI-generierten Texten
in Artikeln
Ausdrücklich untersagt ist das Einstellen von Texten, die mit
Large Language Models (LLM) wie ChatGPT erzeugt oder bearbeitet
wurden. Von allen Mitwirkenden wird erwartet, dass sie ihre
enzyklopädischen Texte selbst verfassen.
Verbot automatisierter
KI-Edits
Ebenfalls unzulässig ist der Einsatz von Tools, die Änderungen
in Artikeln KI-gestützt und ohne menschliche Prüfung vornehmen.
Keine KI-Texte als
Belege
Erkennbar von einem LLM generierte Texte – etwa auf externen
Websites – gelten nicht als geeignete Belege für die Artikelinhalte
in der Wikipedia.
Regelung gilt
projektweit
Die Grundsätze gelten nicht nur für Artikel, sondern auch für
Diskussionsseiten – also den Seiten, auf denen Wikipedianer*innen
über Artikelinhalte diskutieren – und andere Projektbereiche
Sanktionen bei
Verstößen
Autor*innen, denen das wiederholte Einstellen von mit LLM
generierten Texten nachgewiesen werden kann, können unbeschränkt
gesperrt werden. Sperren aufgrund von KI-Einsatz sollen jedoch nur
erfolgen, wenn die Beweislage klar ist.
Gibt es Ausnahmen?
Trotz der klaren Begrenzung sieht die Regelung bestimmte
Ausnahmen vor:
KI-generierte oder bearbeitete
Bilder…
…dürfen in Ausnahmefällen nach Diskussion und Konsens für jedes
einzelne Bild eingesetzt werden – aber nie als Ersatz für echte
Bilder.
Der Einsatz von
Machine-Learning-Algorithmen…
…etwa zur Rauschentfernung in Bildbearbeitungssystemen bleibt
zulässig.
Maschinelle
Übersetzungen,…
…auch wenn sie KI-gestützt arbeiten (zum Beispiel bei
Übersetzungen aus anderen Sprachversionen der Wikipedia), sind
erlaubt – vorausgesetzt, Übersetzungen und Belege werden sorgfältig
auf inhaltliche Korrektheit geprüft.
KI-gestützte Tools zur
Fehlererkennung…
…dürfen genutzt werden, sofern jede Änderung menschlich geprüft
wird. Zulässig ist etwa der Einsatz von Werkzeugen, die Texte auf
Plausibilität, Lücken oder Widersprüche hinweisen oder
Rechtschreibung und Grammatik prüfen. Inhaltliche Änderungen müssen
jedoch von Menschen vorgenommen werden.
Reine Recherche mit Hilfe von
KI…
…bleibt möglich, sofern die gewonnenen Informationen
eigenständig geprüft und regelkonform belegt werden.
Wie geht es weiter?
Die Abstimmung gilt verbindlich für alle, die an der
deutschsprachigen Wikipedia mitarbeiten. Die neuen Regeln
unterstreichen ein wichtiges Grundprinzip des Projekts:
Wikipedia-Artikel sollen von Menschen für Menschen recherchiert und
geschrieben werden. Community-Mitglieder sehen in der Entscheidung
die Grundlage für eine Regelung, die eine sinnvolle Nutzung von KI
nicht verbietet, aber klar festlegt, dass die Verantwortung immer
bei den menschlichen Autoren liegt.
Innerhalb der Community und auch öffentlich wird nun aber vor
allem darüber diskutiert, wie dies künftig umgesetzt werden soll.
Dabei sind viele Fragen noch offen: Wie lassen sich KI-generierte
Texte erkennen? Wie kann ein zusätzlicher Aufwand für die
ehrenamtlich Mitarbeitenden möglichst gering gehalten werden? Wie
wird mit Texten umgegangen, die zwar mit KI erstellt wurden, aber
inhaltlich korrekt und regelkonform sind? Und wie laufen
Diskussionen ab, wenn es um das Löschen oder Behalten solcher
Inhalte geht?
Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um
KI-Texte zu erkennen und den Mehraufwand zu begrenzen. Um weitere
Antworten auf die offenen Fragen zu finden, wird es in der nächsten
Zeit noch weiteren Austausch geben. Unter anderem findet im März
ein dreitägiges Treffen in Berlin statt, bei dem sich Teilnehmende
mit dem Thema beschäftigen werden.
Im Seminar „(Umkämpftes) Wissen – am Beispiel von Wikipedia
als kollaborativem Raum für Wissen im Netz“ befassten sich
Studierende des Studiengangs Europäische Medienwissenschaft an der
Universität Potsdam mit der Frage, wie Wissen entsteht, wer es
formt – und warum Wikipedia heute wichtiger ist denn je.
Begleitet wurde das Seminar von einer Wikipedianerin sowie von
Vertreterinnen von Wikimedia Deutschland, die Einblicke in die
Arbeit des Vereins, aktuelle Herausforderungen der Wikipedia und
die Bedeutung von Freiem Wissen gaben.
Vom Lesen zum Schreiben – eine
neue Perspektive auf Wikipedia
Für viele Studierende war Wikipedia bislang vor allem ein Ort,
an dem sie Wissen konsumieren. Im Seminar änderte sich dieser
Blick.
Ich hätte nie gedacht, dass ich selbst bei Wikipedia schreiben kann
– und dass das so viel Verantwortung bedeutet.
Diese Perspektivänderung haben die Studierenden auch durch das
Kollektiv Wiki Riot Squad zu verdanken, das
ihnen in einer Praxissitzung die Grundlagen des Editierens zeigte:
Wie man ein Benutzerkonto anlegt, Quellen richtig belegt,
Artikelstrukturen aufbaut und mit der Community kommuniziert.
Schritt für Schritt lernten die Teilnehmenden, wie aus einer Idee
ein Artikel wird – und wie sorgfältig jede Änderung von anderen
Wikipedianer*innen geprüft wird.
Von Graffiti bis Gaming: Wie
Studierende ihre Themen fanden
Viele Studierende fanden ihre Themen für die ersten Schritte in
Wikipedia im eigenen Alltag.
Ein Student erzählte:
Ich ging durch den Berliner Mauerpark und dort gibt es eine
Graffiti-Wand. Ich war dann sehr überrascht, dass es dazu noch
keinen Wikipedia-Artikel gibt – also habe ich ihn
geschrieben.
Ein
Gameplayausschnitt des Spiels Teamfight Tactics.
Eine andere Studentin ergänzte einen Abschnitt über Kosmetik im Computerspiel Teamfight Tactics,
weil sie sich schon lange mit Gaming-Kulturen beschäftigt. Ein
weiterer Student schrieb über ein DJ-Duo, das er regelmäßig hört –
und lernte dabei, wie wichtig es ist, Relevanzkriterien und Quellen
sorgfältig zu prüfen, damit der Artikel auch wirklich online
geht.
Die Lernkurve war steil. Plötzlich war klar, wie wichtig Belege,
Neutralität und klare Sprache sind – und wie schnell die Community
reagiert.
Lernen durch Mitmachen – und
durch Kritik
Die Studierenden erfuhren unmittelbar, wie die
Wikipedia-Community arbeitet: Einige ihrer Beiträge wurden
innerhalb weniger Stunden überarbeitet, formatiert oder auch
gelöscht.
Das war teilweise frustrierend, aber auch lehrreich. Man merkt,
dass Qualitätssicherung hier wirklich gelebt wird.
Dass Wissen in einem Aushandlungsprozess entsteht und wie
Machtstrukturen auch in offenen Projekten wie Wikipedia wirken,
erlebten einige Studierende anhand von Diskussionen über die
Relevanz ihrer Beiträge und deren Neutralität.
Wikipedia demokratisiert Wissen, aber sie legt auch fest, was als
Wissen gilt. Das Projekt ist zugleich emanzipatorisch und
disziplinierend – es öffnet den Zugang zu Information, schließt
aber auch bestimmte Wissensformen aus.
Prof. Birgit
Schneider
Am Ende des Semesters stand fest: Das Schreiben in der Wikipedia
hat Spuren hinterlassen. Viele Studierende wollen weitermachen,
Artikel verbessern oder neue Themen einbringen.„Ich sehe
Wikipedia jetzt nicht mehr nur als Nachschlagewerk, sondern als
soziales System, das ständig verhandelt, was Wissen ist“,
lautete ein Fazit.
Das Seminar zeigt, wie Hochschullehre und digitale Praxis
zusammenwirken können. Es macht deutlich, dass Wikipedia nicht nur
ein Ort des Nachschlagens, sondern auch des Lernens, Diskutierens
und Mitgestaltens ist – gerade in Zeiten, in denen die Frage nach
der Verlässlichkeit von Wissen neu gestellt wird.
Jetzt selbst Teil der freien
Wissenscommunity werden
Wikimedia Deutschland unterstützt verschiedene Projekte, die
Engagierten den Einstieg in die Wikipedia lehren. Wer selbst Lust
hat, Wissen zu teilen oder zu verbessern, kann jederzeit
mitmachen.
Einen Online-Kurs zur Einführung gibt es am 10. März und 11.
April, online und kostenfrei.
„Gott muss alles erschaffen haben – auch das Einhorn“: Dieser
Satz ziert einen um 1500 entstandenen gewebten Teppich mit dem
Titel ‘Allegorische Tiere’ und steht beispielhaft für die
jahrtausendealte Faszination, die das Fabelwesen auslöst. Entgegen
seines heutigen, oft bunten und glitzernden Images blickt das
Einhorn auf eine rund 4000-jährige Geschichte in Mythen, Religion
und Kunst zurück. Dieser Vielschichtigkeit widmete das Museum-
Barberini in Potsdam die Ausstellung „Einhorn. Das Fabeltier in der
Kunst“. Ende Januar hatten elf Wikimedia-Aktive im Rahmen einer
KulTour die Gelegenheit, sich
dem Phänomen Einhorn exklusiv und aus wikipedianischer Perspektive
zu nähern.
Einer der Teilnehmenden an der Wikipedianischen KulTour ist
Schlesinger. Während der KulTour erhielten er und die anderen
Freiwilligen eine kunsthistorische Führung durch die Ausstellung –
Fotografieren ausdrücklich erlaubt. Dabei ließ sich Schlesinger
ganz in den Bann des Fabeltiers ziehen: „[..] fast neigte man sogar
dazu, an dieses fantastische Wesen zu glauben und sich wie viele
Kinder neben das Wärme ausstrahlende präparierte pferdeähnliche
Einhornexponat mit echtem Fell zu legen, schließlich werden ihm
alle möglichen Wunderkräfte zugeschrieben“, so der langjährige
Wikipedianer in seinem Bericht.
Nach der Führung erhielten die Ehrenamtlichen Einblicke in die
organisatorische Arbeit, die für die Ausstellung gestemmt werden
musste: denn die Ausstellung versammelt rund 150 Werke, darunter
Gemälde, Zeichnungen, Druckgraphiken, illuminierte Manuskripte,
Plastiken und Tapisserien, die von 80 Leihgebern aus 16 Ländern
ausgeliehen wurden.
Einhorn-Wissen für
alle
Die rund um den Besuch entstandenen Fotos und das neu erworbene
Wissen rund um den Mythos Einhorn werden in die Wikipedia,
Wikimedia Commons und Wikidata eingearbeitet. Dies ist das
Konzept der Wikipedianischen KulTour, von der Wiki-Aktive wie
Museen gleichermaßen profitieren: Ehrenamtliche erhalten exklusive
Einblicke in die Museen. Indem sie diese in den Wiki-Projekten
verarbeiten, helfen sie den Museen, ihre Inhalte zu öffnen, also zu
digitalisieren und frei verfügbar zu machen. Mit dem Barberini
arbeitet die Wikipedia-Community schon seit 2021 zusammen, zuletzt
bei der GLAM on Tour 2023. GLAM on Tour ist ein mehrtägiges und
erweitertes Austauschformat, das auch eine Einführung in die
Wikimedia-Projekte für Museumsmitarbeitende beinhaltet.
Die Ergebnisse der jüngsten KulTour können sich schon sehen
lassen: Bis jetzt wurden bereits 356 Bilder in Wikimedia Commons und 159 Einträge
in Wikidata eingefügt – und die
Ehrenamtlichen sind noch lange nicht fertig.
Wir freuen uns, die Zusammenarbeit mit dem Museum-Barberini in den
letzten Jahren verstetigt zu haben. Langfristige Kooperationen wie
diese sind besonders lohnend. Sie ermöglichen es den
GLAM-Institutionen, sich als wegweisende Akteur*innen in der
digitalen Wissensgesellschaft zu positionieren.
Holger
Plickert Referent für Kultur-
und Gedächtnisinstitutionen und GLAM-Organisator bei Wikimedia
Deutschland
GLAM on Tour: So geht’s
weiter
Für die Zukunft ist noch viel geplant. So sollen Kooperationen
mit Gedenk- und Erinnerungsstätten in den Fokus rücken. Bei GLAM
können Ehrenamtliche und Institutionen gemeinsam die Qualität und
Reichweite des Geschichtswissens in der Wikipedia steigern. Damit
leisten sie einen wertvollen Beitrag zur Erweiterung des
kollektiven Gedächtnisses und zum Schutz vor Geschichtsmythen und
Desinformation.
Dokumente schreiben, Präsentationen vorbereiten, Zahlen
auswerten – Office-Software ist eine zentrale Säule für digitale
Arbeit und digitales Lernen. Die meisten nutzen dabei Microsoft
Office oder die Google Suite, weil diese Programme am Arbeitsplatz
vorinstalliert sind oder sich nahtlos in E-Mail- und Cloud-Dienste
einfügen. Doch diese Dominanz hat ihren Preis: hohe Lizenzkosten,
dauerhafte Abonnements und – im Falle von Cloud-Tools – die
Weitergabe sensibler Daten an große Unternehmen.
Deshalb stellen wir uns heute die Frage: Gibt es starke,
kostenlose Alternativen, die wirklich mithalten können?
Genau darüber sprechen wir mit Masin Wiedner,
IT-Systemadministrator bei Wikimedia Deutschland.
Keine Bindung: Offene Formate wie ODF schützen davor,
dass persönliche Dateien an einen einzelnen Anbieter gebunden
werden.
Mehr Kontrolle über Daten: Selbst gehostete oder offline
nutzbare Tools erhöhen Datenschutz und Datensouveränität.
Einarbeitungszeit einplanen: Manche Menüs und Funktionen
sind anders angeordnet als bei Microsoft Office oder Google Docs –
ein bisschen Geduld lohnt sich.
Kombinierbar: Man kann z. B. LibreOffice lokal nutzen
und OnlyOffice oder Collabora Online für Teamarbeit im Browser
einsetzen.
Hi Masin, was machst du bei Wikimedia
Deutschland?
Ich bin einer der Systemadministratoren im IT-Team von Wikimedia
Deutschland. Zu unseren Aufgaben gehört die Ausstattung des
Kollegiums mit Arbeitsrechnern und den dazugehörigen Programmen.
Dabei spielt für uns auch die Sicherheit unserer persönlichen und
Arbeitsdaten eine große Rolle.
Was genau ist „Office-Software” und
warum ist sie so wichtig?
Unter „Office-Software“ fasst man Programme zusammen, die
typische Büroarbeiten unterstützen – vor allem das Schreiben von
Texten und das Arbeiten mit Tabellen. Textverarbeitung deckt das
Erstellen von Briefen oder längeren Dokumenten ab, während
Tabellenkalkulationen zum Erfassen und Analysieren von Daten
dienen. Gerade Letztere sind wahre Allzweckwaffen: Sie mussten
schon für alles Mögliche herhalten – und tun es bis heute –, oft
auch für Dinge, für die es eigentlich geeignetere und stabilere
Lösungen gäbe.
Der Begriff „Office-Software“ ist allerdings nicht eindeutig
definiert. Viele zählen auch Präsentationsprogramme dazu –
ursprünglich gedacht für Folien, die man auf Tageslichtprojektoren
geworfen hat. Daher kommt übrigens der Begriff „Folie“
beziehungsweise „Slide“ in Programmen wie PowerPoint. „PowerPoint“
ist dabei längst zum Gattungsbegriff geworden, egal welches
Programm man tatsächlich benutzt.
Die großen Programmpakete enthalten oft auch Anwendungen zum
Definieren und Bearbeiten von Datenbanken. Das sind jedoch schon
eher Spezialwerkzeuge. Für die meisten Menschen reichen
Textverarbeitung, Tabellenkalkulation und Präsentationsprogramme
völlig aus.
Microsoft Office bringt zusätzlich noch Outlook mit, also ein
Programm für E-Mails und persönliches Informationsmanagement. In
den letzten Jahren hat Microsoft außerdem versucht, seine
Marktmacht zu nutzen und Teams – ein Werkzeug für Kommunikation und
Zusammenarbeit mit Chat, Videokonferenzen und gemeinsamen Dateien –
über die Office-Bündelung zum Pflichtprogramm zu machen. Die
Wettbewerbsbehörden waren von dieser Zwangskombination weniger
begeistert und haben sie untersagt. Google bietet zwar
vergleichbare Anwendungen an, hat aber im Gegensatz zu Microsoft
nicht dieselbe marktbeherrschende Stellung im Bereich
Office-Software.
Warum interessierst du dich besonders
für Freie Office-Suiten?
Für mich ist das vor allem eine Frage der Teilhabe am digitalen
Leben. Freie Office-Suiten ermöglichen es allen Menschen, auch ohne
die nötigen finanziellen Ressourcen, an und mit der digitalen Welt
zu arbeiten und teilzuhaben.
Office-Anwendungen sind für viele die ersten „richtigen“
Programme, mit denen sie überhaupt in Berührung kommen. Der
sogenannte Informatikunterricht an Schulen war lange Zeit praktisch
ein Kurs in Microsofts Text- und Tabellenprogrammen. Für einen
großen Teil der Bevölkerung ist „Office“ deshalb bis heute
gleichbedeutend mit „Microsoft Office“.
Wenn alle Menschen diese Programme nur für sich allein und
zuhause verwenden würden, könnte die Geschichte hier enden. Doch
sehr oft markiert ein erstelltes Dokument erst den Beginn einer
längeren digitalen Reise: Es wird verschickt, geöffnet,
weiterverarbeitet und wieder verschickt. Und jedes Mal wird
vorausgesetzt, dass die Empfänger*innen wissen, wie sie diese
Dokumente öffnen, anzeigen und bearbeiten können.
Das führt dazu, dass viele Menschen faktisch gezwungen sind,
Produkte eines einzigen Herstellers zu nutzen, wenn sie reibungslos
mit anderen zusammenarbeiten wollen. Das Problem: Diese Produkte
waren noch nie kostenlos. Früher musste man mehrere Hundert Euro
für eine Lizenz bezahlen, heute sind es laufende Abos – mit dem
Risiko, den Zugriff auf wichtige Anwendungen zu verlieren, sobald
es finanziell mal enger wird. Gleichzeitig bestimmt der Hersteller
allein, was zur Office-Suite gehört und was nicht. Jüngstes
Beispiel sind Preiserhöhungen mit dem Hinweis, dass nun „KI“
integriert sei. Viele möchten diese Form von „KI“ aber aus
ethischen oder ökologischen Gründen gar nicht nutzen – geschweige
denn dafür bezahlen.
Eine Möglichkeit, dem Zwang bestimmter Office-Systemen zu
entgehen, ist das Schaffen von Interoperabilität: Die verschiedenen
Programme „verstehen“ sich gegenseitig, können also mit den
Dateiformaten der anderen umgehen – oder alle verwenden dasselbe
Format, dessen Aufbau standardisiert und dessen Dokumentation frei
verfügbar ist.
Und ja, die Entscheidung zwischen freier und proprietärer
Software ist auch politisch und marktpolitisch relevant. Es geht um
Wahlfreiheit, Unabhängigkeit, gesunden Wettbewerb und echte
Innovation. Letztere entsteht im Markt vor allem dann, wenn man
sich damit gegenüber Mitbewerbern einen Vorteil verschaffen kann –
ein Umstand, der bei Monopolisierung fast nicht mehr gegeben
ist.
Welche Nachteile entstehen, wenn man
sich auf Microsoft Office oder die Google Suite
verlässt?
Es gibt den Begriff des „Vendor Lock-Ins”, der eine Abhängigkeit
von einem einzelnen Anbieter beschreibt und damit einhergeht, dass
ein Wechsel des Anbieters mit unvertretbar hohen Kosten verbunden
ist – entweder finanzieller, organisatorischer oder technischer
Natur. Ist man erst einmal in dieser Position, kann der Anbieter
die Bedingungen für die Nutzung der Produkte immer weiter zu seinen
Gunsten verändern. So können die Abo-Preise erhöht werden, wichtige
Funktionen hinter teuren Lizenzen versteckt werden, die Kontrolle
über die Dokumente kann verloren gehen. Oben hatte ich dazu den
Fall mit der integrierten „KI“ erwähnt. Microsoft hat sich da
übrigens auch einiges bei Google abgeschaut.
Bei der Google Suite, die viele noch als Google Apps, Google
Docs, G Suite oder heute Google Workspace kennen, findet praktisch
alles im Browser statt, und die Dokumente liegen ausnahmslos auf
den Servern von Google. Google „kennt“ also im Zweifel einen sehr
großen Teil der Gedanken und Arbeitsinhalte seiner Kund*innen. Die
einzigen Zusicherungen, dass diese Daten nicht zu ihrem Schaden
verwendet werden, sind am Ende die Nutzungsbedingungen (denen man
meist zustimmen muss) und die Gesetze, die am Unternehmenssitz
gelten. Und genau da wird es heikel: Die weitreichenden Befugnisse
, die die USA – Sitz sowohl von Google als auch Microsoft – ihren
Strafverfolgungsbehörden und Geheimdiensten eingeräumt haben,
sollten jeden zum Nachdenken bringen. Der Patriot Act von 2001 erlaubt US-Behörden wie
dem FBI, der NSA oder der CIA weitreichenden Zugriff auf Server von
US-Unternehmen ohne richterliche Anordnung. Der Cloud Act von 2018 verschärft die Situation noch
weiter, weil er den Zugriff sogar dann ermöglicht, wenn die Daten
physisch im Ausland gespeichert sind. Dass die USA mit ihren
Geheimdiensten aktiv Wirtschaftsspionage betrieben haben, ist
ebenfalls dokumentiert, etwa durch das Überwachungssystem Echelon.
Und da reiht sich Microsoft neuerdings mit ein: Dokumente, die
man lokal erstellt oder bearbeitet, werden ungefragt in OneDrive,
Microsofts hauseigenen Cloud-Speicher hochgeladen.
All das hat Folgen für Datenschutz, Datensouveränität und auch
für einen gesunden wirtschaftlichen Wettbewerb. Dazu kommt noch ein
weiterer Effekt: Die Dominanz von Microsoft Office wirkt weit über
Office-Anwendungen hinaus. Wer Office nutzen will, braucht ein
Betriebssystem, das Microsoft unterstützt – effektiv also Windows
oder macOS. Alternative Betriebssysteme stehen damit schon an
dieser Stelle vor ganz unnötigen Hürden.
Warum dominieren Microsoft und Google
den Office-Bereich so stark?
Microsofts heutige Dominanz stammt noch aus der Zeit vor dem
Internet. Damals gab es im Office-Bereich tatsächlich noch einen
halbwegs lebendigen Wettbewerb. Microsoft konnte jedoch mit der
Bündelung von Word, Excel, PowerPoint und Outlook ein Gesamtpaket
anbieten, dem viele Firmen kaum widerstehen konnten. Einzelne
Konkurrenten hatten teilweise bessere Einzelprogramme – aber eben
keine komplette Suite. Und sobald genug Unternehmen auf Microsoft
Office gesetzt hatten, kippte das Ganze: Wer beim
Dokumentenaustausch mitmachen wollte, musste praktisch ebenfalls
auf Microsoft umsteigen. Offene, standardisierte Formate gab es
kaum, und PDFs spielten im Büroalltag noch keine nennenswerte
Rolle.
Privat wollten die Menschen dann natürlich das nutzen, was sie
aus dem Büro kannten: erst unter MS-DOS, dann unter Windows 3.11,
Windows 95 – und immer begleitet von der vertrauten
Office-Umgebung. So setzte sich Microsoft Schritt für Schritt auch
im Alltag der Leute fest.
Google landete seinen großen Durchbruch 2005 mit dem
E-Mail-Dienst Gmail, hierzulande auch vielen als Google Mail
bekannt. Gmail bot etwas, das damals tatsächlich revolutionär war:
1 Gigabyte Speicher – kostenlos. Während andere Anbieter auf 10
oder 20 Megabyte begrenzten oder die Zahl der E-Mails deckelten,
traf Google damit einen echten Schmerzpunkt. Die Nutzerzahlen
explodierten.
Auf dieser breiten Basis konnte Google nach und nach das
ausbauen, was Microsoft lange für sich beansprucht hatte: E-Mail
und persönliches Informationsmanagement, also Kalender, Kontakte
und Aufgaben. Parallel reiften auch die Office-Anwendungen selbst,
wenn auch langsam. Ich erinnere mich noch daran, dass Google Docs
vor gut zehn Jahren nicht einmal Kopf- und Fußzeilen konnte – für
offizielle Schreiben war das damals schlicht unbrauchbar.
Dafür boten Googles Office-Produkte etwas, das perfekt in den
Zeitgeist passte: Zusammenarbeit in Echtzeit über das Internet.
Menschen waren ständig online und wollten gemeinsam an Dokumenten
arbeiten – und genau das lieferte die Google-Suite.
Der Funktionsumfang war lange „gut genug“ und wurde
kontinuierlich besser. Und weil die Nutzung zunächst kostenlos war,
konnten sehr viele Menschen früh damit Erfahrungen sammeln. Was im
Privaten und im semi-professionellen Umfeld funktionierte, wanderte
dann schnell in Unternehmen – besonders in jüngere Firmen und
weniger konservative Branchen.
Hinzu kamen später die Chromebooks als günstiges Angebot für
Schulen und Bildungseinrichtungen. Spätestens in der
COVID-19-Pandemie von 2020 bis 2023 hat das dem Google Workspace
noch einmal einen kräftigen Schub gegeben.
Welche freien Office-Alternativen
würdest Du unseren Leser*innen empfehlen?
Ganz klar an erster Stelle: LibreOffice. Die Suite ist funktionsreich, gepflegt
und für fast alle gängigen Betriebssysteme verfügbar – die sichere
Wahl für alle, die eine vollwertige, lokal installierbare
Office-Suite wollen.
Danach wird’s dünner, denn echte freie Office-Suiten gibt es
kaum. Einzelanwendungen funktionieren aber sehr gut: AbiWord für Textverarbeitung, Gnumeric für Tabellenkalkulation – schlank, schnell
und überraschend leistungsfähig.
Besondere Vertreter sind Collabora Online und OnlyOffice: Die laufen nämlich nicht einfach auf dem
eigenen Rechner, sondern werden auf einem Server installiert und
dann im Browser genutzt. Sie eignen sich super für gemeinsame
Arbeit an Dokumenten – ähnlich wie Google Docs, nur eben ohne das
große Datensammeln im Hintergrund. Für Privatleute ist das
vielleicht etwas viel Aufwand, aber für Vereine, Schulen oder
kleine Unternehmen kann das eine spannende Lösung sein.
Was sind die größten Vorteile dieser
Alternativen?
All den Alternativen ist gemein, dass sie unabhängig von den
großen Anbietern betrieben werden können: entweder komplett lokal
im Falle von LibreOffice oder auf eigenen Servern betrieben im
Falle von Collabora Online und Only Office. Selbst wenn der Betrieb
der beiden Letzteren als Service eingekauft wird, sind es eher
kleinere Anbieter, und bei denen gehört die Auswertung von Daten
ihrer Kundschaft nicht zum Kerngeschäft. Für den Datenschutz ist
das in jedem Fall eine gute Sache.
Als Underdogs haben diese Alternativen zudem Interoperabilität
immer großgeschrieben. Besonders das einst von OpenOffice.org initiierte Open Document Format
(ODF) hat sich als Standard etabliert. Darüber hinaus glänzen diese
Office-Programme auch damit, dass sie nicht nur ihre eigenen
Formate, sondern teilweise auch mittlerweile sehr exotische Dateien
wie uralte WordPerfect-Dokumente aus den 80er-Jahren öffnen
könnten.
Ein Tipp, den ich oft gegeben habe, wenn jemand Probleme mit
einem Microsoft-Office-Dokument hatte: Datei in LibreOffice öffnen,
neu abspeichern im aktuellen Microsoft-Format – und schon klappt’s
meistens. Über Jahre hinweg war es fast schon ein Running Gag, dass
Microsoft Office die eigenen älteren Dateien nicht fehlerfrei
öffnen konnte.
Collabora Online und OnlyOffice ermöglichen sogar eine
Online-Zusammenarbeit, ganz ähnlich wie man es vom Google Workspace
kennt – für Teams und Gruppen also eine echte Alternative.
Was könnte sich beim Wechsel von
Microsoft Office oder Google Docs anders anfühlen?
Man kann es sich nicht schönreden: Microsoft und Google
investieren riesige Summen in ihre Benutzeroberflächen. Die freien
Alternativen wirken dagegen manchmal etwas spröde oder wie aus
einer anderen Zeit – auch wenn der Open-Source-Charakter es
erlaubt, alternative Oberflächen auszuprobieren. LibreOffice kommt
vielen, die es noch kennen, eher wie ein Microsoft Office 2003 vor,
also wie die letzte Version vor den „Ribbons“, die Symbole und Aktionen in Reitern
gruppieren.
Von den Funktionen her muss LibreOffice sich aber keineswegs
verstecken: Alles Wichtige ist da, auch wenn manche Dinge an
Stellen zu finden sind, an denen man sie nicht sofort erwartet. Aus
eigener Erfahrung weiß ich, dass dort manches sehr praktisch gelöst
ist und anderes wiederum weniger logisch platziert wirkt.
Unterm Strich braucht es vor allem ein bisschen Geduld und guten
Willen, um sich umzugewöhnen. Persönlich mag ich die Arbeit mit
LibreOffice sehr – auch, weil es dazu ermutigt, Dokumente wirklich
sauber zu formatieren.
Next Steps
Dokumente sichern und sortieren
Überprüfen Sie alle aktuellen Office-Dateien auf Ihrem Rechner oder
in der Cloud. Sortieren Sie sie nach Wichtigkeit und laden Sie eine
Kopie herunter – am besten im neutralen ODF-Format. So haben Sie
volle Kontrolle über Ihre Daten.
LibreOffice installieren und erstes Projekt starten
Laden Sie LibreOffice oder eines der anderen hier
vorgestellten Programme herunter und erstellen Sie ein Testdokument
oder eine Tabelle. Konvertieren Sie eine alte Datei aus Microsoft
Office oder Google Docs, um die Kompatibilität zu prüfen.
Alternative Formate ausprobieren
Speicheren Sie neue Dokumente nicht automatisch in Microsoft- oder
Google-Formaten, sondern testen Sie mal ODF oder PDF/A. So stellen
Sie sicher, dass Ihre Dateien zukunftssicher sind.
Online-Zusammenarbeit auf freier Basis testen
Richten Sie ein kleines Projekt in OnlyOffice oder Collabora Online
ein – z. B. ein gemeinsames Dokument mit Freunden, Kolleg*innen
oder Vereinsmitgliedern. So bekommen Sie ein Gefühl für die
Zusammenarbeit ohne große Abhängigkeit. Hilfe zum Einrichten finden
sich für Collabora Online hier und für OnlyOffice hier.
Schrittweise umstellen Statt alles auf einmal zu
wechseln, nutzen Sie zunächst beide Welten parallel: LibreOffice
lokal, OnlyOffice oder Collabora Online für Teamarbeit. Mit
kleinen, realistischen Projekten gewöhnen Sie sich an die neuen
Tools, ohne dass der Alltag stockt.
Ob Städtereise, Geschäftsreise oder der lang ersehnte Urlaub –
digitale Reiseplaner sind heute aus der Reisevorbereitung kaum
wegzudenken. Sie helfen dabei, Routen zu optimieren,
Sehenswürdigkeiten zu entdecken oder Buchungen zu koordinieren.
Doch viele der gängigen Tools kommen von großen Tech-Konzernen, die
vor allem eines tun: Daten sammeln und daraus Profit schlagen.
Deshalb lohnt sich der Blick auf freie, offene
Software-Alternativen. Sie versprechen: volle Kontrolle, mehr
Privatsphäre und Unabhängigkeit. Was es dabei zu beachten gibt und
wie jedem der Umstieg gelingt, darüber sprechen wir dieses Mal mit
Volker Krause, einem langjährigen Wikimedia- und
KDE-Community-Mitglied.
Begriffe, die Sie vor dem Lesen
dieses Artikels kennen sollten:
KDEe.V. ist der gemeinnützige Verein, der die
Entwicklung freier, offener Software aus der KDE-Community
unterstützt – damit Menschen überall verlässliche, transparente und
gemeinschaftlich entwickelte Anwendungen nutzen können.
Wikidata ist eine frei zugängliche Wissensdatenbank, die
strukturierte Informationen über Personen, Orte, Organisationen und
vieles mehr speichert. Anders als ein klassischer Artikel liefert
sie die Daten in maschinenlesbarer Form, sodass Programme und Apps
sie automatisch nutzen können. So können beispielsweise Reise- oder
Karten-Apps aktuelle Informationen aus Wikidata abrufen, ohne alles
selbst recherchieren zu müssen.
OpenStreetMap (OSM) ist eine freie, von der Community
erstellte Weltkarte. Jede*r kann Orte, Straßen, Wege oder
Sehenswürdigkeiten eintragen und aktualisieren. Die Daten sind
offen verfügbar, sodass Apps und Dienste sie für Navigation,
Routenplanung oder andere Anwendungen nutzen können – ähnlich wie
bei Google Maps, nur dass hier alle mitmachen und die Daten frei
bleiben.
Hi Volker, an welchen KDE- und
Wikimedia-Projekten arbeitest du mit und was genau machst du
da?
Ich arbeite seit ein paar Jahren an der Entwicklung von KDE’s
Reise-App Itinerary mit. Darüber bin ich mit der Zeit
dann auch in andere Projekte und Initiativen reingerutscht auf
denen sowohl die Itinerary-App als auch viele andere freie
Anwendungen in diesem Bereich aufbauen, wie beispielsweise der
Pflege von Daten zu Bahnhöfen oder Zuglinien in Wikidata
oder OpenStreetMap sowie dem Aufbau des freien und
Communitybetriebenen Routing-Dienst Transitous.
Was genau ist ein Reise- oder
Routenplaner – wozu dient er?
Ein Reise- oder Routenplaner ist im Kern ein System, das
ermittelt, wie man zu einer bestimmten Zeit am besten von A nach B
kommt – meist mit öffentlichen Verkehrsmitteln.
Je nach Einsatzzweck kann das aber deutlich umfangreicher
werden. Dazu gehören zum Beispiel Funktionen zur Verwaltung von
Tickets und Buchungen, Hinweise auf Störungen auf der eigenen
Pendelstrecke oder auch ergänzende Informationen für Reisende, etwa
zu Sehenswürdigkeiten. Kurz: Ein Reiseplaner bündelt die
Informationen, die man benötigt, um zuverlässig und möglichst
unkompliziert ans Ziel zu kommen.
Wie bist du erstmals mit Reiseplanern
in Berührung gekommen?
Volker
Krause ist seit vielen Jahren ehrenamtlich für den KDE e. V.,
Wikidata und viele weitere damit verbundenen Anwendungen
tätig.
Ich bin zwar selbst viel unterwegs, aber eigentlich war mein
Einstieg in das Thema mehr ein Zufall. Auf dem Rückweg von einer
Veranstaltung konnte ich in einer völlig mit Werbung überladenen
Buchungs-E-Mail die Informationen zu meiner Anschlussverbindung
nicht mehr finden. Weil ich damals am KDE-E-Mail-Programm KMail
gearbeitet habe, habe ich mir die Nachricht im „Quelltext“
angesehen – also in der technischen Rohfassung, in der alle
versteckten Informationen sichtbar sind. Dabei bin ich auf eine
maschinenlesbare Beschreibung der Reise gestoßen.
Daraus entstand dann zunächst ein kleines Zusatzmodul für KMail
– ein sogenanntes Plugin –, das die Reiseinformationen aus solchen
E-Mails übersichtlich aufbereitet hat und sie automatisch in den
Kalender übernehmen konnte. Das war nützlich, zeigte aber schnell,
dass man damit viel mehr machen kann. Am Ende ist daraus
schließlich KDE Itinerary als eigene Anwendung
entstanden, die offiziell 2018 öffentlich vorgestellt wurde.
Warum beschäftigen dich besonders
Open Source und freie Reiseplaner – was reizt dich an dem
Thema?
Open Source und freie Reiseplaner beschäftigen mich, weil es im
Alltag immer schwieriger wird, ohne proprietäre Apps auszukommen.
„Proprietär“ bedeutet: Eine App gehört einem Unternehmen,
funktioniert nur unter dessen Bedingungen und läuft oft nur auf
Plattformen wie von Google oder Apple. Egal ob Online-Banking,
Gesundheitsdaten oder einfach eine Fahrkarte für Bus und Bahn –
überall wird man zunehmend in solche geschlossenen Systeme
gedrängt. Anfang des Jahres gab es ja sogar den Fall, dass
Studierende in Berlin ihr Semesterticket nur noch per verpflichtender App nutzen
sollten. Das zeigt, wie konkret dieses Problem ist.
Gerade deshalb brauchen wir echte Alternativen. Als ich vor mehr
als 20 Jahren mit freier Software angefangen habe, ging es vor
allem um technische Fragen, etwa darum, einen Windows-95-Rechner zu
ersetzen. Dieser Aspekt ist geblieben, aber digitale Dienste sind
heute viel enger mit dem Alltag verknüpft.
Heute reicht es nicht mehr aus, dass Software offen entwickelt
und technisch solide ist. Sie muss auch im Alltag nutzbar sein –
also Zugang zu relevanten Daten haben, mit bestehenden Systemen
zusammenarbeiten dürfen und praktisch einsetzbar sein. Fehlen etwa
Fahrplandaten, Echtzeitinformationen oder Buchungsschnittstellen,
bleiben freie Anwendungen außen vor, auch wenn sie technisch
mithalten könnten. Deshalb geht es inzwischen nicht nur um
Softwareentwicklung, sondern auch um die politischen
Rahmenbedingungen dafür.
Und das kann niemand alleine durchsetzen. Dafür braucht es eine
breite Zusammenarbeit von Menschen und Organisationen, die sich für
digitale Freiheit und den Schutz der Privatsphäre einsetzen. Durch
diese Zusammenarbeit kann man tatsächlich etwas bewegen.
Welche Nachteile haben die
klassischen Anbieter wie Google Maps, Apple Karten, TripAdvisor
oder TripIt aus deiner Sicht?
Bei den großen, bekannten Anbietern ist Datenschutz aus meiner
Sicht der wichtigste Kritikpunkt. Dabei geht es nicht nur darum,
welche persönlichen Daten gespeichert werden, sondern vor allem
darum, welche Rückschlüsse daraus möglich sind. Eine einzelne Reise
wirkt zunächst oft harmlos. Viele Angaben wie Name, Adresse oder
Zahlungsdaten liegen den kommerziellen Unternehmen durch andere
Anwendungen, die ihnen ebenfalls gehören, oft schon vor. Diese
Daten stammen dann nicht zwingend aus einer konkreten Reisebuchung,
sondern aus anderen Diensten: App-Store-Konten, E-Mail,
Cloud-Dienste oder frühere Käufe. Selbst wenn man dort kein Ticket
kauft, ist das Nutzerprofil oft schon sehr vollständig. Dazu kommt,
dass Reiseziele nichts sind, was man grundsätzlich geheim hält und
gerne auch mal aus freien Stücken auf Social Media teilt.
Problematischer wird es, wenn man die komplette Reisehistorie
betrachtet. Daraus lassen sich Rückschlüsse auf Arbeitsorte,
Interessen oder familiäre Beziehungen ziehen. Werden solche
Bewegungsdaten vieler Menschen miteinander verglichen – man spricht
hier von Korrelation –, lassen sich sogar soziale Zusammenhänge
erkennen. Dass zwei Personen einmal zur gleichen Zeit am selben Ort
sind, kann Zufall sein. Passiert das regelmäßig, deutet es auf eine
Beziehung hin. Es geht also nicht nur um die individuelle
Privatsphäre, sondern auch um die gesellschaftliche
Auswirkungen.
Daneben gibt es noch eine zweite Gruppe von Anwendungen: die
Apps der Verkehrsanbieter selbst, etwa der DB Navigator. Diese sind
zwar oft die einzige Möglichkeit, Tickets direkt zu kaufen,
überzeugen aber ebenfalls selten durch guten Datenschutz. Außerdem
führen sie zu einem Flickenteppich aus Apps – für jede Region oder
jedes Land eine andere.
Hinzu kommt, dass solche Anwendungen meist nur das eigene
Angebot anzeigen. Im DB Navigator fehlen zum Beispiel Fernbusse.
Das ist aus Sicht der Anbieter nachvollziehbar, liegt aber nicht im
Interesse der Reisenden, die eigentlich einen vollständigen
Überblick über alle verfügbaren Verkehrsmittel brauchen.
Warum dominieren diese großen
Plattformen aus deiner Sicht den Markt so sehr?
Ein zentraler Grund für die Dominanz großer Plattformen sind
Monopole. Zum einen gibt es die Plattform-Monopole von Google und
Apple: Wer ein Smartphone nutzt, ist meist an deren Betriebssysteme
gebunden, und diese bevorzugen ihre eigenen Anwendungen
automatisch. Das verschafft ihnen einen enormen Marktvorteil.
Zum anderen gibt es Monopole auf Seiten der Verkehrsanbieter.
Sie kontrollieren den Zugang zu Fahrplandaten und haben oft
exklusiv die Möglichkeit, Tickets für ihre Angebote zu verkaufen.
Ohne diese Daten und ohne Ticketverkauf ist ein Reiseplaner aber
nur eingeschränkt nutzbar. Das macht es für alternative Anbieter
extrem schwierig, konkurrenzfähige Angebote zu entwickeln.
Dass es auch anders geht, zeigen Beispiele aus Norwegen. Dort
betreibt die öffentliche Hand eine zentrale Plattform für
Fahrplanauskunft und Ticketverkauf, die vollständig mit freier
Software umgesetzt ist. Verkehrsanbieter sind verpflichtet – und
auch motiviert –, qualitativ hochwertige offene Fahrplandaten
bereitzustellen. Tun sie das nicht, erhalten sie keine Einnahmen
aus dem Ticketverkauf. So entsteht ein fairer, offener Wettbewerb
im Sinne der Reisenden.
Auch in Deutschland gibt es erste Ansätze in diese Richtung,
etwa mit Projekten wie Stadtnavi in Herrenberg. Diese
zeigen, was mit politischem Willen möglich wäre – bislang
allerdings noch in deutlich kleinerem Maßstab.
Welche freien, offenen Alternativen
gibt es aktuell?
Es gibt bereits eine ganze Reihe freier und offener
Alternativen: Eine der vermutlich am weitesten verbreiteten Apps in
Deutschland ist Öffi. Sie ermöglicht Verbindungssuchen im Nah-
und Fernverkehr in vielen Regionen, ohne dass man für jede Stadt
oder jeden Verkehrsverbund eine eigene App installieren muss. In
diesem Bereich – also der reinen Routen- und Verbindungsplanung –
gibt es derzeit auch die größte Auswahl an freien Alternativen.
Als Alternative zur Web-Version von Google Maps lohnt sich ein
Blick auf Cartes (Karten) aus
Frankreich. Neben Routenplanung und Straßen-Navigation bietet
Cartes auch Informationen zu Sehenswürdigkeiten, Restaurants und
Geschäften, inklusive Fotos. Damit deckt es einen ähnlichen
Funktionsumfang ab, setzt aber auf offene Technologien.
Natürlich gehört in dieser Aufzählung auch KDE Itinerary dazu. Diese Anwendung ist am ehesten mit
Diensten wie TripIt vergleichbar. Sie richtet sich weniger an die
eigentliche Routenplanung, sondern daran, während einer Reise alle
wichtigen Informationen gebündelt zur Verfügung zu haben – etwa
Buchungen, Fahrkarten oder Reservierungen.
Das sind allerdings nur drei Beispiele. Sie zeigen, wie
vielfältig der Bereich bereits ist, decken aber längst nicht das
gesamte Spektrum ab. Wer sich für freie Reiseplaner interessiert,
sollte ruhig etwas Zeit zum Stöbern einplanen – es lohnt sich.
Screenshot Cartes
Eine
gute Alternative zu proprietären Reiseplanern: die französische App
Cartes.
Was sind die größten Vorteile dieser
freien Reiseplaner?
Der größte Vorteil freier Reiseplaner ist, dass sie von
Reisenden für Reisende entwickelt werden. Ihr Ziel ist es, bei der
Planung und unterwegs zu unterstützen – nicht, Daten zu sammeln,
Werbung anzuzeigen oder bestimmte Produkte zu verkaufen.
Entsprechend unterscheidet sich auch der Umgang mit Datenschutz
deutlich. Vollständig offline funktionieren solche Anwendungen zwar
meist nicht, das ist aber auch kaum möglich, wenn man aktuelle
Verspätungen oder Echtzeitinformationen nutzen möchte. Entscheidend
ist: Die Funktionsweise ist offen und transparent, man kann also
nachvollziehen, welche Daten übertragen werden und warum.
Ein weiterer wichtiger Punkt sind die Communitys hinter diesen
Anwendungen. Sie sind in der Regel leicht ansprechbar, und
Nutzer*innen können eigene Erfahrungen und Ideen einbringen. Dafür
muss man kein technisches Spezialwissen haben. Wenn man etwa bei
einem Umstieg mit dem Kinderwagen von OpenStreetMap – einer frei nutzbaren Weltkarte
– über unnötig viele Stufen geführt wird, liegt das oft daran, dass
Wege auf der Karte noch nicht ganz korrekt erfasst sind. Das lässt
sich einfach korrigieren indem man als Nutzer*in einfach selbst
Hand anlegt und die Informationen anpasst. Das verbessert die
Situation sofort für alle Menschen, die OpenStreetMap nutzen.
Was ist für Nutzer*innen vielleicht
ungewohnt, wenn sie von Google Maps oder TripIt
umsteigen?
Beim Umstieg von beispielsweise Google Maps oder TripIt fallen
Nutzer*innen vor allem zwei Dinge auf, für die es bislang noch
keine wirklich guten freien Alternativen gibt: Bewertungen und
Ticketbuchungen.
Bewertungen sind allerdings auch in kommerziellen Anwendungen
nicht unumstritten. Sie sind anfällig für Spam und gezielte
Manipulationen und erfordern einen hohen Moderationsaufwand. Dazu
kommen rechtliche Risiken, etwa bei falschen oder rufschädigenden
Bewertungen. All das ist für freie Projekte nur schwer zu stemmen.
Zwar gibt es immer wieder Ideen, wie man Bewertungen robuster und
fairer gestalten könnte, wirklich überzeugende Konzepte haben sich
bisher aber nicht etabliert – sofern das überhaupt möglich ist.
Bei Ticketbuchungen ist die Situation etwas anders. Die meisten
freien Projekte möchten selbst nicht als kommerzielle Anbieter
auftreten. Für Nutzer+innen wäre es aber sehr hilfreich, eine
geplante Reise direkt beim jeweiligen Verkehrs- oder Reiseanbieter
buchen zu können. Technisch wäre das über sogenannte „Deep Links“
möglich – also direkte Verweise in die Buchungssysteme. Solche
Schnittstellen werden von den Anbietern bislang jedoch nur selten
angeboten, was freie Alternativen aktuell deutlich einschränkt.
Wie einfach ist der Umstieg – und wo
findet man diese freien Tools?
Der Umstieg ist relativ unkompliziert. Web-Anwendungen wie
Cartes lassen sich direkt im Browser nutzen,
ohne dass eine Installation nötig ist. Die anderen Apps gibt es
wahlweise im freien App-Store F-Droid – einem App-Shop speziell für
freie und Open-Source-Anwendungen – oder auch im Google Play Store. Über beide
Wege lassen sie sich problemlos auf Smartphones installieren.
Hast du noch ein, zwei Tipps für
Einsteiger*innen, um den Wechsel möglichst reibungslos zu
gestalten?
Ein guter Einstieg ist, verschiedene Alternativen einfach einmal
parallel auszuprobieren. So kann man herausfinden, welche App oder
Anwendung für den eigenen Anwendungsfall und die Region, in der man
unterwegs ist, am besten passt.
Wohin entwickelt sich die Welt der
freien Reiseplaner deiner Meinung nach in den nächsten
Jahren?
In der Welt der freien Reiseplaner passiert gerade sehr viel –
und ich gehe davon aus, dass sich das in den nächsten Jahren weiter
beschleunigt.
Ein gutes Beispiel dafür ist Transitous. Das ist ein offener, von der
Community betreuter Routing‑Dienst für den öffentlichen Verkehr,
der unabhängig von einzelnen Verkehrsunternehmen oder großen
Plattformen funktioniert. Er nutzt frei verfügbare Fahrplandaten
aus vielen Ländern (z. B. im Standardformat GTFS und
Realtime‑Daten) und stellt daraus eine grenzüberschreitende
Reiseplanung bereit, die nicht an nationale Grenzen oder einzelne
Betreiber gebunden ist. Transitous konzentriert sich darauf, den
Nutzer*innen gute Routenplanung zu bieten, ohne ihre Daten zu
sammeln oder kommerziell auszunutzen. Das ist noch relativ neu: Vor
nicht allzu langer Zeit war öffentliche Verkehrsrouting‑Technologie
jenseits der proprietären Systeme praktisch nicht verfügbar.
Inzwischen nutzen mehrere freie Anwendungen Transitous – ein
Zeichen, dass die technische Machbarkeit längst da ist und weiter
wächst.
Auch die Community drumherum wächst. So fand im Oktober 2025
erstmals die Open Transport Community Conference statt, ein
„Unconference“‑Format, bei dem Entwickler*innen sowie Interessierte
aus Projekten wie Transitous, OpenStreetMap oder OpenTripPlanner in Wien zusammenkamen. Dort ging es
weniger um klassische Vorträge, sondern vor allem um Austausch,
Diskussion und Zusammenarbeit rund um freie Software und offene
Daten für Mobilität und öffentlichen Verkehr.
Wie genau sich das alles
entwickeln wird, ist noch schwer vorherzusagen. Aber ich vermute,
dass sich der Fokus zunehmend weg vom bloßen Aufholen der
proprietären Lösungen hin zu eigenen, neuen Ideen verschieben wird.
Ein Beispiel dafür sind Ansätze, barrierefreie Informationen ins
Routing einzubeziehen – etwa alternative Verbindungsoptionen, wenn
ein Bahnsteig nicht durch einen defekten Aufzug erreichbar ist.
Solche Funktionen sind für bestimmte Nutzergruppen essentiell und
finden sich in proprietären Anwendungen oft nur zögerlich oder
überhaupt nicht, wenn kein regulatorischer Druck besteht.
Takeaways
Es gibt überzeugende Alternativen:KDE Itinerary, Öffi oder Cartes decken verschiedene Aspekte der Reiseplanung ab
– von Routenplanung über Fahrplandaten bis zur Übersicht über
Reiseinformationen.
Datenschutz bleibt das stärkste Argument: Keine
versteckte Datensammlung, keine personalisierte Werbung – volle
Kontrolle über die eigenen Reisedaten.
Der Umstieg ist einfacher als gedacht: Viele Tools
laufen offline, funktionieren auf allen Geräten und lassen sich
parallel zu bestehenden Apps nutzen.
Tipp: Erst einmal ausprobieren – ein Wochenende nur mit
einem freien Reiseplaner planen und erleben, wie unabhängig Reisen
sich anfühlen kann.
Next Steps
Testen: KDE Itinerary, Öffi
oder Cartes direkt über die Website oder den
App-Store herunterladen und ausprobieren.
Entdecken: Die nächste Reise oder Route bewusst mit
einem dieser Tools planen, um die Funktionsweisen
kennenzulernen.
Vertiefen: Mitglied einer Community werden, die an
freien Reiseplanern arbeitet, und aktiv Erfahrungen oder Daten
beitragen – zum Beispiel bei Transitous oder OpenStreetMap.
Das Netz fühlte sich einst an wie ein offener Spielplatz für
alle Menschen: für Ideen, Austausch und Neugier. Heute gleicht es
eher einem Shoppingcenter mit Überwachungskameras, Hausrecht und
Dauerbeschallung. Während die Anzahl der Websites explodiert ist,
schrumpft unsere tatsächliche Freiheit online. Der Grund: Eine
Handvoll Big-Tech-Konzerne kontrolliert einen Großteil des
digitalen Raums und damit die Entwicklung unserer Gesellschaft.
Wer sichtbar sein will, muss zahlen. Wer teilnehmen will, gibt
Daten ab. Und wer glaubt, selbst zu entscheiden, was sie/er sieht,
unterschätzt die Macht unsichtbarer Algorithmen. Genau hier setzt
die Initiative Save Social an – und ruft mit dem Digital
Independence Day (DI.DAY) zur digitalen Selbstbefreiung
auf!
Die Aktion wir von insgesamt 41 Organisationen unterstützt,
darunter Wikimedia Deutschland.
Digitale Unabhängigkeit mit
Schritt für Schritt-Anleitung
Der DI.DAY ist kein einmaliger Aktionstag, sondern ein
monatliches Ritual. An jedem ersten Sonntag im Monat sollen
Menschen und Organisationen bewusst von profitorientierten
Plattformen zu freien Alternativen wechseln. Heute die Plattform X
verlassen und zu Mastodon gehen, morgen WhatsApp gegen Signal
tauschen, übermorgen Gmail durch einen datenschutzfreundlichen
Mailanbieter ersetzen.
Auf der Webseite stellt die Initiative sogenannte
Wechselrezepte bereit: einfache, alltagstaugliche
Schritt-für-Schritt-Anleitungen zum Wechseln von Messenger,
Browser, E-Mail und mehr. Laut Save Social gibt es nämlich mehr als
genug Alternativen, die nur deshalb nicht sichtbar sind, weil die
Big-Tech-Angebote so überpräsent sind. Ergänzt wird das Angebot
durch Workshops und Veranstaltungen, online wie offline.
So sollen jeden Monat immer mehr Menschen und Organisationen von
profitorientierten zu gemeinwohlorientierten Alternativen
wechseln. Wer den Umzug vollzogen hat, sagt mit dem Hashtag #DIDit
in den eigenen sozialen Netzwerken Bescheid – und zieht andere nach
und nach mit. So retten wir unsere digitale Freiheit und unsere
Demokratie.
Breite Unterstützung – und
politischer Druck
Der DI.DAY wurde Ende 2025 auf dem Chaos Communication Congress
von Autor Marc-Uwe Kling vorgestellt, der
die Initiative auch konzeptionell mitentwickelt hat. Kling
kritisiert seit Längerem, dass Plattformen wie X oder Facebook
zunehmend steuern, wie Menschen Wirklichkeit wahrnehmen. In einem
Beitrag der Tagesschau macht er
deutlich, wie massiv Demokratie und Freiheit dadurch unter Druck
geraten – und warum es höchste Zeit ist, sich aus dieser „Umarmung“
zu lösen.
Screenshot Tagesschau
Autor
Marc-Uwe Kling (links) und CCC-Sprecher Linus Neumann (rechts) sind
Unterstützer von Save Social und der DI.DAY Initiative.
Getragen wird die Initiative von einem beeindruckend breiten
Bündnis. Dazu gehören unter anderem Wikimedia Deutschland, der
Chaos Computer Club, Ecosia, die Digitale Gesellschaft, Robin Wood,
Nextcloud, ver.di Hamburg sowie viele weitere Organisationen aus
der Zivilgesellschaft. Diese Vielfalt zeigt: Digitale
Unabhängigkeit ist kein Nischenthema.
Passend dazu haben bereits über 155.000 Menschen eine Petition von Save Social
unterzeichnet, die den Abschied der Bundesregierung von der
Plattform X fordert. Franziska Heine, Vorständin von Wikimedia
Deutschland, bringt es zum Start des DI.DAY mit einem Augenzwinkern
auf den Punkt:
„Weil digitale Unabhängigkeit für jede und jeden wichtiger denn
je ist, haben wir dem Bundeskanzler zu Weihnachten einen
Mastodon-Account geschenkt. Das könnt ihr auch – schenkt euch
selbst, den Nachbarn oder der Oma ein Stück Freiheit und digitale
Selbstbestimmung!“
Digitale Selbstbestimmung:
Endlich unabhängig von Big Tech
Viele von uns greifen im Alltag auf Software großer
Tech-Konzerne zurück. Sie ist bequem, gut gestaltet und
funktioniert meist problemlos – doch häufig zahlen wir dafür mit
unseren Daten, intransparenten Algorithmen und fehlender Kontrolle
durch Zwangsupdates. Wer digital selbstbestimmt bleiben möchte,
kann auf Freie Software setzen. In einer Blogreihe zeigen wir,
welche Alternativen es gibt – von Betriebssystemen über Browser und
Messenger bis hin zu Social Media.
Teil 1: Warum Freie Software
wichtig ist – und wie wir alle davon profitieren
Auf Platz eins der meistgelesenen Artikel in der
deutschsprachigen Wikipedia steht – wie in fast jedem Jahr – der
Nekrolog 2025, also die Übersicht
verstorbener Persönlichkeiten. Mehr als 4,6 Millionen Aufrufe
verzeichnete dieser Artikel, der Jahr für Jahr aktualisiert wird.
Zwischen bekannten Namen finden sich dort auch viele rote Links –
sie zeigen biographische Einträge, die es noch nicht gibt. Was
immer ein Hinweis darauf ist, wie viel Wissen in der Wikipedia noch
entstehen kann.
Von der Bundestagswahl bis zur
Weltpolitik: 2025 war ein politisches Jahr
Das politische Interesse prägte die Wikipedia-Nutzung 2025
besonders stark. Unter den Top 20 finden sich gleich mehrere
Politiker*innen: Neben Alice Weidel und Friedrich Merz stießen auch die Artikel zu
Heidi Reichinnek (Platz 14),
Lars Klingbeil (Platz 17) und
Julia Klöckner (Platz 20) auf großes
Interesse. Auch zur Bundestagswahl 2025 (Platz 19) informierten
sich viele Lesende auf Wikipedia, was die fast 1,8 Millionen
Aufrufe des Artikels bestätigen, genauso wie zur Chronik des russischen Überfalls auf
die Ukraine ab 2025 (Platz 32). Auch internationale
Akteur*innen wie Elon Musk (Platz 7), Donald Trump (Platz 8) oder JD Vance, der neue US-Vizepräsident (Platz 24),
bleiben viel gesuchte Namen.
Diese Zahlen zeigen, wie stark Wikipedia als Nachschlagewerk für
politische Orientierung dient: Ob bei aktuellen Wahlen, Kriegen
oder politischen Debatten – viele Menschen suchen in der freien
Online-Enzyklopädie nach belegten Fakten statt Schlagzeilen.
Wie Wikipedia über digitale
Trends informiert
Dass der Artikel zu ChatGPT mit über 3,9 Millionen Aufrufen auf Platz zwei
der Top 100 landet, überrascht nicht. Kaum ein Thema hat die
Diskussionen des vergangenen Jahres über Technik und Bildung so
bestimmt wie der Umgang mit generativer KI. Die Wikipedia dient
hier oftmals als Kompass: Menschen suchen nach einer verlässlichen
Einordnung, wie künstliche Intelligenz funktioniert – und was sie
für den Alltag bedeutet.
Einen anderen Nerv traf der Artikel zum US-amerikanischen Mörder
Ed Gein auf Platz sechs. Das Interesse an
wahren Kriminalfällen, sogenannten „True Crime“, bleibt groß. Die
hohe mobile Nutzung des Artikels (über 90 %) zeigt zudem:
Wikipedia-Wissen wird heute oft und gern unterwegs konsumiert.
Sportlich lasen Viele (Platz 16) über die Fußball-Weltmeisterschaft 2026 –
schon im Jahr vor dem Großereignis verzeichnete der Artikel fast
zwei Millionen Aufrufe.
Der tragische Tod der Biathletin Laura Dahlmeier bewegte 2025 viele Menschen –
erkennbar auch daran, dass der Artikel über sie 2,3 Millionen Mal
aufgerufen wurde und damit Platz 10 der meistgelesenen Artikel
ist.
Zeitlose Themen in der
Wikipedia
Neben aktuellen Themen wie der Papstwahl im letzten Jahr (die
neben der Liste der Päpste auf Platz 15 den
Artikel über Leo XIV. auf Platz 9 brachte)
enthält die Liste der meistgelesenen Artikel auch Klassiker: Das
Interesse an geschichtlichen Artikeln ist gleichbleibend hoch. Die
Artikel zu Adolf Hitler (Platz 30) oder dem
Zweiten Weltkrieg (Platz 86) gehören
weiterhin zu den meistgelesenen Einträgen.
Was die Liste der meistgelesenen
Artikel verrät
Die Liste der meistgelesenen Wikipedia-Artikel 2025 zeigt mehr
als nur, was im vergangenen Jahr im Fokus der öffentlichen
Aufmerksamkeit stand – sie gibt Einblick darin, wie Menschen Wissen
suchen, teilen und gemeinsam bewahren.
Denn: Hinter jedem Artikel auf dieser Liste stehen Menschen, die
sich täglich für Freies Wissen einsetzen – Ehrenamtliche, die Texte
überarbeiten, Quellen prüfen oder neue Themen anlegen. Rund 18.000
Bearbeitungen der 100 meistgelesenen Artikeln des Jahres belegen,
wie lebendig diese Arbeit an der Wikipedia ist.
Doch Freies Wissen braucht stetig neue Impulse. Wir alle können
dazu beitragen, dass Inhalte aktuell, ausgewogen und zugänglich
bleiben – sei es durch kleine Korrekturen, Recherchen oder den
ersten eigenen Artikel. Wichtig ist dabei: Alles muss mit seriösen
Quellen belegt und sachlich und neutral dargestellt sein.
Das Tool Pageviews wertet zahlreiche
Daten zur Wikipedia-Nutzung aus. Darunter auch die tausend
monatlich am häufigsten aufgerufenen Artikel oder die pro Jahr am
häufigsten aufgerufenen Artikel. Für die Rangliste wurden
ausschließlich Wikipedia-Artikel zu Themen berücksichtigt, nach
denen Menschen gesucht haben – also nicht die Hauptseite der
Wikipedia oder die Wikipedia-Suche-Seite. Auch sogenannte falsche Positive oder Aufrufe, die
durch Bots, SEO-Maßnahmen oder spezielle Verlinkungen zustande
gekommen sind, wurden ausgeschlossen.
Die Idee des Digital Independence Day: Jeden Monat sollen immer
mehr Menschen und Organisationen von einer profitorientierten, zu
einer offenen und gemeinwohlorientierten Alternative wechseln. Wer
den Umzug vollzogen hat, gibt den Freunden, der Kita-Gruppe oderder
Arbeitskollegin mit dem Hashtag #DIDit Bescheid – und zieht so
immer mehr Menschen mit! An jedem ersten Sonntag im Monat machen
wir gemeinsam einen Schritt auf die bessere Seite des Netzes.
Immer wieder beeindruckend: Es sind tausende Ehrenamtliche, die
das Kongresszentrum Hamburg in ein offenes Haus für die rund 16.000
Teilnehmenden verwandeln, die sich zu aktuellen technologischen und
digitalpolitischen Entwicklungen austauschen wollen. Beim CCC wird
der nicht-kommerzielle Anspruch tatsächlich gelebt. Jedes Jahr Ende
Dezember wird das Congress Centrum in Hamburg zu einemfast
magischen Ort – voller kleiner sogenannter Habitate von und für
unterschiedliche Interessengruppen.
Eines dieser Habitate war in diesem Jahr das Free Knowledge Habitat. Organisiert vor allem
von Wikimedia Deutschland, temporärhaus, Code for
Germany, Frag den Staat und weiteren Akteur*innen aus
der Welt des Freien Wissens.In unseremVortrags- und
Workshop-Bereich gab es Einführungen und Talks zu offenen Daten,
Wikidata, internationaler Digitalpolitik und viel Raum für
Austausch zu unserem politischen Engagement für Freies Wissen.
Der Congress bietet eine bunte Mischung aus Themen: von
Informationsfreiheit, IT-Sicherheit und Freier Software bis hin zu
kreativen Hacks und ungewöhnlichen Nutzungen von Technik, die so
garantiert nicht im Handbuch stehen. Besonders viel Spaß machen die
praktischen Hacks und Spielereien, die man in entspannter
Atmosphäre gemeinsam ausprobiert. Künstler*innen bringen Musik,
Installationen oder Skulpturen mit und erschaffen so ihr ganz
eigenes, temporäres Utopia. Dabei entsteht ein Gefühl dafür, dass
andere Welten möglich sind: Orte, an denen Ungerechtigkeiten
hinterfragt werden und gemeinsam an besseren Zukünften gebastelt
wird. Alle können sich mit dem einbringen, was sie können
Jedes Jahr dürfen wir am 1. Januar einen neuen Schatz an
neu gemeinfrei gewordenen Werken heben – für die Communitys der
Wikipedia und ihrer Schwesterprojekte können dann neue Inhalte ohne
Beschränkungen online verfügbar gemacht werden. Manchmal sind das
ikonische Bilder, wie 2025
die Gemälde von Henri Matisses, manchmal alte Fotos und
manchmal Musik, wie 2024
die Jazz-Standards von Django Reinhardt.
In diesem Jahr feiern wir am Tag der Gemeinfreiheit (Public Domain Day)
einen großen Schriftsteller und einen bahnbrechenden
Wissenschaftler: die beiden deutschen Nobelpreisträger Thomas Mann
und Albert Einstein. Beide flohen vor den Nazis in die Vereinigten
Staaten und hinterließen nach ihrem Tod 1955 jeweils ein gewaltiges
Oeuvre: Von Thomas Mann sind die Romane
Buddenbrooks und Der Zauberberg sowie die Erzählungen
Tonio Kröger und Der Tod in Venedig zu nennen.
Albert Einsteins wichtigste
Veröffentlichungen Zur Elektrodynamik bewegter Körper und
die Allgemeine Relativitätstheorie haben wohl ungleich
weniger Menschen selbst gelesen, aber
E = m·c2 – die darin enthaltene Formel von
der Äquivalenz von Masse und Energie – kennt heute wirklich
jeder.
Warum vor allem freie
Wissensprojekte vom Gemeinfreiheit profitieren
Für die Wikipedia ist der Ablauf der Urheberrechte an diesen
Werken in diesem Fall tatsächlich kein so besonderes Ereignis: Denn
sowohl eine physikalische Formel als auch die
Inhaltsangabe eines Romans sind vom Urheberrecht gar nicht
erfasst – in der Wikipedia war dieses Wissen also auch bisher schon
zu finden. Wer aber heute profitiert, sind andere Projekte, die
Freie Inhalte in der Originalfassung erschließen und
nachnutzbar machen: Zu nennen ist einerseits das
Wikipedia-Schwesterprojekt Wikisource oder das einen ähnlichen Ansatz verfolgende
Plattform Project Gutenberg. Dort kann ab heute die
ehrenamtliche Wissens-Community grundlegende physikalische
Abhandlungen oder literarisch anspruchsvolle Erzählungen im
ursprünglichen Volltext abrufbar machen.
Es gibt also viele Möglichkeiten, den heutigen Tag der
Gemeinfreiheit zu feiern: Entweder man schmökert in den jetzt ohne
urheberrechtliche Beschränkungen nutzbaren Original-Werken Thomas
Manns, Albert Einstein, oder man sieht sich erst einmal die etwas
zugänglicheren Erläuterungen in der Wikipedia an – viel Spaß dabei!
Eine ausführliche Liste der ab heute gemeinfreien Werke findet
sich, natürlich, in der Wikipedia.
Lukas Mezger ist Wikipedianer und Rechtsanwalt. Bis 2022 war er
Vorsitzender des Präsidiums von Wikimedia Deutschland.
Wie Wiki Loves-Wettbewerbe
Freies Wissen sichtbar machen
Jedes Jahr halten Profi- und Hobbyfotograf*innen weltweit Wissen
in Bildern fest und reichen ihre Aufnahmen bei den „Wiki
Loves“-Wettbewerbe ein. Diese zeigen eindrucksvoll, wie vielfältig
und wertvoll das Engagement für freies Wissen ist. Die Fotos machen
Geschichte, Natur und Kultur sichtbar und bewahren, was oft vom
Verschwinden bedroht ist. Dafür gebührt allen Teilnehmenden großer
Dank.
Bei Wiki Loves Monuments stehen Kultur- und Baudenkmäler im
Fokus, bei Wiki Loves Earth die Natur und bei Wiki Loves Folklore
Bräuche und Traditionen. Die Fotos werden unter freier Lizenz
auf Wikimedia Commons hochgeladen
und können damit nicht nur von uns allen frei genutzt werden,
sondern bereichern vor allem etliche Wikipedia-Artikel. In diesem
Jahr kamen bei den drei Wettbewerben mehr als 380.000 Fotos aus 57
Ländern zusammen.
Feierliche Preisverleihung in
Berlin
Mit dem Abspielen des Videos erklären Sie sich damit
einverstanden, dass YouTube und Google Ihre Daten speichern und
verarbeiten dürfen. Bitte beachten Sie die Datenschutzerklärung von Google.
Im Dezember 2025 ehrte Wikimedia Deutschland die Erstplatzierten
der deutschen Wettbewerbe. Die Veranstaltung machte deutlich, wie
sehr das Engagement der ehrenamtlichen Fotograf*innen auch über die
Wiki-Community hinaus anerkannt wird.
Wiki Loves Monuments
Wiki Loves Monuments (WLM) ist der größte und
älteste Fotowettbewerb der Wiki-Community. Im Mittelpunkt stehen
Fotos von Kultur- und Baudenkmälern – von Schlössern über Kirchen
bis hin zu Brücken und Monumenten. In diesem Jahr haben sich 57
Länder an der Wettbewerbsrunde beteiligt – insgesamt wurden über
230.000 Fotos unter freier Lizenz eingereicht. Die meisten kamen
aus der Ukraine, Polen und Italien. Aus Deutschland wurden mehr als
14.000 Bilder auf Wikimedia Commons hochgeladen.
Hier kommen die Top 5-Gewinnerbilder aus Deutschland. Alle
weiteren ausgezeichneten Fotos finden Sie hier.
5.
Platz: Dieses Bild von Reinhold Möller zeigt den U-Bahnhof
Wittenbergplatz in Berlin-Schöneberg.
Sonderpreis
Bauernhöfe
Auch in diesem Jahr hat Wiki Loves Monuments Deutschland wieder
einen Sonderpreis ausgelobt. Neben dem regulären Wettbewerb wurden
zusätzlich die drei besten Fotografien von Bauernhäusern und
Bauerngehöften prämiert. Denn es gibt zahlreiche Bauernhöfe in den
Denkmallisten der Wikipedia, aber noch viel zu wenige Bilder dazu.
Das sind die Gewinnerbilder:
Dieses
Bild von User:R.kaelcke zeigt den Schwarzwaldhof Raben 8 in
Furtwangen im Schwarzwald-Baar-Kreis.
Wiki Loves Earth
Wiki Loves Earth (WLE) ist ein weltweit
ausgerichteter Fotowettbewerb, der den Fokus auf den Erhalt und die
visuelle Erfassung des Natur- und Landschaftserbes legt. Ziel des
Wettbewerbs ist es, das öffentliche Bewusstsein für die Bedeutung
von Schutzgebieten und Naturdenkmälern zu stärken und gleichzeitig
eine frei zugängliche, umfassende Bildsammlung auf Wikimedia
Commons aufzubauen.
Die internationalen
Gewinnerbilder
Mit 57 teilnehmenden Ländern und Gebieten wurde in diesem Jahr
ein neuer Rekord erreicht. Insgesamt gingen rund 80.000
Einsendungen von mehr als 5.200 Teilnehmenden aus aller Welt
ein.
Wir zeigen jeweils drei ausgezeichnete Makro- und
Landschaftsaufnahmen. Besonders schön: Unter den internationalen
Gewinnerbildern sind auch zwei Fotos aus Deutschland.
Zweiter
Platz in der Kategorie „Landschaftsaufnahmen”: Das Foto zeigt die
Auswirkungen des Klimawandels, nämlich den Anstieg des
Atlantikpegels, durch den immer mehr Regionen überflutet werden,
die früher von Mangrovenwäldern auf der Insel Ilha do Cardoso
bedeckt waren.
Der
dritte Platz in der Kategorie Makroaufnahmen kommt aus Deutschland
und zeigt einen Wiedehopf bei der Futterübergabe im
Landschaftsschutzgebiet „Mittlere Elbe-Steckby”.
3.
Platz: Weibliches Grünes Heupferd (Tettigonia viridissima) im
Naturpark Rhein-Taunus.
Sonderpreis
Biodiversität
Der Begriff Geodiversität bezeichnet die Vielfalt geologischer,
geomorphologischer, pedologischer und hydrologischer Merkmale und
Prozesse. Zusammen mit der Biodiversität bildet sie die natürliche
Vielfalt der Erde. Um ihre Bedeutung zu betonen, hat die UNESCO den
6. Oktober zum Tag der Geodiversität erklärt. In diesem Jahr hat
Wiki Loves Earth das Thema aufgegriffen und Sonderpreise in der Kategorie
„Geodiversität” vergeben.
Bei Wiki Loves Folklore dreht sich alles um
lebende und gelebte Traditionen, z. B. Feste, Aufführungen, Tänze,
Musiktradition, Bräuche, Spiele, Küche, Handwerk, Tracht, Märchen
und Sagen. Der jüngste der großen Fotowettbewerbe hat dieses Jahr
wieder seinen eigenen Rekord geknackt: International wurden 2025
doppelt so viele Fotos hochgeladen wie im Vorjahr.
Die internationalen
Gewinnerbilder
Über 72.000 Bilder wurden 2025 weltweit bei Wiki Loves Folklore
eingereicht. Hier sind die bestplatzierten aus dem internationalen Wettbewerb:
3.
Platz: Mitglieder der Alt-Schlierseer Trachtengruppe beim Rudern
auf zwei Plätten von Fischhausen nach Schliersee, Bayern, im Jahr
2024.
Wikimedia Commons frei
nutzen
Alle Fotos der Wiki Loves-Wettbewerbe werden auf Wikimedia
Commons hochgeladen – der weltweit größten Sammlung freier Medien.
Dort stehen mittlerweile über 125 Millionen gemeinfreie und frei
lizenzierte Fotos, Audio- und Videodateien zur Verfügung. Und das
Beste daran: Diese Inhalte können nicht nur in alle Wiki-Projekte
eingebunden, sondern auch jederzeit und überall genutzt werden. Wie
Sie auf Wikimedia Commons nach Bildern suchen, erfahren Sie
hier.
Bezahltes Schreiben im PR-Auftrag in der Wikipedia, ist ein
Thema, das mich und die Wikipedia-Community seit einigen Jahren
umtreibt. Das Thema wabert seit etwa 2010 durch die Wikipedia, mal
intensiver und mal weniger intensiv diskutiert; mal mit Skandal und
mal ohne. Aber wenn man sich, ganz ohne Insiderkenntnisse, einfach
mal durch Wikipedia-Artikel lebender Personen clickt (sei es in der
deutschen Ausgabe oder der englischen): normalerweise riecht man
die gekauften und geschönten Artikel 500 Kilobyte gegen den Wind.
Die peinlichen PR-Artikel: weil auch die siebte Teilnahme am
Rettet-die-Bergdackel-Benefiz-Gala-Dinner getreulich unter dem
Punkt „gesellschaftliches Engagement“ gelistet wird. Die weniger
peinlichen PR-Artikel: weil sie so nichtssagend sind.
Wie lange das Problem existiert und wie sehr es schon vor vielen
Jahren auffiel, wurde mir letztens beim lesen gewahr. Es war ein
Fantasy-Crime Roman – komplett fiktiv, mit vagen Bezugspunkten zu
unserer Welt. Und selbst dort kommt Wikipedia-PR-Schreiben vor. Es
geht um „Moon over Soho“ von Ben Aaronovitch. Erstmal erschienen
2012 bringt es der Roman auf den Punkt:
Auf deutsch etwa:
„Die Reichen, vorausgesetzt sie vermeiden Prominenz, können
etwas Unternehmen um ihre Anonymität zu bewahren. Lady Tys
Wikipedia-Artikel las sich als wäre sie von einem PR-Schreiber
verfasst worden, denn zweifellos hatte Lady Ty einen PR-Schreiber
beschäftigt, um sicherzustellen, dass die Seite ihren Vorstellungen
entsprach. Oder wahrscheinlicher: Einer ihrer „Leute“ hatte eine
PR-Agentur beauftragt, die einen Freelancer beschäftigt hatte, der
das in einer halben Stunde runtergeschrieben hatte, damit er sich
schneller wieder auf den Roman konzentrieren konnte, den er grade
schrieb. Der Artikel gab preis, dass Lady Ty verheiratet war, zu
nicht weniger als einem Bauingenieur, dass sie zwei schöne Kinder
hatten von denen der Junge 18 Jahre alt war. Alt genug um Auto zu
fahren aber jung genug um noch zu Hause zu wohnen.“
Diese Beschreibung trifft auch zehn Jahre später auf einen
Großteil aller PR-Artikel zu. Schnell und lieblos, aber
professionell gemacht. Oft genug mit Versatzstücken aus anderen
Werbematerialien; zu unauffällig, um jemand ernstlich zu stören.
Aber auch zu nichtssagend, um der Leser*in auch nur den geringsten
Mehrwert zu bieten.
Damit hat ein Roman-Autor, der selber kein aktives Mitglied der
Wikipedia-Community ist, die PR-Problematik schon im Jahr 2012
richtiger eingeschätzt als ein relevanter Teil der diskutierenden
Community im Jahr 2022.
(Und Randbemerkung: die Community rächte sich, indem sie
Aaronovitchs Autoren-Artikel mit einem unvorteilhaften Autorenfoto
versah – no PR-flack weit und breit war hier unterwegs.)
Von einer anderen Form des beeinflussten Schreibens erfuhr ich
heute beim Mittagsessen. In immer mehr autoritären Regimes scheint
es vorzukommen, dass einzelne Wikipedia-Autor*innen, die in dem
jeweiligen Land leben, einen Anruf oder einen Besuch bekommen. Mit
dem freundlichen Tipp, doch den ein oder anderen Artikel zu
„verbessern“ sonst.. Das ist natürlich noch raffinierter: Einfach
einen etablierten Nutzer und dessen Vertrauensvorschuss nehmen und
in dieser Tarnung PR-Edits durchführen.
Menschen können auf der Wikipedia:Auskunft
Fragen an die Wikipedia richten. Die Fragen sind mal banal, mal
lehrreich, und manchmal hohe Poesie. Daran solltet ihr
teilhaben.
Ich stelle mich auf, Brust nach vorne, Kinn nach oben, räuspere
mich noch einmal und deklamiere:
Wir waren dieses Jahr mit WikiAhoi wieder bei der SMWCon dabei. Die
Konferenz zu Semantic MediaWiki findet zweimal pro Jahr statt, im
Frühling in Nordamerika und im Herbst in Europa. Letztes Jahr waren
wir schon in Wien dabei und dieses Jahr gings ins
herbstlich-sonnige Barcelona. In freundlicher, persönlicher
Atmosphäre wurden technische Neuigkeiten, innovative Projekte und
besondere Anwendungsfälle besprochen. Wir möchten Sie an den
wichtigsten Neuerungen teilhaben lassen.
Neuigkeiten aus der Semantic MediaWiki-Welt
Semantic
Forms (Version 3.4 September 2015) hat sich
mittlerweile als eigenständige Erweiterung etabliert und ist nun
technisch nicht mehr von der Grunderweiterung Semantic MediaWiki
abhängig. Weitere wichtige Änderungen:
Statt den Spezialattributen werden nun ParserFunctions
eingesetzt.
Kartenbasierte Eingabeformate (Google Maps, Open Layers) sind
nun möglich – diese werden nur eingesetzt, wenn Semantic Maps nicht
vorhanden ist.
Weiters wird nun Cargo unterstützt, es
lassen sich in Formularen auch Eingabeformate und die
Autovervollständigungsfunktion aus Cargo nutzen.
Dazu kann man nun auch „mapping“-Werte hinterlegen, das sind
andere Werte, als auf der Seite angezeigt werden.
Ein neuer Parameter erlaubt es, nur einzigartige Werte
speichern zu lassen.
Alle roten Links können nun mit einer einzelnen Einstellung auf
eine Formularauswahlliste weitergeleitet werden.
Die MediaWiki Stakeholder’s
Group nahm die Konferenz zum Anlass, um weitere
Schritte zu besprechen: Ziel der Gruppe ist die Koordination und
die Kommunikation mit Wiki-Nutzern in Unternehmen, die
Unterstützung von Entwicklern und Administratoren und die
offizielle Kommunikation mit der Wikimedia Foundation. Wikipedia hat etwas
andere Ziele als einzelne Drittnutzer der Software MediaWiki. Es
geht also stark darum, die Interessen der Nutzer von Wiki in
Unternehmen zu vertreten und in der Weiterentwicklung der
Software voranzutreiben.
Interessante neue
semantischeErweiterungen
gibt es zu Breadcrumbs, Zitaten, Sprachenlinks und
Metatags:
Semantic Breadcrumb
Links – mittels Attributen können Breadcrumbs erstellt
werden, die eine Hierarchie erzeugen, ohne Unterseiten erstellen zu
müssen.
Semantic Cite – unabhängig
von der Cite
Erweiterung, ermöglicht das seitenübergreifende Verwenden von
Zitaten und eine automatische/manuelle Quellenliste.
Semantic
Interlanguage Links – automatische Sprachanzeigen (gibt es
diese Seite in anderen Sprachen?) in Wikis mit Interwikis.
Und warum „eine Konferenz mit Folgen“? Diese Konferenz hat
Folgen auf mehreren Ebenen: Wir haben persönliche Kontakte für
Zusammenarbeit und Austausch geknüpft, es wurden Ideen
beflügelt und Inspirationen für neue Projekte ausgetauscht,
die Motivation wieder gestärkt, das Projekt MediaWiki als Ganzes
voranzubringen und nicht zuletzt viele Features und
Software-Änderungen besprochen, die in der Regel meist recht
schnell umgesetzt werden. Die Konferenz war somit ein voller
Erfolg.
Die Konferenz fand von 28.–30.10.2015 in Barcelona statt, in der
schönen Fabra
i Coats Kunstfabrik im Stadtteil Sant Andreu. Knappe 40
Teilnehmer nahmen an einem Tutorial- und zwei Konferenztagen
teil.
Die deutschsprachige Wikipedia-Community versucht wieder einmal,
die Regeln zum bezahlten Schreiben zu verschärfen. Das Thema wabert
ungelöst seit Jahren durch das Wikiversum. Und auch dieses
Meinungsbild ist ein notwendiger Schritt voran. Aber der Weg ist
noch weit. Der beste Kommentar meinerseits wäre die Komposition
eines Quartetts für Singende Säge, Bassdrum, Cembalo und
Spottdrossel.
Aber ich kann nicht komponieren. Deshalb kommt das Nächstbeste:
ein Gedicht.
Wikipredia
Die Regeln existieren und doch
nicht nach Mondstand
Die Ethik absolut seit
Anbeginn nein denn ja
Die Praxis gesperrt verworfen
gelöscht freigeschaltet
Wikipredia Darwinismus der
Agenturen Überleben des
Dreistesten
Darmstädter Madonna
Hans Holbein der Jüngere, 1526/1528
Öl auf Nadelholz (?), 146,5 × 102 cm
Sammlung Würth, Johanniterhalle (Schwäbisch Hall)
Wikipedia-KNORKEerwähnte ich ja an
dieser Stelle schon einmal. Berliner Wikipedianerinnen und
Wikipedianer treffen sich und erkunden zusammen eine ihnen
unbekannte Gegend. Soweit so üblich. Diesmal jedoch gab es etwas
besonderes: Auf ins Museum!
In Berlin gastiert gerade die Darmstädter
Madonna, ein 1526 entstandenes Gemälde von Hans Holbeim dem
Jüngeren. Diese Madonna hat eine bewegte Lebens- und
Reisegeschichte, ist eines der bedeutendsten deutschen Gemälde des
16. Jahrhunderts und kann Menschen auch über Jahre faszinieren.
Wunderbar, wenn man eine kundige Bilderklärung der Autorin des
exzellenten Wikipedia-Artikels dazu bekommt.
Wir trafen uns einige Minuten vor der Öffnung in kleiner Gruppe vor
dem Bode-Museum und konnten - da alle Anwesenden über eine
Jahreskarte verfügten - auch sofort zur Madonna und zur
Sonderausstellung "Holbein
in Berlin" begeben. Der Raum war noch leer, die
Museumswachmannschaft ließ freundlicherweise die leise aber
engagiert redende Gruppe gewähren. Ein einziger Saal, in dessen
Mittelpunkt die Madonna hängt. Links davon einige
Holbein-Teppiche, ansonsten weitere Bilder und Zeichnungen von
Holbein, Inspiratoren und andere Madonnen. Nicht überladen,
sinnvoll aufbereitet und mit einem klaren Konzept - eine der
besseren Kunstausstellungen.
Und dann ging es los: Es begann mit Schilderungen von der bewegten
Entstehungszeit zur Zeit des Basler Bildersturms im Auftrag des
Basler Ex-Bürgermeisters Jakob Meyer zum Hasen. Die Aussage des
Bildes traditioneller Marienfrömmigkeit in Zeiten der Reformation
war Thema, ebenso natürlich wie der Teppich und seine Falte. Wir
staunten über die Eigentümlichkeit, dass sich niemand auf dem
Gemälde eigentlich anschaut und wurden über dden Unterschied
zwischen Schutzmantelmadonnen und Stifterbildern aufgeklärt.
Vermutungen tauchten auf, wo das Bild wohl im Original hing -
vermutlich in der Martinskirche
als Epitaph - und wir verfolgten gedanklich seine Wanderung aus
Basel über den Grünen Salon im Berliner Stadtschloss bis hin zum
Hause Hessen und das Frankfurter Städelmuseum bis hin zum
spektakulären Verkauf an die Privatsammlung Würth. Die Meinungen
über die Sammlung Würth in der Gruppe waren durchaus geteilt,
ebenso wie die richtige Benennung des Bildes: ist es nun eher die
Darmstädter Madonna oder eher die Madonna des
Bürgermeisters Jakob Meyer zum Hasen?
Über die Darmstädter Madonna ging es dann zur Dresdner Madonna und
einem der prägenden Momente deutscher Kunstgeschichte: dem Dresdner
Holbeinstreit. Im 19. Jahrhundert wurde es den Menschen
bewusst, dass es zwei fast identische Holbein-Madonnas gab und nur
eine die echte sein konnte. In einer großen Ausstellung, unter
lebhafter Anteilnahme der Öffentlichkeit und erregten Debatten der
Experten entschieden sich die Kunsthistoriker schließlich für das
Darmstädter Gemälde. Eine Sensation, da die Kunstkennerschaft
vorher felsenhaft von der Originalität des Dresdner Gemäldes
ausging. Hier zeigte sich erstmals das Bemühen, um eine rein
sachlich, objektive Abwägung der verschiedenen Gesichtspunkte - der
Dresdner Holbeinstreit ist einer der Ausgangspunkte um die
Kunstwissenschaft als Wissenschaft zu etablieren. Und - wie sich
später herausstellte - lag die Kunstwissenschaft auch in diesem
ihren Anfangsurteil richtig; sämtliche mittlerweile vorhandenen
naturwissenschaften Verfahren die Darmstädter Madonna als die
originale der beiden bestätigten.
Erkenntnisse am Rande: eine weitere Kopie des Gemäldes
(beziehungsweise eine Kopie der Kopie - es stellt aus
unerfindlichen Gründen das Dresdner Exemplar dar) hat sich in das
Set des James-Bond-Filmes "Man lebt nur zweimal verirrt".
Hans Holbein der Jüngere:
Bildnis des Danziger Hansekaufmanns Georg Gisze in London, 1532.
Eichenholz, 96,3 × 85,7 cm. Gemäldegalerie Dahlem der Staatlichen
Museen zu Berlin – Preussischer Kulturbesitz
Und nachdem wir dann auch noch gerätselt hatten, wer die beiden
Knaben unterhalb der Madonna sind, den verschwundenen Haaren der
Tochter nachspürten und weiter über den Teppich in der
Renaissancemalerei sinniert hatten, kamen wir dann nach knapp einer
Stunde noch zu Georg Giesze. Giesze (auch Georg Giese) ist
Titelheld in einem anderen Holein-Hauptwerk, das praktischerweise
fünf Meter weiter links hing. Wieder mit Teppich und nun auch noch
mit Glas, Metall, Bücherregalen und Briefen. Gedanklich begleitete
wir Holbein dann weiter von Basel nach Antwerpen und London.
Mittlerweile hatte sich der Raum etwas gefüllt. Nachdem wir dann
noch den Weg aus dem Museum gefunden hatte (wie immer im Bodemuseum
nicht ganz einfach und jedes mal findet man zwischendurch neue
Säle) folgte noch ein erschöpfter Abschlusskaffee.
Eine Stunde fast allein mit der Madonna. Und immer noch Neues zu
entdecken.
Über den Dächern, Türmen und Gasometern Westberlins senkte sich
die Abendsonne. Ich stand auf den Zinnen des Ullstein Castles und
sinnierte. Direkt unter mir Straßentreiben, Sirenen, betrunkene
Jugendliche, ein Ausflugsboot auf dem Teltowkanal, radelnde
Ausflügler überquerten die Stubenrauchbrücke.
In der Ferne betrachtete ich die Türme des
Spitzenlastheizkraftwerks Lichterfelde, der Sendeturm auf der
Marienhöhe, den BfA-Büroturm und den ehemaligen Wasserturm im
Naturpark Schöneberger Südgelände. Heute Nacht auf dem Heinweg:
Welchen Weg sollte ich wählen? Unten, im Süden, über den Prellerweg
vorbei am Sommerbad am Insulaner? Die Nordvariante über den
Tempelhofer Damm und durch die Kopfsteinpflaster Tempelhofs? Oder
die Mittelweg, mit Erklimmen der Höhe am Attilaplatz und später
über den Ikea-Parkplatz? So viel zu wählen.
Wahlen spukten in meinem Kopf herum. Da war die
Mitgliedsversammlung unseres Dauergartenvereins. Die
Vorstandswahlen dort sollten wahrscheinlich, hoffentlich,
unspektakulär verloren. Aber die Anträge. Wenn ein einzelnes
Mitglied auf einem A4-Blatt 40 verschiedene Anträge stellt, richtig
ernsthaft, dann verspricht das Unterhaltung.
Die Bundestagswahl: Auf dem Weg zum Ullstein Castle passierte
ich zahlreiche Bundestagstagswahlplakate: den unlesbaren Blob der
Grünen in Tarnfarbenoliv, die bildhaft dargestellte Biederkeit der
Berliner SPD, zahlreiche Kleinparteien von Team Tödenhöfer über
Volt bis zur Tierschutzpartei. Und so sehr es mich schmerzte das zu
sagen: Das Plakatgame gewannen bisher die CDU und ihr
Wahlkreiskandidat Jan-Marco Luczak. Sowohl optisch – als auch
damit, überhaupt inhaltliche Aussagen fern von Plattitüden zu
machen.
Vor allem aber war ich innerlich bei einer ganz anderen Wahl.
Die Wikimedia Foundation wählte und wählt ihr Board, auf Deutsch
das ehrenamtliche Präsidium der Wikimedia Stiftung. Die Wikipedia
steht meinem Herzen näher als der Bundestag und selbst als der
Dauergartenverein. Aber die Board-Wahlen erfordern merh Gedanken.
Diese Gedanken bedurften des Kontextes.
Was ist die Wikimedia Foundation?
Die Wikimedia
Foundation (WMF) ist die Betreiberin der Wikimedia-Projekte wie
zum Beispiel der Wikipedia aber auch Wikimedia Commons und
Wikidata. Die Foundation hostet die Server, stellt die Technik,
ist am Ende rechtlich dafür verantwortlich was in den Wikipedien
passiert. Dafür hat die Foundation derzeit etwa 450 Angestellte,
ein Endowment von 90
Millionen Dollar und hatte 2020 Jahreseinnahmen von 127 Millionen
US-Dollar.
Wo genau die Grenzen zwischen dem Einfluss der Wikimedia
Foundation und den Communities liegen, ist umstritten. Letztlich
kann die Foundation alles ändern und machen in den Projekten. Sie
ist meistens weise genug, es nicht zu tun. Insbesondere schreiben
keine Foundation-Mitarbeiter*innen in ihrer Arbeitszeit Artikel
oder legen Inhalte in den Projekten an.
Die Foundation ist eine Organisation eigener selbstgenügsamer
Vollkommenheit. Sie hat keine Mitglieder und ist – rechtlich –
niemand rechenschaftspflichtig. Das Board besetzt sich prinzipiell
aus sich selbst heraus. Es hat entschieden die Hälfte der Sitze
Wahlen der weltweiten Wikip/media-Communities besetzen zu lassen zu
lassen.
Das Board of Trustees ist das
ehrenamtliche Aufsichtsgremium der Foundation. Es hat derzeit 16
Sitze. Davon steht einer Jimmy Wales als Gründer zu, sieben Sitze
besetzt das Board selber, acht Sitze werden durch eine weltweite
Communitywahl bestimmt.
Nun ist allein aus den Worten „ehrenamtlich“ und „weltweit / 450
Mitarbeiter / 127 Millionen Dollar Einnahmen“ klar, dass das Board
eine abstrakte Leitungsposition einnimmt. Alleine, einen Überblick
über so eine Organisation zu behalten, ist eine Mammutaufgabe.
Dieser Organisation noch Vorgaben zu machen und sie in eine
bestimmte Richtung zu lenken, eine Herausforderung.
Die Gefahr, in Detailinformationen zu ertrinken oder sich
hoffnungslos im Alltagsgeschäft zu verfangen, ist groß. Seiner
Aufgabe nach, beaufsichtigt das Board, was die Vollzeitkräfte
machen und besetzt die Geschäftsführung.
Was zur Zeit ein besonderer Job ist: Die Geschäftsführerin der
Foundation Catherine Maher verschwand im April 2021 überraschend.
Der Posten ist seitdem unbesetzt. Ebenso wie sich die Chief
Operations Officer im Jahr 2021 verabschiedete, die Abteilungen
Communication und Technology auch niemand im Vorstand haben. Auf
dem Schiff besetzt nur eine Notbesatzung an Offizier*innen die
Brücke. Dem Board obliegt es derzeit, dieses Führungsvakuum schnell
und kompetent zu beenden.
Grundsätzlich sollte jede*r Kandidat*in zwei Kriterien
erfüllen. Sie sollte meine inhaltlichen Ziele teilen. Und sie
sollte in der Lage sein, sich in einem ehrenamtlichen Job gegen
eine komplette Organisation aus Vollzeitangestellten zu behaupten.
Oft genug stehen bei solch ehrenamtlichen Gremien Kandidat*nnen zur
Wahl, bei denen ich denke „Will Schlechtes, aber wird das
erreichen“ und „Will Gutes, ist aber planlos. Am Ende werden die
Hauptberuflichen machen was sie wollen. Oder es gibt Chaos.“
Angesichts der bewegten Zeiten, in denen wir leben; angesichts
der latenten Führungslosigkeit der Foundation derzeit, möchte ich
Kandidat*innen, die sich durchsetzen können. Kandidat*innen, die
nach Möglichkeit die US-Zentrik der Foundation aufbrechen können.
Ich möchte Kandidat*innen, die verstehen, dass Wikip/media keine
allgemeine Weltbeglückungsorganisation ist, sondern sehr
spezifische Sachen sehr gut durchführt – und andere überhaupt nicht
kann. Es bringt nichts, sich auf allgemeine Weltbeglückungsziele zu
stürzen, die weder die Foundation noch die Communities umsetzen
können.
Insgesamt stehen 19 Kandidat*innen zur Auswahl, die um vier
Plätze streiten. Dabei sind Wikimedia-Urgesteine ebenso wie
Newbies, viele Männer, mir auffallend viele Inder, viele
Kandidat*innen mit NGO-Hintergrund, kaum eine*r, der/die
fortgeschrittene IT-Kenntnisse hat.
Die Urgesteine
Dariusz
Jemielniak – Professor of Management,
daueraktiv auf allen Ebenen und vielleicht der einzige Mensch, der
intellektuell versteht wie Wikipedia funktioniert.
Rosie
Stephenson-Goodknight – WikiWomensGroup, Women
in red, you name it. Bei überraschend vielen der
Wikipmedia-Genderaktivitäten, die funktionieren, ist Rosie
Stephenson-Goodknight beteiligt.
Gerard Meijssen – gefühlt
war Gerard schon Wikipedianer bevor es Wikipedia gab. Vielleicht
der spannendste Autor des Meta-Wikiversums und ein Chaot.
Mike Peel – langjähriges
Mitglied des Funds Dissemantion Committees. (FDC) Hat bei mir in
der Rolle durchgehend einen schlechten Eindruck hinterlassen.
Ravishankar Ayyakkannu – Mr.
Tamil Wikipedia, der seinem Resumee zufolge seit 2005 in der
Community und mit externen Partnern (wie Wikipedia Zero, Google)
zusammenarbeitete. Gewinnt bei mir Diversitätspunkte, weil er nicht
nur aus dem Global South stammt, sondern auch Ausbildung und
Berufstätigkeit dort durchführte.
Lorenzo Losa –
Ex-Vorsitzender von Wikimedia Italia.
Farah Jack Mustaklem – Software Engineer,
einer der wenigen Kandidaten mit Ahnung von Software. Aktiv bei den
Wikimedians of the Levant und der Arabic language User Group. Mir
persönlich zu sehr USA-sozialisiert für eine Board-Mitgliedschaft,
andererseits sicher in jeder Hinsicht kompetent.
Douglas Ian Scott –
Präsident von Wikimedia South Africa, Organisator der Wikimania
2018 und einziger Kandidat, den ich dank eines langen Wartepause am
Kofferband irgendeines Wikimania-Flughafens persönlich besser
kennenlernte – und begeistert war.
Iván Martínez – langjährig
engagiert bei Wikimedia Mexiko, LGBTQ+-Aktivist und soweit ich
hörte, das Wikiversum Lateinamerika ist begeistert von ihm.
Pavan Santhosh Surampudi –
Community Manager at Quora. Versteht also vermutlich professionell
etwas von Communities.
Adam Wight – Programmierer,
Ex-Angestellter und WMF und WMDE und neben Gerard der Vertreter des
Ur-basisdemokratischen, selbstorganisierten und
Gegen-Informationsmonopole-Geistes des frühen Movements.
Vinicius Siqueira – in Wiki
Movimento Brasil
Newbies
Es kann sich hierbei um langjährige und erfahrene
Wikipedianer*innen handeln, die im kleinen Rahmen auch Projekte
oder Gruppen organisiert haben. Erfahrungen in oder mit größeren
Organisationen im Wikiversum fehlt vollkommen.
Lionel Scheepmans
Pascale Camus-Walter
Raavi Mohanty
Victoria Doronina
Eliane Dominique Yao
Ashwin Baindur
Wen werde ich wählen?
Leute, die sich durchsetzen können, und die auch die Grenzen des
Wikiversums sinnvoll einschätzen können. Perspektiven auf das
Leben, anders aussehen als „in US-NGOs sozialisiert“ werden
bevorzugt.
Die Top 4
Douglas Ian Scott
Iván Martínez
Adam Wight
Dariusz Jemielniak
Top 8
Rosie Stephenson-Goodknight
Lorenzo Losa
Farah Jack Mustaklem
Gerard Meijssen
Wählbar
Reda Kerbouche
Pavan Santhosh Surampudi
Ravishankar Ayyakkannu
Wer wird wählen
Es wählen alle Menschen, die vage aktive Accounts in einem
Wikimedia-Projekt haben. Die Bedingungen dafür sind niedrig
angesetzt. Für Autor*innen ist es nötig 300 Bearbeitungen zu haben,
kein Bot zu sein und höchstens in einem Projekt gesperrt zu sein.
Die Bedingungen für die Board-Wahlen sind somit einfacher zu
erfüllen als die Bedingungen zum Sichten in der deutschen
Wikipedia. Die Kriterien mussten am 5. Juli 2021 erfüllt sein. Es
hilft nicht, jetzt noch schnell zu editieren.
Das Wahlsystem
Es gilt das Präferenzwahlsystem.
Dieses wird weltweit von einschlägigen Fachleuten als besonders
fair bezeichnet. Es verzerrt den Wählerwillen weniger als viele
andere Wahlsysteme. Praktisch wird es allerdings nur selten
eingesetzt. Die bekannteste Wahl mit Präferenzwahl in letzter Zeit
war die Bürgermeister*in-Wahl in New York, New York.
Bei Wahlsystem nummeriert man „seine“ Kandidat*nnen nach
Präferenzen. Die beste Kandidatin bekommt eine Eins, der Kandidat
danach eine zwei und so weiter. Hält man keine Kandidatin mehr für
geeignet, hört man auf zu nummerieren.
Bei der Wahl werden in der ersten Runde alle Präferenzen mit „1“
gezählt. Ein Kandidat hat am wenigsten davon. Dieser scheidet aus.
Von allen „1“-Wählerinnen des Kandidaten werden nun die
„2“-Präferenzen seiner Wählerinnen auf die entsprechenden
weiteren Kandidaten verteilt. Und so weiter, bis nur noch so viele
Kandidatinnen übrig sind, wie es Plätze zu besetzen gilt.
Im ICE ist Deutschland. Der Zug fährt ein und hält. Das Schild am
Gleis behauptet tapfer „Zugdurchfahrt“. Die Türen lassen sich
öffnen. Am Zug steht nichts geschrieben, außer Wagennummern, die
nicht zu den Reservierungen passen. Das Publikum bleibt irritiert.
Etwa die Hälfte der Anwesenden geht in den Zug und bleibt im
Wageninnern ratlos stehen. Die andere Hälfte steht ratlos am
Bahnsteig.
Schließlich: Lichter gehen an. Der Zug verkündet mittels seiner
Anzeigen nun auch, nach Kassel zu fahren. Eine Frau
entschuldigt sich über die Lautsprecheranlage über die falschen
Wagennummern, man solle ich immer zehn wegdenken „Also 22 statt der
angezeigten 32.“
Ein Mensch mit re:publica-Bändchen am Arm verscheucht die ältere
Dame ohne Reservierung von seinem Platz und liest den gedruckten
Spiegel. Ich höre ein angeregtes Gespräch zwischen einem
Musicaldarsteller und einer Abteilungsleiterin im Innenministerium,
die sich gerade kennenlernen über, den relativen Wert von
Musikgymnasien in Berlin. Geht es noch deutscher?
Illustration aus
dem Buch ""Le tour du monde en quatre-vingts jours" Alphonse de
Neuville & Léon Benett
Passenderweise habe ich ein entsprechendes Buch mitgenommen. Nils
Minkmars „Mit dem Kopf durch die Welt.“ Das hat schon auf dem Cover
ein ICE-Fenster und geht der Frage nach, was Deutschland bewegt.
Minkmar lässt sich über deutsche Normalität aus. Der deutsche
Ingenieur, lange Jahrzehnte Sinnbild der Normalität, sei nicht mehr
normal. Minkmar erzählt aus seiner französisch-deutschen
Kindheit:
„Meine Mutter nannte dann immer eine
Berufsgruppe, die uns besonders fern war, nämlich les
ingenieurs. Wir waren in Deutschland […] und das ganze frisch
aufgebaute Land ruhte auf Säulen, die les ingenieurs
berechnet, gegossen und zum Schluss noch festgedübelt hatten. […]
Viele Jahre später sollte ich die Gelegenheit haben, diese seltene
Spezies besser studieren zu können. Sie saßen direkt hinter mir,
zwei ausgewachsene Exemplare: Ingenieure, Familienväter, auf der
Rückfahrt von einer Dienstreise. Sie plauderten über die sich
verändernden Zeiten. […] Fernsehen, Marken, Politiker, auf keinem
Gebiet fanden sich diese beiden braven Männer wieder, alles zu
grell und bunt, zu aufgeregt. Ihre spezifischen Werte und Tugenden,
Sorgfalt und diese stille Freude an der eigenen Biederkeit, das
alles war an den Rand gerückt. Ingenieure waren nun Exzentriker.
[…] Diese Männer fanden sich kulturell kaum zurecht.“
Wenn „der deutsche Ingenieur“ nicht mehr normal in Deutschland ist,
sind es jetzt Ministerialbeamtinnen und Musicaldarsteller?
Forschung Maschinenbau Braunschweig
Minkmar war noch nicht in Braunschweig. Oder Braunschweig ist nicht
normal. Da steige ich harmlos aus dem Zug und die Stadt schlägt mir
„Deutscher Ingenieur“ rechts und links um die Ohren. Braunschweig
hebt das Thema "autogerechte Stadt" in Höhen, die selbst mir als
gebürtigem Hannoveraner unerreichbar schienen.
Braunschweig.
Bahnhofsvorplatz.
VW ist daran beteiligt, ist klar in der Gegend. Aber nicht nur. Ich
wandelte also Freitagabend gegen 21 Uhr auf der Suche nach einem
Wegbier durch das verlassene Braunschweig, passierte die Stadthalle
und wurde prompt begrüßt mit „Tag des Maschinenbaus. Herzlich
Willkommen.“
Vor allem aber fiel mir bei diesem Wandeln auf, wie
unglaublich gepflegt diese Stadt aussieht. Ich erblickte
keine einzige Kippe auf dem Weg. Selbst die Großbaustelle, über die
irrte, wirkte irgendwie aufgeräumt. Viel verwunderlicher war, dass
selbst die in Braunschweig reichlich vorhandenen 1970er-Großbauten
gepflegt und sorgsam hergerichtet wirkten. Die Stadthalle selber,
offensichtlicher spät 1960er/früh 1970er-Stil wirkte besser
gepflegt als Berliner Gebäude nach zwei Jahren. Die Wege und Lampen
darum herum: offensichtlich keine zehn Jahre alt. Sie wirkten wie
frisch aus der Packung genommen.
Wegbier. In
Braunschweig nur schwerlich aufzutreiben, dann aber
stilgerecht,
Selbst die Schwimmbäder sind alle gepflegt(*), alle haben
gleichzeitig geöffnet und keines ist aus obskuren Gründen gesperrt.
Da spielt nicht nur bürgerschaftliches Engagement eine Rolle,
sondern offensichtlich ist auch Geld vorhanden.
Auf dem Hotelzimmer, noch so ein sehr gut gepflegter und
hergerichteter Bau, der einem „1970er!“ ästhetisch schon ins
Gesicht schreit, mit dem Hotel-Wlan (7 Tage, 7 Geräte) nachlesend,
wie das nun ist mit Braunschweig. Bekanntes taucht beim Nachlesen
auf: Die physikalische-technische Bundesanstalt mit der Atomuhr;
geahntes lese ich (Volkswagen – hey, das ist Niedersachsen und die
Technische Universität existiert ja auch) und nicht bekanntes:
„Im gesamten Europäischen Wirtschaftsraum
(EWR) verfügt die Region Braunschweig über die höchste
Wissenschaftlerdichte,[103] im bundesweiten Vergleich über eine
hohe Ingenieurquote[104] sowie über die höchste Intensität auf dem
Gebiet der Ausgaben für Forschung und Entwicklung. In der Region
Braunschweig arbeiten und forschen mehr als 16.000 Menschen aus
über 80 Ländern[105] in 27 Forschungseinrichtungen sowie 20.000
Beschäftigte in 250 Unternehmen der
Hochtechnologie[106]“
Dazu noch „Braunschweig ist die Stadt mit der niedrigsten
Verschuldung Deutschlands.“ Und nach einer obskuren EU-Rangliste
ist Braunschweig die innovationsfreudigste Region der EU vor
Westschweden und Stuttgart. Hier lebt der deutsche Ingenieur. Hier
lebt die deutsche Technik. Was für ein passender Ort für Jules
Verne.
Jules Verne
Jules Verne; französischer Erfolgsautor des 19. Jahrhunderts und
vor allem bekannt als "Vater der Science Fiction." Von seinem
vielfältigen Werk sind vor allem die Abenteuer-Techno-Knaller wie
Zwanzigtausend Meilen unter dem Meer, die Reise Von der
Erde zum Mond oder die Reise zum Mittelpunkt der Erde
bekannt. Wikipedia und die Deutsche Jules-Verne-Gesellschaft hatten
ein gemeinsames Wochenende organisiert mit einer Tagung zu Jules
Verne und Gesprächen zu Wikipedia.
Volker Dehs
bestreitet das halbe Programm
Jules Verne, mir vor allem bekannt durch vage Erinnerungen an den
1954er Nemo-Film, Weiß-orange Taschenbücher und einen blau
eingebunden Robur-Roman, der mich verstörte, weil er so anders war
als die großen mir bekannten Abenteuerromane von Jules Verne. Warum
ich überhaupt fuhr: Intuition. Ich hätte nur schwerlich begründen
können, was genau mich reizte, aber die Mischung aus Vertrauen in
die Veranstalter, Science Fiction und Neugier auf diese andere
niedersächsische Stadt nach Hannover, trieben mich dorthin.
Verne selber gilt als Begründer Science Fiction. Und so bringt er
als Autor frankophile Literaten und Groschenromanfans, Ingenieure
und Naturwissenschaftler zusammen. Besessene Bibliographen waren
Thema und Anwesend, ebenso wie die phantastische Bibliothek in
Wetzlar – die Mischung der Jules-Verne-Aktiven unterscheidet sich
gar nicht so sehr von der Mischung der Wikipedia-Aktiven. Die
Perspektiven, aus denen Verne hier unter die Lupe genommen wurden,
waren vielgestaltiger als sie es in der Literatur sonst sind.
Faszinierend hier war die Neigung unterschiedlicher und leicht
besessener Menschen sich zu einem Thema auseinanderzusetzen.
Haus der
Braunschweigischen Stiftungen - Veranstaltungsort.
Dementsprechend hatte der Veranstalter, der Wikipedia-Autor
Brunswyk das Programm gestaltet: ist Verne eher katholisch oder
eher laizistisch? Kam der Wille zur Aufklärung in seinen Büchern
durch seinen Verleger Pierre-Jules Hetzel hinein, während auf Verne
eher zurückgeht, dass alles menschliche Streben gegenüber der
göttlichen Macht sinnlos bleibt? Wen inspirierte er? Ist es eine
sinnvolle Frage, dem nachzugehen, welche seiner Voraussagen, sich
bewahrheiten? Dazu kamen dann noch Exkursionen zu Friedrich
Gerstäcker, Fenimore Cooper, die Ingenieure, die ihre U-Boote dann
nach Jules Verne „Nautilus“ nannten – und stark von diesem
beeinflusst waren
Für mich brachte das Treffen interessante Erkenntnisse, wie die
Tatsache, dass Verne immer Theaterautor oder – produzent werden
wollte und wie sehr der Katholizismus sein Denken beeinflusste.
Romancier war er eher gezwungenermaßen – und verdiente mit seinen
zwei erfolgreichen Theaterstücken in seinem Leben ein Viertel so
viel Geld wie mit etwa 80 bis 100 Romanen.
Interessant das Rätseln aller Anwesenden, warum Vernes Roman "der
Grüne Strahl" so ein kommerzieller Erfolg war, was niemand der
Anwesenden nachvollziehen konnte. Und dann eine Dreiviertelstunde
später kam die Bemerkung in einem anderen Zusammenhang,
dass "der Grüne Strahl" quasi Vernes einziges Buch mit einer
weiblichen Hauptfigur war. Ich ahne einen Zusammenhang,Update: Es kam wie es kommen musst. Da denke ich mal, ich
habe etwas entdeckt, dabei habe ich nur etwas falsch verstanden.
Tatsächlich ist Der Grüne Strahl nicht das einzige Werk mit einer
Protagonistin. Das prägnanteste Buch ist dabei Mistress Branican*, da hier die Titelfigur
die komplette Handlung quasi im Alleingang bestreitet. Aber auch in
anderen Büchern spielen Frauen eine wichtige Rolle (und dieser
Umstand war Jules Verne sogar so wichtig, dass er in Interviews
darauf hinwies): Die Kinder des Kapitän Grant*, Nord gegen Süd*, Reise um die Erde in 80 Tagen*, Ein Lotterielos* ... und einige mehr.
(*Affiliate Links)
Für mich neu war die Erkenntnis, dass ein Großteil von Vernes Werk
gar nicht in den Bereich Science Fiction gehört, sondern es
(fiktive) Reisebeschreibungen sind. Und selbst dort wo Verne
Maschinen und phantastische Gerätschaften erfindet, dienen diese
vor allem dem Zweck zu reisen.
Und jetzt recherchiere ich, natürlich, zum Grünen Strahl.
Die Phantastische Bibliothek
Meine beiden Programmhighlights beschäftigten sich nur mittelbar
mit Jules Verne. Sie kamen von der Phantastischen Bibliothek
Wetzlar: zum einen der Rückblick von Thomas Le Blanc auf Wolfgang
Thadewald. Den großen Phantastik- und Jules-Verne-Sammler.
Thadewald verstarb 2014. Er
lebte in Langenhagen. Mehrere der Anwesenden hatten ihn noch
persönlich gekannt. Und die Schilderung seiner Sammlertätigkeit,
seiner Liebe zu Büchern und zu Menschen, aber auch die Besessenheit
mit der Thadewald an ein Thema heranging und auch von Krankheit
schon schwer gekennzeichnet das Arbeiten an Bibliographien nicht
lassen konnte – es ließ sich nicht anders beschreiben als bewegend.
Sicher war dieser Vortrag mein emotionaler Vortrag des
Programms.
Wer auch immer aber auf die Idee kam, den Vortrag von Klaudia
Seibel zu Future Life: Wie (nicht nur) Jules Verne dabei
hilft, die Zukunft zu gestalten an Ende der Konferenz zu legen:
Chapeau! Das Projekt ist, kurz gesagt, ein Projekt der
Phantastischen Bibliothek. Die stellt zu bestimmten Themen Dossiers
zusammen, wie Science-Fiction-Autoren sie sich vorstellen. Die
Berichte werden manchmal von öffentlichen Stellen, öfter von
Großunternehmen bestellt, die damit selber zukunftsfähig werden
wollen und in die Zukunft denken.
Wobei Auftraggeber von Staats wegen selten sind. Die meisten
Aufträge kommen aus der Privatwirtschaft. Die allerdings meist
gleich umfangreiche Verschwiegenheitsklauseln verlangt, weshalb die
Phantastische Bibliothek da wenig zu sagen kann.
Da haben also Autoren und Mitarbeiter der Bibliothek ein profundes
Wissen über die Science-Fiction-Literatur und die größte Bibliothek
ihrer Art im Hintergrund und seit mittlerweile einigen Jahren eine
große Datenbank aufgebaut, was Autoren zu verschiedenen Themen
schreiben.
Als jemand, der ich selbst weiß, wie viele Situationen ich durch
gelesene Bücher interpretiere – Bilder aus diesen Büchern im
Hinterkopf habe und mir immer wieder mal sagen muss, dass ein Roman
nur bedingt real ist, glaube ich sofort, dass es nichts gibt, was
so sehr Denkprozesse auslösen und Kreativität triggern kann, wie
Romane. Der befreit das Hirn gerade vom strikt
logisch-folgerichtigen Denken, verrückt die Perspektive etwas nach
links oder oben, und schon öffnen sich vollkommen neue
Gedankenwege. Die Idee ist so brillant, dass es überraschend ist,
dass sie wirklich angenommen wird. Anscheinend wird sie das.
Mensch Maschine Normal
Und nachdem ich dann wieder im Zug saß und das erste Handy-Ticket
meines Lebens gekauft hatte, fragte ich mich wieder. Ist diese
Stadt – die mir in vieler Hinsicht – so unfassbar „normal“
vorkommt, vielleicht die große Ausnahme? Sind die
Musicaldarsteller, die mit „dem Alex“ [Alexander Klaws]
telefonieren, normal? Die Menschen im Ministerium? Die größten
Jules-Verne-Experten des Landes, die alle noch einen anderen
Brotjob haben? Oder eher die Normalität vieler Menschen, die darin
besteht, am Ende des Monats zu überlegen, wie denn die letzten 10
Tage mit dem leeren Konto noch überbrückt werden können?
Brauschweig ist die verstädterte Mensch-Maschine-Kopplung. In
seiner Normalität sicher schon wieder ein Ausnahmefall in
Deutschland. Aber ich sah die Zukunft: sie sitzt in einer
Bibliothek in Wetzlar und liest Science-Fiction-Romane.
Auch zu Schwimmbädern ein schönes Minkmar-Zitat aus dem
Mit-dem-Kopf-durch-die-Welt.Buch:
„Nichts gegen das große Geld und die
wenigen, die es genießen können, aber die Stärke mitteleuropäischer
Gesellschaften liegt gerade in der Mischung. Für Reiche ist es in
Singapur, Russland und Malaysia ideal. […]Glaspaläste und Shopping
Malls gibt es auf der ganzen Welt, bald vermutlich auch unter
Wasser und auf dem Mond. Öffentliche Freibäder, Stadtteilfeste oder
Fußgängerzonen, in denen sich Reiche und Arme, Helle und Dunkle,
Christen und Muslime mit ihren Kindern vergnügen und drängeln, gibt
es nur hier. Ich fand es immer erstaunlich, dass es in Algerien
beispielsweise keine öffentlichen Schwimmbäder gibt oder dass man
in den USA oder in Brasilien Mitglied in einem Club werden muss.
Das ist eine teure und in vieler Hinsicht sozial sehr
voraussetzungsreiche Angelegenheit, nur um mit den Kindern mal
schwimmen zu gehen, es sei denn natürlich, jeder hat seinen eigenen
Pool im Garten, was, für mich zumindest, wie eine Definition von
struktureller Langeweile klingt.“ (s. 104)
*Dieser Post enthält Affiliate Links zu geniallokal. Es
handelt sich dabei um Werbung. Ich bekomme eine kleine Provision,
wenn ihr dort bestellt, und ihr habt bei den Guten
bestellt.
I still remember the time when real life meetings for
Wikipedians were new and adventurous and a bit scary. Did one
really want to meet these strange other people from the Internet?
How would they be? Could they even talk in real life or would they
just sit behind a laptop screen staring on it for hours?
My first meeting in Hamburg – THE first Wikipedia meeting in
Hamburg - would consist of three people (Hi Anneke, Hi Baldhur!)
sitting in a pub, and just waiting and seeing what would happen.
These meetings were kind of improvised, in a pub, quite private and
personal in nature and no talk about projects, collaborations, “the
movement” whatever. Just Wikipedia and Wikipedians having a nice
evening.
So what a fitting setting to celebrate this day in Berlin just the
old school way. Half improvised, organized by our dearest local
troll user:Schlesinger
on a talk page, we met in a pub, it was not clear who would come
and what would happen except some people having a good time.
And so It was. In the “Matzbach” in the heart of Berlin-Kreuzberg
seven people promised to come, in the end we were almost twenty.
Long time Wikipedians, long-time-no-see-Wikipedians, a Wikipedian
active mostly in Polish and Afrikaans, some newbies and two and a
half people from Wikimedia Deutschland. Veronica from Wikimedia
Deutschland brought a tiny but wonderful home-baked cake, and we
just talked and laughed, talked about history and future.
Actually, mostly we talked about future.
About the Wikipedian above 30, who has just started a new a
university degree in archaeology, the question whether the Berlin
community should have its own independent space, industrial beer,
craft beer and the differences, the district of Berlin-Wedding, the
temporary David-Bowie-memorial in Berlin-Schöneberg, the vending
machine for fishing bait in Wedding, new pub meet-ups in the
future, who should come to the open editing events, how to work
better with libraries, colorful Wikipedians who weren’t there,
looking for a new flat, whether perfectionism is helpful or rather
not when planning something for Wikipedians, explaining Wikipedia
to the newbie, the difficulties of cake-cutting and whatsoever.
No frustration, almost no talk about meta and politics, just
Wikipedians interested in the world, Wikipedia and eager to be
active in and for Wikipedia and with big plans for the future. Old
school. So good.
Crossposting eines Posts von mir aus demWikipedia
Kurier. Erfahrungsgemäß lesen das dort und hier ja doch andere
Menschen.
Wikipedistas kommen und gehen. Manchmal gehen mehr, manchmal
weniger. Einzelne davon fallen durch ihr Wirken in der gesamten
Wikipedia auf oder versuchen sich wenigstens durch einen
spektakulären Abgang in Szene zu setzen. Die meisten Autoren und
Autorinnen aber gehen genauso still und leise wie sie gekommen sind
und gearbeitet haben.
Die unseligen Autorenschwund-Debatten der unseligen Wikimedias
kümmern sich ja um Zahlen und nicht um Autorinnen und Autoren. Wie
armselig! Den Meta-aktiven Communitymitgliedern - aka Wikifanten -
fallen vor allem die anderen Wikifanten auf, die entschwanden.
Dabei zeigt sich bei genauerer Betrachtung, dass es um lauter
einzelne Individuen mit verschiedenen Vorlieben, Arbeitsstilen und
Interessen geht, die in Wikipedia tätig waren und sind. Es gibt vor
allem diejenigen, die kommen, einen Beitrag leisten und dann wieder
verschwinden. Der größte Teil der tatsächlichen Wikipedia wird von
Menschen und Accounts gestaltet, deren Edits fast nur im
Artikelnamensraum aufzufinden sind. Manchmal arbeiten sie
unermütlich über viele Jahre, manchmal auch nur einige Wochen an
einen oder zwei Artikeln. Viele davon sind als IP aktiv, so dass
sich fast nichts über sie sagen lässt. Vielleicht sind die
Beitragenden per IP auch gar nicht viele, sondern eine einzige sehr
fleißige Autorin? Wer weiß?
Viele Wikipedianerinnen und
Wikipedianer sind derzeit inaktiv.
Anlässlich des Projektes
WikiWedding und in meinem Bestreben möglichst viele
Wedding-Aktive daran zu beteiligen, lese ich ja derzeit viele
Artikel zu einem Themengebiet, das mir in den letzten Jahren eher
fremd war und an dessen Entstehung ich nicht beteiligt war. Wer
sich in den letzten Monaten am Thema beteiligt hat, ist mir
bewusst, wer sich von 2001 bis 2014 des Weddings angenommen hat,
musste ich nachlesen. Eine spannende Lektüre voller mir unbekannter
Namen und Accounts. Neben einigen mir bekannten Wikipedistas waren
dort vor allem mir unbekannte Accounts. Accounts, die oft aufgehört
haben zu editieren. Meist sind sie still und leise gegangen. Ihre
Edits und Kommentare geben keinen Hinweis warum. Aber anscheinend
war es anderswo schöner. Oder sie hatten den Einruck, alles in
Wikipedia geschrieben zu haben, was sie beitragen wollten. Um
diesen Autorinnen und Autoren zumindest nachträglich etwas
Aufmerksamkeit zu geben, um ihre Namen kurz aus den Tiefen der
Versionsgeschichten zu retten, sollen hier einfach einige
Autorinnen(?) und Autoren gewürdigt werden, die sich um den Wedding
in Wikpedia bemühten bevor sie verschwanden.
Da ist zum Beispiel der Artikel zur Chausseestraße.
Ein Mammutwerk von Gtelloke,
dessen Wikipedia-Edits sich von Juni bis Dezember 2012 fast
ausschließlich auf diesen Artikel beschränkten.
Bild: Die Chausseestraße 114-118 in Richtung
Invalidenstraße von Gtelloke
Da ist der Artikel zum Wedding selber.
Angelegt 2002 von Otto, dessen
letzter Edit aus dem Dezember 2004 stammt. Im November 2004 dann
maßgeblich ausgebaut von Nauck, der sich
auch sonst dem Ortsteil und seinen Themen widmete. Artikel zu
Moabit, den Meyerschen Höfen, Mietskasernen und Schlafgängern waren
Teil seines kurzen Werks, das im Wesentlichen nur zwei Wochen im
November 2004 dauerte, aber die Grundlagen wichtiger Artikel zur
Berliner Sozialgeschichte legte. Ein Blick auf seine Benutzerseite
zeigt auch den Geist der Wikipedia-Frühzeit: ''GNU rockt! Der König
ist tod, lang lebe das Volk! Lang lebe die Anarchie des Netzes!
Licht und Liebe''
Weiterer Ausbau erfolgte durch 87.123.84.64,
auch zu wikipedianischen Urzeiten. Dann passierte 500 Edits und
acht Jahre im Wesentlichen nichts – mal ein Halbsatz hier, mal die
Hinzufügung von drei Bahnstrecken dort, Hinzufügen und Löschen von
berühmten Persönlichkeiten bis im Dezember 2014 der erste heute
noch aktive Wikipedianer hinzukommt: Fridolin
freudenfett verpasst dem Artikel mit „Katastrophalen Artikel
etwas verbessert)“ eine Generalüberholung.
Der Leopoldplatz;
angelegt von Frerix, der in
den immerhin fünf Jahren seiner Wikipedia-Aktivität nie auch nur
eine Benutzerseite für nötig hielt und anscheinend auch in keine
Diskussion verwickelt wurde. Zu seinen wenigen Beiträgen
gehören neben der Anlage des Leopoldplatzes auch noch die Anlage
der englischen Stadt Sandhurst, die Anlage des Kreuzviertels in
Münster und des Three Horses Biers. Dann war er/sie wieder weg.
Mutter des Artikels ist hier aber 44Pinguine,
die den heutigen Inhalt maßgeblich prägt und auch heute noch aktiv
ist.
Nichts war für die Entwicklung des Weddings wohl so entscheidend
wie die Geschichte der AEG. Dieser Artikel stammte
in seiner Frühzeit von WHell,
engagiertem Wikifanten, mit ausführlicher
Artikelliste und Diskussionsseite, der uns 2007 verließ. Der
letzte Eintrag auf seiner Diskussionsseite war „Hallo WHell, ich
möchte Dich als den Hauptautor darüber informieren, dass ich den
Artikel John Bull (Lokomotive) in die Wiederwahl zum Exzellenten
Artikel gestellt habe,“ Größere Beiträge zur WEG folgten in den
späteren Jahren durch Peterobst –
aktiv von Februar bis April 2006 vor allem mit Beiträgen zur
Berliner Industriegeschichte, nach seiner Benutzerseite AEG-Kenner
und in Arbeit an einem Buch über den Konzern. Es folgten
80.226.238.197, von Georg
Slickers 2006 (auch heute noch aktiv, wenn auch recht
unregelmäßig), Flibbertigibbet
2006 ,
79.201.110.89 im Jahr 2008 und der unermüdlichen 44Pinguine.
Weiter ausgebaut von Onkel
Dittmeyer, aktiv von 2009 bis Juli 2015 in Technikthemen und
vielleicht immer noch unter neuem Account? Begann seine Karrier mit
der Nutzerseite „Hier ist Nichts und das soll so bleiben !“ und
hielt sich im Wesentlichen daran.
Da ist der Volkspark
Rehberge. Angelegt von Ramiro 2005,
aktiv 2005/2006, vor allem zum Thema Fußball. Maßgeblich ausgebaut,
umfassend überarbeitet 2007 von
84.190.89.208 und noch einmal 2010 stark erweitert von Katonka.
Landschaftsplaner mit unregelmäßigen Edits zwischen 2009 und 2014,
die Edits waren wenige, aber die Qualität war hoch.
Bild: LSG-6 Volkspark Rehberge Berlin
Mitte - Panoramabild auf die Wiesen des Volkspark Rehberge in
Berlin, Wedding (Mitte). Von:
Patrick Franke Lizenz: CC-BY-SA
3.0
Neben diesen Verschwundenen tauchen glücklicherweise aber auch
heute noch aktive Wikifanten auf. Immer wieder 44Pinguine und
Fridolin freudenfett. Darüber hinaus Definitiv,
Magadan,
Flibbertigibbet und Jo.Fruechtnicht.
Die Artikel entstanden durch Wikifanten und IPs. Accounts mit nur
einem Thema oder anderen, die über Jahre thematisch sprangen.
Während in der Frühzeit aber viele verschiedene Accounts und IPs an
den Artikel beteiligt waren, waren in den letzten Jahren deutlich
weniger Menschen aktiv. Fast alle inhaltlichen Edits in den von mir
angesehenen Artikeln verteilen sich auf 44Pinguine, Fridolin
freudenfett und Definitiv. Wikipedia wird kleiner und noch lebt
sie. Aber wir können all‘ den Verschwundenen danken, die vor uns
kamen.
Seit nun schon ein paar Jahren hört man immer wieder über
Probleme in der kroatischen (und zu einem gewissen Grad auch der
serbischen) Wikipedia. Rechte Gruppen sollen das Projekt übernommen
haben und alle Wikipedianer, die nicht ihrer Meinung sind,
rausgeekelt oder einfach gesperrt haben.
Lange war nichts passiert, aber seit Ende letzten Jahres sah
sich die WMF dann doch mal die Situation an und es wurde schon
zumindest ein Admin gebannt.
Nun hat die WMF ein Abschlußdokument veröffentlicht; oder
genauer schon Mitte Juni und ich habe es erst heute bei reddit
gesehen. In dem Dokument finden sich solche Perlen, als das in hrwp
behauptet wurde, Nazi-Deutschland habe Polen überfallen weil Polen
einen Genozid an Deutschen verübt hätten.
Der ganze Bericht kann
hier gefunden werden. Mich macht die ganze Geschichte sowohl
traurig als auch wütend. Wikipedia soll die Leute so gut es geht
aufklären und nicht Propaganda verbreiten!
Ich habe heute dieses Blog auf einen neuen Server umgezogen,
sein DNS aktualisiert und sein SSL repariert. Werde versuchen, es
nun wieder öfters zu befüllen. Wünscht mir Glück 🙂.
Bereits seit gestern und noch bis zum 28. April laufen die
Oversighter-Wahlen. Doc Taxon, User:He3nry
und Nolispanmo treten zur Wiederwahl an. Ich wünsche: Viel
Erfolg!
Eine der schöneren unbekannten Ecken der Wikipedia ist die Seite
zur
Auskunft. Dort können Menschen mögliche und unmögliche Fragen
stellen, die dann mal launisch, mal larmoyant, mal ernsthaft oder
auch gar nicht beantwortet werden. Wie im wahren Leben und eine
ewige Fundgrube obskuren Wissens, seltsamer Fragestellungen und
logischen Extremsports.
Nicht die DDR. Bild: Giorgio Conrad
(1827-1889) - Mangiatori di maccheroni. Numero di catalogo:
102.
Dort nun fragte vor ein paar Tagen ein unangemeldeter Nutzer:
"Warum
gab es in der DDR eigentlich nur Makkaroni (die in Wirklichkeit
Maccheroncini waren), aber keine Spaghetti? Das erscheint mir nach
Lektüre einiger Bücher aus der DDR so gewesen zu sein und ist mir
auch so von meiner aus Ex-DDR-Bürgern bestehenden Verwandtschaft
bestätigt worden. Warum?"
Es folgte eine längere und mäandernde ausgiebige Diskussion, die
immerhin folgendes ergab:
* Anscheinend gab es in der DDR Spaghetti, zumindest erinnerten
sich einige der Diskutanten an derartige Kindheitserlebnisse.
* Ob Spaghetti so verbreitet waren wie Makkaroni oder Spirelli,
darüber bestand Uneinigkeit.
* Die Nudelsaucensituation war in Berlin besser als im Rest der
DDR.
* Die DDR allgemein pflegte in vielerlei Hinsicht traditionellere
Essgewohnheiten als Westdeutschland, die Küche der DDR ähnelte in
vielem mehr der deutschen Vorkriegsküche als dies für die
westdeutsche Küche gilt.
* In Vorkriegszeiten waren Makkaroni verbreiteter als
Spaghetti.
* Schon bei Erich Kästner wurden Makkaroni gegessen
* Der Makkaroni-Spaghetti turn im (west-)deutschen Sprachraum war
Mitte der 1960er
* Schuld könnten wahlweise das mangelnde Basilikum, die mangelnde
Tomatensauce, überhaupt mangelnde Kräuter, Italienreisen,
Gastarbeiter, Miracoli oder auch was ganz anderes sein.
* Klarer Konsens im Rahme: Sahne gehört keineswegs in Sauce
Carbonara!
Gab es in der DDR nicht: Miracoli. Bild:
Miracoli-Nudeln mit Mirácoli-Soße von Kraft. Von: Brian
Ammon, Lizenz: CC-BY-SA
3.0
Daneben tauchten eine ganze Menge Kindheitserinnerungen auf an
exotische Spaghettimahlzeiten mit kleingeschnittenen Spaghetti,
Ketchup-basierter Tomatensauce und anderen kulinarischen Exotika
des geteilten Deutschlands.
Einige Antworten, viel mehr Fragen:
* seit wann wird in Deutschland überhaupt Pasta gegessen?
* wie lange schon ist Tomatensauce verbreitet?
* seit wann essen westdeutsche Spaghetti?
* Und wer ist Schuld? Die Gastarbeiter? Die Italienurlauber?
Miracoli?
* Und wie kommen eigentlich die Löcher in die Makkaroni?
Also verließen wir dann erst einmal die Auskunft und die dortige
Diskussion und betrieben etwas weitere Recherche. Das heimische
"Kochbuch der Haushaltungs- und Kochschule des Badischen
Frauenvereins", veröffentlicht 1913 in Karlsruhe, kennt sowohl
Makkaroni wie auch Spaghetti. Ungewohnt für heute: die Makkaroni
werden in "halbfingerlange Stückchen gebrochen" und dann 25 bis 30
Minuten gekocht.
Neben den diversen Makkaroni-Gerichten gibt es auch einmal
Spaghetti. Die Priorität ist klar. Spaghetti werden erklärt als
"Spaghetti ist eine Art feine Makkaronisorte. Beim Einkauf achte
man darauf, daß sie nicht hohl sind"
Die "Basler Kochschule. Eine leichtfaßliche Anleitung zur
bürgerlichen und feineren Kochkunst" von 1908 kennt keine
Spaghetti aber diverse Gericht mit "Maccaronis". Darunter sogar
schon die Variante "a la napolitaine" mit Tomatensauce.
Weitere Recherche. Weitere Erkenntnisse bringt das Buch "Meine
Suche nach der besten Pasta der Welt: Eine Abenteuerreise durch
Italien", das die Ankunft der Makkaroni in Deutschland auf das
frühe 18. Jahrhundert verlegt. Die 1701 nachweisbaren "Macronen"
waren wohl eher Lasagne, aber Anfang des 18. Jahrhunderts
entstanden in Prag und Wien echte Makkaroni-Fabriken.
Die Pasta folgte anscheinend den jungen Männern der Grand Tour aus
Italien in das restliche Europa. Bestimmt waren die Grand Tours für
junge Männer, die mal etwas von der Welt sehen und klassische
europäische Bildung mitbekommen sollten, die auf der Tour aber
anscheinend nicht nur Statuen und Kirchen kennenlernten, sondern
auch Pasta.
Der Macaroni. Der Hipster seiner Zeit. Bild:
Philip Dawe: The Macaroni. A Real Character at the Late Masquerade,
1773.
In England gab es sogar einen eigenen Modestil Macaroni
für exaltierte junge Männer - "a fashionable fellow who dressed
and even spoke in an outlandishly affected and epicene
manner". Die englische Wikipedia schreibt dazu lakonisch:
"Siehe auch: Hipster. Metrosexuell." Komplett falsch wäre wohl auch
die Assoziation zur Toskana-Fraktion nicht.
Nach diesen extravagant und auffallend auftretenden jungen Männern
ist nun wiederum im Englischen der Macaroni
penguin - auf deutsch der Goldschopfpinguin - benannt.
Makkaroni-Penguin. Benannt nach dem Stil,
nicht nach den Nudeln. Bild: Macaroni Penguin at Cooper Bay, South
Georgia von Liam Quinn,
Lizenz: CC-BY-SA
2.0
Wie aber kommen nun die Löcher in die Makkaroni? Und seit wann?
Licht in dieses Dunkel bringt die "Encyclopedia
of Pasta." Diese lokalisiert die Entstehung der maschinellen
Pastafertigung - die für Makkaroni in zumutbarer Menge
unvermeidlich ist - in die Bucht von Neapel in das 16. Jahrhundert.
Dort existerte eine Heimindustrie mit Mühlen, an die sich relativ
problemlos eine im 16. Jahrhundert aufkommende ’ngegno da
maccarun anschließen lies, die es den Neapolitanern ersparte
stundenlang im Teig herumzulaufen, um ihn zu kneten: im
Wesentlichen Holzpressen mit einem Einsatz aus Kupfer, je nach Form
des Einsatzes entstehen verschiedene Nudelsorten und damit unter
anderem Makkaroni. Die Makkaroni wurden dann in langen Fäden zum
trocknen in die süditalienische Sonne gehängt.
Neapel, 19. Jahrhundert. Bild:
Giorgio Sommer (1834-1914), "Torre Annunziata-Napoli - Fabbrica di
maccheroni". Fotografia colorita a mano. Numero di catalogo:
6204.
Das hat alles nicht mehr wirklich etwas mit Spaghetti und der DDR
zu tun, beantwortet nicht, warum die Deutschen in den 1960ern
plötzlich lieber Spaghetti als Makkaroni mochten, oder warum die
Makkaroni bei ihrem ersten Zug über die Alpen die Tomatensauce in
der Schweiz ließen? Warum gibt es in Deutschland kein Äquivalent zu
"Macaroni and cheese" (mehr)? Gab es ein Miracoli-Äquivalent in der
DDR, bei dem es Pasta, Sauce und Käse schon in einer Packung gab?
Warum sind Makkaroni in Deutschland tendenziell lang und dünn in
vielen anderen Ländern aber dicker und hörnchenförmig-gebogen? Es
ist hochspannend. Und ein Grund, noch viel mehr zu
recherchieren.
Seit 2019 wählt das Wikiversum die coolsten Tools, die besten
Hilfsmittel, um in Wikipedia und anderen Wikis zu werken. Eines
davon ist der Pywikibot, der Bot aller Bots.
Schneeregen fegte waagerecht über Vorplatz des Tempelhofer
Hafens. Mein Pullover war gar nicht so kuschlig und dicht wie ich
ihn in Erinnerung hatte. Die Handschuhe waren im Laufe der Jahre so
fadenscheinig geworden, dass eine einzelne kurze Radtour die Finger
vereisen ließ.
Ein einsamer, von Weihnachten übrig gebliebener,
Quarkkeulchen-Stand vor dem Tempelhofer Hafen. Seine Lichter
verhießen Wärme. Der Weg dorthin: Von Entbehrungen gezeichnet. Der
Wind, der einem aus allen Richtungen ins Gesicht blies, trieb die
Leute davon. Sie wussten nicht wohin, denn alles war geschlossen
und zu Hause wollten sie ihre Mitbewohner nicht mehr sehen. Über
der Szene kreiste ein hungriger Taubenschwarm.
„Ist es nicht herrlich“, fragte ich DJ Hüpfburg. „So viel Platz!
Fast das ganze Hafengelände gehört uns. Und wir können uns
problemlos aus drei Meter Sicherheitsabstand anschreien.“ – Sie
antwortete „Du spinnst. Es ist scheißkalt. Ich bibbere. Das letzte
Mal, als ich so gefroren habe, bin ich im Rozbrat mit meiner
ehemaligen Band aufgetreten: „Pierdzące Zakonnice“.
Wir spielten Prog-Punk. Kein Wasser, keine Heizung und ein
sibirischer Windhauch kam aus Richtung Minsk. Wer auf Toilette
wollte, hat einen Eispickel in die Hand bekommen, falls das
Plumpsklo wieder zugefroren war. Und am Ende des Abends haben wir
Wahlplakate im Konzertsaal verbrannt, um nicht ganz zu
erfrieren.
Aber wir haben gerockt: Kasia an der Geige, die andere Kasia am
Theremin, ich an der KitchenAid und Anna am Gong und an der
Rezitation. So viel Kunst war nie wieder davor oder danach im
Rozbrat. Leider war es den Pferden zu kalt, so dass die weiße
Kutsche ausgefallen ist. Hier am Hafen ist keine Kunst. Hier ist es
nur scheißkalt. Ich gehe.“
Später, im Chat. Hüpfburgs Schilderung hatte mich an ein Video
erinnert, das ich kurz vorher gesehen hatte: „Wikimedia
Coolest Tool Award 2020.“ in meinen Versuchen, DJ Hüpfburg für
die Wikipedia und ihr Umfeld zu begeistern, postete ich ihr den
Link.
Southgeist: Aber Tools. Nur mit ausgewählten Menschen. Fast
nur Technik und kreative Sachen.
Hüpfburg: Wikipedia spießerfrei? Du meinst, das soll
gehen?
Southgeist: Schau doch mal.
Hüpfburg: Ich sehe jetzt schon drei Minuten lang Berliner
Straßen ohne Ton. Ich dachte schon, meine Lautsprecher wären
kaputt.
Hüpfburg: I like the music.
Southgeist: Eben. Warte erst auf die Tools.
Hüpfburg: 52 Minuten! So lange soll ich Wikipedia schauen?
In der Zeit zerstöre ich zwei Ehen, bringe einen Priester vom
Glauben ab und bringe drei Paare neu zueinander. Sage mir lieber,
was für Tools vorkommen.
Die coolest Tools
Ich erzählte.
Im Video werden vorgestellt: Der AutoWikiBrowser
(Hüpfburg: „Da klingt der Name schon langweilig“), SDZeroBot
generiert Benutzerseitenreports („Mich interessieren weder Benutzer
noch ihre Seiten“), Proofread
Page Extension („Korrekturlesen, geht es noch spießiger?“),
Listen to Wikipedia
(„Schön, aber reichlich Kitsch. Wenn eines Tages zwei Wikipedianer
kommen und einander heiraten wollen, werde ich das Tool in den
Event integrieren“), AbuseFilter
(„Zu sehr Polizei“), LinguaLibre („I
like“), und Pywikibot – ein Tool zum Erstellen weiterer Tools.
(„Das klingt spannend – erzähle mir mehr.“)
Pywikibot
Pywikibot ist ein Framework zum Erstellen von Bots. Oder anders
gesagt: wer sich den Pywikibot installiert, kann mit überschaubarem
Aufwand eigene Bots schaffen. Oder sich an einem der bereits auf
dieser Basis geschaffenen Skripte bedienen. Die Bots können
prinzipiell alles, was menschliche Nutzer von MediaWiki-Wikis auch
können – nur schneller.
Wobei können in diesem Zusammenhang natürlich bedeutet: jemensch
muss dem Bot vorher sagen, was er tun soll. Das dauert länger als
ein Edit. Der Bot kommt sinnvoll ins Spiel, wo es eine hohe Zahl
gleichartiger Edits gibt. Zum Artikelschreiben ist das wenig – zum
Anpassen von Formalien ist es super. Und dazwischen liegt ein
Graubereich. Nicht alles ist sinnvoll, nicht alles ist erlaubt –
und um die Kontrolle zu wahren, hat der Pywikibot einen
automatischen Slow-Down-Mechanismus, der den Bot absichtlich
ausbremst.
Pywikibot geht zurück auf verschiedene Bots und Skripte aus dem
Jahr 2003, existiert in dieser Form seit etwa 2008. Die aktuelle
Variante ist in und für Python 3 geschrieben. Die Community, die
sich um das Framework kümmert, hat eine dreistellige Zahl von
Mitgliedern und ist so international, wie es die frühe Wikipedia
war. Rein aus dem Bauchgefühl heraus würde ich auch sagen, was
Charaktertypen und Soziodemographie angeht, ist die
Pywikibot-Gruppe sehr viel näher an der Ur-Wikipedia als die
heutigen Wikipedistas.
DJ Hüpfburg: „Du sagst es. Alt-Wikipedia. Diese Tool-Awards sind
solche Lebenswerkauszeichungen? Das Bot-Framework gibt es seit fast
20 Jahren, das Proofread-Tool existiert seit fast 15 Jahren. Ist
der Award so langsam oder gibt es so wenig Neues?“
Ich glaube, der Award ist langsam. Beziehungsweise er existiert
erst seit letztem Jahr. Jetzt muss er die ganzen Tools der letzten
Jahrzehnte durchprämieren, damit die nicht vergessen werden. Wie
bei der Wikipedia auch: Die Grundlagen wurden vor langer Zeit
gelegt. Alles, was jetzt kommt, baut darauf an, verbessert, schafft
aber nur selten fundamental Neues.
Change Musiker to Musiker*innen
„Außer dem Tool-Award. Der ist neu? Und dem Video nach zu
urteilen reichlich großartig.“
Yup. Und er hat mir und dir den Pywikibot gelehrt und damit eine
wichtige Aufgabe erfüllt.
DJ Hüpfburg: „Ich kann also auf Basis von Pywikibot alle
‚Musiker‘ in Wikipedia durch ‚Musiker*innen‘ ersetzen?“
Ich: „Theoretisch ja. Praktisch gibt es verschiedene Hindernisse.
Und du wirst auf ewig gesperrt werden.“
DJ Hüpfburg: „Dachte ich. Noch so jung und schon so
strukturkonservativ diese Website. Wäre sie ein Mensch, würde sie
einen beigen Pullunder über weißem Hemd tragen und Leserbriefe an
die Fernsehzeitschrift schreiben. Aber ich kann mein eigenes Wiki
aufsetzen und da noch Herzenslust alles bot-mäßig umbauen?“
Ich: „Yup. Wikidata freut sich auch. Da gibt es noch viel zu tun
und die sind superfreundlich dort.“
DJ Hüpfburg: „Ich auf meinem Pybot einreitend in Wikidata! Das
wäre fast so gut wie im Rozbrat. Mit der Kutsche, die dann doch
nicht kam. Irgendwann im Laufe des Abends spielten wir Mozart. Da
haben die Squatter angefangen mit Äpfeln zu werfen. Wir uns hinter
dem Gong geduckt und ich ein Kitchen-Aid-Solo. Ich erinnere mich
noch an den einen Tänzer, der allein Stand und Luft-Küchenmaschine
gespielt hat. Ein Arm angwickelt am Körper als würde er die
Maschine an sich drücken, mit dem anderen weit ausholende
Bewegungen, um dann auf dem Einschaltknopf zu laden.“
„Leider hatten wir dem Publikum einen Mozart-Schock versetzt und
die wollten uns nicht mehr gehen. Dadurch hatten wir alle
Auftrittsorte in Posen durch. Kasia ging nach Prag und Paris,
Jazz-Theremin studieren. „Ein Juwel unter unserer Studentinnen“
sagte mal eine Professorin. Kasia wäre fast dieses Jahr in der
Philharmonie aufgetreten. Aber Deine komische Wikipedia hat immer
noch keinen Artikel von ihr.“
Ich: „Es ist nicht meine Wikipedia.“
Ruhe. Hüpfburg dachte.
„Dieser Bot. Der kann doch sicher in Wikidata alle Personen
auslesen, die Theremin spielen. Und dann eine Liste in Wikipedia
anlegen. Die regelmäßig erneuert wird. Das müsste doch gehen.
Vielleicht ist es einen Versuch wert.“