Siebzehn Jahre Wikipedia: Was ist aus ihren Prinzipien geworden?

Wikipedia fing heute vor siebzehn Jahren an, das Wissen der Welt für alle frei zugänglich zu sammeln. Ihr Anspruch an sich selbst war, fundierte und neutrale Artikel in einem kollegialen Redaktionsumfeld, dass für alle offen ist, zu schreiben. Wird Wikipedia diesem siebzehn Jahre nach ihrer Gründung noch gerecht?

 

Gliederung:
• Die Ursprünge
• Die Prinzipien von Wikipedia
• Welche Prinzipien fehlen Wikipedia?
• Peer-review um Wikipedia (noch) besser zu machen?
• Fazit

Die Ursprünge:
Um diese Frage zu beantworten, werfen wir einen Blick auf die Herkunft von Wikipedia. Diese entstand nicht aus dem nichts, sondern hatte einen Vorläufer Namens Nupedia.
Ähnlich wie Wikipedia sollte Nupedia eine frei verfügbare Online Enzyklopädie werden, die von freiwilligen Nutzern zusammengetragen wird. Diese sollten Experten für das Fachgebiet sein, dessen Artikel sie bearbeiten. Sie fingen nicht an, Online einen Artikel zu schreiben, sondern wurden damit beauftragt.
Im Gegensatz zur Wikipedia wurden bei Nupedia jedoch recht strenge Maßstäbe an die Qualität der Artikel angelegt. Ein siebenstufiges Peer-Review Verfahren sollte dafür sorgen, dass die Artikel höchsten Qualitätsstandards entsprachen.
Dieser Prozess stellte sich jedoch als recht schwerfällig heraus. In der Hoffnung mehr Rohmaterial für das aufwendige Procedere gewinnen zu können, wurde am 15.01.2001 Wikipedia online gestellt. Deren deutlich offeneres System der Artikelerstellung führte zu einem rasanten Wachstum an verfügbaren Inhalten. Die prominente Listung vieler Wikipedia- Artikel in den Suchergebnissen der – damals ebenfalls recht neuen – Suchmaschine Google sorgte für große Zugriffszahlen. Die großen Zugriffszahlen sorgten für viele neue Autoren. Die vielen neuen Autoren sorgten für mehr Artikel. Mit dieser Dynamik konnte Nupedia nicht mithalten und wurde bald aufgegeben.

Die Prinzipien von Wikipedia:
Frei zugängliches Wissen, das Arbeiten nach dem Wiki-Prinzip, eine kollegiale und gemütliche Atmosphäre unter den Autoren, die danach streben, Themen aus einem neutralen Standpunkt zu beschreiben.
Nach der Overtüre durch Nupedia trat nun also Wikipedia an, um mit diesen Prinzipien eine Online Enzyklopädie zum Leben zu erwecken.
Das Vorhaben freies Wissen anzuhäufen gelang Wikipedia dann auch besser als allen anderen Projekten, die sich daran versuchten. 16,44 Millionen Artikel weltweit, davon mehr als 2 Millionen allein in Deutschland, sprechen eine eindeutige Sprache. Der Umfang dieser Ressource ist gewaltig.
Das Wiki-Prinzip, nach dem Texte kollaborativ erstellt und bearbeitet werden sollen, wobei Textänderungen als Protokoll verfügbar bleiben, wurde beispielhaft umgesetzt. Bis heute kann Wikipedia ohne Administratorrechte und Anmeldung von jedem bearbeitet werden. Eine gründlichere Umsetzung des Wiki-Prinzips ist schwer vorstellbar.
Gerade dieses Merkmal machte Wikipedia zu einem deutlich größeren Erfolg als Nupedia.
Die kollegiale und gemütliche Atmosphäre unter den Autoren ging in den letzten Jahren mehr und mehr verloren. Immer häufiger sind Beschwerden über das vergiftete Klima und den Verfall der Debattenkultur in der deutschen Wikipedia zu vernehmen.
Die Darstellung des neutralen Standpunkts erreicht Wikipedia dort, wo viele Autoren motiviert schreiben. Dazu und zur Pflege der großen Artikellandschaft braucht es viele Freiwillige. Wenn diese jedoch häufiger vergrault werden, wird es Wikipedia mehr und mehr schwer haben Artikel vom neutralen Standpunkt aus darzustellen.
Die Verwirklichung ihrer Prinzipien ist Wikipedia zwar gelungen. Es sind jedoch Abstriche zu machen bei dem Umgang der Beteiligten untereinander. Hinter der Zukunft des neutralen Standpunkts steht auch daher ein Fragezeichen.
Abgesehen von den obigen Kriterien ist auch die Frage zu stellen, ob diese Prinzipien wirklich ausreichend sind.

Welche Prinzipien fehlen Wikipedia?
Unter den oben genannten Leitmotiven fehlt eines, dass Nupedia besonders wichtig war:

Die Qualität der Artikel.
Wikipedia hat in vielen Teilen einen hohen Grad an Qualität erreicht. Allerdings gibt es unverändert viele Artikel, deren Qualität höchstens bescheiden ist. Auch die nötige Kürze, Präzision und Quellenarbeit fehlt oft.
Um diesem Problem zu begegnen wurden Verfahren eingeführt, die einem Peer-Review gleichen, jedoch nicht dieselbe Wirksamkeit aufweisen. Redaktionen für einzelne Themenbereiche, strenge Relevanzkriterien sowie viele Hilfsangebote für neue Autoren sollen die Qualität weiter steigern.
Aber warum versucht es Wikipedia nicht auch mit einem neuen/alten Verfahren?


Peer-review um Wikipedia (noch) besser zu machen?
Das in der Wissenschaft weit verbreitete peer-review Verfahren, bei dem Artikel zu Themen von anderen Forschern zum selben Thema vor ihrer Veröffentlichung auf ihre Relevanz und Richtigkeit überprüft werden, könnte auch Wikipedia zu einem Qualitätsschub verhelfen.
Ein zurück zum komplizierten Prozess von Nupedia ist nur schwer vorstellbar. Dieser könnte jedoch weiterentwickelt werden und die Enzyklopädie noch besser machen.
So könnten ältere Artikel alle zwei bis drei Jahre von Autoren der jeweiligen Redaktion überprüft werden. Die Löschung von Artikeln sollte nicht unbedingt Autoren vorbehalten werden, sondern könnten Nutzern der Themenportale übertragen werden. Durch Wahl könnten die Wikipedianer so den Nutzern das Löschrecht in die Hände legen, denen sie besondere Kompetenz in einem Themenkreis zutrauen. So könnte auch die Debattenkultur in Wikipedia verbessert werden, weil die Diskussion auf fachlicher Ebene stattfinden könnte.

Fazit:
Von ihren Wurzeln der Nupedia hat sich Wikipedia weit entfernt. Das macht sie so erfolgreich. Viele ihrer Prinzipien aus der Anfangszeit hat Wikipedia gut umgesetzt. Für einige gilt das aber nicht mehr. Bei anderen sieht die Zukunft ohne Veränderung zum Besseren blass aus.
Bei der Qualität der Artikel besteht in vielen Bereichen Verbesserungsbedarf. Ein stärkerer Fokus auf Qualität durch die Einführung einer Art Peer-Review könnte das ändern.
Sind unter Ihnen, liebe Leser, auch Nutzer der ersten Stunde? Denken Sie, dass Wikipedia ihre Prinzipien ernster nehmen sollte?
Denken Sie, dass ein Peer-Review Verfahren helfen könnte. Wie würden Sie dieses gestalten?
Wir freuen uns sehr auf Ihre Erfahrungen, Meinungen und Kommentare. Nutzen Sie dazu gern die Kommentarspalte unter diesem Artikel!

Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , , , , , , | Kommentare deaktiviert

Tagesaktualität der Wikipedia

Geschichte wird sprichwörtlich von Siegern geschrieben. Wer beschreibt aber die Gegenwart, in der noch keiner gesiegt hat? Anders gesagt: Wer beschreibt die Gegenwart schnell und objektiv?

In zahlreichen Vergleichsstudien, in denen sowohl die deutsche als auch die englische Wikipedia gegen gedruckte Enzyklopädien antraten, gewannen diese in puncto Schnelligkeit haushoch. Das erscheint naheliegend, wenn man bedenkt, dass die Wikipedia ein Online Medium ist und ihre früheren Konkurrenten in gedruckter Form erschienen. Die Möglichkeit der Wikipedia schnell auf Veränderungen zu reagieren, ist sicherlich ein Alleinstellungsmerkmal. Andererseits gibt es auch keine enzyklopädische Konkurrenz mehr für die Wikipedia.

Auch wenn die Wikipedia ausdrücklich kein Newsportal sein will, so wird sie auch bei aktuellen Ereignissen als neutrales und zutreffendes Medium wahrgenommen.

Wird Wikipedia dieser Wahrnehmung gerecht?

Gegenstände der Untersuchung:

Um diese Frage hinreichend beantworten zu können, bedarf es mindestens eines Untersuchungsgegenstands.

Hier kommt als hochgradig polarisierendes Ereignis die US Präsidentschaftswahl 2016 in Frage. Auch deshalb war dieses Ereignis im Zusammenhang mit der Wikipedia bereits Thema dieses Blogs. Als weiterer Untersuchungsgegenstand, der näher an der Gegenwart ist, können die Sondierungsgespräche zur sogenannten Jamaika Koalition dienen.

Die Untersuchungsgegenstände sind damit benannt. Nach welcher Methode kann dieses unkonventionelle Medium beurteilt werden? Die Betrachtung der beiden Untersuchungsgegenstände hat einen Haken: Sie sind mehr oder weniger abgeschlossen, die Aktualität der Wikipedia zu diesen Ereignissen kann jedoch schwer beurteilt werden. Denn neue Entwicklungen zu diesen Themen sind nur noch spärlich zu erwarten.

Für den recht frischen Artikel zu den Jamaika-Sondierungsgesprächen 2017 mag das noch nicht unbedingt gelten, für die US Präsidentschaftswahl 2016 jedoch schon.

Hier könnte die Versionsgeschichte der Wikipedia von großem Nutzen sein.

Mit ihr lässt sich vergleichsweise einfach feststellen, wie schnell und umfangreich aktuelle Entwicklungen in die Artikel eingepflegt wurden.

Zunächst gilt es jedoch das aktuellere der beiden Ereignisse zu untersuchen:

Die Sondierungsgespräche zur Jamaika Koalition nach der Bundestagswahl 2017 sind vor gerade einmal sechs Wochen gescheitert. Die Sondierungsgespräche wurden von intensiver Berichterstattung in der Medienlandschaft begleitet.

Wie vollständig, neutral und zutreffend ist der Artikel zu diesem recht frischen Thema nach so kurzer Zeit?

Auf den ersten Blick wirkt abschreckend, dass jeder der drei Abschnitte des Artikels überarbeitungsbedürftig ist. Bis auf die These, dass „die Presse“ eine Schwarz-Grün-Gelbe Regierung als Bündnis der westdeutschen Mittelschicht ansehe, bleibt der erste Abschnitt keine Belege schuldig und beschreibt in angenehmer Kürze die Ausgangslage für die Sondierungen. Im genannten Absatz zur Charakterisierung der Dreierkonstellation als Bündnis der westdeutschen Mittelschicht wird jedoch eine recht starke Formulierung gewählt, obwohl als Beleg nur ein einzelner Bericht angefügt wird. Hier wäre es angemessen gewesen die Formulierung ganz zu entfernen oder zumindest klar zu machen, dass diese Ansicht nicht von anderen Medien aufgegriffen wurde.

In der Darstellung der Verhandlungen wird der Verhandlungsverlauf extrem knapp zusammengefasst. Obwohl ein Nutzer auf der Diskussionsseite darauf hinweist, dass mehrere Quellen existierten, mit denen eine neutrale Chronik der Verhandlungen erarbeitet werden könnte, geschah dies bis dato nicht. Der Erkenntniswert dieses Abschnitts ist dementsprechend gering.

Im Rest des Artikels begnügen sich die Autoren damit, mehr oder weniger ausführlich Äußerungen von Beteiligten und Unbeteiligten zu zitieren. Für Leser, die das Ereignis nicht in der Berichterstattung verfolgten, könnte dies einen Informationswert bieten.

Alles in allem fällt auf, dass der Artikel inhaltlich recht dürftig gehalten ist. Der geneigte Leser wäre, wenn er sich umfassend informieren wollte, besser damit bedient, Artikel zum Scheitern der Sondierungen in anderen Medien zu lesen. Diese bieten mindestens genauso viel Inhalt, wie der Wikipedia Artikel, in den meisten Fällen allerdings wesentlich mehr.

Kann die Wikipedia überhaupt aktuell und zutreffend sein?

Das Urteil der Wikipedianer, dass alle Abschnitte des Artikels einer Überarbeitung bedürfen, ist vollkommen zutreffend. Liegt das an diesem einen Thema oder sind es strukturelle Probleme, die das Schreiben von guten Wikipedia Artikeln zu aktuellen Themen erschweren?

Auf die seit Jahren schwindende Zahl an aktiven Autoren hinzuweisen, ist auch an dieser Stelle angebracht. Jedoch greift dieser Hinweis zu kurz.

Die Wikipedia hat das Problem, dass sie gerade bei aktuellen Themen auf Online-Berichterstattung angewiesen ist. Wo Themen nur unzureichend behandelt werden, kann die Wikipedia das nicht auf eigene Faust nachholen, da sie ihre Aussagen an Hand von Quellen belegen muss. Tut sie das nicht, wird sie ihrem enzyklopädischen Anspruch nicht gerecht.

Auf der anderen Seite kann Wikipedia durch die Gesamtschau vieler Medien ein ausgewogenes Bild bieten. Das muss jedoch nicht zwangsläufig so sein. Es braucht Autoren, die sich die Mühe machen, alle aktuellen Berichte zu sichten, zusammen zu fassen und in einem zutreffenden und ansprechenden Text zu zitieren.

Die Wikipedia kann also durchaus aktuell und zutreffend sein. Voraussetzung ist nur, dass es ausreichende Quellen gibt und motivierte Autoren. Ansonsten kann sie nicht mehr Erkenntnis bieten als ein Pressespiegel.

Vielleicht ist dieses Beispiel auch nur unglücklich gewählt. Am Beispiel des Wikipedia Artikels zur US Wahl 2016 lässt sich gut nachvollziehen, dass aktuelle Entwicklungen sehr schnell und umfassend in den Artikel eingepflegt werden können. Nachvollziehen lässt sich das mit Hilfe der Versionsgeschichte, aus der hier zitiert wird. Diese finden sie am oberen Rand jedes Wikipedia Artikels links neben der Suchleiste. Das Ganze sieht dann zum Beispiel so aus:

(Sollten sie Probleme haben, diese  oder die folgende Grafik zu erkennen, können sie sie per Mausklick vergrößern.)

Der Rückzug des republikanischen Bewerbers Ted Cruz aus dem Rennen um die republikanische Kandidatur am 3. Mai 2016 fand bereits am nächsten Tag Eingang in die Wikipedia.

Hier zeigt sich anschaulich, dass motivierte Autoren schnell gute Arbeit leisten können.

Fazit:

Die Stichprobe zur Klärung der Güte von Wikipedia Artikeln zu laufenden Entwicklungen liefert ein gemischtes Bild. Durchweg hohe Qualität ist nicht erkennbar. Die enzyklopädische Bearbeitung von Themen braucht Zeit und viele fleißige Autoren. Dass die Wikipedia deshalb ausdrücklich kein Nachrichtenportal sein möchte, ist nur folgerichtig.

Den Lesern kann daher nur nahegelegt werden, ihre aktuellen Informationen auf anderen Kanälen zu suchen.

Wie immer interessiert uns natürlich Ihre Meinung zu diesem Thema, liebe Leser des Wiki-Watch Blogs! Nutzen Sie Wikipedia, um laufende Ereignisse zu verfolgen? Auf welche Methode greifen Sie zurück, um sich einen schnellen Überblick über die Nachrichtenlage zu solchen Themen zu verschaffen?

Veröffentlicht unter Allgemein, Artikelbewertung | Verschlagwortet mit , | Kommentare deaktiviert

Was wurde aus…? Das Schicksal von Brockhaus et als. 15 Jahre nach dem Start von Wikipedia

Noch in dieser Generation war er aus keinem Haushalt des Bildungsbürgertums wegzudenken. Ob als Statussymbol, faktenbasierter Schiedsrichter bei heißen Diskussionen am Esstisch oder schlicht und einfach als geballte Ansammlung von schnell verfügbarem Wissen, war der dreißig bändige Brockhaus eine unverrückbare Institution.

Mit der 21. Auflage des Klassikers von 2006 und der Auflösung der Lexikonredaktion im Jahr 2014 hat der Brockhaus die Wikipedia gerade mal um fünf beziehungsweise dreizehn Jahre überlebt.

Den Brockhaus ereilte damit das selbe Schicksal wie das Segelschiff, das vom Dampfschiff ersetzt wurde, das Pferd, das durch das Automobil als Transportmittel überflüssig wurde und so viele andere obsolet gewordene Technologien oder Dienstleistungen. Der Brockhaus und andere Enzyklopädien wurden durch die Wikipedia, die dieselbe Dienstleistung kostenlos online anbot, in den Augen ihrer Kunden überflüssig. Ein disruptiver Effekt zerstörte das Geschäftsmodell der Enzyklopädieverlage.

Doch ist die Geschichte wirklich so simpel?

Zunächst lohnt ein Blick auf die Entstehung einer so umfangreichen Enzyklopädie wie dem Brockhaus oder der Encyclopedia Britannica.

Große Nachschlagewerke wie zum Beispiel der Brockhaus sind das Produkt der Arbeit von bis zu einhundert Redakteuren und einer Vielzahl von weiteren wissenschaftlichen Mitarbeitern. Diese versuchen nicht den neutralen Standpunkt zu einem Thema zu finden, sondern das gesicherte Faktenwissen zu einem Stichwort möglichst informativ, verständlich und knapp zusammen zu fassen.

Im Vergleich zur Wikipedia, bei der die Identität und Qualifikation der Autoren grundsätzlich unbekannt ist und die Qualität der Eintragungen vor allem durch den Diskurs der Autoren erreicht werden soll erscheint diese Art, Wissen zu sammeln, wie aus der Zeit gefallen.

Daher erscheint es nur folgerichtig, dass die Wikipedia zahlreiche Untersuchungen auflistet, die belegen sollen, dass ihre Artikel trotz der Freiwilligkeit und Anonymität ihrer Autoren mindestens genauso gut, wenn nicht sogar besser sind als die der enzyklopädischen Konkurrenten.

Ein genauerer Vergleich der Qualität von großen Enzyklopädien und Wikipedia wäre schon deshalb nicht mehr sinnvoll, weil weder der Brockhaus, noch das Zeit Lexikon, die Bertelsmann Lexikothek oder irgendein anderes gebundenes Großlexikon noch aktualisiert werden.

Diese werden daher automatisch von Jahr zu Jahr schlechter abschneiden als die Wikipedia.

Auch beim Umfang des abgebildeten Wissens scheint die Wikipedia die klassischen Enzyklopädien bei weitem zu übertreffen, so hat die Wikipedia ungefähr siebenmal so viele Artikel, wie der große Brockhaus 2006 Stichworte hatte. Auch diese Tatsache kann man -wo auch sonst- in der Wikipedia nachschlagen.

Diese Fakten beantworten jedoch nicht die folgende Frage:

Hinterlassen die großen Enzyklopädien eine Lücke?

Die Antwort auf diese Frage kann nur ein klares „Jein!“ sein.

Auf der einen Seite wird eine so geballte Ansammlung an Faktenwissen, die so hohen Standards an Richtigkeit und Kompaktheit boten, wie die großen Enzyklopädien, auf absehbare Zeit nicht existieren.

Wie kann man aber nach dem Ende der großen Enzyklopädien sicheres Faktenwissen schnell finden? Auch wenn die Wikipedia in vielerlei Hinsicht stetig besser wird und viele sehr gute ausgewogene und hervorragend belegte Artikel aufweist, kann sie schon durch ihre Arbeitsweise nicht durchweg den selben wissenschaftlichen Standard bieten wie eine große Enzyklopädie. Der Nutzer, der bereit wäre den Preis für ein solches Lexikon zu zahlen ist so wieder darauf angewiesen, in der einschlägigen Wissenschaftsliteratur selbst nach Informationen zu suchen.

Auf der anderen Seite bietet die Wikipedia etwas, was die großen Enzyklopädien durch die Natur ihres Geschäftsmodells nie bieten konnten: (kosten)freies Wissen!

Vorausgesetzt, dass die Wikipedia belastbare Informationen und Fakten liefert, ist es auch aus Gerechtigkeitsgründen nur wünschenswert, dass ein gutes umfangreiches Nachschlagewerk frei verfügbar ist und nicht 2800€ oder ca. zwei Monatsnettolöhne eines Vollzeitarbeitnehmers mit Mindestlohn kostet.

Einer Monopolisierung von Wissen und Bildungschancen wird so vorgebeugt.

Wer die Wikipedia mit wachen und kritischen Augen liest, hat eine bemerkenswerte Wissensressource in seinen Händen.

Ob sie die große Enzyklopädie wirklich gleichwertig ersetzen kann, kann dahingestellt bleiben, da sie genau das faktisch getan hat.

Nun ist es an Ihnen, liebe Leser:

  • Wie sind Ihre Erfahrungen mit Brockhaus et al.?
  • Würden Sie noch das Geld in die Hand nehmen, um einen aktuellen Brockhaus o.ä. zu kaufen, wenn es diese noch gäbe?
  • Wo verschaffen Sie sich heutzutage Überblickswissen, zu Themen, bei der die Wikipedia schwach ist?

Schreiben Sie uns, wir freuen uns über jeden Kommentar und jede Zuschrift!

 

 

Foto von: Florian Hirzinger Lizensiert nach CC BY-SA 3.0 Quelle: https://de.wikipedia.org/wiki/Brockhaus_Enzyklop%C3%A4die#/media/File:Draft01_wkp.png

Veröffentlicht unter Allgemein, Artikelbewertung | Verschlagwortet mit , , , | Kommentare deaktiviert

Wikipedia vs. fake news – a fair fight?

Is Wikipedia a tool for the common internet user to spot fake news when they stumble upon them?

What is fake news?

Fake news are false reports that are crafted to look legitimate and spread deliberately to reach a certain goal. They are not the same as articles with lurid headlines that are only supposed to generate a wide reach for media outlets. It is however related to the practice of agenda cutting, because it can support the latter by taking the focus of what the public is really interested in.

Where does it come from?

Fake news is new wine in old wineskins. At least since WW I for parties to armed conflicts it is common practice to spread false reports about the enemy fraction. The goal always was to motivate the own population for war and deter the enemies’ public from continuing the war sustaining effort. This practice called “propaganda” has also been used outside of armed conflicts by states to discredit -be it states or individuals- and turn their legitimate political claims to ridicule or take away support for them. In this respect propaganda and fake news are very alike.

They are methods to weaken or neutralize a states’ enemy by spreading false or falsified information. On of the main differences between the two is that propaganda can often be traced back to its originator. Fake news on the other hand are often spread in a way that makes it hard to trace them back and find out what they were supposed to achieve in the first place. This leads us straight to the next question:

How do fake news work?

Most of the times fake news are disguised as serious and unbiased reports. They are linked to incidents or developments, that have been covered by a lot of media outlets and are therefore known to most of the population. In this faked news proven facts are mingled with fabricated falsehoods in such a fashion that the two can´t be told apart from another easily.

Since the press and media can spot these reports as fakes when they apply the diligence of the press, another way is needed to spread fake news across the population. Therefore, they are published via Facebook, Twitter and even messenger services such as WhatsApp. That is done via pages that look like the ones of big TV stations or news outlets to give them a credible look. These sites don´t need to be known to anyone to work, furthermore they cannot be linked to a person, corporation or government standing behind them.

Once the fake news has been distributed in such a fashion, the originator just has to wait for viewers, that think their countries media landscape is censored or for inconsiderate users to share the “report”. The more often this falsehood gets shared the more effective it is in achieving its purpose.

This is done by,

-          creating attention for a topic to drive attention away from another one.

-          defaming a person that is a nuisance to the originator of fake news or even making them subject to criminal investigation.

-          blur the line between falsehoods and facts, so that other representatives of the originator can claim that facts are “not to be proven”or “disputed” even though they are not.

Fake news only work so well, because they exploit a specialty of the human attentiveness. We tend to perceive those things better that are presented to us on a repeated basis and in a loud fashion. You can see the hazard lights of cars faster than it headlights because they are orange and flash on and off constantly. The same principle applies to fake news. When we are – in addition to our traditional media – flooded with expertly falsified news we are in danger to take them as serious as actual news. This is just because, the bright beam of the traditional press and media isn´t as flashy as the hazard lights of fake news.

Examples can be found very frequently. Not long ago for example soldiers of the german armed forces detachment in Lithuania were accused of several vicious sex crimes. On a similar way the news was spread that Sweden is about to sell heavy artillery to Ukraine.

With these means it’s possible to set an agenda that is not based on facts and analysis but on intentional deception by someone who elsewise would have little to no influence on the public. This agenda can easily be picked up by populists such as Donald Trump in the United States or Marine Le Pen in France. They then cleverly mix concerns about pre-existing grievances with stories from fake news. By that they can achieve that a significant part of the population loses trust in the democratic process and free press and media.  This is a very dangerous process that however doesn´t need to be unanswered.

But how can you spot fake news?

Nine times out of ten you can spot fake news with careful reading of the suspicious report you´ve come across, a google search and the use of your own brains in the following steps:

1.      Do I know the source of this news?

Is the site that published the report in question known to you outside of Facebook, Twitter, etc.? If you stumble across an outlet that has thousands of followers on Facebook but you can´t find it or its publisher on Wikipedia, you discovered one fake news warning sign. If you can find it on Wikipedia read the article about the publisher and make up your mind about how trustworthy you deem him.

2.      Was this report on other channels, too?

When a report hasn´t been launched over other channels or news outlets, that´s very often because it can´t be proved. Responsible media only publish, what they can prove to be true beyond a certain level of doubt. Why would they risk losing clicks and attention by not reporting about an actual story, that was already in other outlets? So, if you come across a report that already has a very upsetting headline, that you can´t find in any other publication -be it on- or offline- you have most likely stumbled across fake news. Therefore, you shouldn´t trust the report unless you are very fond of the facts that are mentioned in it.

3.      You can always fact check for yourself, right?

If you still aren´t sure whether a report is faked or not after applying the first two steps, you can always read up in specialised literature, consult a Wikipedia article about the subject of the report or ask a known expert about it. Wikipedia has the advantage of being easily accessible for you. It has also proven to be quite hard to be manipulated because its articles are a result of a discussion with the goal of finding the neutral point of view. Wrong current opinions and false claims can´t make it into the Wikipedia easily. If you don´t trust it, you can still run the article through wiki-watch to check its credibility.

Beyond that Wikipedia can´t help you much. The studying of literature about the subject and talking to experts about it give you more concise and correct results. At least it gives you the chance of getting a quick overview about the facts and opinions on a certain topic.

If you invest a maximum of five to ten minutes of your time, you can spot almost all fake news as what they truly are:

Elaborate lies that someone is trying to feed you.

So if you want to spot fake news, Wikipedia in combination with wiki-watch is a helpful tool, but if you want to tell facts from fiction in a public debate or gain deeper knowledge about a subject, you shouldn´t rely on it alone.

Veröffentlicht unter ENGLISH | Verschlagwortet mit , , , , , , | Kommentare deaktiviert

Wikipedia gegen Fake News – ein fairer Kampf?

Bietet die Wikipedia dem gemeinen Internetnutzer ein Werkzeug um Fake News zu erkennen, wenn sie ihm über den Weg laufen?

Was genau sind Fake News?

Die Wortkombination lässt sich leicht aus dem Englischen als „gefälschte oder geschwindelte Nachrichten“ übersetzen. Das trifft den Kern des Phänomens sehr gut. Fake News sind unwahre Meldungen, die bewusst verbreitet werden, um eine bestimmte Reaktion beim Empfänger zu erzielen. Sie sind zu unterscheiden von Falschmeldungen aufgrund unzureichender Recherche und Berichten mit reißerischen Überschriften, die nur Aufmerksamkeit generieren sollen.

Herkunft des Phänomens

Fake News ist ein neuer Begriff für ein altes Phänomen. Mindestens seit den Napoleonischen Kriegen und massenhaft ab dem 1. Weltkrieg ist das verbreiten von Falschmeldungen über die gegnerische Kriegspartei im In- und Ausland Teil fast jeden bewaffneten Konflikts. Die eigene Bevölkerung soll für den Krieg motiviert werden und die gegnerische dazu gebracht, diesen zu hinterfragen. Dieses Phänomen Namens Propaganda wurde auch außerhalb von Staaten genutzt um ihre Gegner -seien es Staaten oder Individuen- zu diskreditieren, ihre Anliegen ins Lächerliche zu ziehen oder ihnen Unterstützung zu nehmen. Insofern haben Fake News und Propaganda einiges gemein.

Sie sind Methoden, um durch die Verbreitung falscher Informationen Gegner zu schwächen oder unschädlich zu machen. Fake News an sich sind also nichts Neues. Einer der Unterschiede zur Propaganda in Kriegen liegt wohl darin, dass Propaganda relativ leicht zu ihrem Urheber zurückverfolgt werden kann. Bei Fake News hingegen ist oft unklar, woher sie genau stammen und welche konkrete Ziele damit verfolgt werden. Das führt zur nächsten Frage:

Wie funktionieren Fake News?

Fake News kommen am Häufigsten im Kleid von Nachrichten daher. Sie knüpfen oft an Sachverhalte an, über die in der gesamten Medienlandschaft berichtet wurde und die der breiten Bevölkerung ein Begriff sind. In diesen gefälschten Nachrichten werden dann erwiesene Tatsachen mit frei erfundenen Behauptungen so vermischt, dass die Fälschung auf den ersten Blick nicht als solche erkennbar ist.

Da Presse und Medien solche Berichte leicht als Fälschung erkennen, wenn sie die pressemäßige Sorgfalt anwenden, scheiden diese als Verbreiter gefälschter Nachrichten aus. Daher werden sie über soziale Medien wie Facebook, Twitter und teilweise sogar Messenger wie WhatsApp verbreitet. Doch auch dort findet eine gefälschte Meldung nicht automatisch Anklang. Dazu muss sie von einer Seite verbreitet werden, die der eines gängigen Mediums wie einem Fernsehsender oder einer Tageszeitung zum verwechseln ähnelt. Es kommt dabei nicht darauf an, dass diese Seite irgendjemandem bekannt ist. Diese Seiten lassen sich so gut wie nie zu ihrem Hintermann zurückverfolgen.

Ist das erst einmal geschehen, braucht der Verbreiter von Fake News nur noch darauf zu warten, dass seine Nachricht von unachtsamen Nutzern oder solchen die der Meinung sind, die Medienlandschaft ihres Landes sei zensiert, verbreitet wird. Je öfter diese Fälschung geteilt wird, desto wirksamer wird sie.

Diese Wirkung kann sie dadurch entfalten,

-          dass sie Aufmerksamkeit für ein Thema generiert und dabei erreicht, dass ein anderes Thema weniger beachtet wird.

-          dass sie eine Person, die dem Urheber der Fake News unliebsam ist diskreditiert oder sogar in den Fokus von Strafermittlungen rührt.

-          dass sie die klare Trennung zwischen Fakten und Fälschungen aufhebt, so dass andere Vertreter des Urhebers der Fake News Fakten bestreiten können, da sie ja „umstritten“ oder nicht „beweisbar“ seien.

Dabei macht sich der Verbreiter eine Besonderheit der menschlichen Wahrnehmung zu nutze. Wir nehmen Neuigkeiten besser war, je öfter und lauer sie uns begegnen. Die Warnblinkanlage eines Autos zum Beispiel ist deshalb so gut wahrnehmbar, weil diese an- und ausgeht und nicht einfach orangefarbend leuchtet. So können wir sie schneller sehen als die deutlich helleren Scheinwerfer des Fahrzeugs. Das selbe gilt für Fake News, wenn wir zusätzlich zu den vorhandenen Medien, deren Berichterstattung eine gewisse Konstanz hat, mit gefälschten Nachrichten geflutet werden, nehmen wir diese stärker war als die normalen Medien, weil sie ähnlich wie der Warnblinker mit starken Reizen arbeiten. Das Scheinwerferlicht der Presse und der Medien wird daher erst als zweites von uns wahrgenommen.

Jüngste Beispiele dafür sind die gefälschten Meldungen über vergewaltigende Bundeswehrsoldaten in Litauen oder die Meldung, dass Schweden schwere Artilleriegeschütze an die Ukraine verkauft.

So gelingt es eine Agenda zu setzen, die nicht auf Fakten oder Analysen beruht, sondern auf bewusster Täuschung. Diese Agenda kann dann von leicht von Populisten aufgegriffen und mit Unzufriedenheit über tatsächliche Missstände einer Gesellschaft vermischt werden. Mit diesem Rezept haben populistische Parteien und Politiker in Europa und Nordamerika mehr Erfolge bei Wahlen als jemals zuvor. Beispielhaft sei hier die „Fünf-Sterne-Bewegung“ aus Italien oder der Front National in Frankreich zu nennen.

Hinzu kommt, dass Seiten, die Fake News verbreiten bei Teilen der Bevölkerung schon deshalb einen Vorschuss an Glaubwürdigkeit genießen, weil sie nicht zu den bereits etablierten Medien zählen.

Wie erkennt man Fake News?

Fake News können sie fast immer mit genauem Lesen, einer Google Suche und dem Anwenden ihres gesunden Menschenverstands in folgenden Schritten erkennen.

1. Kenne ich den Urheber dieser Nachricht?

Ist diese Seite ein Presseerzeugnis oder Medium, dass auch außerhalb von Facebook, Twitter und anderen Social Media bekannt ist? Das wird sich einfach verneinen lassen, wenn eine Nachrichtenseite auf Facebook zwar mehrere Tausend Follower hat, aber auf der Wikipedia weder sie noch ihre Betreibergesellschaft zu finden ist. Wenn der Urheber auf Wikipedia zu finden ist, verschaffen sie sich einen Eindruck davon, ob er Journalismus betreibt oder nur ein Vehikel zur Verbreitung von Fake News ist.

2. Ist diese Nachricht nur über dieses Medium verbreitet worden?

Wenn eine Nachricht nur über ein Medium verbreitet wird, liegt das in Neun von Zehn Fällen daran, dass sie keine tatsächliche Nachricht ist. Würden alle anderen Medien diese Nachricht nicht verbreiten, würden sie riskieren weniger Reichweite zu haben, die wiederum mit dem Erfolg des Mediums korreliert. Wenn sie also eine schockierende Meldung lesen, die entweder viele Menschen betrifft oder Empörendes enthält, diese aber in keinem anderen Medium finden, haben die anderen Medien diese nicht verbreitet, weil sie keinen Beleg dafür finden konnten. Sie sollten dieser Nachricht also nicht trauen.

3. Sie dürfen nachprüfen!

Wenn sie nach Anwendung der ersten beiden Schritte noch unsicher über den Wahrheitsgehalt einer Meldung sind können sie die dargestellten Behauptungen in Fachbüchern nachschlagen, auf Wikipedia gegenlesen oder Experten auf dem dazu passenden Feld befragen. Wikipedia hat den Vorteil, dass ihre Artikel in der Regel das Ergebnis einer Diskussion mit dem Ziel der Darstellung des neutralen Standpunktes sind. Falsche Behauptungen oder verzerrte Meinungsbilder sind bei genauer Betrachtung nicht zu letzt unter Zuhilfenahme von Wiki-Watch in Wikipedia verhältnismäßig gut erkennbar. Jedenfalls liefert sie demjenigen, der unsicher über den Wahrheitsgehalt einer Nachricht ist, einen schnellen ersten Überblick über ein Themengebiet.

Mehr kann die Wikipedia an dieser Stelle nicht leisten. Das Studieren von Fachliteratur oder Befragen von Experten liefert deutlich genauere und zuverlässigere Ergebnisse.

Wenn sie fünf bis zehn Minuten ihrer Zeit Opfern um diese drei Schritte durchzuführen, werden sie fast alle Fake News als solche entlarven können.

Die Ausgangsfrage lässt sich also leicht beantworten: Ja Wikipedia kann ein Werkzeug sein Fake News zu erkennen, aber wer über eine Materie tiefere Sachkenntnis haben und in Debatten Fakten von Fiktion trennen können möchte, darf sich nicht auf Wikipedia verlassen.

Veröffentlicht unter Allgemein, Medien, news | Verschlagwortet mit , , , , , , , , , , , , , | Kommentare deaktiviert

Lässt sich Wikipedia zensieren?

Wikipedia gehört zu den Leitmedien unserer digitalen Gesellschaft. Als passiver Nutzer erwartet man, dass es für Wikipedianer keine Denk- oder Sprechverbote gibt und Artikel frei von Zensur möglichst, ebenso vollständig und genau lexikalisches Wissen sammeln. In diesem Artikel wollen wir untersuchen, ob das tatsächlich der Fall ist.

Die Wikipedia selber definiert Zensur als „Versuch der Kontrolle der Information. Durch restriktive Verfahren – in der Regel durch staatliche Stellen – sollen Massenmedien oder persönlicher Informationsverkehr kontrolliert werden, um die Verbreitung unerwünschter oder ungesetzlicher Inhalte zu unterdrücken oder zu verhindern.“

Eine Vorzensur existiert für die Wikipedia nicht. In Deutschland ist es so gut wie unmöglich die Wikipedia durch Gerichte zensieren zu lassen. Denklogisch kann also nur die Zensur gemeint sein, die die Wikipedia sich selbst auferlegt.

Gibt es Faktoren, die dazu führen, dass die Wikipedianer sich selbst beschränken?

In Frage kommen hier in loser Reihenfolge:

Jugendschutz:

Der Jugendschutz wird auf der Wikipedia nicht als Einschränkung angesehen, wie Nutzer Christhard zu Recht anmerkte. Dieser Faktor kann also in der Betrachtung außen vor bleiben.

Relevanzkriterien:

Die Relevanzkriterien führen in der deutschen Wikipedia dazu, dass viele Inhalte, die sonst als Artikel veröffentlicht werden würden, nicht in der Wikipedia erscheinen.

Schutz des allgemeinen Persönlichkeitsrechts:

Eine Verpflichtung der Wikipedia zum Unterlassen von Persönlichkeitsrechtsverletzungen vor Gericht ist nur schwer durchsetzbar. Nichtsdestotrotz bemüht sich die Wikipedia solche Verletzungen zu unterlassen oder so schnell wie möglich zu beseitigen.

Bearbeitungs- / Vandalismussperren:

Neue Nutzer können in der Wikipedia einige Artikel nicht bearbeiten. Als beispielsweiße der Autor dieses Artikels einen Wikipedia Account anlegte, um eine Umfrage unter den Wikipedia Autoren zu veröffentlichen war dies auf Grund einer Vandalismussperre nicht möglich.

Wie genau entfalten Zensurfaktoren ihre Wirkung?

Die Einhaltung der Relevanzkriterien wird sehr strikt von den Administratoren der Wikipedia überwacht. Bereits in den vorherigen Artikeln haben wir beleuchtet, dass diese Praxis neue Nutzer abschreckt und aktive Nutzer dazu bewegt inaktiv zu werden. Solche Konsequenzen -in der Rechtssprache „chilling effects“- führen dazu, dass die Wikipedia eine weniger große Autorenschaft hat, die beim Verfassen neuer Artikel den Themenkreis sehr weit einengen, um eine Löschung und damit die Vernichtung ihrer Bemühungen zu verhindern.

Während deutsche Zeitungen und andere Medien häufig lange Prozesse führen müssen, um unberechtigte Klagen zum Schutz des Persönlichkeitsrechts abzuwehren, hat die Wikipedia dieses Problem auf Grund ihrer speziellen Konstruktion nicht. Trotzdem ist es gerade in einem so stark durch Rechtsprechung geprägten Gebiet wie dem Schutz des Persönlichkeitsrechts für juristische Laien schwer zu erkennen, was veröffentlicht werden darf und was nicht. Dementsprechend lassen sich häufig zwei Umgangsformen mit dem Problem beobachten.

  1. Persönlichkeitsrechte werden unzulässiger Weise ignoriert.
  2. Aus der Furcht vor Persönlichkeitsrechtsverletzungen werden zulässige Veröffentlichungen unterlassen.

Die letztere ist diejenige, die Unsicherheit über die Rechtslage zu einem „chilling effect“ und damit zu einem Zensurfaktor macht.

Ein Autor, der auf einer häufig von Vandalismus betroffenen Seite nicht editieren darf, wird sich dadurch in der Regel nicht vom Erstellen von Artikeln abhalten lassen. Die Vandalismussperren betreffen nur eine sehr geringe Anzahl von Seiten der Wikipedia. Ein über diese Seiten hinausgehender Zensureffekt ist daher höchst unwahrscheinlich.

Die Wikipedia bietet auf der einen Seite viele Freiheiten und wenige Schranken. Andererseits muss beachtet werden, dass die „Schere im Kopf“ wie oben beschrieben heutzutage oft das mächtigste Werkzeug der Zensur ist.

Die Antwort auf die Ausgangsfrage lautet daher: Die Wikipedia wird zensiert.

Ist diese Art und Weise von Zensur schlimm?

Nun stellt sich die Frage, ob diese Art und Weise von Zensur in einer freien und offenen Gesellschaft wie der unseren zumutbar ist.

Gerade in Sachen Jugendschutz ist den Wikipedianern zu raten, einige Medien zu entfernen, die ganz offensichtlich nicht dem enzyklopädischen Anspruch dienen. Hier wäre etwas mehr Zensur im Sinne von einer stärkeren Selbstkontrolle angemessen.

Bei der Einhaltung der Relevanzkriterien ist die Frage hingegen deutlich berechtigter. Vielmehr könnte man auch der Meinung sein, dass die Wikipedia, gerade weil sie nicht wie z.B. der Brockhaus eine klassische Enzyklopädie ist, nicht so streng nach Relevanz sortieren sollte. Zusätzlich führt die strikte Auslegung des Begriffs Relevanz dazu, dass viele motivierte Neuautoren, die anderenfalls eine Bereicherung für die Wikipedia wären, wieder abgeschreckt werden. Eine weniger strenge Haltung in dieser Frage würde die Wikipedia sicherlich bereichern.

Aus rechtsstaatlichen Gründen ist nur die Vorzensur abzulehnen. Diese findet auf der Wikipedia allerdings nur in Form von Vandalismus-/ oder Bearbeitungssperren statt. Dort wird sie auch nicht eingesetzt, um gewisse Inhalte zu filtern. Sie sollen lediglich Seiten, die für das Funktionieren der Gemeinschaft Wikipedia notwendig sind vor Spam schützen. Selbst diese Sperren sind also nicht mit der klassischen Vorzensur vergleichbar und haben auch nicht den selben Effekt.

Die Wikipedia ist zwar Gegenstand von Zensur, an vielen Stellen hat das allerdings auch seine Berechtigung als eines der einflussreichsten und reichweitenstärksten Medien (Link finden!) fällt ihr eine Verantwortung zu, der sie manchmal nur mit dem Entfernen von Inhalten gerecht werden kann.

Zusammenfassend bleibt zu sagen, dass die Zensur nichts schlimmes ist, aber zumindest bei den Relevanzkriterien der Gemeinschaft der Autoren und damit auch der Wikipedia selber schadet.

Veröffentlicht unter Allgemein | Kommentare deaktiviert

Weibliche Autoren bei Wikipedia – eine gefährliche Schieflage?

51% der Deutschen sind Frauen, 55% der Abiturienten sind Frauen, 37,1% der Bundestagsabgeordneten sind Frauen, 50,2% der Studierenden sind Frauen, warum aber sind nur 6-23% der Wikipedia-Autoren Frauen….

Die Wikipedia kommt trotz jahrelangem Autorenschwund ohne viele Frauen unter den Autoren aus. Warum ist das so?

Ist eine Änderung dieses Zustands überhaupt notwendig? Braucht die Wikipedia mehr Frauen?

Der Anspruch der Wikipedia an sich selbst, eine Enzyklopädie zu sein, bedeutet, dass sie nicht nur gut recherchierte, sauber belegte und gut lesbare Artikel enthält, sondern auch alle Themen, die relevant sind. Die Debatte darüber, was relevant genug ist, um in der Wikipedia dargestellt zu werden, war bereits an einer anderen Stelle Gegenstand des letzten Artikels. (Link!) Die Frage ist, ob die Tatsache, dass höchstens einer von 5 Wikipedia-Autoren eine Frau ist, sich negativ auf die Themenbreite der Wikipedia Artikel auswirkt.

Eine oft gehörte Unterscheidung zwischen klassisch „männlichen“ und klassisch „weiblichen“ Themen lautet, dass Männer eher dazu neigen politische und wirtschaftliche Themen wie zum Beispiel die Kolonialisierung, Revolutionen, Kriege und Wirtschaftskrisen zu thematisieren und Frauen eher zu den Themen des häuslichen Lebensbereichs, gesellschaftliche Zwängen und sozialen Normen Interesse aufweisen. Zwar ist diese Unterscheidung in erster Linie ein Klischee und pauschale Aussagen über Eigenschaften von Männern und Frauen entlarven eher den Äußernden in seiner Oberflächlichkeit, als dass sie zur Erkenntnisfindung beitragen. Doch in der Wikipedia zeichnet sich genau diese Tendenz seit Langem ab.

So sind Themen wie Mode, Unterhaltung aber auch frühkindliche Entwicklung schon lange unterrepräsentiert. Sicherlich ist diese Schlagseite bei der Themenwahl für Artikel nicht nur der ungleichen Geschlechterverteilung unter den Wikipedia Autoren allein geschuldet. Gerade die oben genannten Themen sind bei den durchweg eher jüngeren internetaffinen Autoren beider Geschlechter sicherlich nicht besonders beliebt. Autoren zu finden, die ihre Freizeit darauf verwenden, sich in diese Bereiche einzulesen und ansprechende, hochwertige Artikel darüber zu schreiben, fällt natürlich schwer.

Einerseits könnte die Wikipedia speziell in den genannten Themenfeldern mehr begeisterte Autoren gebrauchen, andererseits gilt das auch für die gesamte Wikipedia und es ist nicht ausgemacht, dass eine höhere Quote zur Stärkung von solchen „Frauenthemen“ in der Agenda der Wikipedia führt.

Die Hoffnung, Frauen würden die Qualität der Wikipedia bei „Frauenthemen“ steigern, wenn diese zahlreicher unter den Autoren zu finden sind, könnte also durchaus auch enttäuscht werden. Und trotzdem bleibt es schwer verständlich, wie sich ein solch krasses Missverhältnis zwischen den Geschlechtern der Autoren entwickeln und über die Jahre zementieren konnte. Trotzdem leuchtet es bei näherer Betrachtung des Prozesses der Entstehung von Wikipedia Artikeln ein, dass möglichst alle gesellschaftlichen Gruppen unter den Autoren repräsentiert sein sollten. Wenn viele verschiedene Autoren kooperativ an einem Artikel zusammenarbeiten, liegen die Vorteile von einer möglichst verschiedenartig geprägten Truppe an Autoren auf der Hand. Sie können Wissenslücken der Anderen ergänzen, weisen Erfahrungen auf Gebieten vor, die andere Autoren noch nicht mal kennen und befruchten so den Wissensaustausch in der Wikipedia. Wohingegen eine homogenere Gruppe von Autoren das Problem hat, dass ihr genau dieser Zugang zu Erfahrungen, die sie nicht aus dem Berufs- oder Privatleben oder aus ihrem näheren Umfeld kennen, fehlt.

Daraus kann man zwei Schlüsse ziehen:

  1. Die Wikipedia hat zu wenige weibliche Autoren.
  2. Die Wikipedia braucht die Vielfalt an Geschlechtern, Lebensläufen, Lebensaltern, beruflichen Laufbahnen und politischen Ansichten ihrer Autoren, um noch besser zu werden.

Nun ist das Problem des Autorenschwundes und der ungleichen Geschlechterverteilung der Autoren nicht erst vor kurzem erkannt worden. Was wurde aber in den vergangenen 5 Jahren getan, um mehr Frauen für Wikipedia zu begeistern und was davon fruchtete überhaupt?

Nachdem schon lange eine vereinfachte Bearbeitung von Artikeln gefordert wurde, ist seit diesem Frühjahr der Visual Editor die Standard Einstellung auch für neue unangemeldete Besucher. Er soll gegenüber der Artikelbearbeitung im Quelltext eine starke Vereinfachung gerade für unangemeldete Autoren ermöglichen, indem er den Autoren ihren Text so anzeigt, wie ihn der Wikipedia Nutzer am Ende auch sehen kann. Diese Vereinfachung beim Erstellen von Artikeln soll die Hemmschwelle zur aktiven Teilnahme an der Wikipedia abbauen, indem man auch Texte bearbeiten kann, ohne sich vorher in die Feinheiten der Bearbeitung im Quelltext einzuarbeiten. Ob diese sinnvolle Neuerung der Wikipedia nachhaltig zu mehr neuen Autoren im Allgemeinen und mehr weiblichen Autoren im Speziellen führen wird, bleibt abzuwarten.

Von  2013 bis 2015 versuchte man mit der Teestube ein Forum zu schaffen, dass neuen Autoren oder Interessenten den Einstieg in die Mitarbeit erleichtern sollte. Über eine Schaltfläche mit der Aufschrift „Eine Frage stellen“ hatten diese die Möglichkeit, erfahrenen Autoren zu Themen rund um das Schreiben und Bearbeiten von Artikeln Fragen zu stellen. Dieses Projekt hat aber anscheinend nicht genug Nachfrage erfahren, so dass es eingestellt wurde. Als Auffangbecken für Neu-Autoren, die Hilfe benötigen, gibt es nun noch das Wikipedia-Café dieses ist allerdings nicht über eine spezielle Schaltfläche für Neulinge zu erreichen und gleicht auch eher einem Plauderforum als einer helfenden Institution.

Speziell an Frauen richtet sich die Initiative WomenEdit. Dieses Portal bietet weiblichen Neuautorinnen seit 2013 mit kurzen Unterbrechungen monatliche Treffen in Berlin, die Unterstützung bei der Verfassung neuer Artikel und ein Forum zum Austausch über die Arbeit an der Wikipedia. Laut der Eigendarstellung des Projekts gelang die nachhaltige Rekrutierung mehrerer Wikipedia Autorinnen, die aktiv bearbeiten.

Fazit: Das Problem der Wikipedia ist sicherlich nicht nur, dass sie zu wenig weibliche Autoren hat, sondern insgesamt zu wenige Autoren. Niedrige Einstiegshürden für Neuautoren, ein gesitteterer Umgangston und mehr Wertschätzung durch etablierte Autoren und Administratoren sind dafür notwendig. Wenn jedoch die Hälfte der Menschen nur zu 10-20% unter den Autoren zu finden sind ist das ein Malus, den die Wikipedia weiterhin angehen muss.

Anmerkung: Dieser Artikel wurde bereits am 27. Juni 2017 auf diesem Blog veröffentlicht, er musste jedoch zur Behebung eines technischen Defekts gelöscht und heute noch einmal gepostet werden.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , , , | Kommentare deaktiviert

Relevanzkriterien und neue Autoren oder: steckt die Wikipedia in einer Sackgasse?

Nachdem wir im letzten Artikel feststellten, dass die saubere Quellenarbeit immer viel Aufwand und oft sehr hohe Sachkenntnis der Materie verlangt, wenden wir uns heute denjenigen zu, die eben diese Arbeit leisten.

Wenn Sie jetzt denken, es geht um Autoren, dann liegen sie vollkommen richtig.

Seit fast zehn Jahren befindet sich die Anzahl der Wikipedia-Autoren in einem Abwärtstrend. Plakativ formuliert: “Wenn die Anzahl der Wikipedia Autoren eine Aktiengesellschaft wäre, hätte auch der letzte Investor das Handtuch geworfen.“

  • Das ist eine bedenkliche Entwicklung, weil die Wikipedia mit ihren ca. 10 Millionen Aufrufen pro Tag eine große Wirkung auf die breite Bevölkerung hat.
  • Für einen großen Teil der Internetnutzer ist sie der Beginn jeder Recherche.
  • Fehler, Ungenauigkeiten und schlechte Recherche in der Wikipedia können also einen großen Einfluss auf die Wahrnehmung eines Themas haben.

Gerade deswegen ist es interessant zu beobachten, dass die Aufgabe die mehr als zwei Millionen Artikel der Wikipedia stets aktuell zu halten und das lexikalisch Relevante vom Irrelevanten zu trennen, von einer bestenfalls stagnierenden Anzahl von ungefähr eintausend Autoren bewältigt wird.

Angesichts dieser Tendenz drängen sich Fragen danach auf, inwiefern diese schmale Basis an Autoren den hohen Ansprüchen der Wikipedia gerecht werden kann. Gerade das Finden des neutralen Standpunktes erfordert fast schon notwendig eine Diskussion zwischen mehreren Nutzern. Inwiefern dies auch in Zukunft trotz des ungebremsten Autorenschwundes möglich sein wird, ist fraglich.

Doch wie kommt es, dass es der Wikipedia nicht gelingt diesen Schwund aufzuhalten?

Ein großes Problem sei vor allem, dass die Wikipedia Kommune neue Autoren oft nach kurzer Zeit wieder vergraule, wie z.B. der Nutzer Kusanowsky an dieser Stelle vor drei Jahren schrieb.

Ein Problem das von vielen Wikipedia-Autoren (z.B. hier und etwas älter hier) genannt wird, ist die rigide Löschpraxis auf Grund einer strikten Auslegung der Relevanzkriterien durch die Admins.

Was genau sind aber diese Relevanzkriterien?

Die Relevanzkriterien der Wikipedia sollen eine Verwässerung der Wikipedia verhindern. Sie enthalten einen Katalog an bedeutsamen Themen. Wenn ein Artikel diese Themen behandelt, besteht nach den Regeln der Wikipedia eine Vermutung zu Gunsten der Relevanz des Artikels. Das heißt er kann nur gelöscht werden, wenn dargelegt wird, warum er trotz seiner Thematik irrelevant ist. Wenn ein Artikel keines der im Relevanzkatalog behandelten Themen behandelt, ist es zwar nicht automatisch ein Löschkandidat, jedoch müssen Nutzer im Falle eines Löschantrags stichhaltige Argumente dafür vorbringen, dass der Artikel wichtiges Wissen enthält.

Der Katalog der Relevanzkriterien ist nach den eigenen Angaben der Wikipedia selbst umstritten und das Ergebnis jahrelanger Debatten. Er repräsentiert also einen gewissen Konsens der Nutzer darüber, was nun enzyklopädisch relevant ist und was nicht. So weit so gut.

Ein größeres Problem scheint jedoch zu sein, wie diese Relevanzkriterien ausgelegt werden. Dabei ist zu beobachten, dass sich innerhalb der Wikipedia grob zwei Fraktionen herausgebildet haben. Die eine möchten, dass die Wikipedia vergleichbar mit einem Konversationslexikon nur Themen und Phänomene von allgemeiner Relevanz behandelt. Auf der anderen Seite wird, vertreten, dass die Wikipedia Artikel nicht löschen sollte, so lange sie sauber recherchiert und gut geschrieben sind. Für sich genommen, haben beide Meinungen etwas für sich. Seit geraumer Zeit hat in der deutschen Wikipedia das „weniger-ist-mehr-Lager“ die Oberhand gewonnen. Das führt dazu, dass neu angelegte Artikel sehr oft unter dem Hinweis auf fehlende Relevanz gelöscht werden.

Wer jedoch bestimmt, ob ein Artikel den Relevanzkriterien entspricht?

Wie kommt es zum Beispiel, dass auf der einen Seite der Artikel über Bauchnabelfussel trotz langer Löschdiskussionen erhalten bleibt? Andererseits ist von vielen Neu-Autoren zu hören, dass ein Großteil ihrer neuen Artikel wegen fehlender Relevanz gelöscht werden. Teilweise kommt es sogar dazu, dass etablierte Autoren, wenn sie sich als Neuling anmelden ebenfalls diesem Löschprozess zum Opfer fallen. Das Prozedere rund um Löschdiskussionen gestaltet sich wiederum gerade für Neulinge als undurchsichtig und unnötig kompliziert. Gerade die Funktion der Admins, die in der Wikipedia, sobald sie gewählt sind, große Freiheiten in der Ausübung ihrer Funktion haben, erweisen sich in diesem Kontext als problematisch. So ist es neuen Autoren nur schwer möglich Löschdiskussionen zu ihren Gunsten zu entscheiden.

Das Ergebnis dieses schon lange anhaltenden Zustands ist, dass die Anzahl der Autoren bei Wikipedia konstant rückläufig ist.

Warum sollte man als neuer Autor nach Löschdiskussionen, die mit einem rüden Umgangston oder Beleidigungen gespickt sind, noch seine Freizeit nutzen, um unentgeltlich etwas zu dieser im Alltag so bedeutsamen Wissenssammlung beizutragen?

Die Antwort auf dieses, nach wie vor drängendste Problem der Wikipedia, zu finden ist sicherlich nicht einfach, aber lohnenswert. Schließlich ist nur schwer vorstellbar, dass ein harter Kern von circa eintausend oder noch weniger Autoren dauerhaft die Pflege und Aktualisierung von über zwei Millionen deutschen Wikipedia Artikeln leisten kann. Schon jetzt ist es so, dass aus Qualitätsgründen die deutsche Wikipedia von vielen nur noch in der Ausnahme genutzt wird und in der Regel greifen Nutzer eher zur englischen.

Was kann geändert werden, damit die Wikipedia wieder attraktiver für Neuautoren wird?

  • Oberste Priorität muss eine Debatte darüber haben, wie die Wikipedia für Autoren transparenter/verständlicher werden kann.
  • Da oftmals die Admins ihre Machtbefugnisse innerhalb der Community missbrauchen, sind deren Aufgaben auf verschiedene, sich gegenteilig überwachende Institutionen zu verteilen.
  • Ein System, dass mehr „Checks and Balances“ und weniger „Herrschaft von Volkstribunen“ enthält, wäre das wünschenswerte Ziel.
  • Weiterhin sollte die Diskussion darüber, ob die Relevanz wirklich so strikt behandelt werden muss, weitergeführt werden.
  • Die Lösung, Artikel nur zu löschen, wenn sie nicht ausreichend Qualität aufweisen, würde sicherlich einigen neuen Autoren und vielen Lesern attraktiv erscheinen.

“Wikipedia braucht … vor allem eine leidenschaftliche Gemeinschaft umsichtiger, netter Menschen, die Freude daran haben, die Welt auf den Kopf zu stellen.”

Jimmy Wales

Mit diesen Worten des Mitgründers der Wikipedia, ist den Wikipedianern der Mut zu wünschen, Strukturen zu überdenken und Reformen zu wagen, damit das Lexikon auch in den nächsten 17 Jahren noch weiter floriert. Gleichsamen ist neuen Autoren die Ausdauer und das dicke Fell zu wünschen, das es braucht um die Wikipedia zu bereichern.

Was würden Sie, liebe Leser an der Wikipedia ändern, um mehr Autoren anzulocken?

Anmerkung: Dieser Artikel wurde bereits am 27. Mai 2017 auf diesem Blog veröffentlicht, er musste jedoch zur Behebung eines technischen Defekts gelöscht und heute noch einmal gepostet werden.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , , , | Kommentare deaktiviert

Fußnote, Beleg & Co Die Wikipedia und ihr Umgang mit Quellen

„Wikipedia-Artikel sollen gut gesichertes, etabliertes Wissen enthalten, mit dem Ziel, den aktuellen Kenntnisstand darzustellen. Grundsätzlich sind daher wissenschaftliche Publikationen, insbesondere Standardwerke, begutachtete Veröffentlichungen und systematische Übersichtsarbeiten, die für das Fachgebiet des jeweiligen Lemmas relevant sind, zu bevorzugen. Damit keine veralteten oder überholten Informationen in Wikipedia eingearbeitet werden, sollten möglichst aktuelle Ausgaben Verwendung finden. Ebenfalls zu berücksichtigen ist, inwieweit diese Quellen in den akademischen Diskurs, etwa in akademischen Fachzeitschriften des betreffenden Themengebiets, einbezogen werden und welches Gewicht ihnen darin beigemessen wird.“

Die Standards der Wikipedia könnten auch genauso gut einem Leitfaden zur Einführung in das wissenschaftliche Schreiben dienen. Als ein sich selbst regulierender „Organismus“, der sich seinen Regeln verschrieben hat, dürfte es in der Theorie nicht möglich sein, dass sich schlecht belegte Artikel halten können. Doch wie sieht es in der Praxis tatsächlich aus?

Studien zur Qualität der Wikipedia belegen immer wieder, dass diese mit der Qualität der klassischen Nachschlagewerke wie Brockhaus, Encyclopaedia Britannica et cetera mithalten kann und teilweise sogar besser ist.

Andererseits verstummt auch fast 16 Jahre nach dem Start der deutschen Wikipedia die Kritik an ihrer Qualität noch immer nicht.

Woher rührt also die Unzufriedenheit mit der Exaktheit der Wikipedia? Hilfreich kann ein Blick auf den Umgang mit Quellen sein. Das Finden und Belegen von etabliertem Wissen aus aktuellen Quellen dürfte mit dem Besuch einer öffentlichen Bibliothek problemlos möglich sein. Ob die dann gefundene Quelle Teil des wissenschaftlichen Diskurses ist, kann der Autor mit dem Blick in parallele Werke zur selben Thematik klären.

Der Autor nutzt das OPAC (oder sonstige digitale Verzeichnisse) und findet über die Eingabe des Themengebiets die einschlägige Sach- oder sogar Lehrliteratur. In diesem wird etabliertes Wissen aus dem Blickwinkel eines Autors zusammengefasst. Als nächstes greift der Autor zu den Werken zum selben Thema, die sich gar nicht unwahrscheinlich sogar im selben Regal befindet. Dort wird ebenso das betreffende Gebiet von einem anderen Autor zusammengefasst, der zu den streitigen Fragen der Materie andere Auffassungen vertritt. Am Ende zitiert der Verfasser des Wikipedia-Artikels die beiden Quellen, vertritt in seinem Artikel einen vermittelnden Standpunkt und im Idealfall nennt er die beiden Positionen samt Autoren. Dann setzt er deren Ansichten in Relation zur neutralen Ansicht und hat schließlich einen hochwertigen und informativen Fachartikel geschrieben, aus dem der Leser der Wikipedia seine Informationen aufbereitet und praktisch zusammengefasst schöpfen kann.

Eben dieses Bild geisterte dem Autor dieses Beitrags beim Verfassen durch den Kopf. Es hat eine gewisse Nützlichkeit, um die Schwierigkeiten der Quellenfindung für einen Autor aufzuzeigen. Um im Bild zu bleiben, bleibt bei dieser Betrachtung außen vor, dass auch in den Tiefen des world wide web durchaus gute Quellen zu finden sind, dies ist aber zu einem späteren Zeitpunkt zu erläutern.

Ein solches Kriterium ist wohl gerade für den Autor, der sich neu in eine Materie einliest, ein wertvoller Hinweis. Aber um die Frage welches Gewicht dem Werk im wissenschaftlichen Diskurs beigemessen wird zu beantworten, ist ein breites Überblickswissen erforderlich. Wer zum Beispiel einem Nichtjuristen den Erlaubnistatbestandsirrtum näherbringen will, benötigt dazu zunächst selbst einen umfassenden Überblick über die vertretenen Standpunkte. Darüber hinaus muss er wissen, warum manche Standpunkte nicht mehr vertreten werden können. Zum Schluss bleibt ihm zu mindestens die vertretbaren Lösungen des Problems nennen, um einen neutralen und detaillierten Artikel zu verfassen. Die Wikipedia traut diese Leistung Menschen zu, die nicht zwingend über das notwendige Wissen verfügen und dadurch bedingt, diese Quellen richtig einzuordnen. Kann das auf Dauer überhaupt funktionieren?

An dieser Stelle könnte man den Einwand führen, dass ein Wikipedia Artikel in der Regel nicht nur von einem, sondern mehreren Autoren verfasst wird. Jedoch nutzt auch das im Zweifel wenig, wenn alle diese Autoren nicht über die erforderlichen Fachkenntnisse verfügen. Darüber hinaus ist es fraglich, wie viele Wikipedia Autoren tatsächlich vorrangig nach möglichst neutralen, aktuellen und fachlich hochwertigen Buchveröffentlichungen als Belege für ihre Artikel suchen. Ob die Wikipedia durchgängig ihren eigenen Standards an Belege einhält, lässt sich nur schwer messen. So lässt sich vielleicht auch erklären, warum sowohl die englisch- als auch die deutschsprachige Wikipedia im quantitativ gemessenen Qualitätsvergleich ihre enzyklopädische Konkurrenz schlagen konnten.

Eine weitere spannende Frage ist, welche Quellen den oben genannten Ansprüchen genügen, wenn Fachbücher zum Themenkreis des Artikels gar nicht erst existieren oder aufgrund einer nicht vorhandenen Übersetzung nicht zu beschaffen sind. Über Suchmaschinen[1] ist auch im Internet sehr viel Fachliteratur zu finden. Allerdings verbleiben auch hier die Fragen, ob es den Wikipedia-Autoren 1. Möglich ist, einen umfassenden Überblick über die vertretenen Thesen und Meinungen und deren Rang im wissenschaftlichen Diskurs zu finden und 2. Ob diese Werkzeuge auch von den Autoren genutzt werden.

Mangels belastbarer quantitativer Untersuchungen über den Umgang der Wikipedia mit Quellen bleibt an dieser Stelle nur die Möglichkeit, einzelne Stichproben zu untersuchen.

Ein Beispiel dafür, was motivierte Autoren schaffen können ist der Artikel über den gutgläubigen Erwerb vom Nichtberechtigten. Für die juristischen Laien lässt sich das Thema folgendermaßen kurz zusammenfassen. Im Bürgerlichen Gesetzbuch ist es nicht nur möglich, dass Eigentum an einer Sache von jemandem zu erwerben, der selbst Eigentümer ist oder von diesem beauftragt wurde. In bestimmten Ausnahmefällen erlaubt das BGB auch den Erwerb des Eigentums an Sachen von Personen, die nicht dazu berechtigt waren, diese zu veräußern.

Dieser Themenkomplex wird im oben genannten Artikel nicht nur fachlich richtig belegt und anschaulich erklärt. Der Artikel wird auch mit aktuellen Auflagen der Fachliteratur belegt. Mit der fachlichen Tiefe und Breite der Darstellung in einem Fachkommentar könnte der Artikel vielleicht nicht unbedingt mithalten, doch mit juristischen Kurzlehrbüchern sehr wohl. Auch die Auswahl der Literatur und die vertretenen Anschauungen würden in einer fortgeschrittenen Hausarbeit eines Jura Studenten nicht negativ auffallen.

Der o.g. Artikel ist also ein Beispiel dafür, wie die Wikipedia in einigen Bereichen einen hohen Qualitätsstandard erreicht hat und halten kann. In diesem Gebiet ist das auch unter anderem deshalb möglich, weil das deutsche Zivilrecht in zahlreichen vielfältigen Veröffentlichungen in extenso Teil des wissenschaftlichen Diskurses ist.

Wie sieht jedoch die Quellenlage für einen Artikel zu einem Thema aus, dass nicht im Fokus eines Wissenschaftszweiges steht?

Im Artikel über den Science-Fiction Roman “Förchtbar Maschien” des Autors Iain M. Banks wird das deutlich. Der durchaus Informative Artikel gibt einen Überblick über das besprochene Werk und rezitiert die Kritik dazu. Allerdings werden abgesehen von der englischen und der deutschen Fassung des Werkes nur eine Genre-Übersicht und eine Buchkritik als Quellen angegeben. Die schnelle Suche des Autors dieses Artikels ergab, dass zu diesem Thema auch nicht mehr Quellen online Verfügbar sind. Dieser Artikel ist daher ein schönes Beispiel dafür, wie viele Themen schwer belegbar sind, weil es an online verfügbaren Quellen mangelt und die Autoren eventuell offline verfügbare Quellen nicht nutzen.

Ein drittes Beispiel zeigt, wie selbst ein breiter bekanntes Thema nicht-fiktionales Thema, wie die Umschlagbahnhöfe im Güterverkehr in der Wikipedia zwar beschrieben und erklärt, jedoch nur eher sparsam belegt werden. Von den zehn Quellen, die der Artikel nennt, sind acht Verlautbarungen von Unternehmen, die im Güterverkehr aktiv sind. Zwei weitere sind Presseberichte. An dieser Stelle scheint die Lücke zwischen dem Anspruch der Wikipedia an ihre Autorenschaft und der Realität relativ weit auseinander zu klaffen.

Wikipedia trägt in einigen Bereichen vollkommen zu Recht den Namen einer Enzyklopädie. In vielen anderen Bereichen, wird sie dem eigenen Anspruch an die saubere gut recherchierte und mit Quellen belegte enzyklopädische Arbeit nicht gerecht. Interessant wäre in diesem Kontext, die Art und Weise, wie Wikipedia Artikel belegt werden, quantitativ darauf hin zu analysieren, wie häufig Quellen genutzt werden und welche Quellenkategorie den größten Anteil an den Belegen hat. Das Problem nicht oft genug genutzter offline Quellen scheint aber auch in der Wikipedia Gemeinde erkannt worden zu sein.


[1]http://scholar.google.de/; http://scirus.com; http://www.base-search.net oder http://www.metager.de sind gute Beispiele.

Anmerkung: Dieser Artikel wurde bereits am 02. Mai 2017 auf diesem Blog veröffentlicht, er musste jedoch zur Behebung eines technischen Defekts gelöscht und heute noch einmal gepostet werden.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , , , , , , | Kommentare deaktiviert

Aktuelles: Wikipedia Zugang in der Türkei geblockt.

Laut der Nichtregierungsorganisation Turkey blocks, die sich zur Aufgabe gemacht hat, Restriktionen oder Sperrungen des Zugriffs auf das Internet während wichtiger politscher Ereignisse zu dokumentieren, ist seit dem 29.04.2017 der Zugang zur Wikipedia in der Türkei gesperrt. Laut verschiedenen Quellen, soll die Regulierungsbehörde für Telekommunikation BTK die Blockierung angeordnet haben.[1] Eine offizielle Begründung steht bis dato akllerdings noch aus.

Der independent zitiert türkische Medien, die als Gründe für die Sperrung angäben, dass die Wikipedia den Terror unterstützende Inhalte sowie weitere Inhalte, die nahe legen, dass die Türkei den Terror unterstützt, beinhalte. Außerdem wird gefördert, dass die Wikipedia ein Büro in der Türkei eröffne und das internationale Recht und Gerichtsentscheidungen einhalte. Welcher Teil des internationalen Rechts und welche Gerichtsentscheidungen es genau sind, die von der Wikipedia nicht eingehalten worden sind, verbleibt zunächst ungeklärt.

Dieser Vorfall ist leider kein Einzelfall. Schon seit Längerem kommt es in der Türkei während wichtiger politischer Ereignisse zu Blockierungen von Social Media Diensten wie Twitter oder Youtube. Der Konflikt reicht mittlerweile schon eine relativ lange Zeit zurück.

Besorgniserregend daran ist, dass der schon bei den 14. Frankfurter Medienrechtstagen diskutierte rapide Verfall der Freiheit der Berichterstattung in gleichem Maße auch die Social Media Dienste betrifft, die in Ländern ohne eine freie und unabhängige Presse oft eine der letzten Möglichkeiten zum offenen Austausch von Meinungen und Neuigkeiten sind.

Aus rechtswissenschaftlicher Sicht ist vor allem interessant mit welcher Begründung solche Sperren vorgenommen werden. Die Rechtsgrundlage für Internetsperren sieht vor, dass Sperrungen von den zuständigen Behörden angeordnet werden können und nach vierundzwanzig Stunden von Richtern überprüft werden müssen. Die Beweislast dafür, dass die Sperre nicht rechtens ist, tragen die Betreiber. Angesichts der Tatsache, dass der türkischen Justiz mangelnde Unabhängigkeit und ein aus Säuberungen resultierender Mangel an qualifizierten Richtern vorgeworfen wird, lässt die Aussichten auf effektiven Schutz des Rechtes auf Meinungsfreiheit eher trübe aussehen.

Gerade die Rechtfertigung der Sperre mit dem Vorwurf der Terrorpropaganda zeigt darüber hinaus, wie leicht und auch üblich es für die türkische Regierung geworden ist, die Freiheit der Meinungsäußerung und der Berichterstattung mit undurchsichtigen Begründungen einzuschränken.

Der Wiki-Watch Blog wird diese Entwicklung weiter beobachten.


[1]Der Autor konnte die Angaben der BTK, die in verschiedenen Medien zitiert werden nicht auf Englisch oder Deutsch finden. Daher müssen an dieser Stelle Sekundärquellen ausreichen. https://www.tagesschau.de/ausland/tuerkei-wikipedia-101.html http://www.independent.co.uk/news/world/europe/turkey-blocks-wikipedia-internet-erdogan-online-wiki-is-it-down-a7708941.html

Anmerkung 1: Dieser Artikel wurde bereits am 01. Mai 2017 auf diesem Blog veröffentlicht, er musste jedoch zur Behebung eines technischen Defekts gelöscht und heute noch einmal gepostet werden.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , | Kommentare deaktiviert