Künstliche Intelligenz in Wikipedia: Chancen und Risiken

Wikipedia ist eine der größten und beliebtesten Enzyklopädien der Welt. Sie wird von Millionen von Menschen täglich genutzt, um Informationen zu verschiedenen Themen zu finden. In den vergangenen Jahren wird zunehmend künstliche Intelligenz (KI) eingesetzt, um Wikipedia zu verbessern. Kann sie schon jetzt einen echten Vorteil bieten oder ist Wikipedia weiter auf immer weniger werdende Autoren angewiesen?

Chancen von KI in Wikipedia

Eine der größten Chancen von KI in Wikipedia ist die Verbesserung der Qualität der Artikel. KI-Systeme können Texte analysieren und erkennen, ob die Rechtschreibung korrekt ist und genügend Nachweise vorhanden sind. Eine inhaltliche Überprüfung auf oder gar die Einhaltung der Neutralität können generative Sprachmodelle nicht leisten. Es ist bis dato auch kein Programm bekannt, dass Texte außer Grammatik, Satzbau und Stil auch auf faktische Richtigkeit und Neutralität untersucht. An dieser Stelle könnten Wikimedia seine enormen finanziellen Mittel dazu einsetzen, um Fortschritte zu erzielen.

Eine weitere Chance von KI in Wikipedia ist die schnellere Erstellung von Artikeln. KI-Systeme können Texte aus anderen Quellen wie Zeitungen, Büchern und Websites – sofern dem keine Urheberrechte entgegenstehen – automatisch in Wikipedia übernehmen. Dadurch kann die Erstellung von neuen Artikeln deutlich beschleunigt werden.

KI kann auch verwendet werden, um neue Funktionen für Wikipedia zu entwickeln. KI-Systeme können etwa verwendet werden, um Artikel zu übersetzen, Artikel zu bewerten oder Artikel zu empfehlen. Dadurch kann Wikipedia für die Benutzer attraktiver und nutzerfreundlicher werden.

Risiken von KI in Wikipedia

Der Einsatz von KI in Wikipedia birgt auch Risiken. Eine der größten Risiken ist, dass die meisten generativen Sprachmodelle wie ChatGPT oder BARD mit Trainingsdaten auch, aus der Wikipedia trainiert wurden. Es ist unklar, ob eine so trainierte KI in der Lage ist, kritisch mit ihren eigenen Trainingsdaten umzugehen. Wenn diese Daten nicht repräsentativ für die reale Welt sind, können KI-Systeme Fehler machen.

Ein weiteres Risiko ist, dass KI-Systeme nicht in der Lage sind, die Neutralität der Artikel zu gewährleisten. KI-Systeme können Texte generieren, die von den Vorurteilen der Entwickler geprägt sind. Dies kann dazu führen, dass Artikel in Wikipedia einseitig oder unfair sind.

Zusätzlich passiert es bei allen generativen Sprachmodellen, dass sie Passagen, die der Realität entsprechen, mit frei erfunden Passagen vermischen. Diese Modelle berechnen – aufs Einfachste heruntergebrochen – die Antwort, die ein Mensch als sprachlich real empfinden würde. Fakten und Neutralität sind dort keine Kategorie. Hier könnte das Training einer Korrektur-KI ansetzen. Eine Aufgabe, bei der die Wikimedia einen echten Mehrwert für das Projekt Wikipedia generieren könnte.

Künstliche Intelligenz funktioniert dort besonders gut, wo es logische, klar formulierte Regeln gibt. Die hat die Wikipedia zwar theoretisch schon, Sie werden jedoch oft willkürlich interpretiert. An dieser Stelle kann KI nicht helfen.

Fazit

Der Einsatz von KI in Wikipedia birgt sowohl Chancen als auch Risiken. Es ist wichtig, die Chancen und Risiken sorgfältig abzuwägen, bevor man KI in Wikipedia einsetzt. Wenn KI-Systeme richtig und vor allem für den Nutzer transparent eingesetzt werden, können sie dazu beitragen, die Qualität der Artikel in Wikipedia zu verbessern, Artikel schneller zu erstellen und neue Funktionen für Wikipedia zu entwickeln. Dabei sollte man sich allerdings stets der Risiken bewusst zu sein, die mit dem Einsatz von KI in Wikipedia verbunden sind, und ihnen entgegenwirken.

Dieser Beitrag wurde unter Allgemein veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert