Benutzer:MBq/AdminCon2018

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Semper eadem VM?[Bearbeiten | Quelltext bearbeiten]

‘’’Gedanken + Mathe zum "Dauerproblem zwischen bestimmten Benutzern"’’’

Benutzer:MBq auf der AdminCon 2018

Obwohl eigentlich unerwünscht, ist dennoch ein (nicht zahlenmäßig, aber vom Umfang der Abschnitte) großer Anteil der Vandalismusmeldeseite und anderer Konfliktbehandlungsseiten Ausdruck von „Dauerkonflikten bestimmter User“. Es sind wiederkehrende Konfliktthemen und personelle Konstellationen, die nicht einfach zu lösen oder zu unterdrücken sind. Admins, die sich in solchen Abschnitten engagieren, erleben nach meiner Beobachtung oft Frustration. Ich habe mir Gedanken gemacht, warum das so ist. Ich vermute, dass verschiedene Fehlannahmen das Adminhandeln stören und wirkungslos machen könnten.

Es sind Axiome, die unser Selbstverständnis als Wikipedianer ausdrücken und deshalb selten hinterfragt werden. Heute möchte ich vier davon kritisieren und - wenn ihr mir folgt - daraus auch einige Tipps ableiten. Selbstverständlich bleibt das Ganze eine unverbindliche persönliche Meinung, die niemand annehmen oder übernehmen muss.

Wir sind neutral[Bearbeiten | Quelltext bearbeiten]

Unser Projekt basiert auf der Idee, dass jedermann/frau Wissen beitragen kann und soll. Jeder Beitrag ist willkommen, sei er auch noch so klein, jedes Scherflein, und prinzipiell wollen wir alle Autoren gleichermaßen respektieren und ihnen dankbar sein.

Tatsächlich ist das natürlich nicht so: Kollegen, die viel und oft editieren, die große Recherchearbeit leisten, projektweite Pflegearbeiten leisten oder exzellente Artikel in Serie schreiben, sind bei uns höher angesehen. Es ist eine kleine Gruppe von einigen Hundert Wikipedianern, die einen Großteil der Arbeit leistet. Man kann dieses Phänomen als Lorenz-Kurve zeichnen: auf der X-Achse kumulativ die Wikipedianer, auf der Y-Achse kumulativ ihren Anteil am gesamten Beitragsaufkommen. Würden wir alle gleich arbeiten, wäre die Lorenz-Kurve eine Gerade; würde einer alleine alles machen, so wäre sie ein rechter Winkel. Der Gini-Koeffizient ist mathematisch der Flächenanteil zwischen der Idealgerade einer Gleichverteilung, und der tatsächlich beobachteten Lorenzkurve. Er kann zwischen 0 und 1 liegen. Je höher er ist, desto ungleicher die Verteilung. Ortega und Gonzales-Barahona, zwei Informatiker aus Madrid, haben nun festgestellt, dass der Gini-Koeffizient unserer Versionsgeschichten in den meisten Sprachversionen über 0.9 liegt. Das ist enorm hoch; zum Vergleich ergeben die Einkommensunterschiede im ungerechtesten Land der Welt, Sierra Leone, nur einen Gini-Koeffizient von 0.6.

1% der Benutzer erzeugt 90% der Artikelinhalte und Diskussionsbeiträge. Die Power-User dominieren also was bei uns steht, und was wir öffentlich diskutieren (Matei/Bruno 2011). Es ist in der Wikipedia trotz ihrer egalitären Ideologie am Ende nicht anders als überall: Größere soziale Anstrengung erbringt größere soziale Belohnung durch die Gruppe, und es entstehen Meinungsführer, Führungspersonen, die die Effizienz der Gruppenarbeit erhöhen.

Die Motive der Poweruser, den größten Teil ihrer Freizeit und oft auch finanzielle Mittel in unser Projekt zu stecken, sind individuell verschieden. Ein gemeinsamer Nenner ist jedoch: der Wunsch, die Inhalte der wichtigsten Wissensquelle unserer Zeit mitzugestalten, „to make a difference“. Unbewußt wollen wir nicht nur unser technisches Wissen, sondern auch unsere Weltsicht einbringen, verbreiten, und verteidigen. Die Weltsicht, die wir aus unserer Lebenssituation gewonnen haben. Beispielsweise unsere mehrheitliche Sicht als deutschsprechende Wikipedianer: die Sicht von weißen, mitteleuropäischen, gebildeten Frauen und Männern. Es ist ein POV, ein Bias, nicht weniger, und je besser wir uns ihn bewußt machen, desto besser können wir auch verstehen, dass ihn nicht jeder teilt und warum wir soviel Zeit damit zubringen müssen, andere zu überzeugen.

Soziale Medien dienen nicht nur dem Austausch von Inhalten und Wissen, sondern auch von Weltanschauungen. Die Teilnehmer suchen nach Empowerment, sie möchten statt passive Konsumenten lieber aktive Gestalter sein, auch in politischer Hinsicht.

Die POVs sind vielgestaltig. Gegen die frühe Projektphase 2001-2004, als die Enzyklopädien noch Britannica oder Encarta hiessen, ist die Community heute politisch viel diversifizierter. Folgend der viel höheren gesellschaftlichen Bedeutung der Wikipedia gibt es mehr Benutzer mit verschiedener weltanschaulicher und politischer Ausrichtung, und ihre Handlungsfeder ist stärker als früher. Diese Benutzer tragen ihren Streit aus, sie müssen das tun, und wir müssen es zulassen, um die Bedeutung der Wikipedia als Spiegel der gesellschaftlichen Mainstreams aufrechterhalten. Die soziale Umgebung der Wikipedia ist nicht nur Schauplatz für Streit - sie ist durch den Konflikt sogar strukturell definiert. Ohne Konflikt gäbe es keine Kontroverse, keine Entwicklung, keine Motivation, kurz gesagt: es gäbe überhaupt keine Wikipedia.

Extremismus ist unerwünscht[Bearbeiten | Quelltext bearbeiten]

An umstrittenen Artikeln organisieren sich die Autoren in zwei oder mehr Meinungsgruppen; erkennbar an den Reverts. Benutzer einer Gruppe revertieren die der anderen Gruppen, nicht aber solche der eigenen Meinungsgruppe. Das kann als Force-directed Graph visualisiert werden (Suh 2007). In diesem Graph bilden die Benutzer Knoten eines Netzwerks aus quasi-elastischen Verbindungen. Dabei werden Benutzer, die sich gegenseitig nicht revertieren, benachbart dargestellt. Es werden so bestimmte Muster deutlich. Insbesondere gibt es meist eine Gruppe aus neutralen Beobachtern und Admins, welche versuchen, die radikalsten Ansichten zu kompensieren, d.h. sie revertieren extreme Artikelveränderungen aller Seiten und erscheinen deshalb als Gruppe zwischen den Kontrahenten.

Darin spiegelt sich unsere Grundauffassung, dass extreme Positionen gegen das Neutralitätsprinzip WP:NPOV verstoßen und deshalb abzulehnen sind. Artikel sollen eine neutrale Position des wissenschaftlichen oder gesellschaftlichen Mainstreams wiedergeben. Deshalb werden extremistische Autoren revertiert, korrigiert, und auch in ihrem Diskussionsverhalten behindert. Ich möchte dazu eine These vertreten: Obwohl das Motiv so zu handeln verständlich ist, glaube ich, dass die neutrale Gruppe den Konsens im jeweiligen Artikel nicht voranbringt, vielmehr sogar kontraproduktiv wirkt.

Ich beziehe mich dabei auf eine Computersimulation der ungarischen Physikerin Csilla Rudas und Mitarb. (2017). Die Forscher beobachteten eine Population von 1000 simulierten Agenten, die jeder eine quantifizierte “Meinung” haben und diese zufallsgesteuert entweder einem anderen Agenten mitteilen, oder im “Artikel” unterbringen. Jede Botschaft beeinflusst graduell die Meinung des angesprochenen Agenten, wenn sie nicht zu weit von seiner vorherigen abweicht. Andernfalls löst er selbst eine Handlung aus. Ebenso wie in echten Wikipediakonflikten entstehen in dieser Simulation schubweise (bursty) Editkaskaden, bei denen die Zahl der Edits erst exponentiell ansteigt, nach einiger Zeit in Form einer Sättigungskurve abflacht und eine S-Form bildet (sogenannte Gompertz-Kinetik). Nach einer gewissen Zeit beruhigt sich der oszillierende Artikel. Die Gruppen nähern sich an, es ist sozusagen “Konsens” unter den simulierten Agenten entstanden. Das Gleichgewicht bleibt bestehen, bis neue Ereignisse oder neue Teilnehmer die Debatte wieder aufleben lassen.

Zwei simulierte Meinungsgruppen treffen sich sehr schnell in der Mitte. Wenn das Experiment jedoch mit drei Gruppen beginnt (Meinung 0, Meinung 1, und Neutrale Meinung 0.5), dann relaxiert es deutlich langsamer, und zwar umso langsamer, je niedriger der Anteil der “Extremisten” ist! Dieses kontraintuitive Ergebnis kommt zustande, weil die neutralen Agenten den Konflikt stabilisieren, indem sie die Extremisten beider Seiten antagonisieren.

Ein starker Mainstream, der alle Handlungen von Randfiguren bestraft, ist den Autoren zufolge im RL ein häufiges Szenario. Rudas meint, “keine Extremisten” seien am besten. Sobald es aber welche gäbe, sollten sie besser so zahlreich sein, dass sie aktiv meinungsbildend an der Debatte teilnehmen können. Wenn sie ihre Ansichten kurzfristig im Medium widergespiegelt finden, sind sie eher in der Lage, sie zu modifizieren und damit zum Konsens zu kommen.

Administration ist wichtig[Bearbeiten | Quelltext bearbeiten]

In Rudas Computerprogramm wurden auch Eingriffe gegen Extremismus erprobt, die unseren Adminaktionen entsprechen, also Bans und Sperren der radikalen Agenten. Auch damit wurde der Konsens nicht gefördert: im Gegenteil verlangsamt. - Man kann dagegen einwenden, dass eine Simulation aus idealisierten Agenten die reale Situation unseres Projekts nicht wirklich abbildet. Auflagen, Sperren und andere Adminaktionen werden oft von persönlichen Angriffen eines Autors ausgelöst, und haben nach der h.M. nicht zum Ziel, die Debatte zu stoppen - sie soll nur versachlicht werden.

An dieser Stelle wird eine Studie interessant, die der amerikanische Astrophysiker Simon DeDeo 2016 veröffentlicht hat. DeDeo versucht, in komplexen, chaotischen Prozessen die zugrundeliegenden syntaktischen Strukturen zu finden. Für seine Wikipediastudie betrachtet er die 62 meist-editierten Artikel der englischen Sprachversion als endliche Automaten, die durch normale Edits und Reverts ihren Zustand verändern, also von einem Zustand in den anderen wechseln. Dabei hängen die Änderungen nur vom gegenwärtigen Zustand und einem Wahrscheinlichkeitsfaktor für jede Richtung ab - es sind sogenannte Markov-Maschinen. Man kann sich vorstellen, dass jeder Zustand der Meinung einer anderen Autorengruppe entspricht, zB möchte eine Gruppe den Artikelgegenstand positiv, die andere eher negativ dargestellt sehen. Für die Mathematik ist der Inhalt aber völlig unerheblich, Edits und Reverts werden über die Hashwerte der Artikelversionen unterschieden. Anzahl und Art der möglichen Zustände sind bei der Analyse unbekannt, die Mathematiker sprechen von einem “Hidden Markov Model” (HMM). Aus der Versionsgeschichte eines Artikels kann man nun beginnend bei einer zufällig gewählten Konfiguration die Parameter des HMM iterativ annähern (EM-Algorithmus).

Nach mehreren tausend Iterationen ist das HMM so gut gefittet, dass man den Weg des Artikels verfolgen kann: die Zeit, die er in einem bestimmten Zustand verbringt, die Wahrscheinlichkeit für Reverts in diesem Zustand, und so weiter. Man kann eine “Relaxationszeit” angeben, d.i. die Zeit, die ein Artikel benötigt, um vom Konflikt zur Stabilität zu gelangen oder umgekehrt. In den untersuchten Artikeln wurden insgesamt ca. 500 Übergänge zwischen Ruhe- und Konfliktphasen erkannt. Während eines Konflikts erhöht sich die Editfrequenz auf das Vierfache, median kommt alle 3.5 min ein Edit. Die Konfliktphasen bestanden meistens aus >100, bis zu 1000, median 287 Edits.

Man kann beobachten, welche Auswirkung Artikelsperren haben. DeDeo berichtet, dass Artikelsperren nur schwache Wirkung auf die Relaxation haben, also darauf, wann ein Artikel wieder in eine stabile Epoche eintritt. Von 1500 Artikelsperren lagen nur 140 (9 %) näher als 10 Edits zu einem solchen Übergang (womit natürlich nicht gesagt ist, dass sie ihn auch ausgelöst haben). Umgekehrt führen Entsperrungen auch nur selten zu neuen Editwars. Immerhin ist der Zusammenhang immerhin noch signifikant vorhanden, d.h. Artikelsperren haben die erwünschte, wenn auch geringe Wirkung.

Man kann auch die Benutzersperren im Artikelkontext untersuchen. DeDeo hat dazu “anti-soziale User” definiert: User, deren Wahrscheinlichkeit, gesperrt zu werden, höher ist als die von 95% aller dort editierenden Benutzer. Anti-soziale User treten in umstrittenen Artikeln häufig auf (das entspricht völlig der alltäglichen Beobachtung). Allerdings haben sie offenbar überhaupt keine Auswirkungen in Bezug auf die Relaxation: bei 255 Übergängen vom Konflikt zum Konsens oder umgekehrt war in den letzten 10 Edits ein User mit Sperrlog zugange gewesen, bei 263 solchen Epochenwechseln nicht. Anti-soziale User sind demnach ineffektiv, Konflikte auszulösen oder zu beenden. Damit ist es auch nicht erfolgversprechend, solche User gezielt auszusperren. Das heißt nicht, das persönliche Angriffe und Editwars nicht mehr sanktioniert werden sollen! Es bedeutet nur, dass wir nicht damit rechnen sollten, durch Top-down-Eingriffe die Konsensbildung der Community zu beschleunigen.

Wir vertrauen uns gegenseitig[Bearbeiten | Quelltext bearbeiten]

Die meisten Wikipedianer und externen Beobachter würden das spontan bejahen, angesichts der gemeinsamen altruistischen Zielsetzung, der antihierarchischen Ideologie, der intensiven Kommunikation online und offline, den Redaktionen, Projekten, Stammtischen und Conventions. Unser Trustee Dariusz Jemielniak (2014) schreibt, die Wikipedia-Methode ähnelte der der Quäker: Ziel ist Konsens, nicht Mehrheitsentscheidung, Diskussionen sollen für alle offen und ohne Zwang verlaufen; bei Schwierigkeiten machen sie eine stille Pause.

Nun laufen bei uns alle Interaktionen semianonym ab, fast immer asynchron, ohne Körpersprache und Augenkontakt, und werden schon deshalb zu einem Forum für Mißverständnisse. Den Hauptunterschied der Community zu einer friedlichen, vertrauensvollen Gemeinschaft sehe ich aber in der fehlenden Beziehung der Online-Konten zu dem anlegenden Menschen.

Ich möchte nicht falsch verstanden werden: Ich bin nicht für Realnamenspflicht. Wikipedia hat sich aus guten Gründen immer wieder dagegen entschieden, auch während ernsthaften Vertrauenskrisen wie [1] [2]. Doch eins müssen wir konstatieren: Weil wir uns gegenseitig nicht kennen, haben wir auch kein Vertrauen. Und weil wir kein Vertrauen haben, schaffen wir Regeln und Kontrollen. Regeln und Kontrollen, die ständig zunehmen. Jede Handlung erscheint in öffentlichen Logbüchern. Jede unserer Diskussionen wird zur Transparenz und Kontrolle archiviert. Diskussionsbeiträge bleiben unbegrenzt verfügbar und werden noch Jahre später herausgesucht.

Wir überwachen uns gegenseitig in einer Detailschärfe, die an vormoderne Dorfgemeinschaften erinnert (Jemielniak) und die sogar weitergeht als alles, was von einer dedizierten Oligarchie zu erwarten wäre.

Unsere Kultur entstammt der Hackerethik, und hat deren strikte Ablehnung von Eliten und formellen Hierarchien geerbt. Als Substitut für die fehlenden Führungseliten haben wir bürokratische Prozeduren geschaffen, die von Positionen und Qualifikationen unabhängig sind. Die Prozeduren erweisen sich auch praktisch als stabiler als einzelne Personen (Beispiele [3] [4]).

Ein Nebeneffekt ist, dass das ständig wachsende Regelwerk - die Wikisklerose - die Aufgaben der Admins erweitert, ihre Rolle immer wichtiger macht. Ein anderer, dass auch die ‘normalen’ Wikipedianer ohne Zusatzrechte mehr Macht ausüben können, wenn sie bessere Regelkenntnis haben. Sie bilden Schichten. Die informelle Hierarchie, die so entsteht, ist ebenso unerwünscht wie real. Wir können uns dagegen wehren, aber wir können sie nicht aufheben, ohne unsere grundsätzliche Struktur ebenfalls aufzuheben.

Die informelle Hierarchie schafft erst recht kein Vertrauen. Ich sehe darin, dass wir niemandem wirklich und vollständig trauen können, unseren größten Projektfehler - auf jeden Fall ist es ein Hemmnis beim erfolgreichen Administrieren von Konflikten.

Tipps für VM-Admins[Bearbeiten | Quelltext bearbeiten]

Wiederholung des Disclaimers: es geht mir keinesfalls darum, euch ein bestimmtes Handeln vorzuschreiben oder auch nur nahezulegen. Ich glaube im Gegenteil, dass die Individualität unserer Ansichten und Vorgehensweisen ein unschätzbarer Vorteil ist, wenn es darum geht, unbekannte Lösungen zu neuen Problemen zu finden. Die Vielfalt ist für mich der wesentliche Kern der Schwarmintelligenz. Hier habe ich nur ein paar unverbindliche Vorschläge zu machen, mit denen ich persönlich gute Erfahrungen gemacht habe.

Ich habe versucht zu zeigen, dass einige der spontanen Annahmen, mit der wir an eine Vandalismusmeldung herangehen, falsch sein könnten, anders gesagt trifft eher das Gegenteil zu:

Jeder Wikipedianer unterliegt seinem persönlichen Bias
Wikipedianer dürfen extreme Ansichten haben
Die Administration kann Konflikte nur wenig steuern und ihre Lösung nicht beschleunigen
Wir haben so viele Regeln, weil wir uns gegenseitig nicht trauen _können_ - Misstrauen ist normal und keine böse Absicht

Wenn man diesen - zugegeben überspitzten - Thesen folgt, ergeben sich für Admins, die Userkonflikte bearbeiten, ein paar Empfehlungen:

Such nach den Standpunkten der Leute hinter dem Pulverdampf, nicht nach ihren psychischen Konzepten (verärgert, deprimiert, etc.). Du hast es mit klugen Erwachsenen zu tun, die eine Agenda verfolgen.
PA ist nicht dasselbe wie Belästigung („harassment“). PAs sind taktische Beschimpfungen unter Gleichstarken. Bewerte, ob von ihnen eine echte Störung der Diskussion ausgeht. Harassment schwächt, schädigt und vertreibt den unterlegenen Autor. Es ist pathologische Interaktion zwischen starken und schwachen Wikipedianern zu Lasten des gesamten Projekts. WMF sieht Harassment als ‘’strategic item’’ und autorisiert Dich zum Einsatz aller Mittel.
Übernimm nicht die Verantwortung für den Konflikt, etwa durch detaillierte Analysen und Weisungen, Bewertungen von Quellen etc. Nur die User bleiben für ihren Konflikt verantwortlich.
Verhindere, dass Du zum Werkzeug wirst. MDie Situation auf VM, SP etc. erzeugt automatisch ein taktisches Konfliktverhalten. Statt der Diskussionsgegner wird die Administration zum Ziel der Argumentation. Handle nicht übereilt, nicht nach Gefühl, und nicht wie ein Automat.
Störe dich nicht an fehlendem Vertrauen. Bevorzuge nicht Leute mit guter Vernetzung. Denk an die soziale Schichtung, die du nicht verstärken willst.
Ein Problem wird erst gelöst, wenn jede/r ausreichend einbezogen wurde, das betrifft auch die extremen Positionen.
Manche Probleme sind unlösbar. Auch nicht durch Eskalation. Verschwende nicht deine Zeit.

„Wenn die Arbeit des besten Führers getan ist, sagen die Leute: »Das haben wir selbst getan«.“

Laotse

Quellen[Bearbeiten | Quelltext bearbeiten]

  • DeDeo S. ‘’Conflict and Computation on Wikipedia: a Finite-State Machine Analysis of Editor Interactions.’’ Future Internet. 2016;8(3) [5]
  • Jemielniak, Dariusz (2014). ‘’Common Knowledge? An Ethnography of Wikipedia.’’ Palo Alto: Stanford University Press. ISBN 9780804791205.
  • Matei SA, Bruno RJ (2011): ‘’Individualist Motivators and Community Functional Constraints in Social Media: The Case of Wikis and Wikipedia.’’ In: Francesca Comunello (Hrsg.): Networked Sociability and Individualism: Technology for Personal and Professional Relationships. IGI Global 2011, ISBN 161350339. doi:10.4018/978-1-61350-338-6.ch001
  • Ortega F, Gonzalez-Barahona JM, Robles G (2008): ‘’On the Inequality of Contributions to Wikipedia.’’ Proceedings of the 41st Annual Hawaii International Conference on System Sciences (HICSS 2008), Waikoloa 2008, pp. 304. doi:10.1109/HICSS.2008.333 https://www.computer.org/csdl/proceedings/hicss/2008/3075/00/30750304-abs.html
  • Rudas C, Surányi O, Yasseri T, Török J (2017): ‘’Understanding and coping with extremism in an online collaborative environment: A data-driven modeling.’’ PLoS ONE 12(3): e0173561. doi:10.1371/journal.pone.0173561
  • Suh B, Chi EH, et al.: ‘’Us vs. them: understanding social dynamics in Wikipedia with Revert Graph visualizations.’’ Conference Paper: Proceedings of the IEEE Symposium on Visual Analytics Science and Technology, IEEE VAST 2007, Sacramento, California, USA, October 30-November 1, 2007. doi:10.1109/VAST.2007.4389010 [6]

Weblinks[Bearbeiten | Quelltext bearbeiten]