Wikipedia Diskussion:Archiv/Alternative Benutzerstatistik

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 17 Jahren von Jah in Abschnitt Zweifel
Zur Navigation springen Zur Suche springen
Abkürzung: WD:ABS

Regelmässiger update?[Quelltext bearbeiten]

Hallo zusammen, leider kann ich mir denken dass das Erstellen eines updates sehr zeitaufwändig ist. Trotzdem diese Statistik scheint vielbeachtet zu sein und mein Frage darum; könnte es einen regelmässigen monatlichen Update geben? Vielen Dank für die Arbeit und herzliche Grüsse aus Horgen der --Horgner + 09:45, 4. Feb 2005 (CET)

Liegt wohl auch mit der Unzuverlässigkeit und Performance unserer Server zusammen, dass keiner hier tagelang umsonst dumps ziehen wollte. --Badger 09:55, 4. Feb 2005 (CET)
Die Server auf denen die Dumps liegen haben nicht viel mit den Servern der Wikipedia an sich zu tun. Die Geschwindigkeit des Downloads ist okay und schnell. Trotzdem sind dies derzeit 9 GB Daten, d.h. die Datenmenge von ca 2 DVDs. Ein Gesamtdownload dauert also bei normaler DSl-Geschwindigkeit ca. einen ganzen Tag. Das ist nicht grade wenig und ich weiß es zwar nicht, aber die Berechnung wird sicher auch einen modernen Rechner einige Stunden auslasten. Wir können froh sein, dass Bierdimpfl das überhaupt manchmal auf sich nimmt ;). Abgesehen davon stimme ich natürlich zu, dass ein regelmäßiges Update schön wär. MfG --APPER\☺☹ 14:12, 15. Feb 2005 (CET)
Bitte bitte ein regelmäßiges Update!!! Die anderen Wiki Statistiken sind doch, jedenfalls für mich, uninteressant. Ich jedenfalls möchte schon gerne wissen, wo ich persönlich mit meinem Einsatz einzuordnen bin. Bitte macht hier weiter!!!!!!!!!!!!!!! --Pelz 01:42, 20. Feb 2005 (CET)

Wäre es denn nicht möglich wenigstens ein monatliches Update einzuführen? Wenn man mir nen paar Tipps zu meiner lokalen MediaWiki-Installation und das Script gibt, dann würd ich mich auch mal daran versuchen die Stat zu aktualisieren, auch wenn der Download und die Berechnung lange dauern. --BLueFiSH ?! 23:50, 26. Feb 2005 (CET)

Es hakte ja lange Zeit an der Erhältlichkeit von Dumps. Dass Programm zur Auswertung sollte über Wikipedia:Alternative_Benutzerstatistik/Programme zu finden sein. --Pjacobi 00:04, 27. Feb 2005 (CET)
Das sind alte Versionen, die m.W. nach der Umstellung auf UTF-8 einer Modifizierung bedurften. Auch hat Bierdimpfl später neue Spalten, Tabellen und Farben hinzugefügt. Open Source hat schon Vorteile.--Jah 20:26, 21. Mär 2005 (CET)
Könnte mir eine Art AG vorstellen, wo jeder rotierenderweise monatlich oder quartalsweise die Auswertung vornimmt. Vielleicht könnte man Wikipedia-Offizielle überzeugen... Jedenfalls müßte bald etwas geschehen, die letzten Daten sind von Dezember... Matt1971 01:18, 19. Mär 2005 (CET)
Ja schon, alle Vierteljahre sollte mal was passieren. Wir sind ja nicht beim Finanz- oder Arbeitsamt. -- Simplicius 06:40, 19. Mär 2005 (CET)
Wie geht es denn weiter?
Wo ist der dump verfügbar?
http://download.wikimedia.org/archives/de/
Gibt es geeignete aktuelle Auswertungsskripte?
Würde Bierdimpfl das denn noch mal machen? -- Simplicius 13:17, 26. Mär 2005 (CET)
Das größte Problem scheint mir zu sein, dass die Dumps so groß sind (z.Z. ca 10GB) und auch noch stark weiter wachsen. Die Entwickler sagen, dass die Datenbankgröße sich alle 16 Wochen verdoppelt. Das würde bedeuten, dass in einem Jahr 100GB heruterzuladen wären. Ich glaube zwar nicht, dass es ganz so viel werden wird, aber wer wäre bereit, regelmäßig z.B. 30GB heruterzuladen? Die dürften in absehbarer Zeit jedenfalls erreicht werden. Dafür braucht man wohl eine echte Flatrate ohne "intelligentes Bandbreitenmanagement" und muss sich auf tagelanges Herunterladen gefasst machen. Sollten sich Freiwillige melden, könnte man darüber nachdenken, die Scripte anzupassen (z.B. auch an die neue History-Komprimierung). Auch benötigt man viel Festplattenplatz (heute schätzungsweise 30GB, in einem Jahr 100GB oder mehr). Der Hauptspeicher könnte ebenfalls ein Problem sein.--Jah 15:09, 27. Mär 2005 (CEST)
die Scripte anzupassen (z.B. auch an die neue History-Komprimierung) - das war anscheinend auch der grund, dass Eric Zachtes statistik-seiten eine weile lang nicht mehr aktualisiert wurden, siehe en:Wikipedia:Wikipedia Signpost/2005-03-28/Return of stats. dort steht auch, dass für Mediawiki 1.5 wieder solche änderungen zu erwarten sind: In the future, changes to the database design planned for version 1.5 of the MediaWiki software (see related story) will require additional adaptation for the statistics to be collected. Zachte has said to "expect a similar outage" when that time comes.
grüße, Hoch auf einem Baum 03:23, 29. Mär 2005 (CEST)

BITTE, BITTE! alle wir Mitarbeiter hier sind ja nicht sonderlich verwöhnt, mit Lob oder Lorbeeren, dafür öfter auch mal Frust nicht zu knapp. Darum nun liebe Leute, die ihr das machen könnt (ich kanns leider nicht) helft uns anderen. Lasst uns in unseren Editquoten schwelgen, helft uns Argumente zu sammeln für unsere Adminwahl (*g*), oder lasst uns einfach ein wenig nachdenklich werden über die vielen Stunden die wir hier zusammen gearbeitet haben. Herzliche Grüsse aus Horgen der --Horgner + 17:40, 26. Mär 2005 (CET)

Schnappschildkröte
"Wer sind denn so meine Kollegen/Kolleginnen ... ?" Horgner: Argumente und persönliche Erfahrungen mit Kollegen sind für Admin-Vorschläge natürlich die wichtigeren, aber es ist auch ganz nett, zu sehen, wer hier neuerdings seit Monaten arg aktiv ist und in den Diskussionen nicht so auffällt. -- Simplicius 11:01, 7. Apr 2005 (CEST)
... weil sie viel lieber ihr Arbeitsfeld beackern, als viel Zeit in teils wichtige, teils aber leider auch unfruchtbare Diskussionen investieren.... Horgner + 14:26, 7. Apr 2005 (CEST)
Ja. -- Simplicius 14:21, 9. Apr 2005 (CEST)

Skriptproblem[Quelltext bearbeiten]

Wie siehts denn nun aus? Hat jemand ein Skript, dass man auf die aktuellen Dumps anwenden kann? Dann würd ich die OLD ziehen und loslegen... --BLueFiSH ?! 11:48, 7. Apr 2005 (CEST)

Ich befürchte nicht. Du müsstest Eriks alte und neue Statistik Scripts vergleichen und den "Diff" auf das alte "Alternative Benutzerstatistik" Script anwenden. Bildlich gesprochen. --Pjacobi 11:53, 7. Apr 2005 (CEST)
hm klingt kompliziert, aber ich würds mir mal ansehen. Links? --BLueFiSH ?! 12:03, 7. Apr 2005 (CEST)
Eriks neues Skript: Ich suche noch.
Eriks altes (?) Skript: http://members.chello.nl/epzachte/Wikipedia/Statistics/Perl.zip
Alternative Benutzerstatistik: http://upload.wikimedia.org/wikipedia/de/9/97/Mkzsf http://upload.wikimedia.org/wikipedia/de/7/79/Aktivitaet
Pjacobi 12:21, 7. Apr 2005 (CEST)
Die beiden Skripte zur Alternativen Benutzerstatistik lassen sich nicht entpacken. Habe sie vorher schon von der /Programme-Seite geladen, aber gehen alle nicht... --BLueFiSH ?! 14:07, 7. Apr 2005 (CEST)
Die sind nicht gepackt. Das ist nackter Perl-Code als Textdatei. Soll ich das irgendwo zwischenlagern? --Pjacobi 14:12, 7. Apr 2005 (CEST)
stimmt, sind ja gar nicht gepackt, naja der Feuerfuchs hat zip dran gehangen deswegen.. Ich hab da grad mal reingeguckt, die sind ja alle ganz schön kompliziert. Da sehe ich mich leider nicht in der Lage da was sinnvolles dran zu korrigieren.. kann ja gar kein Perl, nur etwas spärliches PHP und von RegExp kräuseln sich mir die Zehennägel.... :-( --BLueFiSH ?! 14:30, 7. Apr 2005 (CEST)
Es muss nur "mkzsf" an die neue Datenbankkomrimierung angepasst werden, und die regulären Ausdrücke müssen dabei auch nicht geändert werden, weil das Datenbankschema sich nicht verändert hat. Das Feld "flags" ist jetzt meistens (immer?) "object", und dann muss das Feld "text" entsprechend interpretiert werden. Manchmal steht in "text" dann ein "ConcatenatedGzipHistoryBlob", der die Texte mehrerer alter Versionen enthält, und manchmal ein "HistoryBlobStub", d.h. ein Verweis auf einen "ConcatenatedGzipHistoryBlob", in dem der Text der alten Version zu finden ist. Ich könnte da im Prinzip etwas programmieren, aber testen kann ich es kaum, weil anscheinend nur die großen Wikipedias die neue Kompression aktiviert haben (der old-Dump von simple sieht z.B. völlig unkomprimiert aus) und ich mir die Dumps der großen Wikipedias nicht komplett herunterladen kann. Eine etwas neuere Version von "mkzsf" ist übrigens Datei:Mkzsf.ogg.--Jah 21:57, 7. Apr 2005 (CEST)
So, jetzt habe ich auch eine Flatrate. Die Anpassung der Scripte ist nicht so schwierig und wird bald fertig sein. In den nächsten Tagen werde ich dann wohl die Statistik aktualisieren können.--Jah 09:59, 9. Apr 2005 (CEST)
Wenn Du das hinbekommst, schlage ich Dich zum "Großen Wiki-Verdienstorden" vor. --Pelz 23:29, 9. Apr 2005 (CEST)
Dafür können wir ja diese Seite eröffnen: Wikipedia:Kandidaten für exzellente Benutzer ;-) Langec 17:51, 10. Apr 2005 (CEST)

Herzlichen Dank![Quelltext bearbeiten]

Herzlichen Dank, für den langersehnten Update... Horgner + 15:41, 12. Apr 2005 (CEST)

Danke auch von meiner Seite für die Mühe. --Herrick 15:47, 12. Apr 2005 (CEST)
Ach du meine Nase, Platz 27 in der rechten Spalte... Großes DANKE fürs aktualisieren! --BLueFiSH ?! 18:02, 12. Apr 2005 (CEST)

Oh je, Platz 18 rechts... naja, ich schieb's einfach mal auf die Personendaten... auch von mir danke, die Statistik ist immer wieder ein Ansporn, weniger zu tun... :-) --AndreasPraefcke ¿! 18:26, 12. Apr 2005 (CEST)

Dank auch von mir. -- Dishayloo [ +] 18:43, 12. Apr 2005 (CEST)

Danksagung auch von mir! Habe Benutzer:Jah für seine Mühen die WikiMedal for Janitorial Services verliehen. Matt1971 13:44, 14. Apr 2005 (CEST)

Schön, das sieht zweifellos besser aus als das letzte Bapperl, das man mir verliehen hatte.--Jah 19:00, 14. Apr 2005 (CEST)

Aktualisierung[Quelltext bearbeiten]

Irgendetwas stimmt mit den Programmen noch nicht, was wohl mit utf-8 zusammenhängt. Bei Stefan Kühn z.B. wurde kein + in der Adminspalte angezeigt. Ich hoffe, das werde ich noch hinbekommen.

Ist korrigiert (hatte nichts mit utf-8 zu tun).--Jah 19:00, 14. Apr 2005 (CEST)

Hier einige Angaben zum Aufwand, für den Fall, dass es mal irgendwann wieder jemand anders aktualisieren will:

  • Download von 13 GB in 33 h (mit DSL-1000).
  • Zusätzlich werden 17 GB im aktuellen Verzeichnis verbraucht, v.a. um die Dumps zu entpacken.
  • Es muss 1 GB in /tmp für das Sortieren frei sein (unter Linux, wie es unter Windows ist, weiß ich nicht).
  • "Mkzsf" läuft 12 h (auf einem Athlon XP 2400+) und benötigt 110 MB Hauptspeicher.
  • "Aktivitaet" läuft 43 min und benötigt 540 MB Hauptspeicher.

Der Aufwand wächst natürlich mit der Größe der Datenbank.--Jah 15:48, 12. Apr 2005 (CEST)

Herzlichen Dabk für die Aktion! --Pjacobi 15:49, 12. Apr 2005 (CEST)

Die Statistik werde ich voraussichtlich am Mittwoch aktualisieren. Das kündige ich hier an, damit nicht zwei Leute gleichzeitig ihre Rechner damit quälen.--Jah 13:53, 24. Apr 2005 (CEST)

Nicht, dass ich als fleißiger Newbie es etwa nicht erwarten könnte, meinen Namen in der 90-Tage-Statistik an vorgerückter Stelle prangen zu sehen, ich bin schließlich nicht eitel (ich doch nicht :D), aber nur mal so aus unverbindlicher Neugier gefragt: Wann wäre denn mit dem nächsten Update zu rechnen?--Proofreader 6. Jul 2005 21:35 (CEST)

Mit der Umstellung auf MediaWiki 1.5 hat sich mal wieder die Datenbankstruktur geändert. Es könnte also eine Verzögerung geben. --Pjacobi 6. Jul 2005 21:49 (CEST)

Der letzte Dump vom 23.6. war nicht vollständig. Deswegen konnte ich die Statistik damit nicht aktualisieren. Der nächste Dump ist für die nächsten Tage angekündigt. Wenn er fertig ist, wird es keine Verzögerung geben (außer Downloadzeit+Auswertezeit = ca. 2 Tage), weil das Auswertescript bis auf Kleinigkeiten schon an das neue Format angepasst ist.--Jah 7. Jul 2005 21:27 (CEST)

Hi Jah, ist der Dump erneut wg. Instabilität fehlgeschlagen? --Herrick 13:01, 29. Jul 2005 (CEST)
Der aktuelle Dump ist unbrauchbar. Ich habe schon ganz lieb nachgefragt, aber keine Antwort. Was soll ich da machen? Ich bin gerne bereit auf den Knien zu rutschen, nur leider sieht das keiner.--Jah 15:08, 29. Jul 2005 (CEST)
Deine Erfahrung mit den "blinden Entwicklern" kann ich leider nur bestätigen. Alles, was nicht direkt mit en:, meta oder commons zu tun hat, wird von ihnen seit einem halben Jahr nur drittrangig behandelt. Antworten bekommt man selten. --Herrick 14:25, 1. Aug 2005 (CEST)
Wir sind ja alle froh, dass sich überhaupt hier jemand darum kümmert. Dafür herzlichen Dank. Wie kann man Euch denn helfen, den "blinden Entwicklern" etwas Beine zu machen? --Pelz 22:54, 1. Aug 2005 (CEST)
Die Nachricht von Jah in wikitech wurde anscheinend gar nicht beantwortet. -- Simplicius 17:35, 7. Aug 2005 (CEST)

Vorschlag: Gleiche Punktanzahl[Quelltext bearbeiten]

Hi, sehr schöne Liste. Ein kleiner Verbesserungsvorschlag noch: Sollten Editoren mit der selben Punktanzahl nicht auch auf dem selben Platz stehen? Nur weil Benutzer:Alkuin noch drin ist und ich nichtmehr (mit den selben Punkten) ;-) ... --Habakuk <>< 10:26, 25. Mai 2005 (CEST)Beantworten

Dagegen! *lach* das nächste Mal bist Du wieder dran. :-)=) GuidoD 12:47, 25. Mai 2005 (CEST)Beantworten
Eigentlich gibt es keinen Grund, bei Punktegleichstand nicht den selben Platz zu vergeben. Ich habe nur bisher nicht an diesen Fall gedacht. Jetzt habe ich ihn berücksichtigt.--Jah 13:50, 25. Mai 2005 (CEST)Beantworten
Naja, aber das Update scheint mir jetzt doch ungewoehnlich - normalerweise bewirkt doch der punktgleichstand das ueberspringen einer platzzahl nach zweimaliger Vergabe, also aus 155 + 156 + 157 wird dann ein 155 + 155 + 157. Hmmm. GuidoD 13:54, 25. Mai 2005 (CEST)Beantworten
So kann ich es auch machen, wenn das tatsächlich so üblich ist. Ich werde es heute Nachmittag ändern.--Jah 14:01, 25. Mai 2005 (CEST)Beantworten

Danke, das wäre doch nicht nötig gewesen ... ich bin gerührt ;-) --Habakuk <>< 16:17, 25. Mai 2005 (CEST)Beantworten

Immer noch keine neuer Dump zur Verfügung?[Quelltext bearbeiten]

MfG--Zaungast 19:19, 23. Aug 2005 (CEST)

Das Datenbankschema hat sich doch unlängst wieder verändert. Erik Zachte will jetzt für seine Statistik auf die XML-Dumps umstellen [1], [2]. Vermutlich giltf ür unser Skript etwas ähnliches? Nicht, dass ich wüsste, ob und wie die versprochenen XML-Dumps aufschlagen werden. --Pjacobi 19:39, 23. Aug 2005 (CEST)
Auf diese Vermutung habe ich weiter oben schon mal geantwortet: "Wenn er [der Dump] fertig ist, wird es keine Verzögerung geben (außer Downloadzeit+Auswertezeit = ca. 2 Tage), weil das Auswertescript bis auf Kleinigkeiten schon an das neue Format angepasst ist." Ergänzen muss ich noch, dass ich nicht mehr regelmäßig prüfe, ob es einen neuen Dump gibt. Also kann es ein paar Tage mehr Verzögerung geben. Ob es einen neuen Dump gibt, könnt ihr selber nachsehen: In http://download.wikimedia.org/wikipedia/de/ gibt es eine Datei "pages_full.xml.gz", die deutlich über 10GB groß sein muss, wenn sie vollständig ist. Am 13.7. wurde aber nur eine 1.1GB große Datei erzeugt, die also unvollständig ist.--Jah 10:10, 24. Aug 2005 (CEST)
Gerade habe ich mich entschlossen, mich für längere Zeit nicht mehr mit der Wikipedia zu beschäftigen. Deswegen werde ich auch die Statistik nicht mehr aktualisieren. Falls das jemand übernehmen möchte, empfehle ich, Wikipedia:xml2sql so anzupassen, dass aus pages_full.xml.gz ein cur- und old-Dump erzeugt wird. Das dürfte nicht schwer sein. Oder man bastelt sich eine Version von mkzsf, die den XML-Dump direkt lesen kann. Das ist auch ziemlich einfach und der sauberste Weg. Viel Spaß.--Jah 11:19, 31. Aug 2005 (CEST)

Hallo Freunde, mir ist ja klar, dass ihr leider den fehlende Dump nicht herbeizaubern könnt. Aber ich bin doch schon so gespannt auf die neue Statistik. Hab ich mir doch in den letzten Monaten die Nächte um die Ohren geschlagen, die Frau vernachlässigt, die Finger athrosereif geschrieben, nur um im Ranking nach oben zu kommen. Und jetzt kommt dieser verdammte Dump nicht. Hergottsakra, wenn ich dem Burschen begegne, werde ich ihn wikipediasieren. --Pelz 23:26, 24. Aug 2005 (CEST)

Kann es sein, dass die aktuellen Dumps von vorgestern [3] noch kaputter als die vom Juli sind? Jetzt ist die "Current"-Datei nur noch 1,3 MB groß, die "Full" immerhin 200 MB. Also entweder wurde ganz krass komprimiert oder defekt... Das kanns ja wohl nicht sein.. wenn kann man stressen? (witzig: die Current bricht mitten bei "Bielefeld" ab. war ja klar, wenns Bielefeld nicht gibt.. ;-) --BLueFiSH ?! 06:50, 6. Sep 2005 (CEST)

Auf en:Wikipedia:Wikipedia Signpost/2005-09-05/Statistics released sind übrigens Kommentare von Brion Vibber zu diesem Problem erwähnt. grüße, Hoch auf einem Baum 08:22, 8. Sep 2005 (CEST)

HaeB, versteh ich das richtig, das Brion ein neues tool für die Abfrage programmiert hat, das ja anscheinend funktioniert, bis eben auf de: ?
Geht mir jetzt auch nicht speziell um die Benutzerstatistik, aber einige Leute (inkl. mir) arbeiten mit sql-listen aus dem dump und da ist ein 2 monate alter dump irgendwie witzlos :-/ -- Peter Lustig 09:07, 8. Sep 2005 (CEST)
So wie ich das dort verstehe, testet er das noch. Für mehr Details sollte man wohl die entsprechenden Postings auf wikitech-l lesen. (Siehe auch das Server admin log.) grüße, Hoch auf einem Baum 10:13, 8. Sep 2005 (CEST)
Ahh, danke schön, das lässt ja hoffen ;-) -- Gruß Peter Lustig 14:25, 8. Sep 2005 (CEST)
der "dump" war also quasi ein Testlauf und er ist an dem Problem dran, das hört sich gut an. --BLueFiSH ?! 09:19, 8. Sep 2005 (CEST)

Neues pages_full.xml.gz auf http://download.wikimedia.org/wikipedia/de/ eingetroffen. Noch kürzer als die vorherigen Versuche?! --Pjacobi 13:33, 9. Sep 2005 (CEST)

Die dump-Erstellung ist noch am laufen. Es besteht noch Hoffnung ;-). Hochgerechnet aus den anderen dumps dürfte die Erstellung gut 60 Stunden dauern (wenn es den funktioniert!). -- Peter Lustig 13:54, 9. Sep 2005 (CEST)
Soll ich auch eine Hochrechnung versuchen? Nach 6 Stunden hat die current-Datei eine Größe von 7MB - die Version vom 14.7. hatte eine Größe von knapp 460 MB. Wenn ich eine "kleines" Anwachsen mit einrechne, komme ich auf eine Laufzeit von ~ 500 Stunden ;-) -- srb  14:13, 9. Sep 2005 (CEST)
Jetzt sind's aber schon 7,2 ;-) Also ist der dump irgendwann in den nächsten 54 bis 494 Stunden fertig :-) -- Peter Lustig 14:17, 9. Sep 2005 (CEST)
  • Der Current-Dump ist fertig. Steht zumindest seit einer Stunde auf gleichbleibender Uhrzeit. --BLueFiSH ?! 22:51, 11. Sep 2005 (CEST)
@Peter: ey nich schlecht gerechnet, du hast nur um 1,5 Stunden daneben gelegen ;-) --BLueFiSH ?! 22:54, 11. Sep 2005 (CEST)
BLueFiSH, leider ein bischen zu früh gefreut, der dump ist leider noch nicht vollständig. Da scheint vorhin gerade ein Artikel mit einer riesen history kopiert worden zu sein (vielleicht "Fragen zur WP" oder so).
Aber mittlerweile hat der Current-dump die Größe vom Juli-dump, kann also nicht mehr lange dauern, schätze spätestens heute nachmittag/früher abend. -- Peter Lustig 05:02, 12. Sep 2005 (CEST)
P.S. zur Verteidung meiner obigen Prognose (die jetzt doch etwas daneben liegt), die deutschsprachige WP hat im Verhätnis zu den anderen WP's die ich als Vergelich rangezogen habe im Schnitt anscheinend eine viel größere history pro Artikel ;-) -- Peter Lustig 05:02, 12. Sep 2005 (CEST)
P.P.S. Wer kann den auch damit rechnen das sich die history in 1,5 Monaten verdoppelt(!!).
Apropos, dump ist fertig :-) -- Peter Lustig 09:56, 12. Sep 2005 (CEST)
Glückwunsch ;-) BTW, die Verdopplung war innerhalb von fast 3 Monaten - die 1,1G im Juli glaub ich nicht so richtig. Zudem spielt bei der Vergrößerung der dumps sicherlich auch das xml-Format eine Rolle, da dort die Metainformationen vermutlich auch etwas umfangreicher gegenüber dem reinen sql-dump sind. Was allerdings zum "pausieren" des current über Stunden geführt hat, würde mich wirklich interessieren - an einen Artikel mit Riesenhistory glaub ich eigentlich nicht, immerhin hat die Pause Stunden angedauert, zusätzlich hat auch der englische current zur gleichen Zeit gestoppt. Aber andererseits: Hauptsache, der Dump ist fertig. -- srb  11:32, 12. Sep 2005 (CEST)
Ich meinte oben 2,5 Monate, war wohl ein bischen früh/spät ;-) Allerdings hast du wohl recht das die Infos im neuen format etwas umfangeicher sind. Aber "Hauptsache, der Dump ist fertig", hab eh nur sehr rudimentäre Kenntnisse von der technischen Seite der WP, daher sind das bei mir meist nur Spekulationen. -- Peter Lustig 12:21, 12. Sep 2005 (CEST)

Seit gestern steht unter http://download.wikimedia.org/wikipedia/de/20050917_pages_full.xml.gz ein 20,4 GB großer Dump zur Verfügung. Wer macht sich an die Auswertung? --Frank Schulenburg 13:26, 20. Sep 2005 (CEST)

Das dumme ist, dass dabei der full-dump vom 9.9. gelöscht wurde, den ich schon zu 70% runtergeladen hatte, hab ja schließlich keine Lust meinen Rechner nur für einen Download 24/7 laufen zu lassen. Aber den neuen hab ich schon gestartet, mal sehen, werd mich mal ranhalten, dass der schneller geht. und dann muss ich weitersehen, hab noch keinen richtigen Plan wie es dann weiter geht.. --BLueFiSH ?! 15:23, 20. Sep 2005 (CEST)

Beitragszahlen[Quelltext bearbeiten]

Hallo Mitstreiter,

inzwischen gibt seit mehr als hundert Tagen keine neue alternative Benutzerstatistik. Weil uns nach Bierdimpfl auch noch Jah verlassen hat und der Aufwand zur Erstellung größer und komplizierter geworden ist, besteht wohl keine Aussicht darauf, dass sie in absehbarer Zeit in der vertrauten Form erneuert wird.

Deshalb habe ich habe mir mal die Mühe gemacht, ein kleines PHP-Skript zu schreiben, das die Ergebnisse der Beitragszähler ermittelt und zu einer Liste zusammenstellt, die ich vorläufig auf der Unterseite Wikipedia:Alternative Benutzerstatistik/Beitragszahlen ablege. Dieses Skript läuft nur wenige Minuten und kann daher häufiger als monatlich gestartet werden, falls gewünscht.

Es werden die Gesamtbeiträge gezählt. Alternativ könnte ich die Anzahl der Artikelbeiträge zu Grunde legen und die Gesamtanzahl zusätzlich angeben. Für die Erstellung einer Liste über die Aktivitäten der letzten 90 Tage fehlen mir Informationen und die erstellte Liste enthält auch keine Angaben zum Datum der ersten und letzten Bearbeitung. Auch der Adminstatus wird nicht angezeigt, aber das kann ich dem Skript noch beibringen.

Es werden bisher nur diejenigen Benutzer berücksichtigt, die bei der letzten Auswertung vom Mai dabei waren (daher keine Bots), und außerdem Pelz, Proofreader und Zaungast, weil sie hier danach gefragt haben. Habe ich jemanden übersehen? Vielleicht hat jemand eine Idee, wie ich einfach an eine Liste regelmäßiger oder neuerdings fleißiger Mitarbeiter komme, damit ihre Zahlen mit einfließen können.

Viele Grüße --Wiegels 04:42:56, 4. Sep 2005 (CEST)

Hallo, gerade habe ich die Liste neu angefertigt, erweitert um alle fehlenden Admins sowie Rauenstein, der sich nachträglich eingetragen hatte. Der Adminstatus ist auch wieder vermerkt. Viele Grüße --Wiegels 14:56:23, 4. Sep 2005 (CEST)

Vielen Dank Freund Wiegels für Deine Mühe. Wenn ich hier irgendwie helfen kann, würde ich das gerne tun. --Pelz 21:31, 4. Sep 2005 (CEST)

Auch von mir vielen Dank für die Mühe. Dürfte ich darum bitten, beim nächsten Lauf auch mit berücksichtigt zu werden? Danke! --Asdert 00:14, 6. Sep 2005 (CEST)

hab die 20 GB - was nun?[Quelltext bearbeiten]

So ich hab die 20 GB runtergezogen, welche Schritte muss ich jetzt genau unternehmen, damit am Ende die Statistik bei rauskommt. Auf stundenlange probiererei hab ich nämlich keine Lust, da wär es gut, wenn mir jemand die 3 oder 4 Punkte kurz zusammenfassen kann. Danke. --BLueFiSH ?! 18:04, 25. Sep 2005 (CEST)

Wenn ich die bisherigen Beiträge richtig verstanden habe, wäre es wohl am sinnvollsten, das Script Bild:Aktivitaet.ogg (Version vom 25. Mai 2005) an die neue Datenstruktur anzupassen. Gleichzeitig müßtest Du die Liste der Admins (Zeile 14ff.) und die beiden Arrays @keineadmins und @bots auf den heutigen Stand bringen. Leider kann ich nur sehr eingeschränkt mit Perl-Programmierkenntnissen dienen, ansonsten würde ich Dir gerne dabei helfen. Vielleicht ließe sich ja Benutzer:Jah nochmal reaktivieren... oder hier meldet sich noch ein anderer, der den Perl-Code ausreichend durchschaut, um die Anpassung an die neue Datenstruktur vorzunehmen. --Frank Schulenburg 19:28, 25. Sep 2005 (CEST)

Also ich sehe mich außer Stande irgendwelche Perl-Skripte zu verändern, wenn das auf mehr als auf die Benutzerlisten aktualisieren hinausläuft. Erstens weil ich kein Perl kann, und zweitens weil das wieder auf das stundenlange Gefrickel hinausläuft. --BLueFiSH ?! 17:39, 27. Sep 2005 (CEST)

Für die Aktualisierung der Perl-Skripte könntest Du vielleicht mal auf Wikipedia Diskussion:Datenbankabfragen anfragen, ob Dir da jemand weiterhelfen kann - zumindest schauen dort die anderen sicherlich hin und wieder rein, die die Dumps auswerten. Da müßte es eigentlich mit dem Teufel zugehen, wenn dort keiner Perl und die Skripte anpassen kann. -- srb  00:37, 29. Sep 2005 (CEST)
Zusätzlich noch folgender Hinweis: unter Wikipedia:Download/xml2sql liegen Skripte, die die Daten von XML ins alte SQL-Format umwandeln. Das könnte die Arbeit der Anpassung eventuell stark reduzieren. --Frank Schulenburg 12:55, 29. Sep 2005 (CEST)
Also das xml2sql-Skript läuft grad. Es vereinfacht zwar die Arbeit der Anpassung in der aktuellen Phase, aber ich glaub das dauert mir etwas zu lang. Bei 21.000 MB xml.gz-Größe, mit 20 Minuten CPU auf 100% erst eine sql-Datei mit 40 MB Größe, das läuft auf eine Gesamtlaufzeit von ~ 7 Tagen hinaus.. nee danke. den Versuch mit xml2sql ich brech das wieder ab. --BLueFiSH ?! 18:10, 29. Sep 2005 (CEST)

Hallo. Darf ich mal vorsichtig nachfragen wie denn nun der aktuelle Stand ist und wann es evtl. mal wieder eine neue Statistik gibt? Sleepsheep 18:32, 13. Okt 2005 (CEST)

wenn sich niemand findet, der das Skript so anpasst, dass ich es auf den Datenbestand anwenden kann, dann wird daraus gar nichts. --BLueFiSH ?! 18:43, 13. Okt 2005 (CEST)

Wann gibt es wieder mal einen frisches Bier? Das alte ist sauer....[Quelltext bearbeiten]

Gruss--Zaungast 21:36, 19. Okt 2005 (CEST)

Schon mal hier vorbeigeschaut? Gruß -- Sir 22:30, 19. Okt 2005 (CEST)
Danke für den Tipp. Müßte man eigentlich auf die alte Benutzerstatistikseite als Link setzen. MfG--Zaungast 23:08, 19. Okt 2005 (CEST)
Ist doch. Ganz unten. Wikipedia:Alternative_Benutzerstatistik#Übergangslösung Gruss -- baumanns _____ 00:52, 20. Okt 2005 (CEST)
Danke an Baumanns--Zaungast 10:09, 21. Okt 2005 (CEST)

Alles muss man selber machen.[Quelltext bearbeiten]

Da es nun endlich kleinere Dumps gibt, habe ich doch noch einmal die Scripten aktualisiert.

Das Minuszeichen für Benutzer, die keine Admins sein wollen, habe ich überall entfernt, weil ich keine Lust hatte, das alles zu aktualisieren. Die Funktion ist aber noch in Aktivitaet enthalten. Wenn jemand die Minuszeichen wieder haben möchte, muss er nur @keineAdmins richtig auffüllen.

mkzsf lief auf meinem Rechner (Athlon XP 2400+) 204 Minuten lang, Aktivitaet 76 Minuten. Zusätzlich zu dem ca. 1GB großen Dump wird noch etwa 3GB Festplattenspeicher benötigt. Der Hauptspeicherbedarf liegt bei 600MB.

Die nächste Aktualisierung wird hoffentlich jemand anders machen können. Es kann doch nicht so schwierig sein, diese popeligen Scripten ein wenig anzupassen. Das neue mkzsf ist praktisch eine Kopie von xml2sql, nur ohne die SQL-Ausgabe, und um ein paar Zeilen aus dem alten mkzsf ergänzt.--Jah 21:33, 23. Okt 2005 (CEST)

ich hätt es ja bereits gemacht, aber siehe oben. und doch ja, wenn ich nicht weiß was ich von wo nach wo kopieren muss, dann find ich das schon recht schwierig ;-) Aktualisier mal bitte noch die Dateien, die man hier runterladen kann, dann muss sich die Arbeit ein anderer nicht mehr machen. thx. Zu den Dumps, die sind ja wahnsinnig geschrumpft, nur noch 6 GB, wie geht das denn? (der 1GB kann ja wohl nicht korrekt sein).. Da kann man das auch wieder öfter download. Dann noch: Danke für das Update!! --BLueFiSH ?! 23:42, 23. Okt 2005 (CEST)
Welche Dateien soll ich aktualisieren? Datei:Aktivitaet txt zip.ogg ist bereits aktualisiert, die Skripten ebenfalls (Datei:Mkzsf.ogg und Datei:Aktivitaet.ogg). Der 1GB-Dump ist komplett. Damit habe ich ja die neuen Tabellen berechnet. Der Dump ist mit 7-zip nur viel besser komprimiert als mit bzip2 (6GB) oder gzip (>20GB).--Jah 23:54, 23. Okt 2005 (CEST)
Ah stimmt, ist ja von dir aktualisiert worden, gar nicht nachgeguckt. Das nenn ich dann aber eine ziemlich gute Komprimierung. Wenn da entpackt aber nur 3 GB drin stecken, dann wurde ja der Dump an sich auch gehörig verkleinert. ;-) --BLueFiSH ?! 23:59, 23. Okt 2005 (CEST)
Mit den 3GB zusätzlich benötigtem Festplattenplatz meine ich nicht, dass die Datei entpackt 3GB groß ist. Die 3GB werden für die zsf-Datei und temporäre Dateien benötigt. Die entpackte Datei (111GB) muss nicht auf der Platte gespeichert werden, sondern man verwendet sinnvollerweise eine Pipe: 7z e -so pages_full.xml.7z | ./mkzsf.--Jah 00:14, 24. Okt 2005 (CEST)

Die neue Statistik (Oktober 2005)[Quelltext bearbeiten]

Hurra Hurra, der neue Dump ist da. Danke JAH und alle Mitstreiter für Eure Mühe. --Pelz 01:23, 24. Okt 2005 (CEST)

Berechnung der Punkte hier: Diff. zu Editcounter[Quelltext bearbeiten]

Wie erklären sich deutliche Abweichungen (im dreistelligen Bereich) zwischen den Werten in der Alternativen Statistik und dem Editcount.--Zaungast 18:43, 10. Nov 2005 (CET)

Soweit ich weiß liegt dies daran, daß in der Alternativen Benutzerstatistik auch der Umfang der Edits mitberücksichtigt wird (1 Punkt pro 240 Bytes Texterweiterung). -- Stechlin 18:51, 10. Nov 2005 (CET)

Warum konnte man am 5. November 2005 mit 7647 Punkten auf Platz 200 gelangen, während am 20. Oktober dafür noch 7712 Punkte nötig waren?

Egal, jedenfalls vielen lieben Dank an Bluefish und seinen Rechner für die Arbeit. grüße, Hoch auf einem Baum 06:59, 16. Nov 2005 (CET)

Einiger der Benutzer sind aus der Rubrik Aktive Benutzer herausgefallen und wurden unter Inaktive Benutzer aufgeführt (z. B. Florian.Keßler, Mikue, Unscheinbar, Brummfuss). So gab es wohl Platz für ein paar Nachrücker mit weniger Punkten.
Ach natürlich, da fällt mir doch das Brett vorm Kopf wie Schuppen von den Augen... ich hatte nie so genau hingeschaut und angenommen, dass die obere Tabelle alle Benutzer (samt inaktiven) aufführt. grüße, Hoch auf einem Baum 07:23, 16. Nov 2005 (CET)
Auch von mir herzlichen Dank an Bluefish für die Mühe. :-) -- kh80 •?!• 07:17, 16. Nov 2005 (CET)
hm, da schreibt man sich die Finger wund, und dann steht des Rätsels Lösung schon da ;-) hatte vermutet, dass die Botliste am 5.11. aktueller war.
zu meinem Rechner.. is nen vServer im Internet, dem ich Abends die Arbeit aufgebe und er mir morgens das Ergebnis ausspuckt. Für die Auswertung mit der Berechnung der Zahlen brauchte er diesmal 5,5 Stunden. mit den 1 Gig-Archiven ist ein regelmäßiges Update für die nächste Zeit auch weiterhin machbar, wird erst kritisch wenn sich die Größe auf 2 Gig erhöht, mal sehen ob dann noch mein begrenzter Plattenplatz ausreicht ;-) Die meiste Arbeit macht dabei das aktuell halten der Adminliste ;-) --BLueFiSH ?! 07:39, 16. Nov 2005 (CET)

Die Auswertung (Skript aktivitaet) des aktuellen Updates will mir/meinem Server seit Verfügbarkeit des aktuellsten Dumps nicht gelingen. Habe schon alle Schritte mehrfach wiederholt, mehrfach den Dump (7z) runtergeladen, mehrfach mit mkzsf die Datei zsf erstellt, mehrfach ein aktuelles Skript aktitviaet gebastelt, auch nochmal beide Skripte im Originalzustand runtergeladen, Server rebootet, nix will gehen. Output-Datei AnzahlEdits.out wird noch erstellt, dann bricht das Skript mit der Meldung "Segmentation fault" ab. Was mich allerdings wundert, da ich ja am zuletzt verwendeten Skript nichts mehr geändert habe. Bin mit meinem Latein am Ende. Dass das Skript aktivitaet überhaupt bis AnzahlEdits.out kommt, ist schon ein Fortschritt, anfangs hat es sich in einer Endlosschleife verfangen und den gesamten freien Festplattenspeicherplatz in AnzahlPunkte.out gepumpt.. Kann mir das nur so erklären, dass die Dumps irgendwie leicht defekt sind, da es ja vorher bereits einige Male ohne solche Probleme geklappt hat. Weiß jemand einen Rat? Kann man das Debuglevel von Perl erhöhen/einschalten, so dass man die Problemstelle gemeldet bekommt? verzweifelt fragend -- BLueFiSH 19:20, 4. Dez 2005 (CET)

Hi, ich kann Dir leider bei Deinem Problem auch nicht helfen, rat Dir aber dazu, diesen mit höchster Wahrscheinlichkeit fehlerhaften Dump links liegen zu lassen und auf den nächsten zu hoffen. Im Moment ist sowohl die Geschwindigkeit als auch die Zuverlässigkeit deutlich besser als Ende November/Anfang Dezember. mfg --Herrick 11:54, 16. Dez 2005 (CET)
Obige Meldung betraf den 20051127er Dump. Das der an irgendeiner Stelle kaputt war, davon geh ich inzwischen auch aus. Konnte das Skript ja nichtmal unter Windows mit ActivePerl zum erfolgreichen Abschluss bringen - ist genau das gleiche passiert: 100% CPU und ne Datei auf der Platte so groß wie der freie Speicherplatz... Der 20051211 ist ja sowieso nicht vollständig diesmal.. naja warten wa halt auf den nächsten. --BLueFiSH 14:44, 16. Dez 2005 (CET)
Dabbeljus Auslegung ist ja ganz interessant, aber wie kommt er - wenn der Dump wirklich buggy war - auf die ganzen Zahlen? --Herrick 14:53, 5. Jan 2006 (CET)
Ich finds quark, weil es mit der bisherigen Zählweise bricht. Die AnzahlPunkte.Out hat das Skript bei mir auch erstellen können, erst danach traten die Probleme bei der Datei AnzahlEdits.out oder so auf. Außerdem frag ich mich wie man den Dump vom 11.12. nehmen konnte wenn dieser im Gegensatz zu den vorherigen nur 1/3 groß ist? der war doch defekt... Naja mal abwarten ob es beim nächsten Dump klappt.. --BLueFiSH 14:59, 5. Jan 2006 (CET)
(nach Bearbeitungskonflikt) In dem das Script einfach so weit zählt, wie es eben Daten hat, nehme ich an. Wenn diese nach dem ersten Drittel aufhören, erhält man natürlich irgendwelche Zahlen, aber eine sinnvolle Statistik wird da leider nicht draus. Das ging sicher nicht ganz ohne Anpassungen des Scriptes, sonst hätte es auch bei BLueFiSH oben geklappt. Na, vielleicht gibt es ja demnächst mal wieder einen vollständigen Dump .. ;) -- Gruß, aka 15:01, 5. Jan 2006 (CET)
Irgendwie blöd, aber trotz unterschiedlicher Datei-Größe habe ich keinen Verdacht geschöpft. Ich erinnere mich, dass es auch mal Veränderungen an der Aufteilung auf die XML-Dateien gab und möglicherweise daher erschien es mir plausibel, die Dumps herunterzuladen. Egal. Ich frage mich hingegen, ob man den Nutzern kaputte/unvollständige Dump-Dateien zum herunterladen anbieten sollte.
@Herrick: Unter Linux klappte die Erstellung der Auswertung bei mir. Probleme gibt es unter Windows mit dem Skript "Aktivitaet", wie oben angedeutet wurde. Grüße --Dabbelju 16:05, 5. Jan 2006 (CET)
meine "Andeutung" oben bezog sich wie man nachlesen kann auf den 20051127er Dump und war nicht nur eine Andeutung sondern eine Zusatzinfo, dass es unter Windows auch nicht machbar war, diesen Dump auszuwerten. Zuerst probiert hab ich es natürlich auf ner Linuxkiste. Und angesichts meines Abstiegs von 19660 Punkten auf nur noch 3589 ist der mit Sicherheit kaputt. --BLueFiSH 17:12, 5. Jan 2006 (CET)
Ach, das ist wie mit dem Techdax... --- Simplicius 18:40, 5. Jan 2006 (CET)
Du meinst, als er noch Nemax hieß? ;-) --BLueFiSH 19:43, 5. Jan 2006 (CET)
Jo. ;-)) -- Simplicius 21:01, 5. Jan 2006 (CET)

Dump 20060123 und Skript "aktivitaet"[Quelltext bearbeiten]

Scheint mal wieder defekt zu sein oder sowas in der Art. Oder das Skript "aktivitaet" geht nicht mehr. wie auch schon beim letzten vollständigen Dezember-Dump hängt sich das Skript bei der Erstellung der Datei "AnzahlPunkte.out" in einer Endlosschleife auf und schreibt eine Datei so groß wie der komplette verfügbare Festplattenplatz auf die Platte. "AnzahlEdits.out" und "AnzahlBytes.out" werden vorher noch ordnungsgemäß erstellt, zu "Aktivitaet.txt" kommt es nicht mehr. Hier mal ein kleiner Auszug:

! Pos. || Punkte || Benutzer || A || Erstbearb. || Letztbearb.
|-
| 1 || 0 || [[Benutzer:|Benutzer:]] ||  || 13171 || 13171
|-
| 1 || 0 || [[Benutzer:|Benutzer:]] ||  || 13171 || 13171
|-
| 1 || 0 || [[Benutzer:|Benutzer:]] ||  || 13171 || 13171

und so gehts dann immer weiter.. weiß da kein Rat, perl-Guru bin ich nicht, lediglich einfache Ersetzungen wie das Aktuellhalten der Adminliste etc. kann ich machen. Das Erstellen der Statistik sollte mal noch ein anderer bei sich ausprobieren, damit ausgeschlossen werden kann, dass es zumindest nicht an meinem Server liegt, sondern entweder am Skript oder am DB-Dump... --BLueFiSH 08:02, 29. Jan 2006 (CET)

Welch rege Beteiligung hier.. Zur Sache: Beim Dump 20060205 funktioniert's (bei mir) genausowenig wie beim vorherigen, gleiches Symptom. Viel Glück wenns mal einer probieren sollte. --BLueFiSH 17:53, 8. Feb 2006 (CET)
ich verstehe ja nicht das geringste von dem thema aber frag doch mal auf der disk. bei perl nach? vielleicht beobachten das leute die sich mit sowas auskennen? ...Sicherlich Post 18:02, 8. Feb 2006 (CET)
Ich schätze, ich habe bestimmt mindestens 7 edits mehr seit der letzten Statistik vor drei Monaten. -- Simplicius 05:17, 14. Feb 2006 (CET)

Ich hatte diesmal dasselbe Problem. Es liegt wohl am Speicherverbrauch. Das externe Sortierprogramm startet dann nicht mehr. Ich habe jetzt Wikipedia:Alternative Benutzerstatistik/Programme/aktivitaet so umgeschrieben, dass nur noch in Perl sortiert wird. Jetzt funktioniert es bei mir wieder, benötigt allerdings immerhin ca. 1.2 GB Hauptspeicher. Den Hauptspeicherbedarf kann man etwas reduzieren, wenn man auf die Kategorien-Aufschlüsselung verzichtet. Dazu muss man vor dem Aufruf von "aktivitaet" die von "mkzsf" erzeugten Dateien "katlinks" und "kattree" löschen.--Jah 11:20, 9. Jul 2006 (CEST)

Hat der Erhalt dieser Seite noch einen Sinn?[Quelltext bearbeiten]

Da jedermann/jedefrau jetzt Kate nutzen kann und diese Seite zudem Monate hinterherhinkt, kann man sie eigentlich entsorgen. Gibt es dazu sachliche Anmerkungen?--Zaungast 20:02, 21. Mär 2006 (CET)

Was hat Kate mit der "Alternativen Benutzerstatistik" zu tun? -- srb  20:30, 21. Mär 2006 (CET)
Du wirst schon wissen, was ich meine. Keiner kümmert sich um diese Statistik, da jeder immer bei Kate schauen kann, welcher User welche Edits hat. Ich hatte um sachliche Anmerkungen gebeten--Zaungast 22:28, 21. Mär 2006 (CET)
Die Anmerkung war eigentlich durchaus sachlich gemeint: Bei Kate gibt es eine einfache Übersicht (die sicherlich auch hilfreich ist, da sie über alle Namensräume Auskunft gibt), in der keine Aussage getroffen wird, ob jemand z.B. ein notorischer Vorschau-Missachter ist: alle Edits sind dort gleichbedeutend - hier wird allerdings eine Wichtung durchgeführt. Was die Aktualisierung angeht, da scheint es aufgrund von Änderungen im Dump-Format zu Problemen mit dem Skript zu kommen - irgendwann wird sich schon jemand finden, der sowohl das Skript als auch die Dump-/Datenbankstruktur versteht um es wieder zum Laufen zu bringen.
Früher hatte ich mal häufiger hier reingeschaut, heute interessiert es mich nicht mehr so sehr - dennoch finde ich z.B. grade den Vergleich der letzten 90 Tage zu den Gesamtedits ganz aufschlussreich (wenn's mal wieder einigermaßen aktuell ist). Insgesamt denke ich eigentlich schon, dass die Seite erhalten werden sollte - und hoffe dass sich endlich jemand findet, der die Probleme mal beseitigt. -- srb  22:40, 21. Mär 2006 (CET)
Danke, aber ich habe da keine Hoffnung mehr. Gruss--Zaungast 22:59, 21. Mär 2006 (CET)
Zaungast, hier kriegst du 11 Punkte. :-)) -- Simplicius 23:23, 21. Mär 2006 (CET)

Wer oder was ist Kate? --Immanuel Giel 09:12, 22. Mär 2006 (CET)

Kate *g* dort dem ersten Textlink folgen, und anschließend auch dort gucken --:Bdk: 09:53, 22. Mär 2006 (CET)
Siehe auch: Wikipedia:Editcount --Wiegels „…“ 11:53, 22. Mär 2006 (CET)
Es wäre schön, wenn die alternative Statistik erhalten bliebe. Die Gewichtung und nicht nur das reine Zählen ist imho wesentlich und berücksichtigt die vielschreibenden Handarbeiter besser. Mit Kate, deren Informationsgehalt auch eine, aber andere, Aussage trifft, ist der Bot-einsetzender-Masseneditierer der König. Beide Gruppen sind hier natürlich wichtig. Also brauchen wir hier auch beide Statistiken. --Pelz 22:01, 23. Mär 2006 (CET)

Neu - jetzt auch mit Kategorien[Quelltext bearbeiten]

Mit dem Dump vom 27.3. habe ich kein Problem, ältere habe ich mir nicht heruntergeladen. Deswegen kann ich nicht viel zu dem Problem sagen, das es hier gab.

Ich habe eine Aufschlüsselung nach Hauptkategorien ergänzt, die vielleicht ganz interessant ist. Leider ist sie bei einigen Kategorien relativ wertlos, weil nicht sinnvoll kategorisiert wurde. Beispielsweise zählt Köln zur Hauptkategorie Naturwissenschaft, weil es die folgende Kategorienkette gibt: Kategorie:Ort in Nordrhein-Westfalen, Kategorie:Ort in Deutschland, Kategorie:Geographie (Deutschland), Kategorie:Geographie nach Ländern, Kategorie:Geographie, Kategorie:Naturwissenschaft. Man könnte einige besonders üble Links im Programm von Hand entfernen. Mal sehen, ob und wie ich das noch mache.--Jah 18:41, 6. Apr 2006 (CEST)

Hallo Jah, danke für Deine Arbeit. --Pelz 22:23, 6. Apr 2006 (CEST)
Ja danke - nur leider wieder knapp verpast ;-) --Aineias © 23:29, 6. Apr 2006 (CEST)
hatte es auch um den 31.3. mit dem 27er Dump probiert, hat aber wieder nicht funktioniert (wieder Endlosdatei mit Dummyinhalten). Dann werd ich es auch in Zukunft lassen das Ding zu aktualisieren. Hab Dank Jah! --BLueFiSH  06:26, 7. Apr 2006 (CEST)

Zweifel[Quelltext bearbeiten]

Ich war und bin ein Verfechter dieser Statistik. Aber es tut sich hier seit Monaten nichts mehr. Sehr, sehr schade. Wenn sich niemand findet, der hier aktive Zahlen liefern kann und will, dann bitte einstampfen. Dann brauch ich nicht täglich frustiert die Seite zumachen. Danke. --Pelz 00:49, 12. Jun 2006 (CEST)

Tja, das Ding wurde im Juni kurz nach dem Posting meines Vorredners aktualisiert, deswegen bleibe ich mal optimistisch, dass es auch jetzt wieder irgendwann auf den neuesten Stand gebracht wird. Vermutlich braucht man nur etwas Geduld, was sind schon 5 Monate. :-) --Proofreader 01:01, 20. Nov. 2006 (CET)Beantworten

Der letzte brauchbare Dump ist vom 8. September, also zu alt. Mal sehen, ob das mit dem aktuellen Dump (pages-meta-history.xml.7z, seit einer Woche "in-progress") noch was wird.--Jah 18:20, 20. Nov. 2006 (CET)Beantworten
Dann sind wir noch etwas "guter Hoffnung". --Pelz 23:18, 20. Nov. 2006 (CET)
Eine Woche danach frage ich, ob der "Kaiserschnitt" gelungen ist? --Herrick 09:41, 28. Nov. 2006 (CET)Beantworten
Wie Du auf der oben verlinkten Seite sehen kannst, ist der Status immer noch "in progress", aber ich habe es längst abgeschrieben. Der Komprimierungs-Prozess ist sicherlich wieder abgebrochen worden oder abgestürzt. Theoretisch könnte ich auch die mit bzip2 komprimierte Datei herunterladen, aber das dauert mir zu lange, weil sie 20GB statt 2GB (mit 7z komprimiert) groß ist.--Jah 21:05, 28. Nov. 2006 (CET)Beantworten
Meinst Du aktuellen Dump? 20 GB ist einfach eine zu große Menge Holz, um sie noch ehrenamtlich zu bewältigen. Könnte die Foundation auf ihren Servern keine Mittel bereitstellen? Andere Tools werden schließlich dort auch abgelegt. Gruß und Danke für Deine Mühe --Herrick 09:11, 29. Nov. 2006 (CET)Beantworten
Die 20GB-Datei und die 2GB-Datei enthalten die selben Daten, nur anders komprimiert. ("All pages with complete edit history (.7z)" sollte ca. 2GB groß werden, falls der Dump erfolgreich ist.) Deswegen wäre es sinnvoller, für eine verlässliche Erzeugung der stärker komprimierten Datei zu sorgen, zumal ich die Dumps auch für andere Auswertungen verwende. Ich möchte das alles lieber nicht auf dem Toolserver machen, weil es einfach zu viel Rechenzeit frisst.--Jah 11:28, 29. Nov. 2006 (CET)Beantworten
Sehe ich das korrekt, dass Du keine Chance mehr siehst, jemals die Daten aktualisieren zu lassen? Anders kann ich wohl die Archivierung im Moment nicht interpretieren. Wenn der toolserver momentan auf unabsehbare Zeit die Füße hochlegt (Stromausfall in NL?) "The toolserver's database is down for a while. It's not clear when it'll be back up" und auch der Pipermail-Verweis http://mail.wikipedia.org/pipermail/toolserver-l/2006-December/000637.html ins Leere läuft, kann man sich so langsam darauf bereit machen, dass wir wieder längere Pausen haben werden. Schade --Herrick 11:41, 6. Dez. 2006 (CET)Beantworten
Ich habe einfach keine Lust, monatelang ständig auf der Lauer zu liegen, ob sich vielleicht irgendwann mal ein brauchbarer Dump materialisiert. Wenn es wenigstens eine automatische E-Mail-Benachrichtigung gäbe, würde ich mich vielleicht noch darum kümmern. Mit den technisch Verantwortlichen kann man leider nicht kommunizieren (habe ich früher öfters versucht, und auf eine Anfrage von jemand anderem auf der wikitech-Mailingliste wegen des 7z-Dumps Ende November gab es natürlich auch keine Antwort).--Jah 21:48, 6. Dez. 2006 (CET)Beantworten
Was ist dem mit dem aktuellen Dump? [4]: "2006-12-04 19:32:49 done All pages with complete edit history (.7z) - Everything is Ok" --BLueFiSH  (Langeweile?) 22:00, 6. Dez. 2006 (CET)Beantworten
Ist ja lustig, ich habe die Statistik fast gleichzeitig (wenige Minuten Unterschied) mit dem Erscheinen des neuen Dumps archiviert, ohne davon zu wissen. Aber ich mache die Archivierung jetzt nicht sofort wieder rückgängig, sonst lässt der nächste Dump bestimmt wieder ein halbes Jahr auf sich warten. Vielleicht werde ich die Statistik auch gar nicht mehr reaktivieren. Das Ganze macht mir nämlich momentan keinen Spaß mehr. Deswegen werde ich diese Seite jetzt auch aus meiner Beobachtungsliste entfernen. Trotzdem vielen Dank für das Interesse.--Jah 20:03, 7. Dez. 2006 (CET)Beantworten
Gerade gesehen und nicht ganz uninteressant in diesem Zusammenhang: Wikipedia Diskussion:Download#Fehlende_Artikel--Jah 20:11, 7. Dez. 2006 (CET)Beantworten

Offizielle Statistik[Quelltext bearbeiten]

Ist zwar nicht wirklich wichtig, aber ich hätte schon gerne, dass ich in der nächsten Auswertung auch in der offiziellen Statistik als „anwesend“ geführt werde und nicht als „abwesend“. Gruß und Danke --peter200 09:52, 25. Sep 2006 (CEST)

Ich glaub nicht, dass hier der richtige Platz für die durchaus berechtigte Anmerkung ist. Erik Zachte, der der die von dir gezeigte Statistik aktualisiert, wird hier sicherlich nicht reingucken. Wahrscheinlich ist meta:Talk:Wikistats oder meta:User:Erik Zachte die bessere Adresse für die Anmerkung. Gruß --BLueFiSH  (Klick mich!) 10:11, 25. Sep 2006 (CEST)