Wikipedia Diskussion:Umfragen/KI-generierte Artikel

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Willkürliche Abschnittsüberschrift

[Quelltext bearbeiten]

Vielen Dank. Statt „Anwendungen der Künstlichen Intelligenz“ lieber so was wie „Tools zur Textgenerierung aus dem Bereich Künstliche Intelligenz“…? Ist aber auch nicht so wichtig. --Sabrieleauftistik (Diskussion) 20:31, 26. Jun. 2023 (CEST)Beantworten

Ist ein Wiki. WP:SM--Karsten11 (Diskussion) 21:10, 26. Jun. 2023 (CEST)Beantworten
Ich wollte nicht ungefragt im Umfragetext rumpfuschen. --Sabrieleauftistik (Diskussion) 10:24, 27. Jun. 2023 (CEST)Beantworten

Struktur

[Quelltext bearbeiten]

Ich wollte diesen Vorschlag eigentlich schon früher machen, jetzt (so kurz vor angedachtem Beginn den Umfrage) ist es wahrscheinlich zu spät: Da die vier Antwortmöglichkeiten sich nicht unbedingt gegenseitig ausschließen, könnte man sie eigentlich in zwei Abschnitte aufteilen, einen mit Thesen, denen man zustimmt (oder auch nicht), und einen für den präferierten Umgang. Etwa so:

  • Bitte einer der folgenden Thesen zustimmen:
    1. KI-generierte Texte sind unproblematisch, sofern sie richtig sind. Zentrale Regel in Bezug auf die Richtigkeit ist WP:Q. Außerdem ist es sowieso schwer, KI-generierte Texte zu erkennen.
    2. KI-generierte Texte sind typischerweise ohne menschliche Bearbeitung ungeeignet.
    3. KI-generierte Texte sind generell ungeeignet: Die Mischung aus Wahrheit und Erfindung führt zu einem untragbaren Risiko, dass trotz Überarbeitung Fehler erhalten bleiben.
  • So sollte mit KI-generierten Artikeln umgegangen werden:
    1. Es besteht kein Handlungsbedarf. Ein KI-generierter Text ohne Quellen wird genauso behandelt wir ein menschlicher Text ohne Quellen. Das Regelwerk reicht aus.
    2. KI-generierte Texte müssen (wie bei PE) als solche gekennzeichnet werden: KI ist ein Werkzeug wie Übersetzungsprogramme o.ä.. Das Werkzeug ist nicht per se schlecht, es muss aber offengelegt werden. Nicht deklarierte KI-Generierte Texte sind zu löschen, andere zu behalten.
    3. KI-generierte Texte sind genauso zu behandeln wie Texte von Autoren wie Friedjof, die mehrfach wegen Qualitätsmängeln ihrer Artikel gesperrt wurden (siehe Meinungsbild): Verschiebung in die Wikipedia:Artikelwerkstatt; wenn sie jemand adoptiert und überarbeitet, ist es gut, sonst Löschung.
    4. KI-generierte Texte sind immer zu löschen.

Wäre aber nur eine Anregung gewesen und ist vielleicht sowieso zu kompliziert. --Sabrieleauftistik (Diskussion) 18:33, 30. Jun. 2023 (CEST)Beantworten

Abstimmungsmodalität

[Quelltext bearbeiten]

Welche Optionen sind jetzt eigentlich vorgesehen, abzustimmen?

  • Maximal eine Stimme für die Optionen 1, 3 und 4, zusätzlich ggf. eine für 2?
  • Potenziell eine Stimme pro Option?

Sollte man das (zum Beispiel unter der Überschrift Umfrage) noch einmal deutlich hinschreiben? --Sabrieleauftistik (Diskussion) 18:55, 30. Jun. 2023 (CEST)Beantworten

Das ist eine Umfrage, kein Meinungsbild. Ich würde daher das nicht eingrenzen. Eine mögliche Antwort wäre imho auch: "Ja zu Variante 4 (präferierte Lösung) und Ja zu Variante 3 (zweitbeste Lösung)". Es gibt ja auch das Freitextfeld. Hier geht es erst einmal dazu, die Grundlinie der Community einschätzen zu können. Wenn wir die haben, können wir konkrete Vorgehensweisen formulieren und in einem MB zur Abstimmung stellen.--Karsten11 (Diskussion) 08:08, 1. Jul. 2023 (CEST)Beantworten
+1 die Umfrage dient eher einer "Grundstimmungsermittlung". Man sollte versuchen diejenigen mitzunehmen, die es so einschätzen, dass zukünftig solche Texte immer schwieriger zu erkennen sein werden. Anderseits haben Gedanken wie von Prüm auch ihre Berechtiung. Die bisherige Tendenzen kann man für Abstimmungsmodalitäten ggf. im nachfolgenden MB hervorheben. LG --Tom (Diskussion) 21:40, 1. Jul. 2023 (CEST)Beantworten

Diskussion zum Vorschlag von Jossi2 (schärfere Qualitätskontrolle)

[Quelltext bearbeiten]

Ich kopiere den umseitigen Vorschlag von Jossi2 mal hierher, um darauf zu antworten:


Die besten Regeln für KI-Artikel nützen nichts, wenn wir solche Artikel nicht verlässlich erkennen können. Zwar gibt es stilistische und formale Indizien; die reichen aber für einen sicheren Beweis nicht aus, insbesondere dann nicht, wenn ein ChatGPT-Artikel manuell überarbeitet worden ist. (Zusatzfrage: Ab welchem Humananteil gilt ein Artikel nicht mehr als KI-generiert?) Und die Nachfrage „Hast du ChatGPT benutzt?“ garantiert auch keine ehrliche Antwort. Fazit: Wir können KI-generierte Artikel nicht mit genügender Sicherheit identifizieren. Es geht also nur über die Qualitätsschiene. Ich schlage daher vor, folgende Regeln einzuführen:

  1. Quellenlose Artikel erhalten 7 Tage zur Nachbesserung und werden danach gelöscht.
  2. Neu angelegte Artikel, in denen eine Quellenfiktion entdeckt wird, werden schnellgelöscht.
  3. Neu angelegte Artikel werden erst dann im ANR sichtbar, wenn sie von einem Sichter gegengelesen und gesichtet worden sind. (Wobei noch zu entscheiden wäre, ob das nur für Neuanlagen von IPs und Neulingen oder für alle Neuanlagen gelten soll.)

Diese Regeln sind operationalisierbar und hätten den Vorteil, dass sie nicht nur gegen KI-Artikel wirken, sondern auch eine allgemeine Qualitätsverbesserung herbeiführen würden. --Jossi (Diskussion) 12:15, 1. Jul. 2023 (CEST)Beantworten


Interessante Vorschläge, ich würde vielleicht sogar weiter gehen: Neu angelegte Artikel, die entweder quellenlos sind oder in denen eine Quellenfiktion entdeckt wird, werden schnellgelöscht. Angesichts der nicht zu bestreitenden Schwierigkeit, Texte von ChatGPT (oder einer anderen KI) sicher zu identifizieren, wäre das vielleicht der erfolgversprechendste Ansatz. D.h. neu das Anlegen von Artikeln überhaupt nur noch mit Belegen zu erlauben - ich hatte das 2006 schon im MB Wikipedia:Meinungsbilder/Quellenpflicht für neue Artikel vorgeschlagen, damals war die Community dagegen, aber nach 17 Jahren und mit dem Aufkommen von KI wäre es vielleicht an der Zeit? Gestumblindi 12:25, 1. Jul. 2023 (CEST)Beantworten

Danke für den Hinweis, das MB kannte ich noch nicht (da war ich noch zu neu). Ja, 2006 war es noch gang und gäbe, dass man einfach in Artikel schrieb, was man wusste (oder zu wissen glaubte). Einzelnachweise waren weitgehend unbekannt oder allenfalls nice to have. Heute befinden wir uns (zu Recht) auf einem völlig anderen Anspruchsniveau. Ich hätte auch gegen die verschärfte Fassung nichts einzuwenden. --Jossi (Diskussion) 12:36, 1. Jul. 2023 (CEST)Beantworten
Selbst 2006 war das schon nicht mehr wirklich so. Das kippte in der Zeit 2005/06. Spätestens 2007 war dann die Belegpflicht vollkommen Standard. --Marcus Cyron Stand with Ukraine and Iran! 12:40, 1. Jul. 2023 (CEST)Beantworten
Gute Idee, aber… ChatGPT baut dir auf Anfrage einen (potenziell komplett halluzinierten) Quellenapparat für deinen synthetischen Artikel. Es reicht also nicht, auf Quellenlosigkeit abzuzielen, und Quellenfiktion muss jemand erst mal finden. Oder nachweisen, dass eine halluzinierte Print-Quelle wirklich nicht existiert (könnte schwer sein). Da werden weite Teile der Community Bedenken haben, dass „übers Ziel hinausgeschossen“ werden könnte. --Sabrieleauftistik (Diskussion) 12:43, 1. Jul. 2023 (CEST)Beantworten
Die Nichtexistenz erfundener Print-Quellen ist aufgrund bibliographischer Datenbanken heutzutage recht schnell mit grosser Sicherheit nachzuweisen. Wenn ein zitiertes Buch oder ein Artikel in den einschlägigen Datenbanken nicht aufzufinden ist, existiert die Quelle höchstwahrscheinlich nicht. Print-Quellen, die nicht irgendwie online erschlossen sind (wenn auch nicht digitalisiert), gibt es ja kaum mehr, zumindest einen Katalogeintrag müsste man finden. Und wäre es heutzutage wirklich so schlimm, neue Artikel ohne Belege einfach nicht mehr zuzulassen? Gestumblindi 12:47, 1. Jul. 2023 (CEST)Beantworten
Nein, überhaupt nicht, ich bin ja dafür, neue Artikel ohne Belege zu verbieten. Ich wollte nur darauf hinweisen, dass man eventuell vorhandene Quellen auch aktiv prüfen muss. --Sabrieleauftistik (Diskussion) 13:19, 1. Jul. 2023 (CEST)Beantworten
Ich finde die Vorschläge von Jossi2 ziemlich passend, das würde voraussichtlich den Qualitätsstandard in der Wikipedia weiter anheben. Zudem könnte es das Problem mit KI-generierten Texten eindämmen. Ein Generalverbot für quellenlose Artikel finde ich etwas hart, eine Gnadenfrist ist da mMn angemessener. Vor allem für Menschen die sich nicht mit dem Regelwerk der Wikipedia auskennen könnten sonst Hürden entstehen, die es erschweren überhaupt erst mit der Arbeit hier anzufangen; so könnten uns viele spannende und wichtige Themen entgehen und auch potenzielle Schreiberlinge. Eine Schnelllöschung bei ausgedachten Quellen finde ich angemessen, denn das heißt entweder, dass eine KI beteiligt war - da lässt sich über die Qualität noch streiten - oder schlimmer: dass jemand mutwillig Quellen erfindet. Gruß -Quant8 (Diskussion) 13:14, 1. Jul. 2023 (CEST)Beantworten
Übrigens fände ich ein Verbot quellenloser Neuanlagen (ggf. mit Gnadenfrist) selbst dann sinnvoll, wenn die Umfrage auf ein generelles KI-Verbot hinauslaufen sollte (wonach es momentan aussieht). Das „härtet“ unsere Verteidigung gegen Fakes, Schrott und Unsinn, ob KI-generiert oder nicht. --Sabrieleauftistik (Diskussion) 13:22, 1. Jul. 2023 (CEST)Beantworten
Ich weiß nicht, ob wir das Problem über eine Quellenpflicht in den Griff bekommen. Hier habe ich einen Artikel über Christine King Farris schreiben lassen. Die 3 Links gibt es nicht, das Buch aber schon. Wer macht sich realistischerweise die Mühe, sich das Buch zu besorgen, um die Informationen zu prüfen? --Carlos-X 13:24, 1. Jul. 2023 (CEST)Beantworten
Solange ChatGPT solche erfundenen Links bei den "Quellen" einfügt (das ist im Moment recht typisch für ChatGPT, wenn man um Quellen bittet: URLs, die plausibel konstruiert sind, aber auf Seiten verweisen, die es nicht gibt und nie gab), fliegt es ja auf, auch wenn noch ein existierendes Buch dabei ist... Dann weiss man, Buch hin oder her, es war ChatGPT, die Quellen sind zumindest teilweise fiktiv --> nach Jossis Vorschlag löschen. Natürlich kann das schon nächsten Monat oder so anders aussehen, wenn ChatGPT weiterentwickelt wird... Gestumblindi 13:31, 1. Jul. 2023 (CEST)Beantworten
Wenn man den Artikel so einstellt, dann fällt das natürlich auf. Würde ein menschlicher Autor aber nur 5 Minuten investieren, um den Artikel ins Wikiformat zu bringen, an ein paar Stellen zu glätten und tote Links zu löschen, dann sieht das anders aus. Ein Artikel, der sich nur auf die Autobiografie stützt, ist zwar nicht ideal, aber sicher kein Schnelllöschgrund. --Carlos-X 13:39, 1. Jul. 2023 (CEST)Beantworten
Ein solcherart überarbeiteter Artikel hätte dann keinerlei Einzelnachweise und nur den Buchtitel unter „Literatur“. Das halte ich bei einem Artikel dieses Umfangs nicht für ausreichend, fiele also unter Regel 1. --Jossi (Diskussion) 14:05, 1. Jul. 2023 (CEST)Beantworten
Die Vorschläge oben finde ich gut.
Zu diesem hier drei Sätze: Quellenlose Artikel erhalten 7 Tage zur Nachbesserung und werden danach gelöscht. Warum? Bzw.: Warum 7 Tage? Wenn ein Bot keine Quelle mitgibt, dann kann man das auch schnelllöschen. Wenn ein Mensch keine mitgibt, dann sollten max. 3 Tage reichen. Woher hat er/sie seine Weisheiten: Vermutlich doch aus einer Quelle? Dann kann man die auch angeben; das dauert ja wohl keine 7 Tage.
Sag ich vor allem deshalb, weil ich mir regelmäßiger ankucke was da nachträglich zusammengestoppelt wird, wenn es heißt "Belege /Quellen" fehlen – das ist im Grunde genauso halluziniert wie die Texte von ChatGPT. Artikel sollen aufgrund vernünftiger Literatur verfasst werden; und nicht andersrum: Text schreiben und nachträglich plausibel aussehende Literatur drankleben (die dann eh in 99% der Fälle aus Google-Schnipseln abgeleitet wurde; am besten noch nebst falscher bibliographischer Angabe von Google ...). --Henriette (Diskussion) 15:12, 1. Jul. 2023 (CEST)Beantworten
Nicht jeder ist täglich hier in der WP, sieben Tage mit entsprechendem Baustein tuen nicht weh. Eindeutige Fakes können natürlich sofort gelöscht werden. --Morten Haan 🪐 Wikipedia ist für Leser da 16:13, 1. Jul. 2023 (CEST)Beantworten
Ich verstehe den Hang Fußnoten zu zählen nicht. "Fünf Zoll Artikellänge, dafür braucht es sieben Einzelbelege!" kann es einfach nicht sein. Einzelnachweise wurden für umstrittene Aussagen, Zitate, exakte Zahlen und Daten und solche Sachen eingeführt. Die dienen keinem Selbstzweck. Für mich ist die en:WP immer das Horror"vorbild", wo mittlerweile jede Aussage durch Einzelbelege nachgewiesen werden soll und sich dann zum Teil 12 Fußnoten für eine Aussage finden. Zwei Wörter weiter die nächsten neun, dann am Ende des Satzes noch einmal vier. Der folgende Satz hat dann 37, die sich auf 5 Belegstellen verteilen. Ach ne. Das ist vorgegaukelte Sicherheit. Da ist mir der sparsame Umgang lieber, Belege sind auch Literaturangaben und Weblinks. --Marcus Cyron Stand with Ukraine and Iran! 16:55, 1. Jul. 2023 (CEST)Beantworten
Es geht mir nicht um die Anzahl der ENs. Ich will ENs sehen, die die tatsächliche(!) Fundstelle der Information wiedergeben. Nicht nur irgendwas, das möglicherweise die Fundstelle hätte sein können.
Du sagst es doch selbst: Einzelnachweise wurden für umstrittene Aussagen, Zitate, exakte Zahlen und Daten und solche Sachen eingeführt. - wenn Du mal einen Artikel intensiv liest und auswertest, weil Du Zweifel an einer Aussage oder Passage im Text hast, dann willst Du dich auf die Redlichkeit der Fußnote/des Belegs verlassen können. Ist ja gut möglich, daß Du (oder ich) das für schwer zweifelhaft halten, aber von einem Fachmenschen nachvollziehbar und allgemein akzeptiert so festgestellt wurde. Wie findest Du diese richtige Aussage (im Buch, im ZS-Artikel ...) des Fachmenschen, wenn nur eine Fußnote für die Optik an den Satz geklebt wurde, die mit der wahren Fundstelle nichts zu tun hat?
Fußnoten haben auch (bei mir: vor allem) mit Nachvollziehbarkeit der Aussage zu tun, nicht nur mit Sicherheit. Zudem geben Sie – jedenfalls in der Fachliteratur – gute Hinweise wo man weiter thematisch fündig werden kann.
Noch zu: Nicht jeder ist täglich hier in der WP – ausnahmslos jeder bekommt im Moment des Neuanlegens eines Artikels den Hinweis: Der Artikel muss das Mindestniveau erfüllen und soll durch Quellen belegt sein. Die Leute wissen, daß sie Belege angeben sollen! Wenn 3 Tage zu wenig sind: Verschieben in den BNR. Da ist alle Zeit der Welt im Buch noch einmal nachzulesen. --Henriette (Diskussion) 18:00, 1. Jul. 2023 (CEST)Beantworten

(linksrück da neues Subthema) Ist Vorschlag 3 bei Neuanlagen von Nichtsichtern vergleichbar mit dem Draft-NR aus der en.wikipedia? Oder wie soll diese "Nichtsichtbarkeit" technisch gelöst werden? --91.141.51.48 14:03, 1. Jul. 2023 (CEST)Beantworten

Ich kenne mich mit den technischen Einzelheiten nicht aus, aber bei Änderungen durch Nichtsichter in bestehenden Artikeln funktioniert das doch so. Müsste also auf Neuanlagen ausgeweitet werden. (Wobei es ja sowieso absurd ist, dass jedes von einer IP korrigierte Komma erst gesichtet werden muss, aber komplette Artikel kann man einfach so reinsetzen.) --Jossi (Diskussion) 14:08, 1. Jul. 2023 (CEST)Beantworten
So ganz absurd finde ich das gar nicht. In einem bestehenden Artikel ist die Wahrscheinlichkeit vergleichsweise hoch, dass "normale" Leser bis zum Revert mit Falschinformationen oder Fäkalsprache konfrontiert werden. Ein neuer Artikel ist zunächst nicht über Google zu finden und oftmals ist das Thema auch nicht so prominent, sonst gäbe es bereits einen Artikel. Vor dem Löschen sehen den Artikel daher oft nur Autoren. --Carlos-X 14:58, 1. Jul. 2023 (CEST)Beantworten
Ein neuer Artikel ist zunächst nicht über Google zu finden? Schön wär's! Spätestens nach 24h wird ein neuer Artikel über Google gefunden. Ich hab eben mal aus der QS vom 30. Juni einfach irgendeinen Artikel rausgepickt: angelegt bei uns am 30. Juni 2023 um 15:40 Uhr, im Moment auf Platz 5 der Trefferliste bei Google. --Henriette (Diskussion) 18:09, 1. Jul. 2023 (CEST)Beantworten
Ein Vandalismus-Artikel mit dem Inhalt "Ute stinkt!" wird in der Regel aber nicht mal 24 Minuten überstehen. --Carlos-X 18:53, 1. Jul. 2023 (CEST)Beantworten
Ah, so war das gemeint, danke. Aber selbst wenn der Vandalismus-Artikel mit dem Inhalt "Ute stinkt!" von Google gefunden würde: Meinst Du echt, daß jemand bei dem Text davon ausgeht, daß er es mit einem echten enzyklopädischen Artikel zu tun hat?
Um meinen Einwand aufzuklären. Du sagst: In einem bestehenden Artikel ist die Wahrscheinlichkeit vergleichsweise hoch, dass "normale" Leser ... mit Falschinformationen ... konfrontiert werden. "Bestehender Artikel" jetzt mal verstanden als "länger bestehend als 23 Minuten" – solche Artikel liegen bestenfalls 7 Tage in der LD (für die Zeit gelten sie immer noch als "neuer Artikel"), schlimmstenfalls viel länger. Und allerschlimmstenfalls (weil nämlich niemand eine wirkliche Prüfung vorgenommen hat, weil alle nur auf die "Relevanz" gestarrt haben) ewige Jahre lang im ANR. --Henriette (Diskussion) 19:19, 1. Jul. 2023 (CEST)Beantworten

Naturgemäß habe ich noch keine profunde Kenntnis von den Meta-Vorgängen der Wikipedia („erst“ 2 Jahre hier), aber was müsste denn geschehen, um Vorschläge wie die oben besprochenen, auch tatsächlich umzusetzen? -Quant8 (Diskussion) 22:57, 2. Jul. 2023 (CEST)Beantworten

Nach der Umfrage würde es dann ein Meinungsbild geben, in dem über einen konkreten Vorschlag abgestimmt wird. --Morten Haan 🪐 Wikipedia ist für Leser da 23:10, 2. Jul. 2023 (CEST)Beantworten

Artikel mit Mängelbausteinen

[Quelltext bearbeiten]

Es gibt mittlerweile viele Artikel mit Mängelbausteinen. Vorschlag: Alle Artikel, die seit x Tagen mit einen entsprechenden Baustein versehen sind, erhalten automatisch einen Löschantrag (ggf. per Bot). Ist der Baustein berechtigt, steht er mindestens sieben Tage in der LD, eine Artikelauszeichnung wird entfernt. Benutzer haben die Möglichkeit, Artikel zu „adoptieren“, sie werden in dessen BNR verschoben.

Das klingt erstmal etwas radikal, aber so bekommen wir Mängel sowohl im Altbestand als auch bei den neuen in den Griff, inklusive per KI oder Paid Editing erstellter Werke. Damit die LD nicht überlastet wird, brauchen wir für den Anfang eine Übergangsregel. --Morten Haan 🪐 Wikipedia ist für Leser da 20:43, 1. Jul. 2023 (CEST)Beantworten

Davon halte ich nichts. Die Bausteine sind sehr oft willkürlich gesetzt, ohne dass der Artikel überhaupt gelesen wurde. Ich bin eher für ein Löschverfahren für Bausteine.--Mautpreller (Diskussion) 20:47, 1. Jul. 2023 (CEST)Beantworten
Dann ist das doch ein geeigneter Ort, um diese Baustene im Artikel auf ihre Berechtigung hin zu prüfen. Wurde ein Baustein unberechtigterweise eingesetzt, wird dieser samt dem LA entfernt. GGf. wäre auch eine Wartungskat Wikipedia:Wird bald bei den Löschkandidaten eingetragen sinnvoll. --Morten Haan 🪐 Wikipedia ist für Leser da 20:54, 1. Jul. 2023 (CEST)Beantworten
Das ist meines Erachtens Beschäftigungstherapie. Führt zu nichts und nützt nichts. An Bausteinen kann man definitiv nichts festmachen.--Mautpreller (Diskussion) 21:00, 1. Jul. 2023 (CEST)Beantworten
Ich halte davon ebensowenig wie Mautpreller. Und mit dem Thema dieser Umfrage, "KI-generierte Artikel", hat das schon gar nichts mehr zu tun. Gestumblindi 22:56, 1. Jul. 2023 (CEST)Beantworten
Es geht ja nicht nur um formale Mängel. Die KI-Artikel müssten allesamt inhaltlich überprüft werden.--Nadi (Diskussion) 00:55, 2. Jul. 2023 (CEST)Beantworten
Grüß dich Morty! Mit "gefühlt viele Mängelbausteine" sollte man seeeehr vorsichtig sein. Nach gut einer Dekade als QS-Mitarbeiter bevorzuge ich Auswertungen bevor ich radikale Vorschläge wage. Hab grad keine Zeit für Dich besondere Auswertungen aufzulegen, du kannst aber mal einen Blick in Benutzer:! Qualitätssicherung Wikiprojekt Wartung/Portal:Technik/Arbeitslisten wagen.
Benutzer:Karsten11/Die Grenzen der Wartung weist schon lange auf die Grenzen der Wartung hin. Es fehlen uns schlicht die Menschen, die das stemmen können. Da es hier um KI geht, wäre ich froh wenn man diese zur Unterstützung der QS nutzen könnte. LG --Tom (Diskussion) 09:21, 2. Jul. 2023 (CEST)Beantworten
Dass mein Vorschlag nicht gerade Begeisterungsstürme auslösen würde, war mir auch klar. Mein Punkt ist, dass mancher Artikel mit klaren Mängeln wie fehlende Belege oder Verstößen gegen NPOV hier „rumgammelt“, mancher vielleicht sogar mit Uraltauszeichnung. Solche Artikel bzw. Abschnitte gehören überarbeitet oder aus dem ANR entfernt, das betrifft dann eben auch KI-generierte Texte.
Natürlich darf es dabei nicht zu Mehrbelastung der Benutzer kommen, außerdem sollte es keine Löschanträge wegen Mängelbausteinen während des Wartungsbausteinwettbewerbs geben. --Morten Haan 🪐 Wikipedia ist für Leser da 14:33, 2. Jul. 2023 (CEST)Beantworten
Auch ein Artikel mit Mängeln kann seinen Wert haben, und mit dem Baustein werden die Leser ja auf die Probleme hingewiesen. Insofern sind langjährig unbehobene Mängel zwar unschön, aber insbesondere dann, wenn sie mit einem Mängelbaustein gekennzeichnet sind, kein Drama. Sind nicht fast noch problematischer die vielen "unentdeckten" Mängel ohne Mängelbaustein? Gestumblindi 15:14, 2. Jul. 2023 (CEST)Beantworten
Sehe ich auch so. Ich bessere manchmal an solchen Artikeln herum, bspw. Musik der Renaissance. Diesen Artikel soll es auf jeden Fall geben. Bis er „keiner grundsätzlichen Überarbeitung“ mehr bedarf, wird es wohl noch lange dauern, weil sich sehr wenig dort tut. --Kurzstueckmeister (Diskussion) 11:12, 3. Jul. 2023 (CEST)Beantworten

Computergenerierte Artikel

[Quelltext bearbeiten]

Hi, ich habe mal zwei Fragen zu diesem Thema. Soweit ich weiß, gelten computergenerierte Übersetzungen in der deutschsprachigen WP als unerwünscht. (Dass sie doch ständig in der QS ankommen, und meist doch irgendwie von wohlwollenden WP-Nutzern überarbeitet und behalten werden, ist ein anderes Thema.)

Erste Frage: Wie ehern ist dieses Gesetz denn irgendwo festgeschrieben?

Zweite Frage: Was ist denn der qualitative Unterschied von Chatbot-Artikeln gegenüber Computerübersetzungen? Müsste nicht, wenn das eine als unerwünscht gilt, das andere ganz automatisch auch als unerwünscht gelten?

Das ist eine offene Frage, ich versuche, die Logik dahinter - und damit hinter dem Sinn und der Notwendigkeit dieser Umfrage - zu verstehen. (Auch wenn ich daran natürlich nicht teilnehmen kann, was vollkommen in Ordnung geht.) --2003:C0:8F4F:5200:B407:62:CDD7:1B38 00:11, 2. Jul. 2023 (CEST)Beantworten

Hi, die Antworten auf deine Fragen findest du alle in dem Punkt Aktuelle Situation in dieser Umfrage. -Quant8 (Diskussion) 02:42, 2. Jul. 2023 (CEST)Beantworten

Danke für den Tipp, aber - wo? Übersetzungsprogramme werden da zwar kurz erwähnt, aber auf meine beiden Fragen finde ich da nirgends eine Antwort. --2003:C0:8F4F:5200:9141:6D96:9155:3117 08:10, 2. Jul. 2023 (CEST)Beantworten
Ich glaube nicht, dass computergenerierte Übersetzungen hier per se als unerwünscht gelten. Als unerwünscht gelten die grammatisch und auch sonst qualitativ minderwertigen Texte (Stichwort „Babelfisch-Unfall“), die sie traditionell produzieren (DeepL etwa ist da schon erheblich besser und auch das Google-Dings hat von neural machine translation profitiert, sodass heutige Maschinenübersetzungen weniger verunfallen). Deswegen finden sich wahrscheinlich auch immer wieder Leute, die das verbessern mögen (im Sinne von: der Inhalt ist ja in Ordnung, nur die Sprache ist Murks). Ein solches Modell hätte ich mir auch für „KI“ vorstellen können, nach dem umseitigen Stand der Umfrage scheint das aber nicht mehrheitsfähig zu sein. (Und wer weiß, wenn man eine solche Umfrage zu computergenerierten Übersetzungen machen würde, fiele sie vielleicht genauso aus.) --Sabrieleauftistik (Diskussion) 11:58, 2. Jul. 2023 (CEST)Beantworten
Jedenfalls gibt es hier recht viel Text zu dem Thema: https://de.wikipedia.org/wiki/Wikipedia:%C3%9Cbersetzungen
Es gibt ein Versionsgeschichtenübertragungstool, das man dann verwenden sollte. --Kurzstueckmeister (Diskussion) 11:46, 3. Jul. 2023 (CEST)Beantworten
Ich halte nichts von Computerübersetzungen, die meistens vor allem deswegen sehr schlecht sind, weil sich die Leute nicht mit dem Thema des Artikels befassen. Aber es gibt zwei Unterschiede: 1. Es gibt eine Vorlage, die man auch identifizieren und prüfen kann und die jemand verantwortet (hat). Damit gibt es etwas Wirkliches als Grundlage, was nicht in undurchschaubaren Algorithmen produziert wurde. 2. In den meisten Übersetzungen spielt mittlerweile Unterstützung durch Computerprogramme eine Rolle (ich übersetze selbst gelegentlich beruflich und nutze sie inzwischen auch). Dagegen ist nichts einzuwenden, solange man verantwortlich damit umgeht. Gewöhnlich ist jedoch gute Kenntnis des Gegenstands und sorgfältiges Redigieren Grundvoraussetzung, damit man etwas damit anfangen kann. Das gilt ausdrücklich auch für DeepL.--Mautpreller (Diskussion) 12:01, 2. Jul. 2023 (CEST)Beantworten
Deine Antwort ist angesichts ihrer Einrückung keine auf meinen Beitrag, trotzdem fühle ich mich bemüßigt, sie zu kommentieren: Auch automatische Übersetzungen werden heutzutage von „undurchschaubaren Algorithmen produziert“ (DeepL meines Wissens noch LSTM, ebenso gut ginge aber irgendwas Transformer-Basiertes, also das, worauf auch ChatGPT aufbaut.) Das ist also kein Unterschied. Die von dir angemahnte Beschäftigung mit dem Gegenstand halte ich für in jedem Fall essenziell. --Sabrieleauftistik (Diskussion) 12:10, 2. Jul. 2023 (CEST)Beantworten
Ja, das schon, aber nicht ihr Ausgangspunkt. Eine Übersetzung basiert auf einem fremdsprachigen Original, das (hoffentlich) von einem Menschen produziert wurde. --Mautpreller (Diskussion) 12:39, 2. Jul. 2023 (CEST)Beantworten
Okay, ich verstehe, was du meinst. Auch bei ChatGPT könnte man ja, sagen wir, eine Tabelle strukturierter Daten in den Prompt kippen und die Anweisung geben: Schreib daraus mal einen Artikel. Aber selbst das wäre keine Grundlage in deinem Sinne, weil/solange diese Eingabe nicht auch veröffentlicht/deklariert wird? --Sabrieleauftistik (Diskussion) 14:00, 2. Jul. 2023 (CEST)Beantworten
Das, und dazu: Strukturierte Daten sind kein Werk. Die verantwortet niemand. Ein (sagen wir, englischer) Text ist ein Werk mit einem oder mehreren Urhebern. --Mautpreller (Diskussion) 14:15, 2. Jul. 2023 (CEST)Beantworten
Hm, auch strukturierte Daten kann irgendwer (ein Mensch) zusammengestellt haben. Deklarationspflicht wäre jedenfalls eher Variante 2 als 4. --Sabrieleauftistik (Diskussion) 14:27, 2. Jul. 2023 (CEST)Beantworten
Ja, sie wurden irgendwo zusammengestellt. Ein Werk sind sie trotzdem nicht. --Mautpreller (Diskussion) 14:31, 2. Jul. 2023 (CEST)Beantworten
Worauf ich hinauswill, ist, dass es doch durchaus jemanden geben kann, der sie verantwortet. Oder ich habe deine Grenzziehung noch nicht richtig verstanden. --Sabrieleauftistik (Diskussion) 14:53, 2. Jul. 2023 (CEST)Beantworten
Ich kann hier Mautpreller nur zustimmen. Umseitig wurde in #4/#4 der Hinweis auf Lsjbot gegeben. Diese Übersetzungen wurden schon 2013 nicht in de:WP toleriert, weil als Maschinenübersetzung komplett KI-gestützt. Die Problematik der CP/Googleübersetzungen aus anderen Sprachversionen von Wikipedia hat in den letzten 5 Jahren zugenommen. Auch wenn anscheinend Menschen diese Übersetzungen nachgesehen haben hilft dies nicht wenn es bei der sachlich/fachlichen Kompetenz dieser Arikelimporteure Probleme gibt. Wie man das genau besser handhabt; dazu fehlt mir die Auflösung. Es steht aber fest, dass wir hier ein Problemfeld haben, welches für maschinenübersetzte oder KI-generierten Artikeln eine Stellungnahme der Community braucht. LG --Tom (Diskussion) 12:27, 2. Jul. 2023 (CEST)Beantworten
Das Problem mit Lsjbot war nicht "Maschinenübersetzung", sondern dass der Bot "Artikel" zu geographischen Objekten und Lebewesen nach vorgegebenen Schablonen aus Datenbanken generiert hat, und das theoretisch in beliebigen Sprachen (zugelassen wurde es aber nur in den Wikipedias auf Schwedisch, Cebuano und Wáray-Wáray, und man hat es bereut - zumindest in der schwedischen Wikipedia wurden Lsjbot-Artikel später im grossen Stil gelöscht). Das ist also nochmals ein etwas anderes Thema (es ist weder "KI" noch geht es um Übersetzungen), aber natürlich im Bereich der Frage, was Maschinen/Bots bei uns erlaubt werden soll. - Zum Thema Übersetzungen: Wie Mautpreller schreibt, hat es sich in den letzten Jahren durch die gestiegene Qualität der Maschinenübersetzungen etabliert, diese zu Hilfe zu nehmen, selbst professionelle Übersetzer benutzen solche Werkzeuge - aber man sollte das nur tun, wenn man sich mit dem Gegenstand auskennt, und, würde ich noch hinzufügen, zumindest Grundkenntnisse der Sprache hat, aus der übersetzt wird. Nur so erkennt man die unvermeidlichen Fehler, die bei maschineller Übersetzung immer noch gemacht werden, und die auch sinnentstellend sein können. Ein kleines Beispiel aus meiner aktuellen Artikelarbeit: Ich habe kürzlich den Artikel über Jón Baldvin Hannibalsson aktualisiert. Diese isländische Schlagzeile lautet "Dómurinn yfir Jóni Baldvini stendur" und das heisst: "Das Urteil über Jón Baldvín steht" oder freier übersetzt "Urteil über Jón Baldvín bleibt bestehen". Wenn man das durch Google Translate jagt, wird die Schlagzeile als "Das Urteil gegen Jóni Baldvini steht noch aus" übersetzt, woran man sieht, dass Google erstens Mühe mit der isländischen Grammatik hat und zweitens die Aussage in ihr Gegenteil verkehrt... Gestumblindi 12:45, 2. Jul. 2023 (CEST)Beantworten
Auch bei DeepL gibt es ähnliche Probleme, wenn auch seltener. So habe ich kürzlich die Erfahrung gemacht, dass DeepL in komplexeren Sätzen gelegentlich eine Negation ignoriert. Das Fehlen des Wörtchens "nicht" verkehrt die Aussage aber ins Gegenteil. Das fällt sofort auf, wenn man eine Vorstellung hat, was eigentlich ausgesagt werden soll, oder wenn man wenigstens ein bisschen was von der Ausgangssprache versteht, sonst aber nicht. --Mautpreller (Diskussion) 13:52, 2. Jul. 2023 (CEST)Beantworten

Hallo, einige Anmerkungen zu eurer Diskussion, wenn ihr mir erlaubt. Sabrieleauftistik sagte "DeepL meines Wissens noch LSTM". In der Tat nicht. DeepL basiert genauso auf Transformern wie ChatGPT. Eigentlich war DeepL eine der ersten Anwendungen, die Transformer bzw. Attention genutzt haben. ChatGPT wurde sicher (mit) inspiriert von dem Erfolg von DeepL. ChatGPT ist eigentlich eine Generalisierung von DeepL. Tatsächlich geht der Trend heute zu sogenannten "Foundation models", die Generalisten sind und nicht mehr nur einen einzigen Task lösen können. Zukünftig wird man sicher nicht mehr separat einen Übersetzer haben, sondern in ChatGPT Next Gen wird man einfach schreiben "Übersetze mir .... ins Deutsche", genauso wie eine Reihe weiterer Dinge, die heute separat laufen. Das wird die Grenze vollends verschwimmen lassen. Wichtig ist Aufklärung der Autorenschaft und eine frühzeitige Lernphase mit diesen Tools, um zu wissen, wo die Schwächen liegen. Eine komplette Verweigerung sehe ich als nicht realistisch an. --Payakan (Diskussion) 00:47, 4. Jul. 2023 (CEST)Beantworten

@Payakan: Danke, dann ist meine Information halt veraltet ein SmileysymbolVorlage:Smiley/Wartung/:/  Ich habe einen Artikel aus (ich meine) der c’t im Kopf – aber das ist Jahre her –, in dem der Verfasser sich sehr überrascht gezeigt hat, dass DeepL LSTMs (oder vielleicht auch CNNs?) benutzt, wo doch der Trend hin zu anderen Technologien gehe (Transformer waren’s aber nicht, selbst wenn es die damals schon gegeben haben sollte – von denen habe ich das erste Mal im Zusammenhang mit BERT gehört). Über die genaue Technologie will ich aber auch gar nicht streiten, die ist für die Umfrage hier und das Thema insgesamt nämlich gar nicht relevant; in zwei, drei Jahren wird die nächste Sau durchs NLP-Dorf getrieben, die irgendelche Aufgaben noch besser bewältigen kann. Wir sollten uns in der Diskussion nicht daran festbeißen, welche Technologie eingesetzt wird. Auch ob ChatGPT oder GPT allgemein jetzt von DeepL inspiriert oder eine Weiterentwicklung davon ist oder was auch immer (mein Prof hält GPT schlicht für „die Decoder-Schicht von BERT“). Die Einschätzung zu foundation models (witzig; habe den Begriff noch nie gehört) teile ich bzgl. ChatGPT nicht. Klar, nachdem sich die Community in den letzten Jahren extrem zersplittert und in Spezialbereiche ergangen hat, kommt man jetzt vielleicht wieder auf die Idee, zusammenzuarbeiten und die olle Inselbegabungs-Denke der ML-Tradition zu überwinden, aber: ChatGPT löst eine sehr spezielle Aufgabe (Produktion sprachlich plausiblen Texts als Reaktion auf Eingabe-Prompts), zu deren Lösung zwar ein Riesenapparat notwendig ist (je mehr „Weltwissen“ man hat, desto plausibler die Texte, die man generieren kann), die sich aber trotzdem auf etwas sehr Einfaches reduzieren lässt: Text rein, Text raus. Und nicht andere Dinge wie Schach/Go spielen, Musik komponieren, einen Roboter das Gleichgewicht halten lassen, mathematische Theoreme beweisen… Ich weiß ehrlich nicht, ob ChatGPT irgendeine sinnvolle Ausgabe liefert, wenn man ihn nach einem Schachzug oder der nächsten Note für eine Melodie fragt, aber selbst wenn, wäre das für den Einbau in zum Beispiel einen Schachcomputer völlig unbrauchbar, weil erst die textuelle Ausgabe wieder in eine Repräsentation des Schachzugs zurückübersetzt werden müsste, damit der dann vom System ausgeführt werden kann… nutzloser Roundtrip. Ich glaube noch nicht daran, dass transfer learning, multi-task learning, Multimodalität usw. in absehbarer Zeit zu echten „Generalisten“ der KI führen werden, vielleicht zu zunehmend weniger „inselbegabten“, aber selbst wenn, sehe ich auch ein ganz anderes Problem, nämlich dass die Modelle dann (zwangsläufig) so groß werden müssen, dass außer ein paar dicken Fischen (und wer wird das wohl sein? Google & Co…) sie niemand mehr handhaben kann. Und dann wird „KI“ gar nicht mehr im universitären Umfeld erforscht, sondern ist nur noch ein Spielzeug großer Technologiekonzerne, die das gemeine Volk gnädigerweise über neue Produkte an ihrer Genialität teilhaben lassen… Sorry for the rant, aber ich seh den ganzen Bereich im Moment einfach extrem schwarz… --Sabrieleauftistik (Diskussion) 11:40, 4. Jul. 2023 (CEST)Beantworten
DeepL nutzt eigentlich keine rekurrenten Netzwerke, das war ihr Unterschied zu früheren Übersetzungstechniken. Stattdessen nutzen sie CNN + Attention, was den Tranformern recht nahe kommt, jedenfalls haben sie das in einem Blogpost mal behauptet: https://www.deepl.com/en/blog/how-does-deepl-work
Worauf ich hinaus wollte ist, dass sich Maschinenübersetzung und Textgenerierung sehr ähnlich sind. Für beides braucht man Sprachmodelle, die vielleicht sogar mit ähnlichen Daten trainiert wurden und ähnlich aufgebaut sind. Maschinenübersetzung ist eigentlich schwieriger als man denkt, und es ist kein Zufall, dass es seit neustem endlich Modelle gibt, die das halbwegs vernünftig schaffen, in geringem zeitlichem Abstand zur Einführung von ChatGPT. --Payakan (Diskussion) 12:06, 4. Jul. 2023 (CEST)Beantworten
Ja, dann hatte ich das falsch in Erinnerung. Wahrscheinlich war die Überraschung in der c’t dann, dass CNNs verwenden wurden, obwohl doch gerade LSTMs „in“ waren.
Selbstverständlich sind Textgenerierung und Maschinenübersetzung sehr ähnlich, das würde ich gar nicht bestreiten – allein schon deswegen, weil Ersteres offensichtlich eine Teilaufgabe von Letzterem ist. (Ich habe vor ein, zwei Jahren mal ein Tutorial durchgearbeitet, das sozusagen vom rein generativen LSTM – das einfach The quick brown fox jumps over the lazy dog und ähnliche Sätze speichert und wieder ausspuckt – zur Encoder-Decoder-Version kommt, die im Prinzip nichts anderes tut, als eine Zeichenkette in eine andere zu übersetzen.) Insofern ist auch klar, dass beide von einem Sprachmodell profitieren (und in der Wirtschaft gilt ja: wenn das System von X profitiert, ist X verpflichtend…). Ob es dadurch gleich eine Kausalbeziehung vom einen zum anderen gibt (im Sinne von: DeepL hat ChatGPT erst ermöglicht oder umgekehrt) oder ob das parallele Entwicklungen waren, die sich beide des gleichen Fortschritts in einem verwandten Bereich bedienen, kann ich nicht sagen. Übersetzung ist sicherlich einerseits schwerer, weil nicht nur formuliert, sondern inhaltlich passend zum Original formuliert werden muss, andererseits aber auch leichter, weil die semantische Beschränkung auf das Original schon eine ziemlich starke Vorgabe ist – ChatGPT muss aus einem Prompt „Schreibe einen Wikipedia-Artikel über Múte B. Egede“ irgendwas produzieren… --Sabrieleauftistik (Diskussion) 13:15, 4. Jul. 2023 (CEST)Beantworten
"dass CNNs verwenden wurden, obwohl doch gerade LSTMs „in“ waren." ja, so habe ich das auch in Erinnerung! :-) Die entscheidende Zutat war dann noch Attention, aus den damals gerade frisch veröffentlichten Paper "Attention is all you need" https://arxiv.org/abs/1706.03762
„Schreibe einen Wikipedia-Artikel über Múte B. Egede“... aber das wird doch kaum jemand (ernsthaft) auf diese Weise machen. Das nimmt doch die ganze Motivation am Autoren-Dasein. ;-) Viel eher Wahrscheinlich ist, dass man ganz konkrete Aufgaben erledigen lassen möchte. z.B. ein neues Paper, das man gerne in einen Artikel hinzufügen möchte. Man gibt den Text des Papers rein, bekommt eine Zusammenfassung davon raus, die man für Wikipedia verwenden kann. Auch hier ist die Ausgabe sehr beschränkt auf die Eingabe. Es ist aber ein KI-generierter Text und könnte dann verboten sein. --Payakan (Diskussion) 14:07, 4. Jul. 2023 (CEST)Beantworten
Das Paper kenn’ ich übrigens (auch wenn ich es nicht wirklich gut verständlich geschrieben finde…).
Was du meinst, könnte man als einen der Gründe sehen, warum ich mich in der Vordiskussion gegen ein Komplettverbot ausgesprochen habe. Ich finde aber, wenn man so ein System nutzt und das System Unsinn ausgibt, sollte man die Schuld nicht hinterher aufs System schieben dürfen. Eigentlich müsste man sich also vergewissern, dass die Zusammenfassung auch stimmt. Die Arbeit, das Paper zu lesen, kann einem das System bei dieser Sichtweise also nicht abnehmen, höchstens die Arbeit des Formulierens. (Letztere würde ich persönlich mir Stand jetzt nicht von ChatGPT abnehmen lassen wollen – was ich von dem bisher an Formulierungen gelesen habe, gefällt mir nicht wirklich.) --Sabrieleauftistik (Diskussion) 15:41, 4. Jul. 2023 (CEST)Beantworten
Da stimme ich dir weitgehend zu! Man muss das Paper gelesen haben, und sollte die Zusammenfassung prüfen können. Sonst handelt man sehr leichtsinnig. Und keinesfalls sollte man die Schuld auf dem Tool abladen. Ich glaube, dass es nur noch eine Frage der Zeit ist, bis die Formulierungen aus den Programmen sehr tauglich sein werden; bei vielem bin ich überrascht, wie gut sie heute schon sind. --Payakan (Diskussion) 16:14, 4. Jul. 2023 (CEST)Beantworten

Chancen der KI

[Quelltext bearbeiten]

Mal vollständig betrachtet (Chancen und Risiken - wir diskutieren nur letzteres bislang): Wie wäre es mit einer wikipediaeigenen KI, die in der Qualitätssicherung hilft? Angebenene Belege prüfen, ob sie die Formulierung im Artikel überhaupt stützen? Ob ein Artikel angesichts einer geringen Zahl menschlicher Beobachter veraltete oder falsche Informationen enthält? Ob er typisch werbliche Informationen transportiert, die zu komplex für eine Keyword-Analyse sind? Da fiele mir einiges ein, das eine KI automatisch in eine Wartungskategorie setzen und ggf. auch gleich mit einem Verbesserungsvorschla versehen könnte, den man an- oder wegklicken kann. --Superbass (Diskussion) 17:56, 2. Jul. 2023 (CEST)Beantworten

Klingt gut… Das Ding müsste jemand entwickeln, haben wir jemanden dafür? Das vorausgesetzt:
  • Angebenene Belege prüfen, ob sie die Formulierung im Artikel überhaupt stützen? Klingt grundsätzlich machbar. Trainingsdaten müsste man haben. Die könnte man heuristisch aus Wikipedia-Artikeln generieren: Bei exzellenten/lesenswerten oder zumindest von vielen beobachteten Artikeln ist die Wahrscheinlichkeit groß, dass auch die Belege zu ihren Textstellen passen.
  • Ob ein Artikel angesichts einer geringen Zahl menschlicher Beobachter veraltete oder falsche Informationen enthält? Schwieriger, aber ich halte es zumindest für machbar, veraltensanfällige Formulierungen („derzeit“ usw., aber eben auch solche, die man nicht an einem „Schlüsselwort“ erkennt) zu finden. Auch hier wieder: Trainingsdaten müsste man haben…
  • Ob er typisch werbliche Informationen transportiert, die zu komplex für eine Keyword-Analyse sind? Dito.
Vielleicht mag die WMF ja mal bei OpenAI anfragen… oder bei den kenianischen Billigarbeiterinnen, die OpenAI zur Trainingsdatenbereinigung angeheuert hat? --Sabrieleauftistik (Diskussion) 18:05, 2. Jul. 2023 (CEST)Beantworten
So wie ich die aktuellen KI-Entwicklungen verstanden habe, werden gerade allgemeine KIs entwickelt, die man dann für spezielle Anwendungsfälle trainieren kann. Selber eine allgemeine KI zu entwickeln, erscheint mir weit außerhalb der Fähigkeiten von Wikimedia. Also stellt sich die Frage, ob wir bereit sind für eine KI zu bezahlen oder uns beschenken zu lassen. Das trainieren könnten wir mit unserer Freiwilligenbasis gut erledigen. Persönlich wäre meine Motivation sehr hoch, ein paar Stunden zu investieren, um unsere Arbeit langfristig zu erleichtern. Es scheint mir unter den Wikipedianern aber Vorbehalte gegenüber technischen Lösungen zu geben. --Carlos-X 18:22, 2. Jul. 2023 (CEST)Beantworten
Für "Angebenene Belege prüfen, ob sie die Formulierung im Artikel überhaupt stützen?" müsste die zu entwickelnde KI umfassenden Zugriff auf Volltext-Datenbanken haben (Lizenzfragen?) und es würde natürlich nur bei Belegen funktionieren, die überhaupt online verfügbar sind. "Trainieren" wie bei ChatGPT würde da nicht ausreichen, weil die von der KI zu erfüllende Aufgabe ja dann wäre, in einem ganz bestimmten Buch oder Artikel "nachzuschauen", ob darin die Aussage gemacht wird, die der Beleg stützen soll. Gestumblindi 18:26, 2. Jul. 2023 (CEST)Beantworten
Ich denke, dass das ausgeschlossen ist. Um zu prüfen, ob ein Beleg eine Formulierung stützt, muss man beide betreffenden Passagen verstehen. Das ist für eine Künstliche Intelligenz per definitionem unmöglich. Ein Programm welcher Art auch immer kann vielleicht prüfen, ob ein Gegenstand im Beleg überhaupt vorkommt, wozu wohl eher keine KI, sondern eine etwas erweiterte Suchfunktion benötigt würde.--Mautpreller (Diskussion) 18:34, 2. Jul. 2023 (CEST)Beantworten
Das sehe ich anders. Eine 100 % Lösung wird es zwar nie geben, aber eine automatisch erstellte Warnliste mit zu überprüfenden Quellen sollte für eine KI definitiv möglich sein. Hier mal ein Beispiel, bei dem ChatGPT zwar herumschwafelt, aber doch klar sagt "Nicht belegt". --Carlos-X 18:59, 2. Jul. 2023 (CEST)Beantworten
+1 Ich kann die genauen Grenzen von KI nicht wiedergeben, aber erkennen, ob in einem online verfügbaren Text überhaupt die Rede von einer Aussage ist bis hin zu einem gewissen Level der Satzanalyse das müsste, soweit würde ich meine Gehversuche mit ChatGPT schon interpretieren wollen, anhand von KI-typischer Textanalyse und Wahrscheinlichkeiten schon machbar sein. Es wird eine Fehlerquote geben, aber die kann dann menschlich bearbeitet und wiederum zum Lernen genutzt werden. Die Risiken einer KI-gestützten Wartung liegen deutlich unter denen einer KI-basierten Inhaltegenerierung. Selbst bei einem Fehlschuss kann eine KI die betreffenden STellen in Artikel und Quelle genau eingrenzen so dass man nicht lange herumrätseln und suchen muss, ihre Schlussfolgerung begründen und sogar auf ein „Nein, das stimmt nicht, weil…“ reagieren. —Superbass (Diskussion)
Zu Gestumblindis Anmerkung: Kommt drauf an. Bei Online-Quellen könnte man die zu prüfende Artikelpassage und den Inhalt der Website im <ref>…</ref> ins System reinstecken und das System soll eine binäre Antwort („sützt“ oder „stützt nicht“) liefern. Da es die Inhalte der Seite nicht zu speichern braucht (jedenfalls nicht über den Moment hinaus, den es braucht, um die Antwort zu generieren), halte ich die Lizenzproblematik für beherrschbar. Die benötigten Trainingsdaten wären Paare von Artikelpassagen und Online-Quellen-Inhalten, für die jeweils angegeben ist, ob der Online-Quellen-Inhalt die Artikelpassage stützt oder nicht (und ich meinte, dass man die positive Kategorie heuristisch aus exzellenten/lesenswerten Artikeln ziehen könnte; die negative Passage kriegt man dann ebenso heuristisch zum Beispiel durch Vertauschen). Klar: Hundertprozentig stimmen wird die Einschätzung des Systems nicht (unabhängig davon, ob es die betreffenden Passagen tatsächlich „versteht“ – ob es das tut, ist eine philosophische Frage, die wir lange erörtern könnten, ohne dass es für das praktische Problem von Bedeutung wäre). Man müsste beherrschbare Fehlerraten haben: Falsch-negative Fehler sind egal (das ist das, was wir jetzt haben: Es gibt Belege, die Artikelpassagen nicht stützen, wir wissen aber nicht, wo), falsch-positive darf es nicht zu viele geben, weil ein Mensch die vom System gelieferten Fälle ja prüfen muss. Das ist zumindest die pragmatische Sicht… --Sabrieleauftistik (Diskussion) 19:11, 2. Jul. 2023 (CEST)Beantworten
Ach so, ja, und bei Offline-Quellen hätten wir in der Tat ein Lizenzproblem, für die halte ich das nicht für machbar, außer man ist Google und hat im großen Stil Digitalisate diverser Offline-Werke.
Ich würde mich hier übrigens nicht am Begriff „KI“ festbeißen wollen. Sprechen wir doch gegebenenfalls lieber von einem „Helferlein“ oder „Tool“, das halt im Hintergrund mit Techniken arbeitet, die manche Firmen aus PR-Gründen offensiv als „KI“ bewerben. --Sabrieleauftistik (Diskussion) 19:18, 2. Jul. 2023 (CEST)Beantworten
Eine Online-Quelle ist nicht zwingend frei zugänglich. Sehr viele Fachartikel etc. sind zwar online verfügbar, aber nur lizenziert/kostenpflichtig. Aber dafür liesse sich dann wohl so etwas wie Wikipedia:Förderung/The Wikipedia Library einrichten... Gestumblindi 19:47, 2. Jul. 2023 (CEST)Beantworten
Okay, das Problem von Paywall und Ähnlichem, wo der eigentlich interessante Inhalt sich über die URL nicht unbedingt abrufen lässt, wäre natürlich zu beachten – hielte ich aber für eine Detailfrage… --Sabrieleauftistik (Diskussion) 20:47, 2. Jul. 2023 (CEST)Beantworten
Also das ist ein ganz schlechtes (oder vielleicht auch deshalb ein sehr gutes) Beispiel. ChatGPT sülzt herum und gibt keine klare Antwort. Verständlich, denn die Frage ist überhaupt nicht zu beantworten, sie ist offenbar auch nicht "verstanden" worden. Um sie zu beantworten, müsste man sich mit den Interpretationen biblischer Texte befassen. Das Gewäsch bzgl. man müsse die Bibel im Kontext betrachten, ist typisch ChatGPT: ein Gemeinplatz, von dem dreizehn auf ein Dutzend gehen. Das ist klassische Simulation, sowas sagt man da und es klingt gut, hat aber null Erkenntniswert. Welchen enzyklopädischen Wert eine solche Frage haben sollte, ist mir ohnehin schleierhaft. Ein weiteres Tool, das "Warnhinweise" verteilt, würde ich als ernsthafte Störung empfinden und entsprechend handeln. --Mautpreller (Diskussion) 19:45, 2. Jul. 2023 (CEST)Beantworten
Auch eine Ansage. 🤷 --Sabrieleauftistik (Diskussion) 20:47, 2. Jul. 2023 (CEST)Beantworten
Ein Tool meiner Lesart wäre gezwungen, eine klare Antwort zu geben – ggf. eine falsche oder unbrauchbare (und vor allem keinen Fließtext, sondern ein einfaches maschinenlesbares „ja“ oder „nein“), aber wie ich oben schon geschrieben habe, falsch-negative Antworten sind keine Veränderung gegenüber dem Status quo und falsch-positive dürfen halt nicht zu häufig sein. Ob sich das Ganze lohnt, kann man schwer vorhersagen… --Sabrieleauftistik (Diskussion) 20:53, 2. Jul. 2023 (CEST)Beantworten
Ich versteh Euch nicht. Geprüft werden soll, ob eine Aussage durch einen Beleg gestützt wird. Das ist eine komplexe Geschichte, in der eine ganze Reihe von Überlegungen eine Rolle spielen, unter anderem die Frage, wie ein Satz im Artikel gemeint ist und verstanden wird und wie die Aussage im Beleg gemeint ist und zu verstehen ist. Gerade in historischen Artikeln haben wir uns darum teilweise schon über Wochen gekloppt. Und das soll ein Simulationstool nun bewerten, das diese Fragen seiner Natur nach gar nicht beantworten kann? Was es (vielleicht) kann, ist "nach Training" Sachen auf Linie bringen, nach dem Motto: In den Artikeln, mit denen ich trainiert wurde, ist es aber anders üblich. Das wäre meines Erachtens eine ausgesprochen schädliche Tätigkeit, eine Homogenisierung oder, etwas umgangssprachlicher ausgedrückt, ein Plattmachen. Bedauerlicherweise gibt es diese Tendenz "menschengesteuert" ohnehin, meines Erachtens die größte Plage überhaupt in der Wikipedia. Und diese verständnislose Herummacherei soll auch noch per Technik "skaliert" werden? Zum Glück ist das Zukunftsmusik, aber wenn so etwas auch nur ansatzweise Wirklichkeit wird, gibts für mich genau zwei Möglichkeiten: resignierter Abschied oder Sabotage. --Mautpreller (Diskussion) 21:05, 2. Jul. 2023 (CEST)Beantworten
Na ja, ich hab halt versucht, Superbass’ Idee etwas zu konkretisieren. Aus Sicht des maschinellen Lernens ist „ob ein Beleg die Formulierung im Artikel stützt“ ein binäres Klassifikationsproblem – Input: Formulierung im Artikel, Inhalt des Belegs; Ausgabe: ja oder nein. Ob es sinnvoll/wünschenswert ist, dieses Klassifikationsproblem automatisiert anzugehen, vielleicht mit irgendeinem maschinell gelernten System, trainiert auf irgendwelchen geeigneten Trainingsdaten, mit gewissen empirischen Fehlerwahrscheinlichkeiten, kann man so oder so beantworten. Und das hängt sicher auch davon ab, wie man das System dann (in Form eines Wikipedia:Bots!) konkret einsetzt – ob basierend auf der Ausgabe nun Hinweise auf Diskussionsseiten hinterlassen, bunte Bausteine oder versteckte Wartungskategorien gesetzt werden oder wie auch immer. So, wie ich Superbass’ Idee verstanden habe, geht es halt darum, auf Artikel (oder Artikelpassagen) aufmerksam zu machen, die Quellenfiktion sind (oder sein könnten) – beurteilen muss das dann ein Mensch oder mehrere. Und die können sich dann auch gern über Wochen kloppen und vielleicht zu dem Schluss kommen, dass die automatische Klassifikation Mist gebaut hat. Deswegen muss die automatische Klassifikation auch nicht die ganze Komplexität der Belegprüfung in ihrer vollen Schönheit beherrschen, sondern sie nur gut genug approximieren können. Analogie: Der Hund muss auch kein Jurastudium machen, es reicht, wenn er bellt, wenn jemand kommt, der ein Einbrecher sein könnte; schlau genug, den Briefträger und andere Stammgäste irgendwann in Ruhe zu lassen, sollte er aber sein.
Ich sage explizit nicht, dass ein solcher „KI-Hund“, der bellt, wenn er Belegfiktion wittert, sinnvoll oder wünschenswert wäre. Ich habe einen Vorschlag gemacht, wie er aussehen würde, aber auch darauf hingewiesen, dass er sich nur lohnt, wenn er keine Briefträger beißt (dafür aber genug quellenfiktive Einbrecher). Und ich habe betont, dass er eben kein ChatGPT-Schwätzer ist, der erst mal lange herumlawinert, dass auch ein Briefträger ja klauen könnte oder der Vermummte, der über den Zaun steigt, ja vielleicht der heimliche Liebhaber der Tochter ist.
So etwas klarer, was ich in diesem Abschnitt treibe? --Sabrieleauftistik (Diskussion) 21:49, 2. Jul. 2023 (CEST)Beantworten
Wie soll das eigendlich gehen, wenn Artikel und Quelle in verschiedenen Sprachen geschrieben sind? Hier stehen im ersten Absatz mehrere Zitate, die in der angegeben Quelle zwar vorkommen, aber eben auf Englisch. Wie soll ein KI-gestützter Bot das gebacken kriegen? --Morten Haan 🪐 Wikipedia ist für Leser da 22:00, 2. Jul. 2023 (CEST)Beantworten
Tja, einfach ist das nicht… Aber das Ding müsste ohnehin damit umgehen können, dass Formulierungen nicht 1:1 übernommen werden (wäre ja auch urheberrechtlich problematisch, wenn Wikipedianer das im großen Stil täten), und automatische Übersetzung gibt es auch, Übertragung von Inhalten zwischen Sprachen scheint also zumindest prinzipiell möglich zu sein, dann würde ich erwarten, dass eine Prüfung auf inhaltliche Kompatibilität ebenfalls prinzipiell möglich ist (auf die tatsächlichen Fehlerraten wäre ich gespannt). --Sabrieleauftistik (Diskussion) 10:46, 3. Jul. 2023 (CEST)Beantworten
Ich bin halt der Meinung: Niemand kann einen Wikipedianer daran hindern, so etwas einzusetzen. So ein Tool mag einen ersten Hinweis geben. Als generell einzusetzendes Tool, das insbesondere im Artikelnamensraum, aber auch auf Diskussionsseiten Spuren hinterlässt, lehne ich es grundsätzlich ab, unabhängig von seiner Qualität. Ich bin überzeugt, es würde das "soziotechnische System" Wikipedia zu seinem Nachteil verändern. --Mautpreller (Diskussion) 22:14, 2. Jul. 2023 (CEST)Beantworten
OK, der Meinung kann man sein. Aber solche Tools, die im Artikelnamensraum und auf Diskussionsseiten Spuren hinterlassen, haben wir ja schon, ich denke da an die Bots, die Hinweise auf defekte Weblinks auf Diskussionsseiten setzen oder (wie im Fall des InternetArchiveBot) sogar an Zitationsvorlagen im Artikel direkt herumspielen. --Sabrieleauftistik (Diskussion) 10:46, 3. Jul. 2023 (CEST)Beantworten
Ja, wir haben schon zu viele davon ... Ich schließe sie in Artikeln, die ich praktisch allein geschrieben habe, von der Artikelseite aus und erlaube nur den Zugriff auf die Diskussionsseite. Dies hier wäre allerdings ein qualitativer Sprung, ein Eingriff in den Kernbereich der Artikelarbeit. --Mautpreller (Diskussion) 11:59, 3. Jul. 2023 (CEST)Beantworten
Was ich an den Überlegungen zur Bot/KI-gestützten QS kurios finde: Die Idee ist eine Arbeitserleichterung und arbeitet mit "klar, muß das dann ein Mensch noch auswerten und beurteilen". Was sich ein bisschen beißt mit einer der Motivationen zu diesen Überlegungen: Wir haben zu wenig Leute, um eine wirklich intensive, systematische QS (auf dem soz. klassischen Weg) zu betreiben. Also fehlen vorn die Menschen, die dann in der Mitte duch Bots/KI ersetzt werden und hinten fehlen sie immer noch oder wieder. Vollständig durchdacht zu sein scheint mir das noch nicht ...
Und dann wird es eh heißen: Ich bin freiwillig hier, ich mach' was mir Spaß macht; ist ein Wiki, können doch andere ...; ich lass' mir keine Arbeitsaufträge überhelfen. Wer nach "Arbeitsaufträgen" sucht, wird auch bei den ungesichteten Änderungen fündig: Die sind teilweise schon knifflig genug, wenn man ihnen wirklich intensiv nachgehen will (vermutlich liegen die deshalb teils Wochen oder Monate unerledigt herum). --Henriette (Diskussion) 22:16, 2. Jul. 2023 (CEST)Beantworten
"Eigentlich" wird ja nicht verlangt, den ungesichteten Änderungen intensiv nachzugehen, die Sichtung soll schliesslich offiziell nur ausdrücken, dass kein offensichtlicher Vandalismus vorliegt, mehr nicht... Gestumblindi 23:22, 2. Jul. 2023 (CEST)Beantworten
Stimmt! Das ist auch so ein Problem ;)) --Henriette (Diskussion) 23:51, 2. Jul. 2023 (CEST)Beantworten
Na ja, es geht um die Arbeitserleichterung. Vielleicht haben wir die personellen Kapazitäten, Belege in einzelnen Artikeln zu prüfen, aber eben nicht genug, einen Artikelbestand von mehreren Millionen durchzugehen (und ich gehe angelehnt an das Zipfsche Gesetz davon aus, dass die meisten davon niemand „auf dem Schirm hat“). Ein System, das gezielt auf Artikel hinweist, wäre da hilfreich. Es erzeugt natürlich Mehrarbeit gegenüber dem Zustand, die Masse potenziell schlecht belegter Artikel, zu deren Durchsicht die personellen Kapazitäten nicht ausreichen, einfach zu ignorieren. Ich habe Superbass aber so verstanden, dass sein Ziel wäre, diese Durchsicht überhaupt erst praktikabel zu machen. --Sabrieleauftistik (Diskussion) 10:46, 3. Jul. 2023 (CEST)Beantworten
Wir haben schon Kollegen, die sowas machen. Die setzen Bausteine – die aber nicht zügig oder systematisch abgearbeitet werden, weil Menschen fehlen die das dann auch tun. Warum bzw. wie soll(te) sich an "es fehlen Menschen, die das auch tun" etwas ändern, wenn nochmal die gleiche Menge oder noch mehr Bausteine/Hinweise von einer KI hinzukommen? --Henriette (Diskussion) 11:21, 3. Jul. 2023 (CEST)Beantworten
Also, zunächst mal: Ich gebe dir ja völlig Recht, dass dieser vorgeschlagene Einsatz von „KI“ – oder sagen wir doch etwas allgemeiner: von Automatisierung – noch nicht vollständig durchdacht ist. Das Ziel von Automatisierung sollte ja sein, dem Menschen Arbeit abzunehmen. In diesem Fall: Die Kollegen, die den Artikelbestand durchflöhen, müssen das nicht mehr (so intensiv) machen und hätten Zeit, sich an anderen RC-/QS-Maßnahmen zu beteiligen. Vielleicht haben sie dazu auch gar keine Lust, weil sie viel lieber Bausteine schubsen. Das (oder auch das) meine ich mit „Ob es sinnvoll/wünschenswert ist, […] kann man so oder so beantworten“. Ob eine Automatisierung sinnvoll/wünschenswert ist, hängt eben von vielen Faktoren ab, nicht nur davon, wie gut sie funktioniert, sondern zum Beispiel auch davon, ob Menschen sich von ihr überhaupt Arbeit abnehmen lassen wollen (eine Sache, die ich bei diesen „künstlerischen KIs“ immer wieder denke: Was braucht ein Künstler oder Fotograf einen DALL-E, der ihm irgendwelche Hunde mit lustigen Mützen generiert? Will der nicht lieber selbst malen/fotografieren?). Ich habe erst mal die „technische“ Ebene betrachtet (wie operationalisiert man Superbass’ Idee?) und gesagt, wie die Ebene die Menschen unterstützen könnte. Wenn die Menschen das nicht wollen – andere Frage. --Sabrieleauftistik (Diskussion) 11:32, 3. Jul. 2023 (CEST)Beantworten
Ja, ok: Es geht um Exploration von Möglicheiten und Ausloten von Chancen. Also future tech :) Natürlich kann man über sowas nachdenken!
Aber m. E. darf man niemals vergessen in welche Umgebung man sowas einpflanzen möchte. Wenn ein großer Teil der Kollegen ihren Spaß und ihre gewissermaßen Belohnung und Befriedigung daraus ziehen, Dinge per Hand zu machen und sich maikäfernd durch den Bestand zu krabbeln, nimmst Du denen enorm viel Motivation, wenn sie auf Zuruf einer automatisierten Auswertung reagieren sollen. "Geht das?" ist die eine Frage; "will das wer?" ist nie nächste.
Und Du schreibst: Die Kollegen, die den Artikelbestand durchflöhen, müssen das nicht mehr (so intensiv) machen und hätten Zeit, sich an anderen RC-/QS-Maßnahmen zu beteiligen. Ich weiß gar nicht, ob die das systematisch tun oder ob das nicht viel mehr a) vor allem dann passiert, wenn ein neuer Artikel reinkommt und b) beim "Altbestand" einfach nur zufallsgeleitet ist ("oh, in diesem Artikel fehlen Belege, packe ich gleich mal einen Baustein rein"). Was ich sagen will: Wenn man auf/mit solchen Grundlagen/-annahmen argumentiert, sollte man zunächst sicherstellen, daß sie zutreffend sind. (Ich fühle mich darauf hingewiesen, daß ich meine Annahme auch nicht belegt habe ;)) --Henriette (Diskussion) 12:04, 3. Jul. 2023 (CEST)Beantworten
Ja, genau – über die Grundannahmen, ob eine solche Automatisierung tatsächlich sinnvoll wäre, ist erst mal noch nichts ausgesagt. --Sabrieleauftistik (Diskussion) 13:10, 3. Jul. 2023 (CEST)Beantworten
Diese Arbeit ist nur unter extremen Qualitätsverlusten automatisierbar. Das zeigt sich bereits, wenn man (wie bei Automatisierungsvorhaben immer empfohlen wird) versucht zu erfassen, was da eigentlich getan wird und zu tun wäre. Ohne Formalisierung der Arbeit selbst ist Automatisierung überhaupt nicht umsetzbar. Das wiederum wäre eine Veränderung, die ich für dramatisch halte und die ich definitiv nicht möchte. Hier wäre zunächst mal zu prüfen, ob das überhaupt jemand will und ob eine ablehnende Position nicht vielmehr deutlich in der Mehrheit ist. --Mautpreller (Diskussion) 12:05, 3. Jul. 2023 (CEST)Beantworten
Puh, da geht es ans Eingemachte. Die Frage, „was da eigentlich getan wird und zu tun wäre“, hängt ja sehr stark davon ab, welchen (Teil-)Bereich der Qualitätssicherungsarbeit man (teil-)automatisieren will. Die Erkennung von Quellenfiktion wäre dann beispielsweise über den binären Klassifikator formalisiert (Input: Formulierung im Artikel, Inhalt des Belegs; Output: ja oder nein). Alles Inhaltliche dazu muss aus den Trainingsdaten kommen – so ist das beim maschinellen Lernen leider, Inhaltliches wird nicht formalisiert. Ich schätze, das ist die Erfahrung aus Jahrzehnten, in denen man versucht hat, Aufgaben wie die Sprach- oder Bildverarbeitung mathematisch zu formalisieren, und es nicht geschafft hat. --Sabrieleauftistik (Diskussion) 13:10, 3. Jul. 2023 (CEST)Beantworten
Mathematisch muss man sie nicht formalisieren, aber von der Arbeit her. Das gilt auch und erst recht für KI. Automatisierung verlangt eine vorgängige Veränderung der Arbeit und bewirkt wiederum eine weitere Veränderung. Dafür gibt es sehr viele Belege höchster Qualität. Die Frage ist, ob man das will. --Mautpreller (Diskussion) 13:35, 3. Jul. 2023 (CEST)Beantworten
@MautprellerDie Frage, ob eine Aussage durch einen Beleg gestützt wird, kann einfach oder komplex sein. In sehr einfachen Fällen (und mit einer synonymbedingten Fehlerquote) genügt schon eine "dumme" Schlüsselwortsuche ohne KI: Wenn ein Text belegen soll, dass es rote Tulpen gibt, in dem das Wort "Tulpe" gar nicht vorkommt, kann dies schon ein "dummes" Programm per Wortsuche rausfinden. Eine KI kann wäre dagegen in der Lage, selbständig Synonyme für "Tulpe" (z.B. die lateinische Bezeichnung, einen Oberbegriff, der Tulpe semantisch einschließt oder eine Tulpenart in deren Bezeichnung "Tulpe" gar nicht vorkommt) oder Synonyme / fremdssprachliche Bezeichnungen für "rot") einzubeziehen, ohne dass ihr diese jedes mal vorgegeben werden. Fehlen diese komplett, kann eine Markierung des Artikels (nicht im ANR also auf einer Liste oder der Diskussionsseite) erfolgen. Eine KI kann auch z.B. auch behauptete quantitative Einordnungen (mehr, weniger, "die meisten" etc.) auf Plausibilität prüfen. Tiefergehende Texexegesen wird sie nicht beherrschen, allerdings gerät dabei auch die menschliche Auswertung von Quellen zuweilen in eine Problemzone, nämlich die der TF. Wenn die Quelle zwar eine Information liefert, man damit aber eine durch Kontextualisierung selbstgemachte Intrepretation daraus belegt, kann eine KI darauf hinweisen, so dass sich ein zweiter Mensch dies genauer anschaut. Beispiel: Der Soziologe Müller schreibt, Gesellschaften verhalten sich im Kontext A typischerweise xy. Ein Wikipedianer geht davon aus, Soziologe Müller vertrete in dem Fall die "herrschende Meinung" und schreibt ebendies in den Wikipediaartikel. Eine KI kann/sollte zu gegenwärtigen Zeitpunkt nicht beurteilen, ob der Wikipedianer da recht hat und die Meinungsfüherschaft von Müller eine triviale, nicht weiter belegpflichtige Tatsache darstellt, kann aber auf die Inkonsistenz zwischen der im Beleg dargestellten Auffassung von Müller und der Formulierung im Wikiartikel hinweisen, damit Mensch sich das mal anschaut.
All dies sind Möglichkeiten. Wenn die gefundenen Probleme nicht zu Automatismen / Verpflichtungen / sichtbaren Bausteinen o.Ä. führen sondern zu einer Liste, die interessierte Beobachter kritisch barbeiten können, kann das ggf. viel Handarbeit sparen, ohne dass wir uns freilich darauf verlassen können, dass KI-gecheckte Artikel deswegen einwandfrei sind. Die KI würde also menschliche Kontrolle nicht ersetzen sondern Kontrolle da ermöglichen, wo sie derzeit kaum flächendeckend stattfindet. --Superbass (Diskussion) 18:22, 15. Jul. 2023 (CEST)Beantworten
Hallo Superbass, bereits jetzt werden solche Wartungslisten geführt, meist mit "dummen" Automatismen. Sie werden aber nicht wegen der Dummheit der Automatismen zum Ärgernis, sondern wegen ihrer sehr eifrigen und oft unreflektierten Abarbeitung. So etwas ist, in vollem Ernst, die weitaus ärgerlichste alltägliche Erscheinung in der Wikipedia, verantwortlich für einen Großteil der Abgänge von produktiven Schreibern. Eine noch stärkere Skalierung mit einer undurchschaubaren und unüberprüfbaren Technik wird dieses Ärgernis bei weitem vergrößern. Wenn man das will, bitte. Aber dann ohne mich. --Mautpreller (Diskussion) 18:29, 15. Jul. 2023 (CEST)Beantworten
Es steht und stünde ja ohnehin jedem frei, ob man auf automatische Wartungsindikatoren reagiert, aber ein Bißchen ernüchternd ist Deine Einschätzung im zugespitzten Sinne: "Wir (Wikipedianer) sind zu letztlich zu doof für KI-Hinweise, weil wir sie zu unreflektiert abarbeiten würden" ja schon. Ganz von der Hand zu weisen ist das nicht - selbst manuell generierte Problemmeldungen werden nicht immer differenziert abgearbeitet, das stimmt schon.
Dabei fielen mir noch andere Einsatzgebiete ein Z.B. Vorschläge für Stil-Korrekturen à la DeepL Write, wo unendliche Schachtelsätze, fragwürdige Fremdwortanhäufungen oder Wortdopplungen im gleichen Satz usw. markiert und mit Änderungsvorschlägen versehen werden. Das unterläuft mir selbst gern und ich glaube, da könnten wir sehr von profitieren. --Superbass (Diskussion) 20:32, 15. Jul. 2023 (CEST)Beantworten
Das wäre sogar noch schlimmer. Ich hab selbst mal einen Leitfaden für verständliches Schreiben verfasst. Stilkorrekturen sind ohnehin ein außerordentlich lästiges Ding, wenn eine Maschine nach mittlerer Satzlänge etc. urteilt, wird es unerträglich. Nicht die Länge eines Satzes (Punkt-zu-Punkt), sondern seine Struktur ist entscheidend. Kurze Sätze haben den entscheidenden Nachteil, dass ihnen oft die logischen Verbindungen fehlen (die bereits zum heutigen Stand gern als Füllwörter bezeichnet und von unverständigen Korrektoren gestrichen werden). Die Fremdwörterangst ist unbegründet, Telefon und Handy sind weitaus verständlicher als Fernsprecher. Le style est l'homme, nicht ChatGPT.
Ich unterstelle übrigens nicht, dass "wir Wikipedianer zu doof sind für ChatGPT-Hinweise", ich unterstelle, dass die Kunst des Erkennens und Korrigierens sprachlicher Gebilde sowie des Kommunizierens darüber in der Wikipedia schwach verbreitet ist. Hier wäre Qualifizierung nötig. Es wird zu Unrecht angenommen, dass Korrekturlesen eine leichte und leicht automatisierbare Aufgabe wäre. Ist es nicht. Technische Mittel, die von mangelhaft qualifizierten Leuten eingesetzt werden, entwickeln sich, wie es jetzt bereits geschieht, zur Landplage. --Mautpreller (Diskussion) 21:33, 15. Jul. 2023 (CEST)Beantworten
Das ist nicht meine Erfahrung mit Tools wie z.B. Deepl Write. Dort werden vergleichsweise behutsame stilistische Veränderungen vorgenommen, die man zudem aktiv mitgestalten/auswählen kann (was ein eigenes Grundverständnis voraussetzt, ja!) und die zumindest bei meinem manchmal kruden Schreibstil durchaus zu besser lesbaren/verständlichen Ergebnissen führen. Es mag sein, dass ein geübter, mit "Textliebe" oder gar gezielt geschulter Schreiber (oder ich selbst nach dem siebten Durchlesen) zu vergleichbaren oder sogar noch viel besseren Ergebnissen kommt. Es geht aber nicht darum, solche Ergebnisse zu ersetzen, sondern solche, um die sich eher niemand kümmert. Eine funktionierende Zeichensetzungs- und Rechtschreibprüfung wird gleich mitgeliefert. Entweder bewerten wir beide die gleichen Ergebnisse und Anwendungsbereiche völlig unterschiedlich, oder, ich kann gar nicht sagen, wie sehr du dich damit beschäftigt hast, du hast eine eher mechanistisch reduzierte Vorstellung von den erzielbaren Ergebnissen (Maschine urteilt nach "mittlerer Satzlänge" - so einfach ist es gerade nicht). Hier würde es m.E. helfen zu wissen, ob Du schon Versuche in der aktiven, also kritisch-eingreifenden Nutzung mit so einem Tool gesammelt hast.
An dieser Stelle widersprechen sich übrigens auch die Argumente in der gesamten Debatte: Auf der einen Seite wird beklagt, dass KI-Texte aufgrund ihrer unauffälligen und erstaunlich geschmeidigen Sprache kaum zu erkennen seien - weder Menschen noch Gegen-KIs könnten dies zuverlässig. Auf der anderen Seite soll eine KI zu grob geschnitzt sein, um feine sprachliche Verbesserungen vorschlagen zu können.
Auch hier würde ich natürlich nicht vorschlagen, dass eine KI Artikel selbständig oder halbautomatisch überarbeitet sondern von Nutzern aktiv einbezogen werden kann, um Entwürfe zu machen, die ein Mensch auswählt oder ganz verwirft. So jedenfalls habe ich das besagte Tool bislang ausschließlich eingesetzt und nur so ergibt das für mich Sinn. --Superbass (Diskussion) 22:47, 15. Jul. 2023 (CEST)Beantworten
Ich halte es für durchaus klug den Gedanken von Superbass aufzugreifen und Chancen zu evaluieren. Ganz im Sinne von „Du kannst nicht verhindern, dass ein Vogelschwarm über deinen Kopf hinwegfliegt. Aber du kannst verhindern, dass er in deinen Haaren nistet.“ (c) M. Luther). Wikipedia ist eher AI-affin als hinterwäldlerisch. Wir sollten Wege finden, die Chancen von KI zu nutzen. Allerdings zeichnet sich etwas dabei ab, dass der Content der Artikel tabu bleiben sollte - und ja: Hilfe haben wir dringend nötig. --Tom (Diskussion) 23:26, 2. Jul. 2023 (CEST)Beantworten
Ich habe zwar nur ein wenig mit ChatGPT herumgespielt, kann mir aber nicht vorstellen, dass in absehbarer Zeit ein Tool kommt, das erkennen kann, ob ein Quellenverweis eine Aussage stützt oder nicht. --Kurzstueckmeister (Diskussion) 11:26, 3. Jul. 2023 (CEST)Beantworten
ChatGPT ist mutmaßlich auch das falsche Tool dafür. Ich wäre gespannt, wie gut ein dezidierter binärer Klassifikator als „Quellenverweis-Prüfer“ (Stand jetziger Technik) tatsächlich werden könnte, wenn Experten ihn entwickeln. --Sabrieleauftistik (Diskussion) 11:38, 3. Jul. 2023 (CEST)Beantworten
Ich meinte nicht, dass ChatGPT ein Tool dafür wäre, sondern dass meine Erfahrung mit ChatGPT mich glauben macht, dass KIs das nicht so bald können werden. ChatGPT versteht einfach viel zu wenig von dem, was es ausspuckt. Wie sollte dann eine gegenwärtige KI verstehen, ob ein Text einen anderen belegt? Zudem geht es doch immer auch um sprachliche Nuancen in den Geisteswissenschaften. --Kurzstueckmeister (Diskussion) 11:49, 3. Jul. 2023 (CEST)Beantworten
Ich weiß nicht, ob man anhand von ChatGPT belastbar einschätzen kann, was „KI kann“. ChatGPT erfüllt eine sehr spezifische Aufgabe – Produktion sprachlich plausiblen Texts als Reaktion auf Eingabe-Prompts – und auch wenn diese Aufgabe ziemlich komplex und facettenreich ist, ist das System eben nicht notwendig auf Einzelaufgaben spezialisiert.
Etwas off-topic, aber ich glaube sowieso, dass OpenAI mit ChatGPT dem akademischen Gebiet der künstlichen Intelligenz einen Bärendienst erwiesen hat, weil der öffentliche Diskurs nun ChatGPT als Maßstab der Fähigkeiten von „KI“ sieht, dabei ist höchst fraglich, inwieweit ChatGPT repräsentativ für künstliche Intelligenz sein soll, selbst wenn der Bot vielleicht der state-of-the-art der neuralen Textgenerierung ist. Dafür ist KI einfach ein zu weites Feld und zu inhomogen. --Sabrieleauftistik (Diskussion) 13:38, 3. Jul. 2023 (CEST)Beantworten
Ich finde deinen Vorschlag auch sehr interessant. Fälle, in denen die Belege die Aussage gar nicht stützen, sind sonst so unsichtbar, und deswegen auch so gefährlich. Wissen wird behauptet, dabei ist da eigentlich eine Falschaussage. Wenn der Einsatz eines solchen unterstützenden KI-Tools funktioniert, dann könnte das der Qualität der Wikipedia nur zugute kommen. Und wirklich beurteilen, ob es funktioniert, könnte man wahrscheinlich erst, wenn man es mal ausprobiert.
Einschränkung: Ich vermute mal, so ein KI-Bot könnte nur öffentlich zugängliche Quellen prüfen, also z.B. nicht die meisten Bücher. --Tunkall (Diskussion) 21:26, 10. Jul. 2023 (CEST)Beantworten
Natürlich, das hat KI aber mit vielen Wikipedianerinnen und Wikipedianern gemeinsam. Gedruckte oder aufgrund von Beschränkungen nicht verfügbare digitale Quellen schauen wir nicht systematisch durch sondern dann, wenn man sie zufällig selbst vorliegen hat oder sie sich wegen begründeter Zweifel / besonderen Interesses bewusst besorgt. --Superbass (Diskussion) 18:26, 15. Jul. 2023 (CEST)Beantworten

Wie KI-generierte Texte erkennen?

[Quelltext bearbeiten]

Wie sollen KI-generierte Texte erkannt werden? Ein Komplettverbot würde dazu führen, dass KI im Geheimen ohne Kennzeichnung eingesetzt wird und es könnte auch zu Löschungen "auf Verdacht" kommen, da ein hundertprozentiger Nachweis nicht möglich ist. --Sinuhe20 (Diskussion) 21:08, 3. Jul. 2023 (CEST)Beantworten

Wie werden Fakes erkannt? PE? TF? Ist ein Lernprozess.--Karsten11 (Diskussion) 21:22, 3. Jul. 2023 (CEST)Beantworten
Fakes und Theoriefindung lassen sich durch Recherche problemlos erkenen. Bei Ki-generierten Texten dürfte das nicht so einfach sein, deshalb sehe ich auch keine ersthafte Alternative zu Vorschlag 1. --Morten Haan 🪐 Wikipedia ist für Leser da 21:43, 3. Jul. 2023 (CEST)Beantworten
Zumindest unbearbeitete oder wenig bearbeitete ChatGPT-Texte lassen sich aktuell noch relativ leicht erkennen (siehe auch hier für ein Beispiel seiner typischen Schreibweise), aber das muss natürlich nicht lange so bleiben... Gestumblindi 21:59, 3. Jul. 2023 (CEST)Beantworten
Also im Text zu Basbousa erkenne ich jetzt nicht Verdächtiges. Ich bin erstaunt, wie viele Artikel bereits allein wegen eines Verdachts gelöscht wurden. Das könnte manchmal auch einfach nur ein holprig übersetzter Text sein oder aus einer Quelle stammen, die nicht gut übersetzt wurde. Ich sehe jetzt eher die Gefahr, dass der schwer nachweisbare "KI-Verdacht" als Löschgrund für alles Mögliche benutzt werden kann.--Sinuhe20 (Diskussion) 23:31, 3. Jul. 2023 (CEST)Beantworten
Wenn du mal selber ein paar Texte von ChatGPT generieren lässt, wirst du feststellen, dass der Basbousa-Text genau diesen "Sound" hat. Ich kann es gerade schwer in Worte fassen, aber es ist diese gewisse Beliebigkeit und Tranigkeit ("... nicht eindeutig festgelegt, da es in verschiedenen Ländern des Nahen Ostens weit verbreitet ist", "... wird zu verschiedenen Anlässen serviert, wie zum Beispiel zu festlichen Feiertagen, Hochzeiten, Familienfeiern oder als Gastgeschenk"), die sehr typisch ist. Holprig hingegen ist das, was ChatGPT produziert, üblicherweise gerade nicht. Glatt ist es schon. Ich fress einen Besen, wenn der Text nicht von ChatGPT ist. Gestumblindi 00:57, 4. Jul. 2023 (CEST)Beantworten
Der erste Satz hört sich tatsächlich etwas unlogisch an. Ansonsten versucht ChatGPT aber gerne Dinge zu verallgemeinern und allgemeinverständlicher darzustellen, so wie es von einer Enzyklopädie eigentlich erwartet wird. D.h. weniger Detaillinformationen und mehr Einordnung in den Kontext. Eine Ursache könnte aber auch sein, dass als Quellen häufig die ersten Suchergebnisse z.B. von Google verwendet werden, meist allgemeine, aber eigentlich nicht zitierfähige Webseiten etwa mit Werbecharakter (z.B. auch Kochrezepte). Bestimmte KI-Tools können aber auch mit vernünftigen Quellen arbeiten und die Texte hören sich dann anders an. Deshalb sollte eher das verwendete Quellenmaterial beurteilt werden und nicht, wie der Text an sich zu Stande gekommen ist. --Sinuhe20 (Diskussion) 13:46, 4. Jul. 2023 (CEST)Beantworten
@Gestumblindi: Hier mal ein fortschrittlicher Kurzartikel mit Perplexity (https://www.perplexity.ai/search/7f2794d0-f3bd-48b7-8a21-fbad8958d79b?s=u), hätte man diesen als KI-produziert erkannt?
Basbousa
Basbousa ist ein süßer, arabischer Grießkuchen, der seinen Ursprung in Ägypten hat. Der Kuchen besteht hauptsächlich aus Grieß, Naturjoghurt und Zuckersirup. Der Sirup wird häufig mit Rosen- oder Orangenblütenwasser verfeinert, um ihm eine charakteristische orientalische Note zu verleihen. Basbousa wird traditionell in großen runden Tabletts gebacken, in Quadrate oder Diamanten geschnitten und im selben Tablett serviert.
Geschichte
Die Ursprünge von Basbousa gehen auf den Revani der türkischen Küche zurück, einen klassischen Kuchen aus dem Osmanischen Reich. Basbousa hat sich im Laufe der Zeit in den meisten Gebieten des ehemaligen Osmanischen Reiches verbreitet und ist in vielen nahöstlichen, griechischen, aserbaidschanischen, äthiopischen und anderen Küchen zu finden.
Zubereitung
Um Basbousa zuzubereiten, werden Grieß, Backpulver, Zucker, Vanillezucker, Kokosraspeln und Salz in einer Schüssel vermischt. Anschließend werden Naturjoghurt und Eier hinzugefügt und die Mischung gut verrührt. Die Masse wird in eine gefettete Backform gegeben und bei mittlerer Hitze gebacken, bis sie goldbraun ist. Währenddessen wird ein Zuckersirup aus Zucker, Wasser und Zitronensaft hergestellt, der über den noch heißen Kuchen gegossen wird. Der Kuchen wird dann in kleine Quadrate oder Diamanten geschnitten und serviert.
Basbousa ist ein beliebtes Dessert in vielen Ländern des Nahen Ostens und wird oft zu besonderen Anlässen wie Hochzeiten und Feiertagen serviert. Es gibt viele Varianten von Basbousa, die je nach Region und Geschmack variieren können. Einige Varianten enthalten Nüsse oder Rosinen, während andere mit Schokolade oder Käse gefüllt sind. --Sinuhe20 (Diskussion) 16:09, 4. Jul. 2023 (CEST)Beantworten
@Sinuhe20: Das finde ich viel schwieriger als das, was ich von ChatGPT so kenne. Und auch ChatGPT wird besser werden. Ich sehe es schon, das mit der Erkennbarkeit von KI-Texten ist schwierig und wird immer schwieriger werden... Gestumblindi 20:17, 4. Jul. 2023 (CEST)Beantworten
Ist definitiv ein ordentlicher Text, ja!
Was man aber nicht vergessen darf: Speisen sind in den allermeisten Fällen vergleichsweise wenig komplexe Themen, weil sie über ein (ziemlich) festes Set an Zutaten (jaja, der Königsberger Klops und die Kapern oder die epischen Diskussionen um die Grüne Sauce oder den Gurkensalat, ich weiß! :)) und eine festgelegte Reihenfolge in der Zubereitung definiert sind – und darüber/daran entlang beschrieben werden können. Es kommt ggf. noch eine lange oder kurze Historie dazu (gern auch gewürzt mit zumeist dümmlichen Anekdötchen) und eine kulturelle Einordnung.
In diesem Beispiel müssen wir auf die Quellen schauen: die en. WP, utopia.de/ratgeber und www.thenationalnews.com/lifestyle/sowas haut euch OSY dreifach um die Ohren :))
Jetzt kann man sagen: Herrgott, stellt euch nicht so an! Die KI schreibt einen prima Artikel über orientalisches Backwerk und da isses doch echt egal, ob das eine KI oder ein Mensch geschrieben hat (ehrlich gesagt: stimmt) und ihr gebt auch zu, daß ihr das gar nicht sicher als KI-generiert erkennt/erkennen könnt (ehrlich gesagt: stimmt).
Das entbindet uns aber nicht davon eine Antwort auf die Frage zu geben, ob wir das wollen, daß Leute mit einer KI Artikel erstellen und es als menschengemacht ausgeben. --Henriette (Diskussion) 01:03, 5. Jul. 2023 (CEST)Beantworten
Wenn wir es nicht wollen, dann werden wir wohl bei den Usern ansetzen müssen, denn an die Inhalte werden wir spätestens in ein paar Jahren keinen Griff mehr bekommen. Das heisst für mich: Alle beitragenden müssen ein DCO unterschreiben, dass sie die notwendigen Rechte an dem beigetragenen Inhalt haben und berechtigt sind, die Inhalte unter CC-BY-SA beizutragen. Das wäre aber das Ende der Offenheit und Anonymität, die wir heute so sehr wertschätzen. Nichts machen, ist aber auch keine Lösung, denn Maschinen können hier schneller Quark publizieren als Menschen ihn wegputzen. Es gilt, WP als Ergebnis menschlichen Diskurses gegenüber automatisiert erstellter Leichtkost zu verteidigen. --AlturandD 16:13, 24. Jul. 2023 (CEST)Beantworten
Die Frage wurde auch schon (immer) für PE-Artikel gestellt (siehe Karsten11). Antwort: Es gibt keinen Zauberstab, den man über einem Text schwenken kann und dann ... simsalabim ... hat man die Antwort. Es wird wie immer auf einen Mix aus Erfahrung, Recherche, ein gerüttelt Maß Skepsis und auch Intuition hinauslaufen (URVs z. B. erkennt man häufig allein daran, daß ihr soz. "Sound" anders ist, als der eines auf normalem Weg erstellten Artikels).
Für einen Ent-oder Beschluß "wir wollen keine KI-Artikel" muß ich keinen KI-Fliegenfänger vorab bereitliegen haben, an dem mit 100% Erfolgsquote alle KI-Artikel sofort kleben bleiben. Vor allem Admins brauchen diesen Ent-/Beschluß, um im Fall des Falles eine Handlungsrichtlinie zu haben und ohne ewige und stets von Null beginnende Diskussionen handlungsfähig zu sein. Und ganz vielleicht hält es sogar ein paar Leute davon ab, es überhaupt zu probieren. --Henriette (Diskussion) 22:58, 3. Jul. 2023 (CEST)Beantworten
Es mag Fälle geben, in denen sich KI-Texte klar als sollche erkennen lassen. Ich bezweifle aber, dass das bei der Mehrheit klappen wird. Ein Verbot setzt aber schon vorraus, dass man unterscheiden kann, sonst haben wir nicht weniger, sondern mehr Diskussionen. --Morten Haan 🪐 Wikipedia ist für Leser da 01:56, 4. Jul. 2023 (CEST)Beantworten
Fakes und TF sind auch verboten. Auch die erkennt man nicht (immer) a) auf den ersten Blick, b) zu 100% treffsicher. Du selbst sagst dazu: Fakes und Theoriefindung lassen sich durch Recherche problemlos erkenen. Da geht es also auch. Und zwar auf den üblichen Wegen: Fake oder TF wird unterstellt oder postuliert --> der Text wird eingehend geprüft --> Vorwurf/Behauptung stimmt oder stimmt nicht.
Vermutlich wird noch eine ganze Weile ein relativ gutes Erkennungszeichen der KI-Texte bleiben, ob sie Quellen/Belege enthalten. Keine Belege drin: Soll bitte der Ersteller (so es keine IP ist) seine Quellen/Belege nennen. Kann er nicht? Tja, schade; dann hat er den Text offenkundig nicht aufgrund von Quellen/Belegen erstellt. Sind welche drin: Prüfen. Da z. B. ChatGPT gern mal Belege halluziniert, reicht schon der Beweis, daß ein Beleg erfunden ist, um die Entscheidung zu treffen. Und wer der Meinung ist, daß ein relativ sicher nur von einer KI erstellter Text trotz fehlender Belege unbedingt behalten werden muß, der bekommt den in seinen BNR überstellt und kann einen ordentlichen enzyklopädischen Artikel draus machen. Wenn sich niemand diese Mühe machen will, wird gelöscht. --Henriette (Diskussion) 10:59, 4. Jul. 2023 (CEST)Beantworten
Dann stellt sich aber die Frage, ob wir ein explizites Verbot brauchen oder ob unsere Regeln bezüglich Neutralität und Belege ausreichen. --Morten Haan 🪐 Wikipedia ist für Leser da 15:42, 4. Jul. 2023 (CEST)Beantworten
Was sagen denn unsere Regeln zum Thema Neutralität und Belege: "Umgehend löschen" vermutlich nicht? Jedenfalls hätten wir in dem Fall keine 45.000 Artikel mit Belege fehlen und immerhin 1.000 Artikel mit Neutralitätsproblemen und würden die ... ähm ... aufbewahren.
Es ist doch so: Von den LK wird nach Möglichkeit alles, was sich irgendwie mit Ach und Krach als relevant verkaufen lässt oder mit ein paar Alibi-"Belegen" aufgehübscht wurde, in den ANR geschickt. Und dann kümmert sich niemand mehr um die inhaltliche Qualität.
Warum sollte das bei KI-Artikeln mit zweifelhaftem Inhalt anders laufen? Außer natürlich, daß die noch schneller aus dem Boden wachsen als auf normalem Weg erstellte Artikel, weil man nicht mal mehr 7 Minuten über den Text als solchen nachdenken muß. --Henriette (Diskussion) 21:20, 4. Jul. 2023 (CEST)Beantworten
Weiter oben hab ich vorgeschlagen, solche Artikel konsequent mit LA zu versehen; wenn sich in der LD nichts (oder zu wenig) tut, eben löschen oder in den BNR verschieben. Das wurde als zu radikal abgelehnt. --Morten Haan 🪐 Wikipedia ist für Leser da 21:44, 4. Jul. 2023 (CEST)Beantworten
Wenn ein Neuling trotz Nachfrage keine Belege nennen kann, dann hat er evtl. eine KI zur Texterzeugung genutzt - evtl. hat er sich den Text aber auch selbst ohne KI ausgedacht. Natürlich sollten unbelegte Artikel gelöscht werden. Aber nicht, weil sie evtl. von einer KI geschrieben wurden, sondern weil sie unbelegt sind!
Falls man also einen schlechten Text hat, ist es völlig kontraproduktiv darüber zu mutmaßen, ob dieser schlechte Text von einer KI stammt oder nicht. Er gehört gelöscht, weil er schlecht ist.
Bei einem guten, belegten Text ist es noch kontraproduktiver darüber zu mutmaßen, ob er von einer KI stammt oder nicht. Diesen Text sollte man behalten.
Anstatt sich also Gedanken zu machen, ob der Text von einer KI stammt oder nicht, sollte man sich lieber Gedanken machen, ob der Text vernünftig & belegt ist oder nicht. --Eulenspiegel1 (Diskussion) 01:17, 5. Jul. 2023 (CEST)Beantworten

Alle bedeutenden US-Anbieter von öffentlich zugänglichen KI-Generatoren (Amazon, Google, Meta, Microsoft und Open AI) haben mit der US-Regierung Grundregeln vereinbart. Dazu gehört auch eine Kennzeichnung von mit KI erstellten oder veränderten Inhalten. (Michael Felber: Künstliche Intelligenz: Amazon, Microsoft, Alphabet und Meta versprechen verantwortungsvollen Umgang mit neuen Technologien. In: NZZ, 24. Juli 2023.)--BBCLCD (Diskussion) 14:51, 24. Jul. 2023 (CEST)Beantworten

Ist dort ebenfalls geregelt, dass das Entfernen solcher Kennzeichen rechtswidrig ist? Kann ich die Kennzeichen auf den Cayman-Inseln legal entfernen? Wer hätte ein Interesse, solche Rechtsverstöße (an nicht urheberechts-begründendem Material) zu verfolgen?
Die Berner Konvention und der World Copyright Treaty sind nicht deshalb so mächtig, weil sie von einem Staat allein getragen sind.
Die Tür für den Missbrauch ist offen - und bis es weltweit verlässliches und verfolgbares Recht gibt, tut jedes Projekt gut daran, für sich Sicherheit zu schaffen. Denn bei weltweiten Einigungen sehe ich aktuell schwarz. --AlturandD 16:18, 24. Jul. 2023 (CEST)Beantworten
Wie vertrauenswürdig Amazon, Google, Meta, Microsoft und die US-Regierung sind, haben sie ja schon umfassend beim Datenschutz bewiesen. --pretobras (Diskussion) 17:31, 24. Jul. 2023 (CEST)Beantworten

Bedenken

[Quelltext bearbeiten]

Ich habe diese Umfrage gefunden, aber ich glaube ich bin noch nicht berechtigt, mitzumachen. Dennoch: Wichtiges Thema und ich finde es gut, dass sich Wikipedia damit beschäftigt, wie man Regelungen für den Umgang mit diesen KI-Tools finden kann. Aber ich glaube, es wird in der Umfrage etwas zu sehr schwarz-weiß gesehen. Ein Komplettverbot wäre nicht realistisch und geht am Problem vorbei.

Niemand (mit guten Absichten) würden einfach so einzig und allein und ungeprüft die Ausgabe von ChatGPT in Wikipedia kopieren. Der Umgang mit den Tools ist doch eher folgender: Man nutzt diese Tools, um einzelne Sätze oder Formulierungsvorschläge zu erhalten. Diese werden natürlich auf Richtigkeit geprüft und dann in den ansonsten selbst geschriebenen Artikel mit eingefügt. Ich kenne viele, die ChatGPT so nutzen (nicht in der Wikipedia, sondern teilw. auch für Prüfungsarbeiten o.ä.) Kann man gut finden oder nicht, aber das wird sich wohl so etablieren. In Zukunft wird das zum Standard gehören, wie eine automatische Rechtschreibprüfung.

Auch ich habe teilw. KI-gestützte Helfer genutzt wie DeepL, um englischsprachige Zitate für die Wikipedia zu übersetzen. DeepL funktioniert eigentlich ganz ähnlich wie ChatGPT, nutzt ebenfalls ein Large Language Models um einen Text zu generieren.

Wenn nun hier eine Regelung herauskommt "KI-generierte Texte sind verboten" würden sich viele Autoren in einem Graubereich bewegen und möglicherweise schon unbeabsichtigt (wie beim Einsatz von DeepL) gegen diese Regel verstoßen. --Payakan (Diskussion) 22:35, 3. Jul. 2023 (CEST)Beantworten

Ein Komplettverbot wäre nicht realistisch und geht am Problem vorbei. Tu mir bitte einen Gefallen und definiere "das Problem" für Wikipedia aus deiner Sicht. Meine Sicht kenne ich (die ist völlig anders als deine :) und ich lerne nix, wenn ich nicht verstehen kann, warum andere Menschen es ganz anders sehen und betrachten ;) --Henriette (Diskussion) 01:33, 4. Jul. 2023 (CEST)Beantworten
Der Fall, dass jemand einen kompletten Artikel mit KI-Tools erstellt, sehe ich nicht als die Hauptanwendung dieser KI-Tools. Klar, ein paar Pfuscher und Witzbolde werden das versuchen. Aus meiner Erfahrung mit Studienkollegen kann ich sagen (was man sicherlich auch auf die Wikipedia übertragen kann): ernsthafte Autoren werden eine Symbiose mit diesen Tools eingehen und sie gezielt für bestimmte Stellen im Text verwenden, um beispielsweise schönere Formulierungen zu erhalten oder routinemäßige (leichtere) Passagen automatisch zu generieren. Solche Texte werden prinzipiell auch nicht von menschlichen Texten zu unterscheiden sein, und vielen Autoren wird das auch sehr gut gelingen, sie werden ihre Effizienz damit steigern können. Ein Verbot wäre nicht nötig, sondern würde sogar viele junge und eigentlich talentierte Autoren abschrecken, oder sie werden die für sie weltfremde Regel einfach ignorieren. Es entwickelt sich gerade eine Generation an den Schulen und Unis, für die der Einsatz dieser Tools selbstverständlich sein wird.
Auf der anderen Seite ist das eigentliche Problem, wenn Leute die Grenzen des Tools nicht kennen und ihnen zu sehr vertrauen. Dazu muss man noch nicht einmal einen Text mit dem Tool generieren. Angenommen, jemand hat eine Biographie geschrieben, alles davon selber formuliert. Am Ende fehlt ihm noch das Geburtsdatum. Er nutzt ChatGPT und fragt "wann ist ... geboren?". Die Antwort ist leider falsch. Dennoch wird das Datum - händisch, aber ungeprüft - in den Artikel übertragen. Nun greift euer Verbot nicht, denn der Text ist ja vollständig selber formuliert. Dennoch hat sich durch ChatGPT eine Falschinformation eingeschlichen. Diese Fälle sind das eigentliche Problem.
Das Problem ist, wenn Autoren ChatGPT zur Recherche bzw. als Quelle nutzen. Man darf ChatGPT nur für Dinge benutzen, die man auch so gewusst hätte, bei denen man sich aber etwas Zeit zum Formulieren sparen wollte. Dafür ist Aufklärung und Schulung notwendig. Ich würde es beispielsweise begrüßen, wenn es eine Hilfeseite von Wikipedia zum richtigen Umgang mit ChatGPT gäbe. --Payakan (Diskussion) 10:47, 4. Jul. 2023 (CEST)Beantworten
Danke Dir für diese ausführliche und für mich sehr interessante Antwort! Was ich daran spannend finde: Du denkst das Problem oder besser wohl die Fragestellung aus einer vollkommen anderen Perspektive als ich. Ich bin WP-Urgestein, komme aus den Geisteswissenschaften und wenn ich etwas an WP schätze, dann ist es nicht Texte bzw. Artikel zu produzieren. Sondern neue Themen/Dinge entdecken, sich in das Thema einarbeiten, recherchieren, dem nachgehen ... oder kurz: Etwas lernen und das erworbene Wisssen weitergeben (die Motivation ist – und das unterstelle ich praktisch allen Kollegen hier – also intrinsisch und nicht von Effizienz- oder Produktivitätsgedanken getrieben).
Solche Texte werden prinzipiell auch nicht von menschlichen Texten zu unterscheiden sein, und vielen Autoren wird das auch sehr gut gelingen, sie werden ihre Effizienz damit steigern können. Da haben wir es: In WP muß nicht "effektiv" produziert werden. Es gibt keine Deadline für eine Abgabe oder irgendeinen Druck einen Artikel überhaupt zu schreiben. Die Motivation läuft allein (und noch?) über "interessiert mich, finde ich spannend; ich habe Lust mich länger oder eingehend damit zu befassen".
Ein Verbot wäre nicht nötig, sondern würde sogar viele junge und eigentlich talentierte Autoren abschrecken, oder sie werden die für sie weltfremde Regel einfach ignorieren. Wenn die "eigentlich talentiert" sind, sollten sie es doch eigentlich auch ohne KI-Unterstützung hinbekommen? ;)
Wichtiger aber: Welchen Stein bringst Du ins Rollen, wenn diese Autoren "effizient" produzieren und die soz. klassisch produzierenden Leute, die in der WP mitmachen, weil ihnen der old school-Weg der umständlichen und behäbigen Textproduktion als Beschäftigung in der Freizeit gut gefällt, sich ausgebootet, überrollt und übervorteilt fühlen? Wenn sich schleichend einbürgert, daß KI-Texte Ok sind? Wozu sich dann noch die Mühe machen tief in ein Thema einzusteigen, um tatsächlich nur geprüftes, allgemein akzeptiertes Wissen zu reproduzieren? Wenn doch grobes (Halb-)Wissen zum Thema (angeblich schon) ausreicht, um Pi mal Daumen beurteilen zu können, daß die KI einen hinreichend plausiblen Text produziert hat – und das unendlich mal schneller, als es auf dem klassischen Weg der Recherche, des Einarbeitens in das Thema, des Nachdenkens darüber machbar wäre.
Es entwickelt sich gerade eine Generation an den Schulen und Unis, für die der Einsatz dieser Tools selbstverständlich sein wird. Das glaube ich Dir gern! (Ich fand dazu diesen Podcast sehr erhellend; der beschäftigt sich mit der Situation in Amerika.) Die Frage, die sich mir für die WP stellt, ist folgende: Wollen wir solche Texte, haben wir die Ressourcen um auch diesen Texten das soz. Prüfsiegel der WP (zu allererst wohl: neutraler Standpunkt) zu geben; können wir auch bei solchen Texten garantieren, daß unser Qualitätsversprechen an die Leser weiter besteht?
(Wenn Du mich fragst: Nein. Diese Ressourcen haben wir nämlich jetzt schon nicht (mehr). Und neue "talentierte Autoren", die auf effiziente Textproduktion setzen und damit Erfolg haben, werde ich für den großmütter/-väterlichen Weg der Textgeneration und -prüfung mit seinen Behäbigkeiten und Mühen wohl wenig begeistern können. So langsam frage ich mich auch, ob bei dieser "neuen Generation" überhaupt noch vorausgesetzt werden kann, daß sie mit den nötigen Techniken einer "klassischen Textproduktion" via Recherche etc.pp. hinreichend vertraut sind ... ) --Henriette (Diskussion) 14:48, 4. Jul. 2023 (CEST)Beantworten
Danke ebenfalls für deine ausführliche Antwort! Wenn ich meinte, dass Leute den Text vorher prüfen sollen, dann meine ich damit nicht nur eine oberflächliche Plausibilitätsprüfung, sondern eine wirklich inhaltliche Prüfung im Detail. Man sollte KI-Modelle nicht verwenden, um Texte zu generieren, wenn man davor nicht mit dem Thema vertraut ist. Es sollte nur eine Formulierungshilfe sein. Viele Leute, gerade Naturwissenschaftler und Techniker, sind sehr gut in ihrem Fachgebiet, aber schreiben nicht gerne Texte, oder haben auch kein Talent darin. Nicht alles, über das man schreibt, muss auch etwas neues sein. Manchmal handelt es sich auch um Grundlagenwissen, das man vermitteln möchte. Was es schon zigfach in irgendwelchen Lehrbüchern gibt. Das einfach nochmal neu zu formulieren ist für viele vielleicht eine langweilige Aufgabe. Hier scheitert es nicht am Können, sondern dass es einfach nicht reizvoll ist.
Ich stimme dir zu: ChatGPT über ein bisher nicht bewandertes Thema zu befragen und die Antwort für bare Münze zu nehmen ist eine schlechte Praxis, die man sich gar nicht ernst angewöhnen sollte. Wenn man aber ChatGPT einsetzt, um sich beim Formulieren helfen zu lassen, um Sachverhalte didaktisch sinnvoll und auf den Punkt zu beschreiben, und man tatsächlich das Wissen mitbringt, alles auch zu bestätigen, spricht wenig gegen den Einsatz der Modelle. Ich höre z.B. oft von Leuten, die ChatGPT verwenden: "So elegant hätte ich das nicht formulieren können". ChatGPT könnte den Autoren helfen, sich auf die tatsächlich inhaltlich-anspruchsvollen Stellen im Text zu konzentrieren, und sich bei langweiligen Routineaufgaben helfen zu lassen. --Payakan (Diskussion) 15:22, 4. Jul. 2023 (CEST)Beantworten
@Payakan Wenn die Biografie fertig ist und irgendwelche Infos fehlen, die so elementar sind, dass man ChatGPT überhaupt damit kommen könnte: warum stehen sie nicht in der Literatur, die man zum Artikelschreiben auf dem Tisch bzw. online aufgerufen hat? Wenn mir bspw ein Fachlexikon nur das Jahr und nicht Monat und Tag bietet, würde ich stark vermuten, dass letztere unsicher sind. --Ktiv (Diskussion) 06:48, 9. Jul. 2023 (CEST)Beantworten
Ich gehe auch davon aus, dass es einen fließenden Übergang zwischen KI-Texten und menschlichen Texten geben wird. Schon heute prüfe ich meine Übersetzungen mit DeepL und übernehme die DeepL-Übersetzung, wenn sie mir besser gefällt als meine eigene. Eine Funktion zum KI-gestützten Umformulieren von Sätzen und Texten wird in Word bald so normal sein wie heute die Rechtschreib- und Grammatikprüfung. Wenn mir ein Tool (mit oder ohne KI) so nervige Sachen wie das Ausfüllen der Vorlage Internetquelle, der Personendaten oder das Setzen der Kategorien abnimmt oder erleichtert, dann würde ich gerne darauf zurückgreifen. Ab wann macht das einen Artikel zu einem verbotenen KI-Artikel? --Carlos-X 01:58, 4. Jul. 2023 (CEST)Beantworten
Im Falle eines Verbots müsste die Grenze klar definiert werden. Mit KI-generierten Texten im Sinne der Umfrage geht es wohl um von einer KI erstellten Texte, die mit wenig bis keinen Änderungen in den ANR gestellt werden. --Morten Haan 🪐 Wikipedia ist für Leser da 02:08, 4. Jul. 2023 (CEST)Beantworten
+1. Wir sind ja ganz am Anfang der Diskussion. Dies ist eine Umfrage, kein Meinungsbild über eine Regeländerung. Wenn die Umfrage ergibt, dass wir eine KI-Regelung brauchen, dann muss die erst noch ausgearbeitet werden. Dazu zählt eine Definition, was erlaubt ist und was nicht. Ich persönlich denke, man muss mindestens die Varianten Übersetzung und Rechtschreibprüfung mit KI-Systemen zulassen. Problematisch sehe ich inhaltlich vollständig KI-generierte Texte und KI-generierte Bilder. Wo genau man Grenzen zieht, muss man dann noch diskutieren. Auch die Folgen einer KI-Regelung müsste man sauber beschreiben: Welche Prozesse sehen wir für die Erkennung, Bewertung und ggf. Löschung vor etc. Das ist aber alles ein zweiter Schritt, den wir erst gehen, wenn wir in dieser Umfrage die Grundrichtung erfahren haben, wohin es gehen soll.--Karsten11 (Diskussion) 09:34, 4. Jul. 2023 (CEST)Beantworten
Was ist der Unterschied zwischen einer Umfrage und einem Meinungsbild? --Payakan (Diskussion) 10:32, 4. Jul. 2023 (CEST)Beantworten
Ein Meinungsbild dient der verbindlichen Festlegung von Regelungen in der Wikipedia, eine Umfrage dient dazu einfach ein Stimmungsbild zu erhalten und hat keine direkten Wirkungen auf das Regelwerk.--Karsten11 (Diskussion) 10:58, 4. Jul. 2023 (CEST)Beantworten
Danke für die Erklärung! --Payakan (Diskussion) 11:11, 4. Jul. 2023 (CEST)Beantworten
Wenn es KI-generierte Texte gibt, die nicht von denen menschlicher Autoren unterscheidbar wären, hätten wir schlicht kein Problem mehr damit. Das Problem sind die real existierenden. Dass es keine Benutzer geben wird, die dann massenhaft Artikel aus Sachgebieten abwerfen, von denen sie keine Ahnung haben, halte ich für Wunschdenken. Genauso wie plumpe URV per copy and paste oder roboterartige Maschinenübersetzungen, wird es auch die geben. Es wird Benutzer geben, die sich darauf spezialisieren, um auf eine hohe Zahl eigener Artikel zu kommen. Bei URV haben wir eindeutige Regeln: wird gelöscht. Das hat aber im wesentlichen rechtliche Gründe. Was wird sonst passieren? Die Artikel landen in der QS und bleiben dort. Sie werden entlassen, nachdem sie oberflächlich in Form gebracht wurden (etwa wikifiziert). Oder es gibt einen Löschantrag, bei dem sich genüged Benutzer finden werden, die dort (wie eigentlich immer) der Meinung sind, das müsse bleiben, weil es "relevant" sei und im Übrigen könnte es ja irgendjemand später mal verbessern. Wir könnten auf die ganze Übung verzichten, wenn es sowas wie einen verpflichtenden Mindeststandard für neu angelegte Artikel gäbe (was eigene Nachteile hätte). So brauchen wir eine Bremse, um nicht mit plausibel aussehenden, halluzinierten Artikeln geflutet zu werden. Wem da was Besseres einfällt, der möge Vorschläge machen.--Meloe (Diskussion) 13:57, 4. Jul. 2023 (CEST)Beantworten
"Es wird Benutzer geben, die sich darauf spezialisieren," Wirklich? Ich stelle mir das furchtbar langweilig vor, einfach immer nur Text von einem Browserfenster in das andere zu kopieren. Wer macht so was? Man ist doch hier in der Wikipedia, um mitgestalten zu können. Und nicht einfach nur, um einen Edit-Count zu erhöhen. hmm.
Wenn es wirklich solche Leute gibt, wäre das schon sehr bedauerlich und nicht hilfreich für die Wikipedia. Um das klarzustellen: Damit meine ich Leute, die einen kompletten Artikel generieren und ohne Wissen in einem Gebiet einfach ungeprüft einfügen. --Payakan (Diskussion) 14:17, 4. Jul. 2023 (CEST)Beantworten
Ich kann mir schon vorstellen, dass es solche Menschen gibt und die durchaus denken, die Wikipedia so zu verbessern. Manche Autoren haben auch eine Rotlinkallergie, aber eigentlich keine Lust Ortsartikel zu ihren Biografien zu schreiben, nur um einen Link zu bläuen. Bei mir ist es grad eine Stunde her, dass ich einen Artikel per Copy & Paste aktualisiert habe. Nicht um meinen Edit-Count zu steigern, sondern weil eine manuelle Pflege extrem aufwändig und langweilig ist. --Carlos-X 15:31, 4. Jul. 2023 (CEST)Beantworten
... einen kompletten Artikel generieren und ohne Wissen in einem Gebiet einfach ungeprüft einfügen. Das machen sie schon lange; nur bisher ohne ChatGPT ;) --Henriette (Diskussion) 16:01, 4. Jul. 2023 (CEST)Beantworten
Das ist eine äußerst spannende Diskussion hier. Ich bin auch der Meinung, dass ein Komplettverbot von KI-generierten Artikeln nicht sinnvoll ist. Ich denke nur eine Schulung im Umgang mit diesen Werkzeugen könnte einen fruchtbaren Einsatz in der Wikipedia bringen. Dazu gehören natürlich auch ein paar handfeste Regeln, die willigen Mitarbeitenden zeigen wo der Einsatz Sinn ergibt - und auch erlaubt ist - und wo nicht. Solche Punkte könnten zum Beispiel wie folgt lauten:
  • Bei Inhaltsübersetzungen, wenn der Text genau überprüft wird und die Person ausreichende Kenntnis der Sprachen besitzt
  • Zur Formulierung allgemeinverständlicher Texte, auch dort mit nachfolgender Korrektur (auch zur Entfernung von Inhaltlichen Dopplungen und zur "Erzeugung" eines vielfältigen Wortschatzes)
  • Als Ideengeber, bzw. Einstieg in ein neues Thema (Reviews sind natürlich besser geeignet ;)), wobei beachtet werden muss, dass KIs nicht neutral sind
  • Zum Schönschreiben der Wiki-Syntax
  • etc.
  • Nicht empfohlen ist es dagegen Inhaltliche Passagen, oder ganze Artikel generieren zu lassen:
    • Quellen sind schwer zu überprüfen, da sie erfunden sein können, oder die Inhalte der Textstellen sind nicht aus der Quelle übernommen, bzw. nicht neutral dargestellt
    • Auch die Auswahl der Quellen ist vielleicht nicht ausgewogen, sowie die Strukturierung des Textes
    • KIs können nur so gut sein, wie der Datensatz mit dem sie trainiert wurden und dieser wurden von Menschen erstellt. Das heißt: viele der gesellschaftlichen Probleme spiegeln sich in KI-Systemen wieder: Diskriminierung, extremistische Meinungen etc., auch wenn Entwickler das zu verhindern suchen
    • KIs sind meistens in Privatbesitzt, somit besteht die Gefahr der undeklarierten Zensur
    • Es können sich URV ergeben
Wenn jemand KIs jedoch hirnlos benutzt - solche Kriterien sind auch noch aufzustellen - dann spricht mMn nichts gegen eine Löschung, bzw. in Grenzfällen eine Verlinkung auf die Seite Wikipedia:Umgang mit KI-Werkzeugen und dem Hinweis, dass der Artikel gelöscht wird, wenn keine Anstrengungen unternommen werden die Probleme zu beheben. Gruß --Quant8 (Diskussion) 21:09, 4. Jul. 2023 (CEST)Beantworten
... dass der Artikel gelöscht wird, wenn keine Anstrengungen unternommen werden die Probleme zu beheben. Mir gefällt daran nicht, daß das so formuliert ist, als gäbe es keinen gewissermaßen Verursacher: Wer so einen Artikel erstellt, wird umgehend und allein in die Verantwortung genommen. Punkt.
Ansonsten läuft es wie immer mit der "Schwarmintelligenz": Alibi-"Belege" und zwei Stück Literatur, die vom Titel her irgendwie passen könnten, werden hinzugefügt, damit es optisch hübsch aussieht. Inhalt prüfen, Literatur lesen+auswerten: Wozu? Hauptsache, der Text wird in den ANR übernommen. Schließlich darf man ja keinen Neuling "überfordern" mit dem Anspruch erst Recherche zu betreiben, dann Literatur auszuwerten und erst danach den Artikel zu schreiben; und bitte die Aussagen im Text auch zu belegen. --Henriette (Diskussion) 21:35, 4. Jul. 2023 (CEST)Beantworten
+1; wer nicht in der Lage ist, vernüftige Artikelarbeit zu leisten, hat hier nix verloren. So einfach ist das. --Morten Haan 🪐 Wikipedia ist für Leser da 21:46, 4. Jul. 2023 (CEST)Beantworten
Von mir aus auch das, Ja. -Quant8 (Diskussion) 22:00, 4. Jul. 2023 (CEST)Beantworten

Von Menschen für Menschen

[Quelltext bearbeiten]

Um erstmal einige Fakten festzuhalten:

  • Sprache basiert auf Logik und nahezu eindeutigen Regeln, die sowohl von Menschen und mittlerweile auch von Maschinen erlernt werden können
  • Texte und inbesondere Wikipedia-Artikel basieren auf einer gewissen Logik und gewissen Regeln, die ebenso von Menschen und Maschinen erlernt werden können

Menschen und Maschinen sind beide nicht perfekt und machen ihre Fehler, indem sie gewisse Regeln nicht einhalten oder einfach vergessen. Dabei sind die Fähigkeiten einer KI (mit enormer Rechenpower) aber potentiell höher als die einer einzelnen Person, insbesondere in Bezug auf Schnelligkeit und Aufnahmefähigkeit. Auch steht der KI mehr Lernmaterial zur Verfügung, während ein Mensch während seiner Lebenszeit nur mit einer begrenzten Auswahl an gelesenen Texten und seiner eigenen Erfahrung auskommen muss. Ich denke aber, dass gerade diese Schnelligkeit einigen Angst macht, weil nun Artikel und Texte am Fließband erzeugt werden können, die sich nur noch schwer kontrollieren lassen (und die auch potentiell haarsträubende Fehler enthalten können). Was man also eher regulieren sollte ist der gedankenlose, ungefilterte Einsatz von KI-Technik. Genau dafür ist aber unser Regelwerk da, das gewisse Mindestanforderungen an die eingestellten Texte stellt, egal von wem diese nun stammen. Umso wichtiger ist es aber den Umgang mit dieser Technik zu erlernen um sie richtig und gezielt einzusetzen (als eines von vielen nützlichen Tools die uns Autoren zur Verfügung stehen wie etwa die Rechtschreibprüfung oder Übersetzungsprogramme), und nicht von vorneherein zu verbannen. --Sinuhe20 (Diskussion) 14:15, 4. Jul. 2023 (CEST)Beantworten

Das sind keine "Fakten". Sprache basiert mitnichten auf "nahezu eindeutigen Regeln" und kann auch nicht von Maschinen "erlernt" werden, sondern lediglich imitiert oder simuliert. Texte als schriftliche Manifestationen sprachlicher Äußerungen basieren noch viel weniger auf eindeutigen Regeln, am allerwenigsten Wikipedia-Artikel. Die "Fähigkeiten" einer KI im Hervorbringen sprachlicher Äußerungen sind mitnichten höher als die eines Menschen. Es besteht hier zunächst mal ein ganz grundsätzlicher Unterschied. Mit einer sprachlichen Äußerung möchte ein Mensch anderen etwas sagen, er hat also was zu sagen. Eine Maschine, egal wie schnell, möchte gar nichts sagen und hat auch nichts zu sagen. Sie kann auf einen "Prompt" hin imitieren oder simulieren, wie andere üblicherweise auf die gestellte Frage antworten. Eine Maschine (auch wenn man sie als intelligent bezeichnet) will nichts und versteht nichts.--Mautpreller (Diskussion) 15:32, 4. Jul. 2023 (CEST)Beantworten
(BK mit GvA) „Fakten“ würde ich das auch nicht nennen, eher „Thesen“, aber dass Sprache auf Regeln basiert – über deren Eindeutigkeit man jetzt streiten könnte –, scheint schon die herrschende Meinung in der Linguistik zu sein, auch wenn die Fronten sich seit Chomsky wohl deutlich verschoben haben. Alles andere wäre ja auch Unsinn: Dann könnten wir nicht kommunizieren, weil sprachliche Äußerungen beliebig wären. Das sind jedoch Regeln (oder sagen wir: Regularitäten), die primär auf der kommunikativen Ebene stattfinden und wenig mit dem Inhalt zu tun haben. Ob man einem Computerprogramm einen eigenen Willen bzw. eine eigene Motivation oder nur schnöde Simulation unterstellt, halte ich für eine philosophische und wenig zielführende Frage. (Zugleich kann ich auch mit dem Beitrag von Sinuhe aber wenig anfangen und außerdem darauf hinweisen, dass die größere Rechenkapazität und Aufnahmefähigkeit von Supercomputern gegenüber Menschen wenig bis nichts hilft, wenn wir nicht sicherstellen können, dass die daraus gewonnenen Ausgaben auch korrekt sind.) --Sabrieleauftistik (Diskussion) 15:55, 4. Jul. 2023 (CEST)Beantworten
Natürlich basiert Sprache auf formalen Regeln. Diese sind jedoch keineswegs eindeutig. Welche komplexen und mehrdeutigen Strukturen sich in einer ziemlich schlichten sprachlichen Äußerung verbergen, hat gerade Chomsky sehr gut herausgearbeitet, und da sind wir erst bei der Syntax (also auf dem formalen Niveau, das du ansprichst). Zudem ist Sprache grundsätzlich redundant und ermöglicht mehrere Wege, etwas zu sagen. Diese Wege können selbst wieder differenziert mit Sinn aufgeladen werden, was jedoch erst im Kommunikationsprozess selbst (also beim Sprechen/Schreiben und Verstehen) geschieht. - Du kannst sagen, das sei eine philosophische Frage und deswegen nicht weiterführend. Nun, abgesehen davon, dass ich nicht finde, dass philosophische Fragen nicht weiterführen: Sie materialisieren sich doch im Handeln bzw. Verhalten. Ein anderer Ausdruck dafür, dass man (aktiv) etwas sagen will und (rezeptiv) etwas versteht, ist Subjektivität, die entscheidende Ressource in jeglicher Art kommunikativer Äußerungen, auch und gerade in jedem Wikipedia-Artikel. Über diese Ressource verfügen Maschinen nicht, und das ist, entgegen einer häufigen Fehlkonzeption der Enzyklopädie, ein entscheidender Nachteil, wie sich sofort in jeder Diskussion zeigt. Selbst wenn Maschinen "dasselbe machen" wie Menschen, machen sie es eben anders und machen damit etwas anderes. Das gilt bereits bei etwas so Formalem wie einem Rechtschreib- oder Silbentrennungsprogramm. --Mautpreller (Diskussion) 16:26, 4. Jul. 2023 (CEST)Beantworten
Da wäre ich mir nicht so sicher. Künstliche neuronale Netze unterscheiden sich nicht sonderlich von den neuronalen Netzen des Menschen. Letztendlich tun wir Menschen auch nichts anderes als aufgeschnappte Phrasen und Formulierungen zu wiederholen. Wer lange genug in einer Region mit einem bestimmten Dialekt aufwächst, wird diesen irgendwann adaptieren. Und wenn ein Programm wie ChatGPT nichts "verstehen" würde, würde es auch nicht mehr oder weniger intelligente Antworten liefern können, die ein tieferes Verständnis erfordern. Ein Programm wie Perplexity könnte keine Wikipedia-Artikel analysieren und mir sagen, welche Informationen ich doch noch an welchen Stellen ergänzen soll und mir Vorschläge für eine bessere Struktur liefern. Das wäre allein durch Wiederholung oder Simulation nicht möglich. --Sinuhe20 (Diskussion) 17:16, 4. Jul. 2023 (CEST)Beantworten
„Letztendlich tun wir Menschen auch nichts anderes als aufgeschnappte Phrasen und Formulierungen zu wiederholen.“ Keineswegs. Das Besondere an der menschlichen Sprachfähigkeit, speziell im Erstspracherwerb sehr gut untersucht, ist es, dass bereits Kinder wohlgeformte Sätze hervorbringen, die sie nie gehört haben und die nie jemand vor ihnen gesagt hat. - Zum Verstehen müsste man sich das Gesagte zunächst mal aneignen, ein ziemlich komplexer Prozess, der ohne Einfühlung und Perspektivenübernahme überhaupt nicht möglich ist. Die "Analyse" des Wikipedia-Artikels beruht doch schlicht darauf, dass andere in so einer Situation etwas Ähnliches sagen. Eben genau Simulation. --Mautpreller (Diskussion) 17:26, 4. Jul. 2023 (CEST)Beantworten
„Künstliche neuronale Netze unterscheiden sich nicht sonderlich von den neuronalen Netzen des Menschen“ – okay, ich habe echt keine Ahnung von Neurologie, aber die Analogie zwischen den echten und den künstlichen Neuronen ist eigentlich aus dem Fokus verschwunden. Künstliche neuronale Netze wie die Transformer-Architektur von GPT werden nicht mehr danach entwickelt, wie das menschliche Gehirn vernetzt ist (selbst die heute als perceptrons bezeichneten ersten neuronalen Netze mit ihren vollständig vernetzten Ebenen, erst einer, dann mehreren, sind völlig anders strukturiert als das menschliche Hirn – da sind, glaube ich, Neuronen eher selten in festen Schichten angeordnet, von denen alle aus der ersten mit allen aus der zweiten, die wieder mit allen aus der dritten usw. vernetzt sind), sondern wie es angesichts der zu bewältigenden Aufgabe sinnvoll erscheint (wofür es meines Wissens keine Theorie gibt, sondern das läuft quasi alles empirisch heute). Payakan hat oben das Paper von Google verlinkt, das manche als Ursprung des Transformers sehen und wo einfach eine spezielle Art der Aktivierungsaggregation – die attention – in neuer (und reichlich unverständlich beschriebener) Weise zusammengestöpselt wird (ich hab’s mir jetzt nicht noch mal angesehen, aber ich glaube, biologisch wird da überhaupt nicht argumentiert). Trainiert wird das eh alles mit computation graph abstraction, backpropagation, gradient descent, man kann also basteln, wie man will. (Habe ich auch mal versucht, aber mir fehlt das künstlerische Genie, künstliche Neuronen gut zu verschalten…) --Sabrieleauftistik (Diskussion) 19:52, 4. Jul. 2023 (CEST)Beantworten
„Von Menschen für Menschen“ ist die richtige Überschrift, der aber letztlich harmlose Ausführungen folgen. Es ist erschreckend, wie wenig Schrecken es angesichts der Entwicklungen gibt. Sollen nun die idealistischen Enzyklopädisten schrittweise durch tote Programme ersetzt werden? Die Entmenschlichung WPs schreitet voran und wird von seltsamen, nur auf das Machbare bezogenen Argumenten begleitet. Ich habe kein Interesse, mit geschmacklosem Programmsalat konfrontiert zu werden, diese Technik zu erlernen oder mit leblosen Sockenpuppen zu diskutieren, die für nichts einstehen müssen. Warum nicht alles Menschliche (und natürlich Fehlerhafte, Unvollkommene…) eliminieren und durch kalte Programme ersetzen so wie unsere Sprache bereits „technisiert“, entromantisiert und durch widerlich pseudoegalitäre, unpoetische und hässliche Genderfloskeln zerstört wird. Ein grauenvoller Albtraum George Orwells. Ich hätte es nicht für möglich gehalten, wie dominant das „Technische“ ist. --Gustav (Diskussion) 15:49, 4. Jul. 2023 (CEST)Beantworten
Bedank dich beim Silicon Valley. Und auch wenn ich deinen Ausführungen in wesentlichen Punkten zustimme: Das gleiche Argument haben einige schon bei der Ersetzung papierner Enzyklopädien durch eine Datenbank mit Benutzeroberfläche namens Wikipedia angeführt… --Sabrieleauftistik (Diskussion) 15:59, 4. Jul. 2023 (CEST)Beantworten
Oder um es weniger polemisch auszudrücken: Wenn wir den technischen Fortschritt nicht in unserem Sinne gestalten, tun es andere für uns, und das Ergebnis könnte uns nicht gefallen. Deswegen kann ich das Gejammer nicht so ganz vertragen, auch wenn es viel Richtiges enthält. --Sabrieleauftistik (Diskussion) 16:01, 4. Jul. 2023 (CEST)Beantworten
Wenn man Jahre in diese Enzyklopädie investiert und tausendmal argumentiert hat, darf man angesichts des Grauens – hier der objektiven Dominanz der Technik – auch einmal „jammern“. Es ist völlig sinnlos, zu argumentieren, das Technische und „Gleichmacherische“ dominiert alles. Selbst wenn sich die Gemeinschaft gegen den Einfluss der KI ausspricht, wird diese sich wohl irgendwann durchsetzen...Und nein, ich bin nicht „technikfeindlich“, für Raumschiffe, Medizin etc. benötigen wir diese Entwicklungen, nicht aber für eine Enzyklopädie. Da Du erklärtermaßen eine Sockenpuppe bist, werde ich auf Dein Gerede ggf. nur dann eingehen, wenn Du Dich zu Deinem Hauptkonto bekennst, alles anderes wäre selbst nichts weiter als Jammern. --Gustav (Diskussion) 16:15, 4. Jul. 2023 (CEST)Beantworten
Wenn wir den technischen Fortschritt nicht in unserem Sinne gestalten, tun es andere für uns, und das Ergebnis könnte uns nicht gefallen. Nee, das ist mir zu "dieser Fortschritt ist alternativlos": Natürlich gibt es ihn, natürlich ist er nicht aufzuhalten (solang sich mit etwas Geld verdienen läßt, ist es nicht aufzuhalten). Das heißt aber nicht, daß wir ihn als alternativlos begrüßen und die Türen weit öffnen müssen.
Klar, WP hat den Brockhaus gekillt. Sind seitdem gedruckte Enzyklopädien oder Bücher tot und niemand will, produziert oder benutzt sie mehr? Nein. Es gibt immer noch Bereiche in denen das klassische Produkt geschätzt und genutzt wird. Und ich sehe keinen Grund, warum WP nicht auch (wenigstens für einige Jahre noch) eine Nische bilden kann/könnte in der Wissen nicht von KI oder Bots generiert wird. Irgendwann ist dann wahrscheinlich auch die Zeit der WP abgelaufen und sie wird gekillt von einer Bot-Pedia. Nun denn, dann isses halt so. --Henriette (Diskussion) 16:23, 4. Jul. 2023 (CEST)Beantworten
Nee, um „dieser Fortschritt ist alternativlos“ geht es mir gar nicht. Eher darum, dass die Bemühungen einiger hier, dem Fortschritt (um dessen negative Konsequenzen für die Wikipedia es hier gehen soll) etwas Positives abzugewinnen, vehement als „die idealistischen Enzyklopädisten schrittweise durch tote Programme ersetzt“, als „Entmenschlichung WPs“ usw. herabgewürdigt werden. Irgendwie schafft Gustav es immer wieder, Dinge, die ich eigentlich sehr ähnlich sehe, so auszudrücken, dass sich in mir Widerstand dagegen regt. Sei’s drum.
Ich bin übrigens der Meinung, dass wir (die Menschheit) die ethische Diskussion, den gesellschaftlichen Diskurs darüber, was automatisiert werden sollte und was nicht, schon viel früher hätten führen sollen, zu Beginn der industriellen Revolution. Stattdessen wird bei jeder neuen bahnbrechenden (oder so wahrgenommenen) technischen Entwicklung neu debattiert. Das hinkt dem technischen Fortschritt dann hinterher mit diversen negativen Konsequenzen. Eine Grundsatzentscheidung könnte das Ganze befrieden. --Sabrieleauftistik (Diskussion) 19:41, 4. Jul. 2023 (CEST)Beantworten
Ich bin mir nicht sicher, wie so eine Grundsatzentscheidung aussehen könnte oder hätte aussehen können. Weise aber mal auf dies hier hin: https://digitalresponsibility.ch/wp-content/uploads/2021/09/HFA-Werte-Charta.png. --Mautpreller (Diskussion) 13:25, 5. Jul. 2023 (CEST)Beantworten
Ich auch nicht, aber wenn ich höre, dass damals die Weber aus Angst um ihre Arbeitsplätze gegen die Erfindung automatischer Webstühle protestierten, und heute andere Menschen aus Angst um ihre Arbeitsplätze (oder aus Angst um die Qualität einer Online-Enzyklopädie…) gegen „KI“ polemisieren, hat das halt schon eine auffällige Ähnlichkeit.
Dein Link ist übrigens sehr aufschlussreich, wenn man OpenAI vorwerfen will, etwas falsch gemacht zu haben: Gegen Nr. 4 scheint ChatGPT ja systematisch zu verstoßen, und überhaupt, da hat sich ja niemand Mühe gegeben, die Menschen irgendwie im Umgang mit der Technologie zu schulen (Nr. 7), sondern es wurde der Weltöffentlichkeit einfach als fertiges System vor den Latz geknallt (Nr. 5). Und manche kreuchen jetzt am Rande von Nr. 6 herum mit (anti-)utopischen KI-Fantasien (haben vorher aber auch schon so manche). --Sabrieleauftistik (Diskussion) 15:33, 5. Jul. 2023 (CEST)Beantworten
Vielleicht liegt das auch in unseren Ansprüchen begründet, möglichst objektive, neutrale Artikel zu liefern. Da ist alles "Menschliche" wie Theoriefindung, Ausschweifungen, emotionale Formulierungen und endlos verschachtelte Sätze eher fehl am Platz. Letztendlich kommt es doch darauf an, wie gut das Wissen den Lesern vermittelt wird. --Sinuhe20 (Diskussion) 16:50, 4. Jul. 2023 (CEST)Beantworten
Ja, das ist die Fehlkonzeption der Enzyklopädie, die ich oben ansprach. Man kann überhaupt nur "Wissen vermitteln", wenn man das subjektiv und interessiert tut. Man kann dafür aber eine möglichst objektive Form wählen. Siehe etwa Benutzer:Mautpreller#Eine These, hier ganz auf menschliche Aktivität bezogen. --Mautpreller (Diskussion) 16:55, 4. Jul. 2023 (CEST)Beantworten
+1 Und ... wie gut das Wissen den Lesern vermittelt wird – was ist gute Vermittlung von Wissen? (Der Matheunterricht in der Oberstufe war es meinem Gefühl nach nicht; andere waren anderer Meinung :)) Wissen zu einem Geographikum oder einem Planeten vermittle ich vermutlich anders, als Wissen zu einer Blume, einem Film oder einer historischen Person. Und die Antwort auf "wurde Dir dieses Wissen gut vermittelt?" werden unterschiedliche Personen unterschiedlich beantworten: Bin ich eher akademisch unterwegs, wird mich ein Artikel in einfacher Sprache wenig ansprechen (weshalb der Vermittlungserfolg wohl mehr so lala ausfallen wird) – bin ich aus welchen Gründen auch immer auf einfache Sprache angewiesen, kommt vom im akademischen Stil vermittelten Wissen bei mir vmtl. wenig an. Einen Film, ein Märchen will ich nicht berichtet haben wie eine chemische Reaktion ... naja, usw. usf. --Henriette (Diskussion) 18:36, 4. Jul. 2023 (CEST)Beantworten

Und wenn die Artikelquelle KI-generiert ist?

[Quelltext bearbeiten]

Okay, KKI-generierte Artikel verbieten wir, Umsetzung wird noch diskutiert.

Wenn nun jemand einen Artikel schreibt, so richtig "von Menschen für Menschen", sich dabei aber - bewusst oder unbewusst - auf Quellen bezieht, die von einer KI generiert worden sind (meinetwegen eine Website), was dann?

--Sebastian Gasseng (Diskussion) 15:30, 5. Jul. 2023 (CEST)Beantworten

In dem Zusammenhang vielleicht auch interessant, dass bestimmte Fachmagazine keine mit Hilfe von ChatGPT erstellten wissenschaftlichen Arbeiten akzeptieren. [1] Hauptargument: ChatGPT könne keine Verantwortung für die Arbeit übernehmen. Langfristig lässt sich aber wohl nicht verhindern, dass in sämtliche Texten irgendwann KI-generierte Inhalte einfließen. Und die fehlende Verantwortung ist gerade auch bei Wikipedia, an der hauptsächlich anonyme Autoren mitwirken, ein Problem.--Sinuhe20 (Diskussion) 16:02, 5. Jul. 2023 (CEST)Beantworten
Das wird sicher ein Problem werden, gibt es doch Prognosen, dass die menschenerzeugten Inhalte im Netz schon in wenigen Jahren nur noch wenige Prozent ausmachen werden. Andererseits sind unsere Anforderungen an Quellen schon heute in vielen Bereichen so niedrig, dass man sich seine Quellen in wenigen Minuten selbst erstellen könnte. --Carlos-X 20:23, 5. Jul. 2023 (CEST)Beantworten
Die Quellenpflicht ist das einzige was den Unterschied zwischen einer Enzyklopädie und einer Essaysammlung oder einem Sozialen Netzwerk sicherstellen kann. Nach WP:Q haben wir im Prinzip hohe Standards, um nicht reputable Websites als Quellen draußen zu halten. Wenn alles, was ich im www (oder gar bei facebook und twitter) so finde, eine Quelle sein kann, kann unser "Content" nicht besser sein als das, was man im www, bei facebook und twitter so eben findet. Quellen niedriger Reputation erzwingen Inhalte niedriger Reputation. Das mag noch angehen, wenn das Lemma ohnehin ein Boulevard- oder Popthema ist. Dazu gibt es schlicht nichts anderes. Bei ernsthaften Themen sehe ich bisher nicht, dass die Standards aufgegeben wären, auch wenn Einige es beharrlich versuchen. Für KI gilt: M.E. müsste, sobald eine halluzinierte Quelle in einem unserer Artikel auftaucht, nicht der damit belegte Inhalt gelöscht werden, sondern der Artikel. Keinem Wort, was darin steht, ist zu trauen. Wenn jemand den Aufwand treiben wollte, das zu prüfen, könnte er auch gleich neu schreiben, wäre vermutlich sogar weniger Arbeit. Ansonsten können unsere Artikel eben inhaltlich nicht besser sein als die Quellen, die wir dafür akzeptieren. Und da müssen mit ChatGPT erzeugte Inhalte rausfliegen, so oder so. Das mag irgendwann anders sein, möglicherweise. Darüber können wir uns dann Gedanken machen, wenn´s soweit ist.--Meloe (Diskussion) 10:14, 6. Jul. 2023 (CEST)Beantworten
>>M.E. müsste, sobald eine halluzinierte Quelle in einem unserer Artikel auftaucht, nicht der damit belegte Inhalt gelöscht werden, sondern der Artikel.<< ... aber nur, wenn der ganze Artikel vom selben Autor ist, sonst fügt jemand irgendwo etwas ChatGPT-Text ein, man findet eine halluzinierte Quelle und löscht alles --Kurzstueckmeister (Diskussion) 11:59, 6. Jul. 2023 (CEST)Beantworten
ja klar doch. Schien mir im Zusammenhang klar genug.--Meloe (Diskussion) 14:01, 6. Jul. 2023 (CEST)Beantworten
In über 99 % unserer Artikel werden Tagesschau, Spiegel oder FAZ jederzeit als Quellen akzeptiert – selbst wenn der Praktikant für einen Artikel einfach eine Pressemeldung übernommen hat. Oft werden auch Unternehmens- oder Privatseiten oder Twitter akzeptiert. Grundsätzlich haben wir wohl auch keine Wahl, wenn wir so viele Artikel haben wollen. Es ist nur frustrierend, wie schwer es ist, den größten Mist wieder loszuwerden, wenn er doch "belegt" ist. --Carlos-X 12:37, 6. Jul. 2023 (CEST)Beantworten
[Quelltext bearbeiten]

meta:Wikilegal/Copyright Analysis of ChatGPT und en:Wikipedia:Large language models wurden hier bisher glaub ich noch nicht angemerkt.

Der enwiki Richtlinienentwurf scheint in eine ähnliche Richtung zu gehen, wie es anscheinend auch viele dewiki Autoren handhaben würden. Die rechtliche Einschätzung von WMF Legal ist interessant, wobei für uns natürlich zusätzlich auch noch ein Blick aufs DACH-Urheberrecht wichtig wäre. --Johannnes89 (Diskussion) 09:08, 6. Jul. 2023 (CEST)Beantworten

Ja, ich denke auch, dass die juristische Einschätzung der Urheberechtslage am Ende entscheidend sein wird. Insbesondere, wie folgende Fragestellungen beantwortet werden:
- Wer erteilt Wikipedia-Nutzern eine CC-BY-SA-Lizenz für die erzeugten Inhalte, die laut Copyright und Urehbeerecht gar nicht schutzfähig (lizensierbar) sind?
- Wer ist haftbar, falls durch die Verbreitung KI-generierter Inhalte Urheberrechte Dritter verletzt werden? Unterlassung in Wikipedia ist hier weniger das Problem...aber ggf. die unrechtmäßige Rechteerteilung unter CC-BY-SA? Schadenersatz - durch wen? KI-Provider, sog. Autor, WMF?
Und ganz praktisch die Frage: Wissen eigentlich wikipedia-Autoren, welche urhebeerechtlichen Probleme sie erzeugen, wenn sie inhre Beiträge nicht höchstpersönlich verfasst haben? --AlturandD 18:00, 15. Jul. 2023 (CEST)Beantworten

Beispielartikel

[Quelltext bearbeiten]

Gibt es irgendwo Beispielartikel, also Artikel die (mutmaßlich) komplett von KI erstellt wurden, um den „Sound“ beurteilen zu können? Ich habe nichts gefunden außer einen Beispielabsatz aus dem gelöschten Basbousa, bei dem mir (nur) der erste Satz und das letzte Wort aufstoßen. Könnten nicht einige der hier aufgeführten, wegen KI-Verdachts gelöschten Artikel (temporär) etwa auf hiesigen Unterseiten wiederhergestellt werden? Gruß, --Trollflöjten αω 16:18, 7. Jul. 2023 (CEST)Beantworten

Zu Beispielartikeln (die bewusst nicht im ANR landen): Wir hatten kürzlich ein ähnliches Thema bei einem Treffen der Stuttgarter WP-Community. Im Vorfeld habe ich dazu mit ChatGPT Version 3.5 drei Selbstversuche unternommen:
Die Entwürfe sind von mir lediglich etwas wikifiziert, aber inhaltlich unverändert. Insbesondere die von A bis Z erfundene Biografie von Nico Schöttle (inkl. erfundener URLs als "Belege") ist schon gruselig... Grüße, --rolf_acker (Diskussion · Beiträge) 16:32, 7. Jul. 2023 (CEST)Beantworten
Danke für die Tests. Ändert sich etwas, wenn Du "überprüfbare Quellenangaben", "reale Quellenangaben" o.ä. statt "Quellenangaben" vorgibst? Viele Grüße, Grueslayer 16:40, 7. Jul. 2023 (CEST)Beantworten
Bei ChatGPT ändert sich aufgrund des eingebauten Zufallsgenerators immer etwas. Hier habe ich exakt dieselbe Frage gestellt, mit deutlich abweichenden Ergebnis. --Carlos-X 16:49, 7. Jul. 2023 (CEST)Beantworten
Wenn ich mir die drei Beispielartikel anschaue, fällt mir sofort auf, dass sie total unbelegt bzw. die Belege fehlerhaft sind. Aber ich würde wahrscheinlich nicht auf die Idee kommen, dass sie von einem Bot geschrieben sind. Bei Artikel 1 und 3 würde ich vermuten, dass es sich um einen Neuling handelt, der unsere Belegregeln nicht genau kennt und deswegen wegen der Belege nachfragen. Bei Artikel 2 würde ich vermuten, dass er von einem Mensch geschrieben ist, der uns mit gefakten Belegen hereinlegen will.
Ich würde also alle Artikel löschen lassen. (Bei Artikel 1 und 3 nach Ansprache beim Autoren, da ich von einem Anfängerfehler ausgehe. Bei Artikel 2 sofort, da ich hier von absichtlich fehlerhaften Belegen ausgehe.) Dass der Artikel von einer KI geschrieben wurde, wäre für meine Löschentscheidung also irrelevant.
Ich denke daher, unser bisheriges Regelwerk ist vollkommen ausreichend, um fehlerhafte Artikel wie aus deinem Beispiel zu erkennen und zu löschen. Da braucht man keine extra Regeln.
Was hilfreich wäre: Ein Warnhinweis, dass KI-generierte Texte häufig fehlerhaft sind und man deswegen keine KI-generierten Texte schreiben sollte. Also mehr eine Warnung als ein Verbot. --Eulenspiegel1 (Diskussion) 22:57, 7. Jul. 2023 (CEST)Beantworten
Du würdest löschen lassen. Gängige Praxis ist das nicht. Nicht wenige aktive Benutzer sind der Ansicht, es wäre prinzipiell verkehrt, Artikel zu löschen, deren Gegenstand "relevant" ist. Einige gehen weiter und halten Löschungen eigentlich grundsätzlich für verkehrt, von wenigen extremen Ausnahmefällen evtl. abgesehen. Deine Löschanträge auf die fiktiven Artikel wären also keine Selbstläufer. In bisherigen Verdachtsfällen wurde regelmäßig argumentiert, es läge doch Relevanz vor und Verbessern ginge immer vor Löschen. Solange nicht klar ist, dass unbelegte, mit Belegfiktion versehene oder sachlich nachweisbar unzuverlässige Artikel ggf. gelöscht gehören, funktioniert unser bisheriges System der Qualitätssicherung in solchen Fällen nicht. Es werden zudem immense Kräfte und Zeit gebunden, um ein in wenigen Minuten hingeschludertes Machwerk loszuwerden, sind Stunden zu investieren. Wenn diese Dinger erst serienmäßig einlaufen, und ich sehe eigentlich keine Chance, dass sie es nicht tun werden, muss es dafür eine Lösung geben. Das bisherige System ist jetzt schon am Anschlag.--Meloe (Diskussion) 08:02, 8. Jul. 2023 (CEST)Beantworten
Du triffst genau den wunden Punkt. Das Kräfteverhältnis stimmt einfach nicht. Von ChatGPT ganz billig und aufwandlos zusammengeschusterten Kram soll man wikipediakonform umbasteln? Das kostet Stunden um Stunden, und das bei meist völlig uninteressanten Themen. Dieses Missverhältnis haben wir jetzt schon. In Sekunden hingeschluderte Texte über Personen oder Dinge ohne jedwede Literaturangabe werden stundenlang diskutiert und umgebaut, obwohl es gar keine nennenswerte Wahrnehmung gibt, weil "automatisch relevant". Da würde die obige Idee von Jossi helfen, siehe Diskussion zum Vorschlag von Jossi2 (schärfere Qualitätskontrolle). Ich seh das aber gar nicht als Alternative, wir brauchen beides. --Mautpreller (Diskussion) 11:05, 8. Jul. 2023 (CEST)Beantworten
Also um den letzten, vielleicht unklaren Satz klarzstellen: Wir brauchen beides, ein Verbot von ChatGPT und eine schärfere Qualitätskontrolle. --Mautpreller (Diskussion) 18:24, 8. Jul. 2023 (CEST)Beantworten
Für Verbessern geht vor Löschen fehlt uns aber die Manpower, daher bleibt eigendlich nichts anderes übrigt als tabula rasa bei Artikeln mit gravierenden Mängeln zu machen. --Morten Haan 🪐 Wikipedia ist für Leser da 19:03, 8. Jul. 2023 (CEST)Beantworten
Ja genau. --Mautpreller (Diskussion) 22:20, 8. Jul. 2023 (CEST)Beantworten
Es gibt Artikel mit null Belegen, die das Prädikat "exzellenter Wikipedia-Artikel" haben: Chinesische Kunst. --Kurzstueckmeister (Diskussion) 10:25, 10. Jul. 2023 (CEST)Beantworten
Dieser Artikel hat eine umfangreiche Literaturliste, ihm fehlen lediglich die Einzelbelege, weil die damals noch nicht üblich waren. Das ist etwas ganz anderes. --Mautpreller (Diskussion) 10:56, 10. Jul. 2023 (CEST)Beantworten
Eine Literaturliste ist doch kein Beleg für irgendeine Aussage eines Wikipedia-Artikels. Literaturlisten werden die KIs auch anhängen können, fürchte ich. --Kurzstueckmeister (Diskussion) 10:59, 10. Jul. 2023 (CEST)Beantworten
Gerade mit ChatGPT getestet: ChatGPT kann eine Liste von wissenschaftlicher Literatur zu Barockmusik erstellen. Für die ersten zwei Bücher habe ich nachgesehen, die gibt es real. --Kurzstueckmeister (Diskussion) 11:12, 10. Jul. 2023 (CEST)Beantworten
Doch, natürlich ist eine Literaturliste ein Beleg für die Aussagen eines Wikipedia-Artikels. Der Artikel ist weit besser belegt als ein Großteil anderer Exzellenter. Dass ChatGPT Literaturlisten erstellen kann, bezweifle ich nicht, es ist aber ein Unterschied, welche Literatur ausgewählt wird. --Mautpreller (Diskussion) 12:29, 10. Jul. 2023 (CEST)Beantworten
Unter "Literaturbeleg" versteht man normalerweise Literaturangaben. Wenn jemand am Ende eines Artikels eine geeignete Literatur angibt, heißt das in Wikipedia (leider) nicht, dass der Text vorher auch nur irgendwas mit dieser Literatur zu tun hat. Im Falle des Chinesische-Kunst-Artikels sieht es freilich so aus, als würde es schon passen, aber für die Aussage >>Im Vergleich zu ihren Vorbildern schmähte man die Yuan-Bilder von der Kunstgeschichte häufig als „zurückhaltend unterkühlt“, als „leidenschaftslos“.<< die Quelle zu finden, wird wohl etwas mühsam mit dem Literaturverzeichnis, auch wenn ich das Buch von Cahill zu Hause habe. --Kurzstueckmeister (Diskussion) 13:22, 10. Jul. 2023 (CEST)Beantworten
Das ist ein guter Artikel, unter ausgiebiger Nutzung der Literatur im Laufe eines Dreivierteljahrs geschrieben. Es sollte doch klar sein, dass es sich hier um einen völlig anderen Fall handelt als bei einem in Sekunden entstandenen ChatGPT-Elaborat. --Mautpreller (Diskussion) 13:28, 10. Jul. 2023 (CEST)Beantworten
Das ist richtig, aber er ist nicht belegt.
https://www.ph-kaernten.ac.at/fileadmin/media/studienabteilung/Bachelorarbeit/Hinweise_zum_richtigen_Zitieren_2017_04.pdf
https://www.uni-konstanz.de/FuF/Philo/Geschichte/Tutorium/Themenkomplexe/Lesen/Zitieren/Systematik_Zitieren_/Literaturbelege_in_der_Fussnot/literaturbelege_in_der_fussnot.html
https://www.sonderpaedagogik.uni-wuerzburg.de/fileadmin/06040300/ellinger/Literaturbelege_in_Hausarbeiten.pdf
Eine Literaturliste ist kein Literaturbeleg. --Kurzstueckmeister (Diskussion) 13:33, 10. Jul. 2023 (CEST)Beantworten
Ach komm. Du willst doch nicht wirklich sagen, dass man die Qualität eines Artikels an den Einzelnachweisen erkennt. --Mautpreller (Diskussion) 13:35, 10. Jul. 2023 (CEST)Beantworten
Nein, das will ich nicht. Wo sollte ich das gesagt haben? Ich habe reagiert darauf, dass man vorschlägt, unbelegte Artikel zu löschen. Ich bin dafür, unbelegten Artikeln das Prädikat "exzellent" zu entziehen, aber löschen sollte man sie nicht gleich. --Kurzstueckmeister (Diskussion) 13:38, 10. Jul. 2023 (CEST)Beantworten
Wenn man einen so radikalen Schritt gehen will, sollte man Artikel ohne Einzelnachweise und ohne Literaturangaben löschen (sind meist sowieso Stubs) und Artikel ohne Einzelnachweise, aber mit Literaturangaben auf menschlich abzuarbeitende Wartungslisten setzen (bei vielen kann man einfach gleich sagen: passt schon). Ich fürchte allerdings, dass ein solches Vorgehen eher Unmut hervorrufen würde. Außerdem ist die Operationalisierung zu einfach: Einzelnachweise können qualitativ völlig unzureichend sein (Literaturangaben auch). NB: Nichts garantiert, dass ein Literaturbeleg, den ChatGPT generiert, auch tatsächlich irgendeine Aussage im generierten Artikel belegt, selbst wenn er existiert und nicht halluziniert ist (was vorkommen kann). --Sabrieleauftistik (Diskussion) 14:23, 10. Jul. 2023 (CEST)Beantworten
(zu Satz2 von Eulenspiegel1) Im Fließtext deuten meines Erachtens v.a. die stromlinienförmigen, stereotypen und oft vage bleibenden Formulierungen, hohle Phrasen, durchaus deutlich auf KI (im Nachhinein natürlich leicht zu sagen), alternativ käme ein fantasieloser Marketing- oder BpB-Mitarbeiter in Frage.--Trollflöjten αω 15:30, 9. Jul. 2023 (CEST)Beantworten

Wie Giersch im Garten

[Quelltext bearbeiten]

... wenn er sich erst ausgebreitet hat, kriegt man ihn nie wieder raus. Eine Freigabe von KI, zum Formulieren langweiliger Artikelpassagen/langweiliger Artikel würde als erstes die meisten Wettbewerbe kaputtmachen. Denn da geht es ja um "Effizienz". Für einen soliden Kurzartikel rechne ich einen halben bis einen Arbeitstag inkl. Recherchieren, Strukturieren, Formulieren. Wie viele Artikel fabuliert sich die KI im gleichen Zeitraum zusammen? Und welcher Autor hätte noch Interesse, da mitzumachen? Je mehr sich rumspricht, dass KI akzeptiert wird, umso mehr Schrottartikel werden die WP fluten. --Ktiv (Diskussion) 08:28, 9. Jul. 2023 (CEST)Beantworten

...und wir werden es nicht aufhalten können. Computer können einfach viel größere Massen an Mist produzieren und von Dummköpfen verbreiten lassen als gewissenhafte Menschen aufräumen können. Das hat nicht vorrangig mit der jeweiligen Anzahl an Mneschen zu tun, mehr mit der Dauer der jeweiligen Aktivität. --AlturandD 18:03, 15. Jul. 2023 (CEST)Beantworten

Auswertung

[Quelltext bearbeiten]

Nur Option 4 würde ein Verbot bedeuten. Es steht aktuell also nur 76:72 für ein Verbot, die Sache ist also äußerst knapp, nicht dass hier jemand ein falsches Fazit zieht:-) --Vergänglichkeit (Diskussion) 16:02, 9. Jul. 2023 (CEST)Beantworten

Hier geht es nicht um eine Abstimmung (Wikipedia:Meinungsbild), sondern um eine unverbindliche Umfrage, die die Stimmung in der Community erkunden soll.--Mautpreller (Diskussion) 17:19, 9. Jul. 2023 (CEST)Beantworten
+1. Daneben ist ein KI-Verbot ein weitgehender Eingriff, bei der sicher eine 2/3-Mehrheit in einem MB gefordert würde. Und: Die Umfrage l#uft ja noch drei Wochen, da ist es sicher zu früh, ein Fazit zu ziehen.--Karsten11 (Diskussion) 17:23, 9. Jul. 2023 (CEST)Beantworten
Soweit erkennbar, beziehen sich die Befürworter mehr auf das Verwenden einer KI, um im Kern von Menschen recherchierte und von Menschen geschriebene Texte zu optimieren. Die Gegner sind v.a. gegen Texte, die von einer KI selbstständig geschrieben wurden, etwa indem dieser eine Frage gestellt oder ein Stichwort vorgegeben wurde. Insofern ist das, was befürwortet oder abgelehnt wird, nicht unbedingt dasselbe. Ob die Befürworter auch autonom von der KI geschriebene Texte befürworten, wird nicht deutlich. Zumindest hat das niemand explizit so ausgesprochen.--Meloe (Diskussion) 08:21, 10. Jul. 2023 (CEST)Beantworten
Ist ein sehr guter Hinweis für die Formulierung(en) in einem vllt. zukünftigen MB. Danke Meloe! --Henriette (Diskussion) 09:28, 10. Jul. 2023 (CEST)Beantworten
Ich denke außerdem, dass wir uns mit dem angesprochenen Problem noch einmal beschäftigen sollten, klar zu definieren, was mit „KI-Artikeln“ gemeint ist. Ich war in der Diskussion auf Karstens Diskussionsunterseite davon ausgegangen, dass damit Artikel gemeint sind, die (ohne oder mit nur geringer menschlicher Nacharbeit) inhaltlich von einem Computerprogramm generiert wurden, das (nach welchen Kriterien auch immer) als „KI“ eingestuft wird. Hier in der Umfrage ist in dem Zusammenhang nun noch das Thema maschinelle Übersetzung aufgekommen (was eigentlich erwartbar war) und natürlich der ganze Rattenschwanz hybrider Modalitäten, bei denen ein Mensch sich auf die eine oder andere Art von einem Computerprogramm unterstützen lässt. --Sabrieleauftistik (Diskussion) 10:09, 10. Jul. 2023 (CEST)Beantworten
Wenn man von "KI-Verbot" liest, dann fasse ich das so auf, dass jeglicher Einsatz einer KI verboten ist. Egal, ob der ganze Artikel von einer KI erstellt worden ist oder ob ich bloss eine KI "befrage", wie man diesen oder jenen Satz besser formulieren könnte. Und da ich gerade letzteres für begrüssenswert halte - und ich das zugegebenermassen schon tat - , kann ich einfach nicht für Option 4 stimmen, sondern muss zwangsläufig für Option 1 stimmen (Option 2+3 machen nur beim Ansatz "ganzer Artikel von KI erstellt" Sinn). --Filzstift (Diskussion) 12:08, 10. Jul. 2023 (CEST)Beantworten
Hinzu kommt die Frage, woran überhaupt ein angeblicher KI-Text LD-justiziabel dingfest gemacht werden soll. Bislang wurden hierzu nur Spekulationen und gefühlter Klang vorgetragen.
  • Das impliziert ja noch überhaupt nicht, wie bei umseitig Variante 1 die hypothetische Situation bewertet werden würde, falls KI-erstellte Artikel mit hinreichender Sicherheit als solche erkannt würden.
  • Abstimmungskommentare zu #1 verweisen darauf, dass mangels Erkennbarkeit das Regelwerk nicht um mangelhafte Regelungen zu nicht umsetzbaren Deklarationen erweitert werden soll.
Wer zurzeit einen Artikel-Haupttext komplett neu erstellt und danach manuell wesentliche Aussagen mit Einzelnachweisen dekoriert und insgesamt etwas Literatur/Weblinks zum Thema beigibt, kann nicht valide detektiert werden.
Die momentan frei verfügbaren Programme sind nur dafür konzipiert, den Haupttext zu erschaffen, nicht aber einen Nachweisapparat. Deshalb kommt da gaga raus, weil die genauso statistisch geraten werden wie die Frage, welche Schlagworte zu den umgebenden Schlagworten im Text und zur Gesamtaufgabe passen.
  • Sobald jemand den zusätzlichen Algorithmus programmiert, der eine Anzahl wesentlicher Aussagen identifiziert und zu diesen per Google-Suche aus einer lernenden Liste reputabler Herkünfte die Belege mit Suchtreffern für die Schlagwörter heraussucht, wird auch dieses Anzeichen meist nicht greifen.
Ohne eine Möglichkeit, einen KI-Text mit hinreichender Treffsicherheit als solchen zu identifizieren, bleibt diese Umfrage und erst recht jedes MB konsequenzenfrei. Kann man irgendwo eine Deklaration hinpinnen, dass KI unerwünscht wäre, aber Vorschriften die man nicht kontrollieren und durchsetzen kann sind sinnfrei. Gibt bei Unterstellungen höchstens Streiterei, weil die wo KI unterstellen das nachweisen müssten aber nicht können und die Erstellenden steif und fest Handarbeit behaupten.
  • Inzwischen haben an vielen Stellen des Planeten Forschende kleine Experimente veranstaltet, bei denen 100 Testpersonen je ein Dutzend Texte aus verschiedenen Gattungen vorgelegt bekamen, davon 6:6 oder 5:7 oder 7:5 usw. zufällig ausgewählt und online ohne menschliche Regung bei der Fragestellung anzukreuzeln.
  • Für Sachtexte zu existierenden Angelegenheiten kam dabei heraus, dass die Einschätzungen rein zufällig und willkürlich ausfielen, also die Hälfte der menschlichen Texte der KI zugeschrieben wurden und die Hälfte der KI-Texte als menschlich durchgingen. Das ist aber das Hauptgebiet unserer Artikel.
  • Bei gefühligen Angelegenheiten, Zukunftsfragen und weich-politisierend-politischen Fragen gelang die Erkennung besser. Allerdings wurde auch Psycho-Geschwafel nachweislich aus den 1980ern der KI zugeordnet, und leeres Gelaber ist kein Alleinstellungsmerkmal der KI.
  • KI-generierte Prosa und ungereimte Gedichte mit Namensnennung wurden überwiegend fälschlich den Menschen zugesprochen, wenn da Mörike oder Eichendorff oder Bertolt Brecht dranstand. Mit Reimen wurden Konstruktionen als zu abenteuerlich erkannt, aber auf manchen phantasievollen Reim scheint bislang kein Mensch gekommen zu sein.
  • Der Hype ist nagelneu und wurde erst dieses Jahr breit verfügbar. Nächstes Jahr werden sicher breitere wissenschaftliche Studien veröffentlicht, während dann die KI schon wieder dazugelernt hat.
VG --PerfektesChaos 22:38, 10. Jul. 2023 (CEST)Beantworten
"Nächstes Jahr werden sicher..." das hoffe ich aber sehr. -jkb- 22:55, 10. Jul. 2023 (CEST)Beantworten
+1; ich kann ja verstehen, dass viele für ein Verbot sind, aber ohne eine einfache Unterscheidbarkeit dürfte das in unschönen Diskussionen ausarten. Mehrheit hin oder her. --Morten Haan 🪐 Wikipedia ist für Leser da 00:32, 11. Jul. 2023 (CEST)Beantworten
Natürlich wird sich ein allgemeines Verbot nicht durchsetzen lassen, weil die Möglichkeiten, so etwas sicher zu erkennen, zur Zeit sehr gering sind und trotzdem mit aller Wahrscheinlichkeit nie wieder so gut sein werden wie heute. Darum geht es aber nicht. Ich halte dieses Verbot dennoch für notwendig, um gegen Leute und vor allem deren Artikel vorgehen zu können, die so etwas reihenweise und ohne weitere Überarbeitung (weil sie entweder keine Lust dazu haben oder nicht über die dazu nötigen sprachlichen Kenntnisse verfügen) einstellen. Solche Artikel würden heute wegen „verbessern statt löschen“ nicht oder erst nach einer längeren Löschdiskussion entfernt, und das wird sich ohne ein solches Verbot auch nicht ändern. Statt dessen werden sie notdürftig zusammengeflickt, sodass sie soeben formal durchgehen, und bleiben dann im ANR. Und das ziemlich sicher ohne eine irgendwie geartete inhaltliche Überprüfung. Das ist jetzt schon so, wir haben es oft genug bei automatischen Übersetzungen aus anderen Wikipedias gesehen. Ohne KI hat man dann Mengen von offensichtlich sehr schlechten Artikeln herumliegen, mit KI sind es Mengen gut formulierter sehr schlechter Artikel mit möglicherweise frei erfundenen Inhalten. --Senechthon (Diskussion) 01:06, 11. Jul. 2023 (CEST)Beantworten
Auch Schreiben im Interessenkonflikt ist nur per Indizienbeweis zuzuweisen, wenn es bestritten wird. Das heisst nicht, dass da nichts zu retten wäre. Für Schreiben im Auftrag gibt es eine Deklarationspflicht, mit Sanktionsmöglichkeiten bei Verstößen. Würde es die nicht geben, hätten wir exakt dieselben Probleme: Massenhaft Artikel mit dubiosen, schönfärberischen, falschen Inhalten, die die Reputation der Wikipedia als seriöse Informationsquelle zersetzen, bei (oft) formal relevanten Lemmata. Hinter diesen Leuten herzuräumen ist nicht nur arbeitsintensiv, sondern auch extrem unbefriedigend. Wenn nun das Erstellen (nicht das Überarbeiten) von Artikeln mittels KI verboten wäre, hätte das selbst dann einen Nutzen, wenn es nur selten zu Sanktionen käme. Es wäre klar ausgesprochen, dass das nicht geht, niemand könnte sich herausreden. Ein Account, der sich darauf spezialisieren will, riskiert nicht nur Reputationsverlust, er wäre ggf. verbrannt. Es geht doch nicht um einen oder drei Artikel. Es geht um Artikel in Serie. Alle wissen, dass die ggf. kommen werden, weil sie jetzt schon kommen, es kann nur Schlimmer werden.--Meloe (Diskussion) 09:00, 11. Jul. 2023 (CEST)Beantworten
Indizienbeweis ohne Indizien ist doch mal was Neues.
Bei „Schreiben im Auftrag“ gibt es handfeste Indizien, die eine Einstufung nahelegen:
  • Übermäßig beweihräuchernd.
  • Mehrere Artikel über Firmen, Einzelpersonen, Organisationen eher randständiger Relevanz, die diese positiv beleuchten.
  • Ein Artikel über eine lokale Rockgruppe oder einen Sportverein kann hingegen ohne Auftrag durch überenthusiastische Fans entstehen, ohne Kenntnis.
  • Ausschließlich Beschäftigung mit einer Einzelperson legt die Person selbst nahe, insbesondere wenn gewikistottert, oder geknechtete Dotoranden. Professionelle Wikifizierung als erster Artikel verweist auf Profis. Klassisch: IK ohne KI.
Grundsätzlich ist der entstandene Inhalt ansonsten für Verstöße gegen irgendwas maßgeblich.
Zu KI-Texten hat bislang noch niemand handfeste Kriterien vorgelegt.
  • Problem mit Belegen und Verweisen auf externe Referenzen sind momentan der einzige Anhaltspunkt. Das Schlagwort „Belegfiktion“ findet sich aber schon 2010 in unseren Erörterungen.
  • Wenn der generierte KI-Text ein wenig nachbearbeitet wird, die Abschnitte gegliedert, und ein eigener Belegapparat zu den wesentlichen Aussagen eingefügt wird, dann ist da wenig zum Spekulieren über.
  • Falls jemand noch eine Softwarefunktion nachrüstet, die aus einem Text die wesentlichen Aussagen rausfischt, schlicht zufällig alle zwei, drei, fünf Sätze einen Einzelnachweis einfügt, und diesen aus Google-Treffern reputabler Quellen zu den Stichwörtern des vorangehenden Satzes generiert, dann ist auch das relativ entdeckungssicher automatisiert.
„um gegen Leute und vor allem deren Artikel vorgehen zu können“ – dazu müsste es erstmal valide Verdachtsmomente, und den „Indizienbeweis“ geben.
Ansonsten kommt da nur eine Hexenjagd basierend auf wilde Spekulationen und blinde Anschuldigungen heraus, und Angriffe gegen alle echten Newbies.
VG --PerfektesChaos 12:32, 11. Jul. 2023 (CEST)Beantworten
Volle Zustimmung. Die Umfrage legt nahe, dass jeglicher KI-gestützte Text immer gelöscht werden müsse. Begründung: weil jede KI immer eine Mischung aus Wahrheit und Erfindung erzeuge. Diese Pauschalaussagen sind nicht einmal für ChatPT haltbar, auch wenn dieser Bot nachweislich viel wildes Zeug halluziniert und von seinem Einsatz für die WP dringend abgeraten werden muss. Solange ein Mensch die KI-Aussagen nachgeprüft hat und dann den korrekturgelesenen Text eingefügt hat, ist der Mensch für den Inhalt verantwortlich, und nicht die KI. Dass eine KI frei und eigenverantwortlich in der WP editiert, ist hoffentlich noch weit weg. --Enyavar (Diskussion) 14:18, 11. Jul. 2023 (CEST)Beantworten
Das Problem ist: jede KI schafft potentiell Mischungen aus Wahrheit und freier Erfindung, und sie ist technisch selbst noch nicht einmal in der Lage, dir oder mir zu sagen, welchen Teil sie woher hat. Ein KI-generierter Text ist nur dann für ein ernstzunehmendes Lexikon verwendbar, wenn der Benutzer, der diesen Text einstellen will, ihn vorher komplett anhand von ihm vorliegenden Quellen gegenprüft. Und zwar natürlich Quellen, die er sich erst suchen muss, die KI kann sie nicht liefern, sie weiß ja eben selber nicht, was sie woher hat. Selbst wenn wir das Missbrauchsrisiko ignorieren, was ist der Nutzen eines KI-generierten Textes? Wenn man ihn ernsthaft verwenden will, schafft er mehr fast Arbeit, als er Zeit spart.--SchreckgespenstBuh! 18:47, 24. Jul. 2023 (CEST)Beantworten

Ich halte es mit Henriette

[Quelltext bearbeiten]

Zitat, irgendwo weiter oben: Irgendwann ist dann wahrscheinlich auch die Zeit der WP abgelaufen und sie wird gekillt von einer Bot-Pedia. Nun denn, dann isses halt so. --Henriette (Diskussion) 16:23, 4. Jul. 2023 (CEST). Gut. --Augsburg (Diskussion) 00:54, 11. Jul. 2023 (CEST)Beantworten

Bis es soweit kommt, bin ich allerdings bei einer strikten Ablehnung von KI-/ChatGPT-Artikeln. Das nur zur Vervollständigung ;) --Henriette (Diskussion) 13:10, 11. Jul. 2023 (CEST)Beantworten
La Révolution est comme Saturne: elle dévore ses propres enfants. Guten Appetit, KI. --Augsburg (Diskussion) 23:23, 11. Jul. 2023 (CEST)Beantworten
Gefällt! :)) (Was lustig ist: Irgendwo mitten in der Diskussion dachte ich auch an dieses Zitat ;) --Henriette (Diskussion) 23:46, 11. Jul. 2023 (CEST)Beantworten
Es hat was von Neil Postman: „Fernsehen wurde nicht für Idioten erschaffen – es erzeugt sie.“ Prophetisch... --Augsburg (Diskussion) 00:26, 12. Jul. 2023 (CEST)Beantworten
Wenn es um Maschinen und KI in der Kunst und Kultur geht: Mich erinnert manches hin und wieder an Matrix (Film). MfG --Dirk123456 (Diskussion) 20:42, 20. Jul. 2023 (CEST)Beantworten

Urheberrecht

[Quelltext bearbeiten]

Hallo zusammen, ich hab mal eine Frage. Wie sieht das bei KI-generierten Texten mit dem Urheberrecht aus? Ich frage deshalb, weil man einen Artikel ja dann nicht selber schreibt. Aber wer hat dann das Urheberrecht?-14:14, 12. Jul. 2023 (CEST) --2A02:3031:9:94D0:B86C:268D:C89F:BCB9 14:14, 12. Jul. 2023 (CEST)Beantworten

Das Thema ist in der Diskussion. Maschinen können keine Urheberrechte beanspruchen (also eine Kamera hat keine Rechte an dem Bild, welches mit ihr gemacht wird). Aber Menschen können Urheberrechte beanspruchen, auch wenn die Werke mit Hilfe von Maschinen erstellt wurden (der Fotograf wählt Bildausschnitt und Blende und schafft dadurch das Werk). Das lässt sich grundsätzlich auch auf KI übertragen. Künftig könnte auch eine Gesetzesänderung erfolgen und der Schöpfer der KI könnte Urheberrechte erhalten. Hier kommt aber noch dazu, dass die KI mit Daten trainiert wird. Diese sind oft urheberrechtlich geschützt. Wenn Du nun einer KI sagst: Schaffe ein Bild im Stil der Künstlers X, könnte man argumentieren, dies sei eine Urheberrechtsverletzung vorliegt oder eben auch anders, dass das eine Art "Zitat" vorliegt. Belastbare Aussagen kann man derzeit nicht machen, weil die Technik jetzt erst breit ausgerollt wird und es noch wenig gerichtlichen Beurteilungen zum Thema gibt.Karsten11 (Diskussion) 18:40, 12. Jul. 2023 (CEST)Beantworten

Schlechte Übersetzungen

[Quelltext bearbeiten]

Guten Tag, gelegentlich haben wir mit gefühlten Grenzfällen zu KI-Generierten Artikeln zu tun. Insbesondere handelt es sich dabei um schleche Übersetzungen, die vermutlich auf den Googletranslator oder ähnliche Werkzeuge zurück gehen.

Wie soll man damit umgehen? Das ist in der Tat für mich eine "Gretchenfrage". Zum einen können wir froh sein wenn sich neue Autoren, die hier Artikel einbringen zum anderen erzeugen solche Artikel unerspriesliche Notwendigkeit zu Nacharbeit sofern die Relevanz des Artikelinhaltes nicht schon vorab fraglich ist. Aus dem Bauch heraus neige ich hier zu Nachsicht und finde es wichtiger den Nachwuchs von Wikipedia im Sinne von Fördern und Fordern an Bord zu behalten ... sofern wenigstens etwas Potential wahrscheinlich ist. Eine KI wurde uns vermutlich so minderwertige Artikel nicht anbieten.

Da die Umfrage noch etwas läuft, gern auch die Meinung von Benutzer:Auf Maloche der zuletzt auf Diskussion:Motorisiertes Tauchkanu einen solchen Fall kommentiert hatte. Grüße --Tom (Diskussion) 13:51, 13. Jul. 2023 (CEST)Beantworten

Ich bin, was schlechte Übersetzungen angeht, äußerst genervt, gerade auch aus dem Bereich Seefahrt, wo ein Benutzer in der Vergangenheit serienweise Artikel durch teils grausige Übersetzungen verschlimmbessert hat (inzwischen scheint er wenigstens die Fachausdrücke zu erkennen, an denen Maschinenübersetzungen meist scheitern, aber ich schaue schon gar nicht mehr hin, wenn ich den Namen auf den letzten Änderungen erscheinen sehe. Als kreislaufpatient muss ich mich nicht vorsätzlich ärgern.). Das Beispiel Junk = Müll (richtig wäre in dem Fall aber Dschunke) ist natürlich besonders hübsch falsch und ein typisches Indiz für ein Übersetzungsprogramm. Meine persönliche Tendenz bei erkannten Maschinenübersetzungen wie auch bei KI-Artikeln wäre sofortige Schnelllöschung, damit kein Benutzer seine Zeit mit erzwungenen Rettungsversuchen verschwendet und der Produzent des Aufwandes sich nicht noch mit der Neuanlage des Lemmas berühmen kann.--Auf Maloche (Diskussion) 14:10, 13. Jul. 2023 (CEST)Beantworten
Das kann ich gut verstehen; ja lieber Auf Maloche ich kann's sogar sehr gut verstehen und teilen !!!
Problematisch in solchen Fällen ist halt der Fleiß anderer Kollegen, die meist in Windeseile erste Verbesserungen in solchen Artikeln vornehmen. Wenn es eine Möglichkeit geben würde solche Fälle innerhalb der ersten 3 Stunden zu entsorgen, dann würde ich sofort zustimmen. Wie man solche Fälle bei Importartikeln verhinderm kann (z.B. auch auf dem Umweg des BNR von gewissen Autoren eingeliefert) entzieht sich allerding meiner Kenntnis. Grüße --Tom (Diskussion) 15:19, 13. Jul. 2023 (CEST)Beantworten
Bedauerlicherweise haben nicht wenige Benutzer ein völlig übertriebenes Vertrauen in die Qualität maschineller Übersetzungen von Texten. --pretobras (Diskussion) 17:38, 13. Jul. 2023 (CEST)Beantworten
+1 und Preisfrage wo finde ich folgenden Text:
„Schreibenden fallen manche Schwächen des Geschriebenen oft erst auf, wenn sie den Text lesen, als hätte jemand anders ihn geschrieben, und ihn so lesen, als hätte man nur wenig Ahnung von dem Thema. Das können aber andere manchmal besser. Daher muss sich niemand schämen oder angegriffen fühlen, wenn Änderungen vorgeschlagen werden. Im Gegenteil dokumentiert dies ein Interesse am Thema und ist oft die fruchtbarste Quelle für Verbesserungen.“
Gefunden? Richtig, das steht ganz oben in WP:GUT. Irgendwo stand auch mal (sofern ich mich richtig erinnere), dass es besser ist über Themen zu schreiben, von denen man eine Ahnung (oder besser Fachkenntnis) hat. Inzwischen spielt das anscheinend keine Rolle mehr. Demzurfolge müssen wir für die Ergebnissen einen Weg zum Umgang denselben finden.
Für Artikel von Menschen für Menschen kann man diese Last einschätzen und ggf. tolerieren. Für Artikel von KI ist diese Last nicht absehbar und mit Sicherheit nicht zu bewältigen. --Tom (Diskussion) 18:23, 13. Jul. 2023 (CEST)Beantworten
Also ich hab noch keine maschnelle Übersetzung gesehen, die – ohne entsprechende Überarbeitung – gut genug für unseren ANR wäre. Die Antwort auf die Frage lautet Löschen. --Morten Haan 🪐 Wikipedia ist für Leser da 21:00, 13. Jul. 2023 (CEST)Beantworten
Sehe ich genau so. Eine fehlerhafte maschinelle Übersetzung kann man aus Qualitätsgründen nicht einfach stehen lassen und damit die Reputation der WP beschädigen. Das ist hier ein Projekt zur Erstellung einer Enzyklopädie und kein therapeutischer Kindergarten. Wenn ich Zeit und Lust habe, schreibe ich den verunglückten Text neu, ansonsten wird er gelöscht. --Jossi (Diskussion) 21:26, 13. Jul. 2023 (CEST)Beantworten
@Morten Haan & Jossi & pretobras & Auf Maloche dann seid bitte auch konsequent und lasst es sehen in: Wikipedia:Löschkandidaten/24._Juni_2023#Valmara_69_(LAE_1_&_2)
Wikipedians only in Name (WPON) können nämlich in solchen Fällen nicht helfen. LG --Tom (Diskussion) 12:21, 14. Jul. 2023 (CEST)Beantworten
Der fragliche Artikel ist jedenfalls sprachlich weitgehend in Ordnung. Ob er sachliche Fehler enthält, kann ich nicht beurteilen, da kein Minenexperte. Dass dein Löschantrag daneben war, ist dir auf der Löschdiskussion ja ausführlich erklärt worden. Also hier bitte keine BNS-Aktionen. --Jossi (Diskussion) 12:30, 14. Jul. 2023 (CEST)Beantworten
Witzig; oder auch nicht. Sprachlich in Ordnung und inhaltlich falsch (Ja das kann ich in diesem Fall beurteilen.) Die Leserschaft dankt, denn genau sowas können wir demnächst von KI geliefert bekommen. --Tom (Diskussion) 12:58, 14. Jul. 2023 (CEST)Beantworten
So etwas können wir aber nicht nur von KI, sondern auch von Menschen geliefert bekommen. Wollen wir jetzt Artikel von Menschen auch verbieten, weil sie inhaltlich falsch sein könnten?
Sollte die Frage, ob es inhaltlich richtig oder falsch ist, nicht viel wichtiger sein als die Einschätzung, ob der inhaltlich falsche Text nun von einer KI oder einem Menschen stammt? --Eulenspiegel1 (Diskussion) 20:59, 14. Jul. 2023 (CEST)Beantworten
Das Problem ist, wenn Texte ungeprüft von einem Übersetzungstool oder einer KI hier eingestellt werden. Dann gibt es nämlich keinen, der für den Inhalt veranwortlich ist. Eventuell hat der „Autor“ den Text sogar ungelesen kopiert, weiß dann noch nichtmal, ob dieser korrekt ist. --Morten Haan 🪐 Wikipedia ist für Leser da 21:49, 14. Jul. 2023 (CEST)Beantworten
Jedes Konto ist für die Texte verantwortlich, die es einstellt. Wenn ein Konto mehrmals falsche Texte einstellt und auch auf Ansprache sein Verhalten nicht ändert, würde ich es sperren lassen. Unabhängig davon, ob der Kontoinhaber den falschen Text selber erstellt hat oder behauptet, es von einem Übersetzungstool bzw. einer KI erhalten zu haben. --Eulenspiegel1 (Diskussion) 22:44, 14. Jul. 2023 (CEST)Beantworten
Kann man schlecht übersetztte Texte eigentlich, ohne gleich einen Löschantrag zu stellen, in den BNR des Benutzers zurückschieben mit der Auflage, ihn erst einmal reif für eine Veröffentlichung zu machen? --bjs Diskussionsseite 21:50, 15. Jul. 2023 (CEST)Beantworten
Ja Benutzer:Bjs das kann man durchaus. Es gibt sogar regelrechte Sammelstellen wie Benutzer:Artikelstube und Benutzer:Artikelwerkstatt für dauerhaft defizitäre Autoren. Es gibt auch Benutzer mit Auflagen, die Artikel nur im BNR vorbreiten dürfen, wenn eben Ermahnung dauerhaft nicht gewirkt hat. Es ist üblich, zunächst den Benutzer selbst um Verbesserungen zu bitten. Wenn Ansprachen mehrfach/länger unfruchtbar bleiben, dann sind solche Maßnahmen völlig normal. LG --Tom (Diskussion) 19:37, 17. Jul. 2023 (CEST)Beantworten

Möglicher Grund für zahlreiche Befürworter der Variante 4

[Quelltext bearbeiten]

Vielleicht wollen Mitglieder der WP-Community den Einsatz von KI verhindern, weil sie bewusst oder unbewusst ihre Arbeit durch KI bedroht fühlen. Dabei könnte KI als Werkzeug eine positive Rolle spielen, nicht nur bei der QS (siehe auch "Chancen der KI"), sondern auch beim Erstellen/Bearbeiten von Artikeln durch Users guten Willens. --BBCLCD (Diskussion) 12:55, 22. Jul. 2023 (CEST)Beantworten

Hast du die teils ausführlichen Begründungen gelesen, die zu Nr. 4 angeführt wurden? --Alazon (Diskussion) 13:17, 22. Jul. 2023 (CEST)Beantworten
Jawohl, habe viele gelesen. Bei meinen Versuchen mit dem neuen BING von Microsoft (Suchmaschine BING + ChatGPT + Modell Prometheus) habe ich neben positiven Resultaten wie gut formulierten Sätzen und mir bisher unbekannte Quellen auch Negatives festgestellt wie klar fehlerhafte Aussagen. Mit etwas Aufwand kann ein menschlicher Editor jedoch solche Hilfsmittel gut gebrauchen.--BBCLCD (Diskussion) 08:57, 23. Jul. 2023 (CEST) Das neue BING von MSBeantworten
Mir scheint, dann sprichst du aber nicht von "Texten in der Wikipedia, die von Bots erzeugt wurden"? --Alazon (Diskussion) 11:53, 23. Jul. 2023 (CEST)Beantworten
Die Umfrage betrifft auch Artikelteilinhalte, welche mit Hilfe von KI erstellt wurden, nicht nur komplett von Bots erzeugte neue Artikel.--BBCLCD (Diskussion) 12:47, 23. Jul. 2023 (CEST)Beantworten

Inhalt beurteilen, statt Herkunft erraten

[Quelltext bearbeiten]

Hallo, vielen Dank für die Umfrage!

|  Zum Beitragsende↓  |

Das Thema „Umgang mit KI“ bereitet einiges Kopfzerbrechen. Man kann sich auf KIs nicht blindlinks verlassen; man kann sie aber auch nicht ignorieren. Einige Probleme kennen wir auch schon ohne KI, bspw., dass Quellen als Belege für Aussagen fehlen oder unsauber zugeordnet werden. Dass manch ein Begriff von Autoren und Autorinnen vielleicht anders verstanden und deshalb anfangs auch anders dargestellt wird, als er ursprünglich – außerhalb der Wikipedia – gedacht war, kommt vor. Dass nicht immer sämtliche Fakten bekannt sind und daraus vereinfachte Darstellungen resultieren, kennen wir auch.

Was bei einer KI – bspw. bei ChatGPT – vielleicht neu ist, ist das „Halluzinieren“. Da taucht dann in einem Text, der insgesamt solide formuliert ist, plötzlich totaler Unfug auf. Den mutwilligen Beitrag von Unfug gibt es aber auch bei Menschen: Vandalismus (WP:VAND). Und unfreiwillig? Vielleicht ist ein Phänomen, bei dem Fakten erfunden werden, doch gar nicht so neu; denn auch Menschen neigen dazu, eine Brücke zwischen den Wissenslücken bauen zu wollen: Theoriefindung (WP:TF).

Sollten wir nun mit KIs grundsätzlich anders umgehen als mit Menschen? Meiner Ansicht nach: Ja. Sollten wir mit einem beigetragenen Artikel-Inhalt letztlich anders umgehen, wenn er von einer KI generiert worden ist, als wenn er direkt von einem Menschen erzeugt wurde? Meiner Ansicht nach: Nein.

Eine KI ist nach bisherigem Stand keine Persönlichkeit. Sie ist also – nach meiner Auffassung – so zu behandeln wie jedes andere Hilfsmittel, welches von einer Wikipedianerin oder einem Wikipedianer eingesetzt wird. Ziel ist enzyklopädischer Inhalt, der Qualitätskriterien genügt. Die Verantwortung liegt in erster Linie bei der Autorin oder dem Autor, die oder der den Inhalt bereitstellt und in zweiter Linie liegt sie bei der Community.

Wir können nur sehen, was am Ende im Artikel steht und wer den Artikel-Inhalt bereitgestellt hat, aber nicht, wie und wodurch er genau erzeugt wurde.

Ich tendiere zu Variante 1, kann mit den Varianten 2 und 3 nicht allzu viel anfangen und bin ziemlich gegen Variante 4, da ein Verbot von etwas dessen zuverlässige Erkennung voraussetzen würde.

Im Folgenden gehe ich auf die Auswahlpunkte der Umfrage einzeln ein.

Auswahlpunkt >>Ich bin für Variante 1 (Status quo: Das Regelwerk reicht aus)<<

Die Formulierung: „Status quo: Das Regelwerk reicht aus“ hat etwas Suggestives: Sie gibt vor, dass alles OK wäre, wenn man es so lässt, wie es ist.

Ich bin zwar nicht der Meinung, dass das Regelwerk ausreichen würde, um die Probleme mit KIs zu bewältigen, halte aber gegenwärtig ein Festhalten an einer Art „Status quo“ in dem Sinne für sinnvoll, dass wir nur Artikel-Inhalte an sich begutachten. Wir sollten Mutmaßungen darüber, welche Hilfsmittel die Autorinnen und Autoren genutzt haben mögen, um diese Artikel-Inhalte bereitzustellen, meiner Meinung nach keinesfalls als Grundlage einer Bewertung für die letztlich vorliegenden Inhalte einsetzen.

Für mich wäre es also eher so: „Status quo: Das Regelwerk reicht zwar nicht aus, um alle Probleme mit KI zu lösen; wir hätten aber bei einer Änderung des Regelwerks ohne eine solide Grundlage viel größere Probleme als bisher“.

Auswahlpunkt >>Ich bin für Variante 2 (Deklarationspflicht für KI-generierte Texte)<<

Eine Deklarationspflicht würde meiner Ansicht nach eine Überforderung unseres Verwaltungssystems nach sich ziehen. Müsste jemand es denn schon deklarieren, wenn sie oder er nur einen einzelnen Satz von einer KI überprüfen ließ, weil dieser Satz der oder dem Schreibenden „krumm“ vorkam und die Ungereimtheit eine kleine grammatische Korrektur nach sich zog? Wo fängt KI eigentlich an? Gegenwärtig ist es ChatGPT, aber zeigt der Google Übersetzer oder die Rechtschreib- und Grammatikprüfung in MS Word nicht auch schon Anzeichen für Eigenschaften von KI auf?

Auswahlpunkt >>Ich bin für Variante 3 (aus dem ANR verschieben und nur dann behalten, wenn sie jemand „adoptiert“)<<

Wenn jemand zur Überschrift für Variante 3 kein Vorwissen über den Kontext hätte, nämlich, dass „ANR“ den Artikelnamensraum meint und sich das kleine Wörtchen „sie“ in der Überschrift aus diesem Grunde wohl auf bestimmte Wikipedia-Artikel beziehen wird, könnte man als Lesende oder Lesender auch annehmen, dass es so gemeint wäre: Die „Variante 3“ soll aus dem ANR verschoben und „adoptiert“ werden.

Eine KI würde die isolierte Textpassage (also die Überschrift für Variante 3) vielleicht so interpretieren: „sie = die Variante 3“, während ein Mensch, der mehr oder weniger den gesamten relevanten Text der Website gelesen hat und das Thema begreift, darüber hinwegsieht, dass seine favorisierte Zuordnung: „sie = die Wikipedia-Artikel“ eigentlich aus der isolierten Textpassage nicht abgeleitet werden kann; es wird aber dennoch von ihm richtig verstanden.

Aber wer weiß schon, wie KIs genau denken und wie andere Menschen?

Ich würde nur nach enzyklopädischer Qualität gehen:  + Wenn ein Wikipedia-Artikel von einer KI geschrieben wurde und schlecht ist, sollte dieser Artikel natürlich nicht im Artikelnamensraum bleiben  + und wenn ein Wikipedia-Artikel von einem oder mehreren Menschen geschrieben wurde und schlecht ist, sollte dieser Artikel natürlich nicht im Artikelnamensraum bleiben  + und wenn … sowohl von Menschen … als auch KIs …

Auswahlpunkt >>Ich bin für Variante 4 (Komplettverbot KI-generierter Texte)<<

Ich glaube nicht, dass ein Verbot funktioniert. Der Hauptgrund dafür ist das, was von @PerfektesChaos (10:10, 1. Jul./ unter Variante 1) zusammengefasst wurde und was ich nicht besser beschreiben könnte:

„Da wir auch nicht die allergeringste Möglichkeit haben, einen ursprünglich mal KI-generierten und ggf. noch menschlich nachbearbeiteten Text zu erkennen und von anderen zu unterscheiden, sind auch jegliche Regeln für diesen Fall völlig sinnfrei.“

Auswahlpunkt >>Weitere Anregungen<<

Ich habe eigentlich keine besonders schlüssige Idee für den Umgang mit KIs.

Fakt ist, dass man KIs „als Personen“ nicht direkt ansprechen kann. Es ist in Bezug darauf ähnlich wie bei anonymer Nutzung. Ich überlege schon seit geraumer Zeit, ob es nicht sinnvoll wäre, den Artikelnamensraum für anonyme Bearbeitungen komplett zu sperren, um die Verantwortung für Inhalte immer adressieren zu können. Das ist wahrscheinlich nicht sinnvoll; es spricht so einiges dagegen. (Es würde in dieser Umfrage aber zu weit führen, alles zu diesem Thema zu erörtern).

Jedenfalls hätte man – wenn man sich immer mit dem Benutzernamen anmelden müsste – bekannte Personen, die man darauf ansprechen könnte, wo ein Artikel herkommt, ob der Artikel verschoben werden sollte und wer ihn ggf. „adoptiert“ (s. Variante 3). Wenn eine KI aber von einer anonymen Person auf den „Artikelnamensraum losgelassen“ wird, kennt man niemanden, den man auffordern könnte, die KI „an die Leine zu nehmen“.

Auswahlpunkt >>Ablehnung der Umfrage<<

Ich sehe es ähnlich wie @Quant (12:43, 11. Jul./ unter „Ablehnung der Umfrage“), der schrieb: „Für mich passt keine der Optionen“. Am ehesten trifft aus meiner Sicht noch Variante 1 zu, wenngleich ich moniere, dass „Status quo“ für mich nicht heißt, dass alles in Ordnung wäre.

Aus meiner Sicht fehlen in der Umfrage die „Kontra“-Punkte. Zum „Pro“-Punkt:

„Ich bin für Variante 4 (Komplettverbot KI-generierter Texte)“

gehört meiner Ansicht nach auch mindestens ein „Kontra“-Punkt, der in einer einfachen Form so lauten könnte:

„Ich bin gegen Variante 4 (Komplettverbot KI-generierter Texte)“.

Eigentlich bin ich aber für ein gegenteiliges Komplettverbot: Es sollte meiner Ansicht nach prinzipiell nicht ausreichend sein, administrative Konsequenzen (z. B. Löschungen) lediglich durch Mutmaßungen über den Einsatz von KI zu begründen.

Vielleicht ist ja Variante 1 (Status quo beibehalten) schon irgendwie eine Art „Kontra“ zu Variante 4. Aber heißt „Status quo“ wirklich, dass nicht schon gelegentlich der subjektive KI-Verdacht herangezogen wird, um damit etwas zu begründen?

Bei dem Beispiel-Text im gelöschten Artikel „Babousa“ (Abschnitt Benutzer:Karsten11/KI-generierte Artikel#Erkennung von KI-Verdachtsfällen) ist es eigentlich egal, ob ChatGPT einen erkennbaren „Sound“ hat: Es fehlten in „Babousa“ sämtliche Quellen-Angaben und dadurch erreichte der Artikel-Inhalt die Mindestanforderungen nicht.

Ich finde es OK, wenn ein KI-Verdacht herangezogen wird, um sich genauer mit dem Inhalt eines Artikels zu beschäftigen und ggf. Mängel aufzudecken, die dann ggf. Konsequenzen nach sich ziehen.

  • Also in der Form:    Artikel sieht aus wie KI → wird genauer unter die Lupe genommen → zeigt massive Mängel (z. B. vollständiges Fehlen von Quellenangaben) → … → wird gelöscht.

Ich fände es aber nicht OK, wenn ein Verdacht ausreichen würde, um Konsequenzen nach sich zu ziehen.

  • Also nicht in dieser Form:    Artikel sieht aus wie KI → ist also automatisch KI → hat also automatisch Mängel, die man nicht extra herausfinden muss → … → wird gelöscht.

Ich weiß, das ist hier erst mal nur eine Umfrage und noch kein Meinungsbild. Ich befürchte aber, dass Variante 4, ein Komplettverbot für KI, den Druck erhöhen würde, KI unbedingt entdecken zu wollen.

Bei einem Komplettverbot für KI beträfe das ja sicherlich auch die Analysemethoden für Text, die jemand mit erweiterten Rechten anwenden dürfte, um KI ausfindig zu machen.

Gesetzt den Fall, Variante 4 (o. ä.) würde bei einem Meinungsbild gewinnen: Müsste dann jemand, der oder die als Admin kandidieren möchte, in seiner oder ihrer Bewerbung künftig seine oder ihre „besonders guten Ohren“ für den „Sound“ einer KI erwähnen, um erfolgreich zu sein? Ein „Hörgerät auf KI-Basis“ dürfte er oder sie ja eher nicht verwenden. Oder?

So wie ich es bisher mitbekommen habe, sollen KIs wie ChatGPT uns bei der Verarbeitung von Zeichenketten, dem Imitieren von Schreibstilen u. ä. turmhoch überlegen sein.

Unter …#Erkennung von KI-Verdachtsfällen steht, dass KI

  • „sprachlich einwandfrei formulierte, aber gleichförmige Sätze“

formulieren würde. Aber ist das nicht genau das, was einen Artikel in einem professionellen Nachschlagewerk ausmacht?

Wenn Perfektion vermieden werden soll, kann man ChatGPT wohl auch bitten, absichtlich Fehler zu machen (drei Komma-Fehler pro Seite oder so). Was würde denn passieren, wenn uns das Entdecken von KI wichtiger wäre als der enzyklopädische Stil? Würden die Leute künftig versuchen, sich lieber als „unbegabte Schreiber“ mit einem „irgendwo immer unverwechselbaren“ Stil (s. …#Erkennung von KI-Verdachtsfällen) einstufen zu lassen, als dass sie versuchen würden, möglichst perfekte Inhalte zu liefern?

Ich bin nicht sicher, ob nicht die eine oder andere Person genau deshalb KI einsetzen würde, um „sprachlich einwandfrei formulierte, aber gleichförmige Sätze“ zu verhindern, weil sie sonst Gefahr laufen könnte, als KI-Anwenderin oder -Anwender eingeordnet zu werden.

Ich schwanke hin und her, ob ich die Umfrage hier ablehnen sollte, weil ich Ergebnisse befürchte, die zwar gut gemeint sind, aber vielleicht das Gegenteil von „gut“ bewirken könnten, wenn wir nicht sehr aufpassen.

Gegen eine Ablehnung spricht zwar, dass das hier erst einmal noch kein Meinungsbild ist, sondern nur eine Umfrage; für eine Ablehnung spricht aber, dass ein Meinungsbild auf dieser Umfrage fußen würde, wobei der zugrunde liegenden Umfrage Auswahlpunkte fehlen, die meiner Ansicht nach wichtig wären, um Subjektivität beim Umgang mit KI zu vermeiden.

Meine bisherigen Schlüsse

Vielleicht sehe ich es übertrieben: Aber sollte sich Variante 4, das „Komplettverbot KI-generierter Texte“ (o. ä.), in einem Meinungsbild behaupten, behaupte ich mal, dass wir auch gleich die Wikipedia komplett verbieten könnten.

Man würde aus meiner Sicht schon jetzt – aber künftig im noch größeren Umfang – kaum Werkzeuge finden können, die wirklich kein bisschen KI enthalten würden und sich trotzdem zum Verfassen von brauchbaren Artikelinhalten eignen. Es ist schwierig zu definieren, wo KI überhaupt anfängt: Ist es schon die Rechtschreib- und Grammatikprüfung in MS Word, die Suchmaschine Wolfram Alpha, der Google Übersetzer? Das wird künftig nicht einfacher. Reicht es, wenn man keine Texte aus KI-verdächtigen Anwendungen direkt kopiert oder dürfen auch keine Texte verwendet werden, die man nachbearbeitet hat oder die sogar lediglich Informationen berücksichtigen, die man durch die Nutztung KI-verdächtiger Anwendung gefunden hat?

Wenn man einen Wikipedia-Artikel-Inhalt prüfen möchte, betrachte ich die Vorgehensweise als eher ungeeignet, nach Mustern für KI-generiertem Text zu suchen, statt sich den Inhalt selbst anzusehen.

|  Zur Überschrift↑  |

MfG --Dirk123456 (Diskussion) 15:07, 22. Jul. 2023 (CEST)Beantworten

Danke dir Dirk, besser könnte ich es nicht beschreiben! --Dwain 12:20, 23. Jul. 2023 (CEST)Beantworten
Ich stimme der obigen Analyse weitgehend zu. Manche mögen zwar meinen, dass Perfektes Chaos mit seiner Analyse zur Erkennbarkeit übertreibe, aber ich stimme ihm zu: einen von einer nicht allzu unfähigen KI erstellten und von einem halbwegs erfahrenen Autoren überarbeiteten bzw. verschleierten Artikel werden wir niemals mit hinreichender Sicherheit als solchen erkennen können. Da können wir uns Regeln ausdenken wie immer wir wollen, das werden wir einfach dulden müssen, ob deklariert oder nicht. Natürlich wird Fakten- oder Belegfiktion erkannt werden können, aber leider beschränkt sich so etwas nicht auf KIs, und das wird in Zukunft auch nicht besser werden. Wahrscheinlicher ist es, dass wir in wenigen Jahren für solche Fälle die KI Generierung ausschließen können werden, zumindest für den entsprechenden Abschnitt bzw. Beleg (es sei denn, es wurde der KI in der Anfrage so vorgegeben). Trotzdem bin ich der Meinung, dass Alternative 4 vielleicht schlecht formuliert sein und auch ungelöste Probleme haben mag, sie von den vier genannten Alternativen aber die einzig sinnvolle ist (Alternative 3 ist zwar praktisch das gleiche, aber eben mit viel mehr Aufwand. Ich würde da keine Patenschaft übernehmen, weil ich es einfacher fände, neu zu schreiben).
Warum also Alternative 4? Weil ich denke, dass von Autoren überarbeitete oder auch nur überprüfte KI-Artikel die Minderheit sein werden, vermutlich sogar deutlich. Nach dem, was ich bei „Übersetzungen“ bereits gesehen habe (fremdsprachigen Artikel nehmen, in Google-Translate stecken, komplizierte Abschnitte sowie Einzelnachweise entfernen, schon weil es zu lange dauert, das anzupassen, und der „Artikel“ ist fertig. So kann man auch mal locker mehr als fünf „Artikel“ pro Tag anlegen, und das wurde auch gemacht) denke ich, dass wir so etwas auch mit KI-Ergebnissen bekommen werden: Eine halbwegs gute Anfrage an die KI formulieren, dann das Thema des geplanten Machwerkes in die Anfrage kopieren, generieren lassen, Ergebnis in die Wikipedia einstellen und fertig. Ich möchte gar nicht wissen, wie viele solche Abgaben eine Person pro Tag leisten können wird. Und es ist zu beachten, dass die KIs ihr Ergebnis zwar bisher nicht so liefern können, dass es den hiesigen Formatgepflogenheiten entspricht, es aber prinzipiell ein vergleichsweise triviales Problem ist, ihnen das beizubringen. Das heißt, es wird in naher Zukunft möglicherweise nicht so einfach sein, so etwas zu erkennen. Wenn ich zudem daran denke, wie schwierig es bei den Übersetzungen war, diese wieder gelöscht zu bekommen – auf die meisten wurde wegen Aussichtslosigkeit nicht einmal ein Löschantrag gestellt – lege ich großen Wert darauf, dass das bei unbearbeiteten KI-Artikeln anders sein wird. Der Aufwand, sie zu löschen, sollte nicht größer sein als der beim Erstellen. Außerdem hätte ich gerne, dass denjenigen, die so etwas betreiben, ohne den geringsten Zweifel von Anfang an klar ist, dass sie damit etwas eindeutig Unerwünschtes tun. Manche Übersetzer haben zumindest so getan, als ob sie der Meinung gewesen wären, der Wikipedia damit zu helfen. --Senechthon (Diskussion) 15:18, 23. Jul. 2023 (CEST)Beantworten
Hallo @Senechthon, danke für deine ausführliche Darstellung (15:18, 23. Jul.)!
|  Zum Beitragsende↓  |
Im Grunde liegen wir gar nicht so weit auseinander, wenngleich ich bei einer binären Entscheidung bei Variante 1 lande (s. Vorderseite) und du bei Variante 4 (s. ). Wir sehen beide ähnliche Gefahren, gewichten sie aber etwas unterschiedlich. Du siehst mehr die Gefahr, dass viele es sich zu einfach machen und nur auf einen „Knopf drücken“, der den Titel: „Übersetze mir alles gebrauchsfertig“ haben könnte oder gar: „Schreibe mir einen Wikipedia-Artikel“. Ich sehe mehr die Gefahr, dass genau deshalb einige von uns unter Druck geraten könnten, sehr viel sehr schnell zu löschen.
Bei einer Richtlinie, die fordert, dass keine Texte verwendet werden dürfen, die ausschließlich durch KI erzeugt worden sind, d. h., dass sie anschließend keinerlei Prüfung und ggf. eine Anpassung erfahren haben, hätte ich weniger bedenken, als wenn man alles verbieten wollte, was irgendwie etwas mit KI zu tun haben könnte. Ich hätte – salopp ausgedrückt – weniger Probleme mit einem „Verbot komplett KI-generierter Texte“ als mit einem „Komplettverbot KI-generierter Texte“. (Für einen Auswahlpunkt in einem Meinungsbild wäre meine Formulierung im vorausgehenden Satz sicher zu ungenau und daher nicht geeignet.)
Ich weiß – glaube ich – ungefähr, was du meinst, wenn du schreibst: „Manche Übersetzer haben zumindest so getan, als ob sie der Meinung gewesen wären, der Wikipedia damit zu helfen.“ Es gibt dieses unbändige Verlangen, einen Zauberstab in der Hand zu halten. Früher hätte man gesagt: „Es steht doch schwarz auf weiß da!“ und wenn heute jemand etwas bei Google eingibt, dann präsentiert der erste Treffer für manch einen die absolute Wahrheit.
Wenn man sich die Sachen im Ergebnis genauer ansieht, lässt sich erkennen, dass man nichts ohne Nachkontrolle glauben kann. Die meisten Erfahrungen habe ich da gegenwärtig mit dem Google Übersetzer, dem ich nicht selten deutsche und englische Texte „anvertraut“ habe. Wirklich „anvertraut“ habe ich ihm eigentlich nichts, da ich keine Übersetzung ungelesen und nicht korrigiert irgendwo als solide und richtig „verkauft“ habe.
Bei der Auswertung solcher automatischen Übersetzungen habe ich dann bemerkt, dass es vor einigen Jahren besser war, dem Übersetzer nur einzelne Sätze anzubieten (Absatzmarken hinter jedem Satz), während es zunehmend besser wurde, wenn man ganze Absätze anbot. In letzter Zeit habe ich festgestellt, dass die Anrede, bspw. beim Übersetzen von Gebrauchsanweisungen, des Öfteren zwischen „du“ und „Sie“ wechselt, wenn ein Text ins Deutsche übersetzt wurde. Das verschiedenartige Gendern dürfte sich auch bald auswirken. Hängt wohl alles vom Trainingssatz ab. Vermute ich. Ich kann da aber nicht „reingucken“. Seltsam fand ich es einmal, als mir das Wort „Frau“ plötzlich mit „г-ша“ o. ä. ins Russische übersetzt wurde (wahrscheinlich Geisha), statt mit „жена“ oder „женщина“ o. ä.
Die Erfahrung, welche @Mautpreller mit DeepL gemacht hat (Beitrag 13:52, 2. Jul./ unter #Computergenerierte Artikel), dass das Fehlen des Wörtchens „nicht“ eine Aussage ins Gegenteil verkehren kann, zeigt ebenfalls, dass eine automatische Übersetzung „richtig falsch“ sein kann.
Das „Halluzinieren“, mit welchen man jetzt Phänomene bei KI bezeichnet, scheint mir auch schon beim Übersetzen begegnet zu sein: Es wurden Texte aus dem Englischen in einer Qualität ins Deutsche übersetzt, die ich an den meisten Stellen nicht verbessern konnte, aber irgendwo zwischendrin stand totaler Unfug.
Schön, wenn sich das Ergebnis prüfen lässt.
Ich schreibe das alles, um zu zeigen, dass so ein „Versteckspiel“ jemanden vielleicht auch ein wenig süchtig machen könnte: Man läuft dann sozusagen um eine „Blackbox“ herum und versucht „Astlöcher“ zu finden, durch die man blicken oder in die man hineinhorchen könnte, um zu erfahren wie die „denkende Maschine“ im Inneren „tickt“. Mir ist es schon beim Google Übersetzer so ähnlich gegangen; wie wirkt dann erst ChatGPT?
Mich beunruhigt der Gedanke, dass der „Sound“ einer KI, bspw. von ChatGPT, als erkennbar eingestuft wird (in meinem Beitrag 15:07, 22. Jul./ unter →Auswahlpunkt >>Ablehnung der Umfrage<< erläutert) und dann als Löschgrund reichen könnte.
Aber du hast natürlich Recht, es sollte bekanntgemacht werden, dass so ziemlich jegliches Automatische ohne solide Nachbearbeitung ein No-Go ist. Es sollte aber auch bekanntgemacht werden, dass ein Verdacht kein Beweis ist:
Ich wäre nicht erfreut, wenn ich künftig versuchen müsste, einen besonders individuellen Stil zu entwickeln, nur um dem Verdacht auf die Nutzung künstlicher Intelligenz sicher auszuweichen.  (‑:  Andersherum möchte ich dem Verdacht auf die Nutzung natürlicher Intelligenz keinesfalls ausweichen.  ;‑)  
Eine Lösung, die wirklich praktikabel wäre, sehe ich bisher nicht, vor allem zu jenem von dir zurecht angesprochenen Problem, dass man Qualität künftig kaum gewährleisten könnte, wenn die Quantität beliebig stiege und „Text per Knopfdruck“ die Wikipedia überschwemmen würde. Mein vorläufiger und nebulöser Denkansatz zu diesem Thema ist der, dass man den gesamten Artikelnamensraum vielleicht künftig für unangemeldete Bearbeitungen sperren müsste (in meinem Beitrag 15:07, 22. Jul./ unter →Auswahlpunkt >>Weitere Anregungen<< erläutert). Na ja …
|  Zum Beitragsanfang↑  |
MfG --Dirk123456 (Diskussion) 12:14, 24. Jul. 2023 (CEST)Beantworten
Hallo @Dwain, danke für dein positives Feedback (12:20, 23. Jul.) zu meinem Beitrag (15:07, 22. Jul.)! MfG --Dirk123456 (Diskussion) 05:30, 24. Jul. 2023 (CEST)Beantworten

Ist die Trageweite der Neuerungen denn vollständig verarbeitet worden?

[Quelltext bearbeiten]

Die ganze Diskussion, die hier läuft, klebt an der traditionellen Prämisse, dass "Wikipediaartikel geschrieben werden müssen", nur evtl. vom Bot. Nein. Wenn die Bots und LLMs übernehmen, dann müssen gar keine "Artikel geschrieben" werden, die irgendwo aufbewahrt werden, denn einen Bot-generierten Text kann jeder jederzeit selbst in Gang setzen. Niemand muss in die Wikipedia schauen und es muss gar keine Enzyklopädie mehr geben. Die Wikipedia hat überhaupt keine Daseinsberechtigung mehr, wenn sie Bottexte enthält, weil man von genau demselben Ozean an automatisch erzeugten Bottexten auch sonst schon überschwemmt sein wird. Solche Texte werden dann jederzeit und überall in Sekunden generiert, in Massen, die kein menschlicher Nutzer mehr überblicken kann.

Ich ziehe den Schluss, dass die Wikipedia lanfristig nur noch Sinn hat, wenn sie sich auf das Markenzeichen spezialisiert, menschliche Enzyklopädiearbeit zu präsentieren. Sie ist dann halt nicht die einzige Informationsquelle, so wie das mal war. Sie ist vielleicht nur noch eine Liebhaberei.

(Das bezieht sich natürlich alles auf eine entfernte Zukunft, in der entweder die Bots "fehlerfrei" schreiben, oder es der Masse der Nutzer egal geworden ist, wie fehlerhaft etwas ist). --Alazon (Diskussion) 01:22, 23. Jul. 2023 (CEST)Beantworten

Da ist was dran; aber ob es wirklich eine entfernte Zukunft ist, dass „es der Masse der Nutzer egal geworden ist, wie fehlerhaft etwas ist“…? --Sabrieleauftistik (Diskussion) 18:19, 24. Jul. 2023 (CEST)Beantworten
Egal? (Bezugnahme auf 01:22, 23. Jul./ @Alazon und 18:19, 24. Jul./ @Sabrieleauftistik)
|  Zum Beitragsende↓  |
An dem Punkt, wo jemandem egal ist, wie fehlerhaft etwas ist, ist er oder sie doch eigentlich kein Nutzer oder keine Nutzerin mehr, oder? Denn wer guckt in die Wikipedia, wenn es ihn oder sie gar nicht interessiert?
Es könnte aber Resignation eintreten, nach dem Motto: „Es muss mir egal sein!“ Es ist ja auch ohne KI und Bots schon so, dass man nicht alles immer sofort korrigieren kann, was einem krumm vorkommt. Ich verspüre gelegentlich eine Teilkompetenz, in manch einem Artikel etwas zu verbessern, gucke mir das dann näher an und lasse doch die Finger davon, weil es mir zu komplex erscheint. Dann kann es auch sein, dass andere das anders sehen als ich oder ... usw. usf.
Ich habe mich (außerhalb der Wikipedia) mal mit jemanden unterhalten, der keine medizinische Ausbildung o. ä. hatte, aber dachte, er könne sich aus Wikipedia-Artikeln die Kompetenz für medizinische Diagnosen ableiten. Er ging davon aus, dass alle medizinischen Artikel, die keinen Warnhinweis beinhalten, ausschließlich solide geprüftes Wissen beinhalten würden. Ich habe im erklärt, dass dann ein Wartungsbaustein (WP:Wartung) im Artikel steht, wenn jemand Lust und Zeit dazu verspürt, einen hineinzusetzen und niemand anderes diesen Baustein herausnimmt. Ich bot ihm an zu zeigen, wie er einfach als nicht angemeldeter Benutzer einen Text in irgendeinem Artikel platzieren könnte, was er abgelehnte. (Ich hätte sonst entweder etwas sinnvolles ausgewählt oder nur die Vorschaufunktion bemüht.) Der Mann kam in Grübeln und war sichtlich betroffen.
Ich wollte es ja anfangs nicht glauben, dass Bots den Ausgang einer Wahl beeinflussen können, wie es im Zusammenhang mit der Wahl von Donald Trump zum US-Präsidenten erörtert wurde. Heute glaube ich, dass so etwas prinzipiell möglich ist.
Als dann die Corona-Krise kam (COVID-19-Pandemie), schien die Virus-Pandemie von einer Desinformations-Pandemie begleitet worden zu sein. Es gibt gegenwärtig einige Krisen, bei denen man nicht mehr selbst alle Fakten vorliegen hat und wobei man auch nicht mehr alles selbst auswerten kann, um sich eine Meinung zu bilden. Also muss man etwas glauben – und da kommt auch noch ChatGPT.
Wir versuchen es durch diese Umfrage – und später vielleicht auch durch ein Meinungsbild – mit Schwarmintelligenz. So viele Wikipedianerinnen und Wikipedianer können nicht irren! Gebündelte natürliche Intelligenz kontrolliert jede künstliche Intelligenz! Die einen sagen, wir tun so als könnten wir KI ignorieren (Variante 1), die anderen sagen, wir tun so, als könnten wir KI verbieten (Variante 4) und einige wollen etwas dazwischen (Varianten 2 und 3).
ChatGPT wertet unsere Umfrage vielleicht irgendwann mal aus. Dann würde folgende Frage:
  • „ChatGPT! Was sollen wir mit dir in der Wikipedia eigentlich machen?“,
vielleicht folgende Antwort nach sich ziehen:
  • „Ihr solltet mich komplett verbieten. Oder ihr ignoriert mich einfach!“
Sorry, dieses Gespräch habe ich mir jetzt natürlich bloß ausgedacht.  (‑:  Vielleicht wollte ich auch mal ein bisschen „halluzinieren“ ...  ;‑)  
Man kann nicht alle Fragen besonders einfach beantworten, aber bei einer versuche ich es doch einmal:
  • Frage: „Ist die Trageweite der Neuerungen denn vollständig verarbeitet worden?“ (Überschrift dieses Abschnitts)
  • Meine Antwort: Nee.
|  Zum Beitragsanfang↑  |  Zur Überschrift↑  |
MfG --Dirk123456 (Diskussion) 11:08, 26. Jul. 2023 (CEST)Beantworten
So ähnlich meinte ich es auch: Wahrheit egal, weil man zu verwirrt und erschöpft ist, weil man in einem Ozean von Information und Desinformation ersäuft, den man so oder so nicht mehr selbst bewältigen kann, man lässt dann die Automaten einfach machen, in 70% der Fälle funktionierts ja richtig...
Ich habe übrigens den Chatbot mal gefragt, ob man seine Texte als Wikipedia-Artikel verwenden kann, er antwortete: Nein, denn alle WP-Texte müssen von Menschen auf Korrwektheit geprüft werden. Auch interessant. --Alazon (Diskussion) 11:54, 26. Jul. 2023 (CEST)Beantworten
Spätestens seit ich diesen Beitrag (vor allem den dritten Absatz) gelesen habe, stellt sich bei mir halt auch der Eindruck ein, dass wenigstens gewisse Strömungen in der Gesellschaft gar nicht an „Korrektheit“ oder „Wahrheit“ (oder dem Gegenteil davon: „wie fehlerhaft etwas ist“) interessiert sind; wozu auch, wenn sich laut Konstruktivismus eh jeder seine eigene Realität konstruieren kann? Das ist keine entfernte Zukunft, das ist heute schon so, und es ist kein reines Problem einer zu großen Menge an Informationen und Desinformationen. (Trumps Präsidentenwahlbots und allgemein seine „alternativen Fakten“ passen da auch gut rein, sind aber nur eine konkrete Ausprägung.) Als Beispiel in dem Kontext mag eine Person aus meiner Verwandtschaft dienen, die sinngemäß gesagt hat: Ist mir doch egal, dass eine Wirksamkeit vom Schüßler-Salzen wissenschaftlich nicht nachgewiesen werden konnte; sie helfen gegen meine Kopfschmerzen, deswegen nehme ich sie. Mit Informationen (auch solchen aus der Wikipedia) gehen gewisse Menschen sehr ähnlich um: Die werden nicht nach Richtigkeit, sondern nach Nützlichkeit bewertet. Das ist ein Problem; dieses Problem hat seine Ursache nicht in ChatGPT oder anderen „KIs“, tritt aber mit zunehmender Möglichkeit, sich elektronische Artefakte potenziell fiktiver Realität „per Knopfdruck“ erzeugen zu lassen, umso prominenter in Erscheinung. --Sabrieleauftistik (Diskussion) 12:49, 26. Jul. 2023 (CEST)Beantworten
Mir scheint, du vermengst zwei unterschiedliche Sachen. Wenn jemand sagt, er hat die Erfahrung gemacht, dass das Schüsslersalz ihm hilft, auch wenn es keine theoretische Herleitung dafür gibt, dann orientiert sich jemand (insoweit) an einer Überprüfbarkeit seiner Vorstellung, in seiner eigenen Erfahrungswelt jedenfalls. Wenn hingegen der Trump oder Trumpbot sagt, dass die Demokraten die Wahl gestohlen haben oder dass sie kleine Kinder fressen, dann ist eine Überprüfung an der eigenen Erfahrung gerade nicht gegeben. --Alazon (Diskussion) 12:59, 26. Jul. 2023 (CEST)Beantworten
Es ist IMHO eine psychologische Tatsache, dass in jedem von uns eine ganz individuelle Entscheidung fällt, wie wir die Realität sehen. Der Konstruktivismus entbehrt nicht jeder Grundlage: wir nehmen wahr, was wir wahrhaben wollen und wir grenzen uns von Dingen ab, die wir nicht verarbeiten können oder die unseren Prämissen widerprechen. Das gilt auch für Information und Kommunikation.
Dass sich die Temperatur, die Wirksamkeit/Schädlichkeit von CoViD-Impfungen und andere Einflüsse der physikalischen Welt nicht davon beeindrucken lassen, was wir zur individuellen Wirklichkeit erklären und einfach "sind", ist allerdings aus meiner Sicht ebenfalls unbestreitbar. Ob diese Sicht aus Sicht einer anderen Person wirklich ist, kann ich allerdings nicht sagen. Kommt darauf an, ob sie es zulässt.
"Wirklichkeit" (von "wirken") hat eben eine subjektive Komponente. Und wer die subjektive Wahrnehmung (nicht notwendigerweise das Wahr-sein) und die positive Wirkung in den Vordergrund stellt, trifft seine Entscheidung, dass eben Korretkheit von Fakten keine übergeordnete Rolle spielt. Das Ansehen der objektiven Realität nimmt ab, die individuelle Sicht erhält mehr Bedeutung, weil die objektive Realität noch weniger überschaubar und individuell verifizierbar ist, als je zuvor. Und solange gesellschaftlich ein "Ich dachte halt, weil..." als Begründung für den größten angerichteten Schaden akzeptiert ist, solange wird das so bleiben. Ich denke, die Wikipedia sollte der Hort gesicherten Wissens bleiben und sich dem Mainstream der opportunistischen Wahrheiten widersetzen. --AlturandD 13:05, 26. Jul. 2023 (CEST)Beantworten
Es ist aber meines Erachtens ein Unterschied, ob man eine grundsätzlich für alle gültige Realität annimmt, die lediglich jeder Mensch unterschiedlich (ggf. sehr unterschiedlich) wahrnimmt, oder ob man davon ausgeht, dass Realität an sich immer erst durch menschliche Wahrnehmung geschaffen werde. Dieser Unterschied hat sich bei Covid ziemlich deutlich gezeigt: Es gibt sicherlich gute Gründe, bestimmte Corona-Maßnahmen abzulehnen oder für nicht sinnvoll zu halten oder was auch immer. Und es gab genug Leute, die sachlich für und gegen einzelne Maßnahmen argumentiert haben. Es gab aber ebenso Leute, die diese Auseinandersetzung gescheut und stattdessen Narrative wie Fake-Pandemie, unfruchtbar machende Impfstoffe usw. aufgestellt haben; manche Vorredner dieser Narrative waren selbst geimpft und haben die Narrative trotzdem bedient, weil sich dadurch Menschen mobilisieren ließen (→ Nützlichkeit).
Das Beispiel mit den Salzen war vermutlich ungünstig gewählt. Auch da ist das Muster aber: Die (objektivierbare) Information, dass Wirksamkeit wissenschaftlich nicht nachgewiesen ist, ist nicht „nützlich“ und daher „egal“. Dieselbe Logik kann man auch auf Sachtexte (wie Wikipedia-Artikel oder solche imitierende ChatGPT-Ausgaben) anwenden. Natürlich weiß ich nicht, ob es die Leute, die die Räuberpistole von den kinderfressenden Demokraten (war das nicht irgendwas mit Kinderpornos in einer Pizzeria?) in die Welt gesetzt haben oder sie verbreiten, sich dafür interessieren, ob ihre Geschichte wahr ist oder nicht, aber wahrscheinlich interessiert es sie nicht, solange die Geschichte nützlich ist (in ihrem Fall: zur Diskreditierung der Demokraten). --Sabrieleauftistik (Diskussion) 13:47, 26. Jul. 2023 (CEST)Beantworten
Hallo @Alazon (Bezugnahme auf 11:54, 26. Jul.), ich dachte schon, dass du es so meinst, dass es einem egal wird, weil man nicht mehr kann.
Das Folgende bitte nicht ganz ernst nehmen ...    (‑:    Für genaue Zahlen zitiere ich dich demnächst als Quelle! Vielleicht ungefähr so:    »In 70% der Fälle sind die Aussagen von Automaten korrekt.[1]«    Und weiter:  1.  Alazon, 2023. Sammelwerk: Wikipedia-Diskussionen, Untertitel: "Ist die Trageweite der Neuerungen denn vollständig verarbeitet worden?", Beitrag: 2023-07-26T09:54:32 UTC, Diff-Link: prev&oldid=235827037.    ;‑)    Nein, das mache ich natürlich nicht. Bei Prozentangaben geht es oft um Wahrscheinlichkeiten und im Wort Wahrscheinlichkeit steckt durch /wahr/ und /schein/ schon eine Frage drin: Ist es nun wahr oder scheint es nur so?
Und das Verhältnis zwischen subjektiver Wahrnehmung und objektiver Wahrheit? (Bezieht sich indirekt auf Beiträge von 12:49, 26. Jul. bis 13:47, 26. Jul.)
Es ist wohl so, dass die Fakten sich durch die Kommunikation darüber selbst ändern können. Ich erinnere mich, wie ein damaliger Minister in Griechenland (es war wohl Yanis Varoufakis) während der Finanzkrise in einem Fernseh-Interview erörterte, dass man sich mit schlechten Botschaften zurückhalten müsste, weil der Markt sich sonst so verhielte, dass sich die Krise verschlimmern würde. Auch Angela Merkel machte damals eine Aussage dahingehend, dass die Märkte nervös werden würden. Ist natürlich die Frage, wie es sich auswirkt, wenn man öffentlich darüber spricht, dass man nicht öffentlich darüber reden sollte.
Was mich mal total beeindruckt hat, war ein physiologisches Experiment (wobei meine Erinnerung zur Quelle eher lückenhaft ist), bei dem es jeweils um ein Glas mit einer grünen Flüssigkeit zum Trinken ging, welches man auf unterschiedliche Weise „besprochen“ hat – für manche Personen positiv und für andere negativ. Einigen Personen hat man vorher nicht erzählt, dass in der grünen Flüssigkeit nichts drin sei, was man bewerben oder madig machen könnte, den anderen Personen aber schon. Und jetzt kommts: Auch die Personen, denen man erzählt hat, dass es sich nur um „Geschwätz“ handeln würde (meine vereinfachende Ausdrucksweise) reagierten auf die Einnahme der Flüssigkeit ohne Wirkstoff mehrheitlich entsprechend entweder positiv oder negativ – je nachdem, welches „Geschwätz“ als „Adjuvans für keinen Wirkstoff“ verabreicht wurde.
Ich denke, da ChatGPT nun irgendwie Teil der Suchmaschine Bing von Microsoft ist, wird eine Konkurrenz mit ihrer eigenen KI – bzw. mit ihrem eigenen Automaten – versuchen, ChatGPT und Bing madig zu machen. Der neue Automat – ich nenne ihn hier mal „X-beliebig Better Chater“ – wird behaupten, dass ChatGPT toll ist und durchaus richtige Aussagen generiert (sagen wir mal: 70 %), aber „X-beliebig Better Chater“! Da werden 99,9 % aller Fake-News beseitigt!
Ehrlich gesagt macht mir die Evolution von KIs nicht weniger Angst als die Evolution von Viren. Am meisten Angst macht mir aber, wie vorhersagbar Menschen manipulierbar sind. Wie gesagt (11:08, 26. Jul.), mein Tipp auf Variante 4 als eine Variante von mehreren (1 bis 4) ist aus meiner Sicht eher eine Notlösung.
MfG --Dirk123456 (Diskussion) 11:10, 29. Jul. 2023 (CEST)Beantworten

Zum Spannungsfeld "KI-generiert vs. Bot vs. Übersetzungstool"

[Quelltext bearbeiten]

Ich habe mich komplett gegen KI-generierte Texte ausgesprochen und möchte hier die Gelegenheit nutzen, einen für mich wichtigen Gedanken, der mich zu dem Urteil gebracht hat, nochmal auszuführen. Es wurde z.B. mehrfach gefragt, wo denn der Unterschied zwischen "einer" (welcher auch immer) KI und einem Übersetzungstool oder einem Bot sei. Der ganz wesentliche Unterschied zu dem, was ich unter "KI-generiert" verstehe und wogegen ich mich entschieden ausspreche, ist die Nachvollziehbarkeit und Rückverfolgbarkeit. Eine KI erschafft Text nach Mustern, die sie in dem möglichst großen Datensatz, mit dem sie trainiert wurde, erkannt hat. Kein Mensch weiß, welche Muster das sind, kein Mensch kann die konkreten "Überlegungen" nachverfolgen, die eine KI vollzieht, wenn man ihr den Aufrag gibt, einen Text zum Thema X zu schreiben.

Auch die KI weiß eigentlich nicht, was sie tut. Sie generiert durch Reproduzieren, sie reiht Worte aneinander, die sinnvolle Sätze ergeben, aber sie hat kein Bewusstsein für die Inhalte, für richtig oder falsch, für die Wertigkeit von Quellen, ja sie "weiß" in der Regel auch selbst nicht, woher welche Informationen, welche Muster, welche Inhalte kommen. Zumindest ist sie zum aktuellen Stand der Technik auch selbst nicht in der Lage, die konkrete Herkunft der Inhalte anzugeben, die sie ausspuckt. Also das zu tun, was die absolute Grundlage eines guten Artikels ist: nachvollziehbare Belege zu liefern. Es ist die berühmte Black Box. Unzählige Dinge gehen rein, werden verquirlt und mit etwas Magie kommt am anderen Ende ein Text raus. Welcher auch immer. Vermutlich einer, der glaubhaft klingt, wenn man ihn nur glauben will. Richtigkeit optional, "postfaktisch" eben.

Das ist auch der ganz große Unterschied zu Übersetzungstools, die natürlich inzwischen auch mit Arten von KIs arbeiten, um Muster in Sprache zu erkennen. Aber hier sind Input und Output bekannt, der Weg dazwischen kurz, direkt und nachvollziehbar, schlimmstenfalls lachen wir dann über Babelfische, wenn das Resultat nich " the yellow of the egg" ist. Bei Bots ist es dasselbe. "Schreibe einen Artikel, indem du die Information X nach Schema Y verpackst." Quelle zu X ist bekannt, Output Y nachvollziehbar. Es spricht absolut nichts dagegen, auf diese Art Stubs über z.B. x-tausend chinesischen Gemeinden zu generieren. Das ist aber nicht dasselbe, wie eine KI zu beauftragen, aus dem Nichts einen Text zum Thema der Wahl zu schreiben.

Das nur my two cents. Angesichts des Tempos, mit dem sich diese Technik momentan entwickelt, sollten wir jede Entscheidung hierzu nur unter dem Vorbehalt treffen, sie vielleicht in ein, zwei oder drei Jahren wieder revidieren zu müssen. Aber aktuell bleibt für mich nur strikte Ablehnung von allem, was im oben genannten Sinn "KI-generiert" ist.--SchreckgespenstBuh! 11:38, 24. Jul. 2023 (CEST)Beantworten

Ein sehr gutes (und sachlich informiertes) Plädoyer. Ich denke aber, einen wesentlichen Unterschied zwischen Übersetzungstools und freier Textgenerierung (der schon enthalten ist) müsste man noch expliziter herausstellen: Beim Übersetzungstool kennt man das Ergebnis, das rauskommen soll – zumindest, wenn man es im wikipedistischen Kontext verantwortungsvoll einsetzt; natürlich nicht, wenn man sich etwas aus einer Sprache übersetzen lässt, die man nicht versteht. So sollte man aber keine Wikipedia-Artikel erstellen. Das ist aus meiner Sicht aber zugleich eine wesentliche Gemeinsamkeit zwischen Übersetzungstool und automatischer Textgenerierung: Bei verantwortungsvollem Einsatz kennt man das Ergebnis, das rauskommen soll, oder kann es für sich selbst wenigstens so gut charakterisieren, dass man die Systemausgabe prüfen kann. Wenn man das gewissenhaft tut, ist der Nutzen von ChatGPT und Ähnlichem sehr bescheiden. Wenn man es nicht tut, sind aber auch automatische Übersetzungen problematisch. Und die sind heutzutage auch oft längst nicht mehr so babelfischig, dass sie immer auffallen würden. --Sabrieleauftistik (Diskussion) 18:17, 24. Jul. 2023 (CEST)Beantworten
Ah, ein paar Worte noch zur „Black Box“: Das gilt für maschinelle Übersetzungen genauso, nur auf einer anderen Ebene. Die Frage, warum eine gewisse Textstelle so übersetzt wird, wie sie übersetzt wird, kann das Tool nicht beantworten. Eine maschinelle Übersetzung kann genauso halluziniert sein wie ein komplett generierter Text, aber da die Aufgabe Übersetzung eine deutlich einschränkendere Eingabe-Ausgabe-Beziehung fordert als die Aufgabe freie Textgenerierung, fällt wenigstens dieser Umstand recht schnell auf, wenn man Ausgangs- und Zielsprache versteht. --Sabrieleauftistik (Diskussion) 18:28, 24. Jul. 2023 (CEST)Beantworten

Zukunftsfeindlich

[Quelltext bearbeiten]

Ein Befürworter synthetischer Texte schrieb als Kommentar: „Wie kann man nur so zukunftsfeindlich sein?“ Solch eine polemische Formulierung hätte ich eher von Politikern erwartet, jedoch nicht in der Wikipedia. Wenn das die Zukunft sein soll, dann gute Nacht. Ich habe bisher noch keinen brauchbaren synthetisch erstellten Artikel gelesen und halte die sogenannte KI für völlig überbewertet und durch die Medien hochgejubelt. --pretobras (Diskussion) 17:45, 24. Jul. 2023 (CEST)Beantworten

Also zunächst mal: stimmt… KI oder das, was man landläufig so nennt, wird von Politik, Medien und (aus naheliegenden Gründen) auch den Firmen, die solche Technologien einsetzen oder sie einzusetzen plausibel behaupten können, hochgejubelt. Ob es zukunftsfeindlich ist oder nicht, den Einsatz automatischer Textgenerierung abzulehnen (vor allem Stand jetzt), mag ich nicht beurteilen. Dazu müsste man erst mal beobachten, in welche Richtung diese Technologie sich entwickelt. Umgekehrt kann man dem genannten Kommentar aber ebenso auch keine Polemik zusprechen (oder wenn, dann nur im formalen Sinne). --Sabrieleauftistik (Diskussion) 18:00, 24. Jul. 2023 (CEST)Beantworten
Die Zukunft ist bekanntlich offen, und nicht nur das, sie hängt von unserem Handeln ab. Genau darum geht es bei der Diskussion: Wie wir agieren sollen und in welche Weise wir das Kommende beeinflussen wollen. Wer nur meint, dass die Zukunft sowieso kommt, hat sich an dieser Diskussion nicht beteiligt. Er hat sich eigentlich nicht einmal an der Entstehung der Zukunft beteiligt. --Alazon (Diskussion) 20:38, 24. Jul. 2023 (CEST)Beantworten
Was meinst du, warum ich mich an dieser Diskussion beteilige ;) --Sabrieleauftistik (Diskussion) 22:59, 24. Jul. 2023 (CEST)Beantworten

Waren wir nicht mal ein Club von Leuten die sich...

[Quelltext bearbeiten]

...darum geprügelt haben, wer, welches Wissen, wie und in welcher Form zur Verfügung stellt. Wir haben Biologen, Linguisten, Rechtswissenschaftler (Anwälte sind sowas auch) Mediziner, Menschen die sich für Gebäude, Historie oder Militaria interessieren. Die rennen rum und machen und tun, damit die Wiki besser wird. Und jetzt überlassen wir das einer KI? Dieses unser Hobby? Wie weit muss unser Hedonismus noch gehen? Es gibt echt Tage da wünsche ich mir Fröhlicher Türke und Anton Josef zurück auch wenn ich weiß das wir toxische WP-Beziehungen hatten. Aber auch Tage wo ich mit Tom unterwegs war und wir den Einheitsprotzhaken im Panzermuseum Munster fanden. Das kann keine KI. Hütet euch vor dem Blödsinn. --Rischtisch (Diskussion) 09:06, 28. Jul. 2023 (CEST) Sag was: --Tom wegen dem ProtzhakenBeantworten

Kennst du den Pöbelbot vom Postillon? Man kann dir also auch was programmieren, mit dem du toxische Beziehungen haben kannst. Lässt sich alles simulieren. --Alazon (Diskussion) 09:42, 28. Jul. 2023 (CEST)Beantworten
Den Beitrag von Rischtisch verstehe ich nicht. Umseitig steht es 109:75 für ein KI-Komplettverbot in der Wikipedia und daraus wird hier „jetzt überlassen wir das einer KI“? (Und selbst die Leute, die sich gegen ein Komplettverbot aussprechen, tun das nicht, weil sie gern KI-generierte Artikel in der Wikipedia sehen würden, sondern weil ihnen ein Komplettverbot aus verschiedenen Gründen als Kartoffel zu heiß ist.) --Sabrieleauftistik (Diskussion) 10:51, 28. Jul. 2023 (CEST)Beantworten
ad Heißkartoffel: und wo hast du das her? -jkb- 10:56, 28. Jul. 2023 (CEST)Beantworten
Tut mir leid, hab schneller geschrieben als gedacht. Natürlich gibt es unter #1 auch Leute, die einfach keine Begründung abgeben und deren Motivation man daher schlicht nicht kennt. Die Begründungen, die vorhanden sind, gehen in vielen Fällen in zwei Stoßrichtungen:
  • Wir werden KI-generierte Artikel sowieso nicht mit ausreichender Sicherheit erkennen können. (Einige gehen einen Schritt weiter und ziehen daraus die Befürchtung, dass durch ein Verbot das grundsätzliche Misstrauen erhöht werden könnte.)
  • Ein Verbot wäre zwecklos, weil das, was an KI-generierten Artikeln problematisch wäre, ohnehin schon verboten ist.
Das kann man zusammenfassen als: Ein Verbot wäre sinnlos und eventuell schädlich. Daher („schädlich“) die Formulierung mit der Kartoffel. Wichtig finde ich, dass auch unter #1 praktisch niemand argumentiert, KI-generierte Artikel seien in irgendeiner Weise ein Gewinn für die Wikipedia (während abseits der Komplettgenerierung durchaus vorsichtige Potenziale gesehen werden). --Sabrieleauftistik (Diskussion) 13:30, 28. Jul. 2023 (CEST)Beantworten
Verbote sind dann schädlich, wenn die Community nicht damit umgehen kann. Der Schaden entsteht nicht dadurch, dass jemand sich an das Verbot hält sondern dadurch, dass Menschen einen Verstoß unterstellen, wo keiner ist (false positive). Kein Verbot (Unterstellung von Korrektheit) bedeutet (bei unterstellter Verschiebung zu einer höheren KI-Rate) aber ebenfalls einen Schaden, nämlich einen objektiven Verlust an Vertraubarkeit (gibts das Wort?), die eine wesentliche Grundlage des Wertversprechens der Wikipedia ist. --AlturandD 16:19, 28. Jul. 2023 (CEST)Beantworten
"Vertraubarkeit" gibt es nicht, nein – ist aber eine hübsche Wort-Neuschöpfung! :) Was ungefähr in die Richtung geht, wäre: Verlust oder Erosion der Vertrauensbasis. --Henriette (Diskussion) 18:56, 28. Jul. 2023 (CEST)Beantworten
Jedenfalls lese ich aus den Begründungen unter #1 keinen Wunsch nach KI-generierten Artikeln heraus. Deswegen habe ich nicht verstanden, wie Rischtisch darauf kommt, man wolle die wikipedistische Arbeit jetzt einer „KI“ überlassen. Offensichtlich will die Community das nicht – manche sehen nur keinen Sinn in einem Verbot. Und selbst die sind in der Unterzahl. --Sabrieleauftistik (Diskussion) 21:04, 28. Jul. 2023 (CEST)Beantworten
Der Einheitsprotzhaken ist ein schönes Beispiel. Ich habe ChatGPT gebeten, mir zu sagen, was ein Einheitsprotzhaken ist:
ChatGPT: Hallo Mensch, ich bin ein GPT-betriebener AI-Chatbot. Frag mich alles!
Ich: Was ist ein Einheitsprotzhaken?
ChatGPT: Ein Einheitsprotzhaken ist ein medizinisches Hilfsmittel, das zur Unterstützung von Menschen mit fehlenden oder eingeschränkten Gliedmaßen verwendet wird. Es handelt sich um eine Vorrichtung, die an den Körper angebracht wird und es ermöglicht, verschiedene Aufgaben des täglichen Lebens auszuführen, wie zum Beispiel das Greifen von Gegenständen oder das Bedienen von Werkzeugen. Der Einheitsprotzhaken ist so konzipiert, dass er an die individuellen Bedürfnisse und Fähigkeiten des Benutzers angepasst werden kann. Es ist wichtig zu beachten, dass ein Einheitsprotzhaken allein nicht alle Funktionen einer natürlichen Gliedmaße ersetzen kann, aber er kann den Menschen dabei helfen, ihre Unabhängigkeit und Mobilität zu verbessern.
Ich: Handelt es sich nicht um eine Anhängerkupplung?
ChatGPT: Entschuldigung für das Missverständnis. Ein Einheitsprotzhaken und eine Anhängerkupplung sind tatsächlich unterschiedliche Dinge. Ein Einheitsprotzhaken ist ein medizinisches Hilfsmittel, wie bereits erwähnt, während eine Anhängerkupplung eine Vorrichtung an einem Fahrzeug ist, die es ermöglicht, Anhänger oder andere Fahrzeuge anzuhängen. Der Zweck einer Anhängerkupplung besteht darin, zusätzliche Lasten zu transportieren oder bestimmte Aufgaben zu erledigen, wie beispielsweise das Ziehen eines Wohnwagens oder Anhängers. Es tut mir leid für die Verwirrung und danke für die Klärung.
Ich: Kann der Begriff mehrere Bedeutungen haben?
ChatGPT: Ja, der Begriff "Einheitsprotzhaken" kann je nach Kontext verschiedene Bedeutungen haben. In der medizinischen Welt bezieht sich der Begriff normalerweise auf ein spezifisches Hilfsmittel für Menschen mit fehlenden oder eingeschränkten Gliedmaßen, wie ich zuvor erklärt habe. Es ist jedoch möglich, dass der Begriff in anderen Bereichen oder Branchen eine andere Bedeutung hat. Es ist immer wichtig, den Kontext zu berücksichtigen, um Missverständnisse zu vermeiden und die richtige Interpretation des Begriffs zu gewährleisten."
Nur mal so als kleiner Vorgeschmack. --Christoph Kühn (Diskussion) 23:14, 1. Aug. 2023 (CEST)Beantworten
Es glaubte, "Protzhaken" und "Prothese" sind Synonyme? Doktor darf es also auch nicht werden. --Enyavar (Diskussion) 08:49, 3. Aug. 2023 (CEST)Beantworten
Die KI differenziert da durchaus, wie ich auf Nachfrage erfahren habe. Neuerdings trägt man den Einheitsprotzhaken im Mund!
ChatGPT: Hallo Mensch, ich bin ein GPT-betriebener AI-Chatbot. Frag mich alles!
Ich: Was ist der Unterschied zwischen einem Einheitsprotzhaken und einer Hakenprothese?
ChatGPT: Hallo! Ein Einheitsprotzhaken und eine Hakenprothese sind beide Arten von Zahnersatz, die verwendet werden, um fehlende Zähne zu ersetzen. Der Unterschied liegt jedoch in ihrer Konstruktion und Funktionalität.
Ein Einheitsprotzhaken ist ein fester Zahnersatz, der aus einer Metallbasis besteht, auf der künstliche Zähne befestigt sind. Er wird in der Regel mit Hilfe von Klammern an den verbleibenden natürlichen Zähnen befestigt. Ein Einheitsprotzhaken kann eine gute Option sein, wenn die umliegenden Zähne gesund und stark genug sind, um den Zahnersatz zu tragen.
Eine Hakenprothese hingegen ist eine herausnehmbare Prothese, die ebenfalls aus einer Metallbasis besteht. Sie wird mit Hilfe von Haken an den verbleibenden natürlichen Zähnen befestigt. Im Gegensatz zum Einheitsprotzhaken kann eine Hakenprothese leicht entfernt und gereinigt werden. Sie kann eine geeignete Wahl sein, wenn die umliegenden Zähne nicht stark genug sind, um einen festen Zahnersatz zu tragen.
Es ist wichtig, dass du dich von einem Zahnarzt beraten lässt, um herauszufinden, welche Art von Zahnersatz für dich am besten geeignet ist.
--Christoph Kühn (Diskussion) 12:18, 3. Aug. 2023 (CEST)Beantworten
Ich schmeiß mich weg vor Lachen. Kann mir vorstellen, dass in der Wikipedia:Auskunft der Satz "Es ist wichtig zu beachten, dass..." zum running gag wird. --Alazon (Diskussion) 13:25, 3. Aug. 2023 (CEST)Beantworten
Ähnlich wie „Ich bin Arzt, kein …“? (Der zugegebenermaßen eher nicht in unserer Auskunft.) --Sabrieleauftistik (Diskussion) 22:30, 3. Aug. 2023 (CEST)Beantworten
"Ich bin Arzt, kein Chatbot." --Alazon (Diskussion) 07:14, 4. Aug. 2023 (CEST)Beantworten
Mit dem neuen Bing von MS erscheint die Antwort nach de.wikipedia.org mit Quellenangabe.--BBCLCD (Diskussion) 08:39, 4. Aug. 2023 (CEST)Beantworten
ein SmileysymbolVorlage:Smiley/Wartung/:d  Der Doktor hätte bestimmt zugestimmt. --Sabrieleauftistik (Diskussion) 13:08, 4. Aug. 2023 (CEST)Beantworten
Munster Krupp Protze mit Einheitsprotzhaken
Solange der Bot meint, Krupp Protze wäre was für "medizinisch oben oder unten rein", ist doch alles gut. Nur wer Sascha Lobo kennt, der weiß dass wir den Zug vermutlich schon verpennt haben. Wikipedia hätte noch eine Chance etwas zu überlegen oder/und zu regeln ... vorausgesetzt, man hält die Glaskugel in die passende Richtung. LG --Tom (Diskussion) 17:15, 5. Sep. 2023 (CEST)Beantworten

Dank

[Quelltext bearbeiten]

Allen Teilnehmern ganz herzlichen Dank für die große Teilnahme und die vielen wertvollen Anregungen in der Diskussion. Ich denke, es ist deutlich geworden, dass das Thema interessiert aber auch polarisiert. Noch einmal zur Klarstellung: Dies ist eine Umfrage, die ein Stimmungsbild und neue Ideen abfragt. Das Regelwerk der Wikipedia wird durch diese Umfrage nicht verändert.--Karsten11 (Diskussion) 09:23, 1. Aug. 2023 (CEST)Beantworten

Was sagt ChatGPT zu der Umfrage:

[Quelltext bearbeiten]

Was sagt eigentlich ChatGPT zu der Umfrage hier? Ich habe es dazu mal befragt:

Ich: Sollten Wikipedia-Artikel KI-generiert erstellt werden?

ChatGPT: Die Frage, ob Wikipedia-Artikel von KI-generierten Texten erstellt werden sollten, ist ein kontroverses Thema mit verschiedenen Vor- und Nachteilen. Hier sind einige der Hauptargumente, die für und gegen die Verwendung von KI für die Erstellung von Wikipedia-Artikeln vorgebracht werden:

Pro:

  1. Schnelle Erstellung: KI-generierte Texte können in kurzer Zeit große Mengen an Informationen liefern, was die Erstellung neuer Artikel beschleunigen könnte.
  2. Unterstützung bei der Aktualisierung: KI kann Informationen aus aktuellen Quellen ziehen und dazu beitragen, Wikipedia-Artikel stets auf dem neuesten Stand zu halten.
  3. Verfügbarkeit von Wissen: KI-generierte Artikel könnten dazu beitragen, Wissenslücken zu füllen und den Zugang zu Informationen zu verbessern.
  4. Entlastung von Editoren: Die Erstellung von grundlegenden Artikeln durch KI könnte die Arbeit von Wikipedia-Editoren entlasten, die sich dann auf komplexere Aufgaben konzentrieren könnten.

Contra:

  1. Qualitätsbedenken: KI-Generierung kann manchmal zu ungenauen, irreführenden oder fehlerhaften Informationen führen, was die Qualität der Artikel beeinträchtigen könnte.
  2. Fehlende Kreativität und Analyse: KI kann möglicherweise nicht die kreative Schreibweise und die tiefgreifende Analyse bieten, die von menschlichen Autoren geliefert wird.
  3. Ethik und Urheberrechte: KI-generierte Texte könnten Plagiate oder Verstöße gegen Urheberrechte enthalten, wenn sie Texte anderer Quellen wiederverwenden, ohne diese angemessen zu zitieren.
  4. Vertrauenswürdigkeit: Wikipedia als Online-Enzyklopädie hat ihren Wert aufgrund der Überprüfbarkeit und des Vertrauens der Quellen. KI-generierte Artikel könnten diese Zuverlässigkeit beeinträchtigen.

Derzeit ist es wichtig zu erkennen, dass die Qualität von KI-Texten noch nicht auf dem gleichen Niveau ist wie die von menschlichen Autoren. Es gibt ethische und Qualitätsfragen, die sorgfältig berücksichtigt werden müssen, bevor KI zur Erstellung von Wikipedia-Artikeln eingesetzt wird. Möglicherweise ist es sinnvoller, KI als unterstützendes Werkzeug für menschliche Autoren und Editoren zu nutzen, um die Effizienz und Genauigkeit der Erstellung und Aktualisierung von Wikipedia-Inhalten zu verbessern.


Ich: Sollte KI-generierter Text in der Wikipedia verboten werden?

ChatGPT: Als KI-Sprachmodell habe ich keine persönliche Meinung, aber ich kann verschiedene Argumente für und gegen das Verbot von KI-generierten Texten in der Wikipedia präsentieren.

Argumente für ein Verbot:

  1. Unzuverlässigkeit: KI-generierte Texte sind oft fehlerhaft und können ungenaue oder irreführende Informationen enthalten, da sie Schwierigkeiten haben, komplexe Kontexte und menschliches Wissen vollständig zu verstehen.
  2. Quellenüberprüfung: Es ist schwierig, die Richtigkeit und Verlässlichkeit der Quellen zu überprüfen, die von KI-Systemen verwendet werden, da sie nicht immer auf verlässliche und glaubwürdige Quellen zugreifen.
  3. Urheberrechtsverletzungen: KI-generierte Texte könnten möglicherweise urheberrechtlich geschützte Inhalte ohne angemessene Quellenangabe verwenden, was rechtliche Probleme verursachen kann.
  4. Wikipedia-Standards: Die Wikipedia hat hohe Standards für die Qualität, Verlässlichkeit und Verifizierbarkeit von Informationen. KI-generierte Texte könnten diese Standards möglicherweise nicht erfüllen.

Argumente gegen ein Verbot:

  1. Ergänzung menschlicher Arbeit: KI kann menschliche Autoren bei der Erstellung von Inhalten unterstützen und als Werkzeug dienen, um ihre Arbeit zu verbessern.
  2. Effizienz und Wissenslücken: KI-generierte Texte könnten eine schnelle und effiziente Möglichkeit bieten, Artikel zu erstellen und Informationen zu liefern, insbesondere zu Themen, die nicht ausreichend abgedeckt sind.
  3. Verwendung als Werkzeug: KI-Systeme könnten verwendet werden, um Entwürfe oder Rohfassungen für Artikel zu erstellen, die dann von menschlichen Autoren überprüft, bearbeitet und verbessert werden.
  4. Weiterentwicklung der Technologie: KI-Systeme entwickeln sich ständig weiter, und ihre Qualität und Genauigkeit könnten in Zukunft verbessert werden.

Die Frage nach einem Verbot von KI-generierten Texten in der Wikipedia ist komplex und erfordert eine sorgfältige Abwägung der Vor- und Nachteile. Derzeit könnte es ratsam sein, KI als unterstützendes Werkzeug zu nutzen, um menschliche Autoren zu unterstützen, anstatt sie vollständig zu ersetzen. Eine menschliche Überprüfung und Bearbeitung bleiben entscheidend, um sicherzustellen, dass Wikipedia ihren hohen Standards für Qualität und Verlässlichkeit gerecht wird.

--Eulenspiegel1 (Diskussion) 01:09, 4. Aug. 2023 (CEST)Beantworten

Ja, das habe ich auch schon mal so ähnlich bekommen, nicht so ausführlich. Man staunt durchaus. Aber es ist wichtig zu beachten, dass in einem glatt klingenden Text Inkonsistenzen stecken können. Ich für mein Teil seh nicht, wie man einen Text, der fehlerhaft sein kann und zugleich auch noch aus unklaren Quellen stammt, als Ausgangspunkt nehmen kann, um ihn nochmals kosmetisch zu verbessern. Statt dass der Inhalt an der Quelle beginnt. Also wieso liefert die KI das Gerüst für den menschlichen Artikel statt umgekehrt (es entsteht ja bei den Menschen gerade eine neue Wissenschaft darüber, wie man der KI Fragen so stellen kann, dass etwas Verwertbares herauskommt).
Meiner Wahrnehmung nach liefert auch in diesem Anwendungsbeispiel hier das Sprachmodell genau die Gesichtspunkte, die in der menschlichen Diskussion zu den schlecht durchdachten, aber wohlklingenden und häufigen gehören. Das größte Problem, sowohl bei LLM als auch schon bei den Nachrichtenfeed-Algorithmen der soz.Medien ist: Ein Algorithmus wählt die Informationen aus, die wir zu sehen kriegen. Und es ist undurchsichtig, wie diese Auswahl erfolgt. --Alazon (Diskussion) 07:08, 4. Aug. 2023 (CEST)Beantworten

Wikipedia’s Moment of Truth

[Quelltext bearbeiten]

Ein Artikel in der New York Times enthält viele Hinweise auf das Verhältnis von Chat-Bots zu WP. Bemerkenswert sind die Aussagen der Wikimedia Foundation und verschiedener WP-Autoren. Es gibt einen Plug-In der WP Foundation für das ChatGPT, so dass man die Kombination testen kann! (siehe Jon Gertner: Wikipedia’s Moment of Truth. NYT, 18. Juli 2023. Abgerufen am 16. August 2023) --BBCLCD (Diskussion) 17:06, 16. Aug. 2023 (CEST)Beantworten