Diskussion:Regressionsanalyse/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

- 2004 -

Gescheithaflerei von Philipendula 13:59, 17. Jul 2004 (CEST)

Bei den Anforderungen an die Daten sollte man zwischen Axiomen und Folgerungen u./o. Ergänzungen unterscheiden.

Es existieren zur Zeit mehrere Artikel zum Thema Regression, die sich teilweise stark überschneiden. Hier müsste mal kräftig strukturiert werden.

Es ist vielleicht nicht sehr günstig, den Artikel unter empirischer Wi-Forschung laufen zu lassen, wenn das einzige Beispiel sich mit Enzym-Kinese befasst.

In der Hoffnung, dass jemand das liest --Philipendula 13:59, 17. Jul 2004 (CEST)

Ich finde die Aufteilung in "Regressionsanalyse" (kurze Übersicht, aktuelle Entwicklungen, gezeigt an einem Beispiel), Lineare Regression und Methode der kleinsten Quadrate (klassisches Fundament) durchaus sinnvoll und der Lesbarkeit zuträglich. Die Einordnung ist allerdings irreführend. Juergen Bode 07:34, 20. Jul 2004 (CEST)

OLS dient lediglich er Begriffserklärung und verweist korrekt auf Kleinste-Quadrate-Methode. Kritisch sehe ich nur die Duplizität von Lineare Regressionsanalyse und Lineare Regression Juergen Bode 10:12, 20. Jul 2004 (CEST)

Also mir ist es noch nie untergekommen, dass jemand unter Regression etwas anderes als Least Squares verstanden hat. Auch in diesem Artikel ist das so. Wenn das nicht so ist, sollte das dringend ergaenzt werden (dann ist auch die Aufteilung in die drei oben genannten Artikel irgendwie sinnvoll), ansonsten sehe ich ehrlich gesagt keinen Grund, die Artikel Regressionsanalyse und Methode der kleinsten Quadrate zu vereinigen. --DaTroll 10:33, 20. Jul 2004 (CEST)

Um mal Ordnung zu machen: Es gibt auf diesem Gebiet numerische Verfahren und das statistisch-wahrscheinlichkeitstheoretische Modell. Hier sollte man klar trennen.

Numerik: Es handelt sich um die Minimierung von Quadratsummen, also die Fehlerquadratmethode oder auch Kleinst-Quadrat-Methode oder wohl auch OLS. Hier sollte es einen Artikel geben, der diese Methode beschreibt, mit Angaben, wo man das überall verwendet: Überbestimmte Gleichungen, Bestimmung von Kurvenverläufen usw. Man hat hier eine Messreihe oder mehrere, und man erhält entsprechend viele Normalgleichungen. Es können lineare Regressionen sein oder nichtlineare. Nichtlineare könnte man aufteilen in linearisierte und streng nichtlineare, die anderweitig iterativ oder was weiß ich ermittelt werden (Ich kann Numerik nicht). Ich weiß jetzt nicht, inwieweit hier schon der Begriff Regression viel Anwendung findet.

Statistik: Hier läuft das ganze unter dem Oberbegriff Regressionsanalyse: Die Bezeichnung Analyse deutet daraufhin, dass hier mehr als nur bloße Ausgleichsrechnung betrieben wird. Wir haben es hier mit einem statistischen Wahrscheinlichkeitsmodell zu tun, das auf Axiomen aufbaut. Die Abweichungen sind keine Fehler, sondern Ausprägungen einer Zufallsvariablen. Es kommen Konfidenzintervalle, Hypothesentests etc. ins Spiel. Die Basis ist das klassische lineare Regressionsmodell (KLR) y = a + bx. Man kennt Einfachregression mit einem unabhängigen Merkmal und multiple Regression mit mehreren unabhängigen Merkmalen. Es gibt auch das multivariate RM mit mehreren abhängigen Merkmalen. Nichtlineare Regression ist auch bekannt, wiewohl die Verteilungseigenschaften nicht immer geklärt sind. Numerische Probleme werden berücksichtigt (Multikollinearität, Ausreißer).

Die Grauzone ist die deskriptive RA, die man als vereinfachte numerische Fehlerquadratmethode bezeichnen könnte. Die dient als Grundlage für die Schätzungen des KLR.

In diesem Sinn könnte man das Ganze wohl sinnvoll strukturieren.

--Philipendula 13:04, 20. Jul 2004 (CEST)

Ok, dann erzaehl ich mal, wie ich das so verstehe: Die Annahme, die Messfehler (die Zufallsvariable) seien normalverteilt, fuehrt direkt auf die Minimierung der Quadratsummen und damit je nach Modellannahme der exakten Loesung auf lineare oder nichtlineare Gleichungssysteme. Wie man die numerische loest, ist ein weiterer Aspekt, aber die Methode der kleinsten Quadrate ist erstmal kein numerisches Verfahren sondern nur ein Weg, Gleichungssysteme zu erzeugen. Meine Frage ist jetzt: taucht es in der Regressionsanalyse ueberhaupt auf, dass man nicht normalverteilte Zufallsvariablen untersucht? Wenn ja, dann ist die Abgrenzung ja klar. Wenn nein, dann eher nicht. --DaTroll13:23, 20. Jul 2004 (CEST)

Tja, brauchen wir die NV oder nicht:

Für die deskriptive RA, also gewissermaßen die numerische Ecke brauchen wir sie eigentlich nicht, denn die Minimierung ist ein rein analytisches Problem, das Minimieren einer Quadratsumme bezüglich k Variablen. (Man darf übrigens das Set überbestimmter Gleichungen nicht mit den Normalgleichungen verwechseln, denn die werden erst dann durch die Regression erzeugt: Es gibt so viele Normalgleichungen wie unabhängige Variablen (das Absolutglied mitgerechnet). ) In vielen Anwendungsfällen genügt vermutlich die deskriptive Regression, das behaupten zumindest die Leute, die mit Schätzen und Testen nix am Hut haben.

Nächste Stufe: KLR. Das KLR geht zunächst mal vom unbekannten Ansatz in der Grundgesamtheit aus:

Y = α + β x + U.

X ist eine fest vorgegebene Variable und Y als Zufallsvariable hängt in oben beschriebener Art von X ab. Allerdings kennt nur der große Statistikgott die wahre Abhängigkeitsstruktur, denn sie ist von einer Störgröße U überlagert. Es gibt nun bezüglich U Axiome, auf denen die KLR fußt. Sie laufen alle mehr oder weniger darauf hinaus, dass in U keinerlei systematische Information enthalten sein soll, U darf nur zufällig wild herumschwanken, d.h. die Beziehung zwi. X und Y soll in etwa linear sein und es sollen keine Ausreißer vorliegen. Man schätzt nun α und β mit Hilfe der OLS durch a und b. Hier kann man schon beste Schätzer (also Erwartungstreue + minimale Varianz) angeben mit Hilfe der linearen Trafo (sic!). Das klappt aber nur, wenn in den Daten, und zwar in X und Y, keine Ausreißer sind, weil es sonst einen sog. High-Leverage-Effekt gibt. Normalverteilte Daten erfüllen Letzteres, drum freut man sich, wenn es so ist, aber es geht auch mit gleichverteilten oder dreiecksverteilten oder so.

Will man nun die Güte dieser Schätzer untersuchen, mit Konfidenzintervallen oder Tests, muss die Verteilung von U bekannt sein. Es wird nun das Zusatz-Axiom eingeführt: U ist NV . Die Normalverteilung ist streng genommen nur der letzte Schritt. Natürlich gibt es auch Schätzmethoden, wie den ML-Schätzer, der NV voraussetzt. Aber auch hier erhalten wir die selben Schätzer für die Regressionskoeffizienten. Nur der Varianzschätzer von U ist nicht erwartungstreu.

Hinzuzufügen wäre noch, dass gewisse für gewisse numerische Verfahren der nichtlinearen Regression wahrscheinlich gar keine Verteilung angegeben werden kann.

Für meinen Geschmack ist halt in den bisherigen Artikeln zu viel vermischt, es bräuchte eine klare Abgrenzung. Das habe ich mal so eben ins Unreine geschrieben. Möglicherweise habe ich noch ein paar Aspekte übersehen.

--Philipendula 16:39, 20. Jul 2004 (CEST)

Sorry fuer die spaete Antwort aber ich hatte in den letzten Tagen keine Zeit, mich mal ruhig hinzusetzen. Also: so wie ich das verstehe, sollte hier ein Statistikartikel hin. Spezialfall ist dann: U normalverteilt und dann kommen wir auf Least Squares und sind bei dem was Gauss gemacht hat. Die grosse Frage waere dann: was schreibt man in den Artikel "Methode der kleinsten Quadrate" (Alles mit normalverteilt?) und wo kommen die numerischen Verfahren hin? Ich kenne zum Beispiel nur Verfahren fuer Least Squares und gewichtete Least Squares (bei denen kenne ich auch den statistischen Hintergrund nicht). Viele Gruesse --DaTroll 11:42, 28. Jul 2004 (CEST)

Ich bräuchte noch ein bisschen Zeit, um mir was zu überlegen. Leider habe ich zur Zeit den neueren Bronstein nicht zu Hause, nur so ein altes Relikt. Alldieweil bei uns Vorlesungsende ausgebrochen ist, komme ich so bald nicht in meine Hochschule. Ich muss also die Infos anderweitig herkriegen, vor allem was klare Abgrenzungen anbelangt. Viele Grüße --Philipendula 19:54, 28. Jul 2004 (CEST)

Strukturierung von Regression

Ich habe heute man etliche Mathehandbücher und Lexika gewälzt. Die Begriffe werden nicht einheitlich verwendet; teilweise wird Regression als gleichbedeutend mit Methode der kleinsten Quadrate verwendet, teilweise wird bei Regression schon die Stochastik ins Spiel gebracht. Teilweise fungiert polynomiale Regression als linear, teilweise als nichtlinear.

Methode der kleinsten Quadrate (Fehlerquadratsumme, Ausgleichsrechnung):

Es werden ganz allgemein irgendwelche Abweichungen quadriert und ihre Summe minimiert:

Man möchte entweder genau n Werte durch n Werte annähern (berühmt-berüchtigt: mit 4 Punkten ein Polynom 3. Grades erzeugen) oder man hat ein überbestimmtes Gleichungssystem, so dass hier gemittelt wird.

Es entsteht in der Regel durch das Minimieren ein System von Normalgleichungen.


Hier wird eine Funktion f(x) durch eine andere Funktion g(x) approximiert. Die Quadrate werden gewichtet.


Hier liegen n Beobachtungswerte y vor. Sie sollen. i.a. von m Variablen x approximiert werden. Die partiellen Ableitungen bezüglich der x können ein nichtlineares Gleichungssystem ergeben, das nicht mehr analytisch lösbar ist. -> iteratives Verfahren nach Gauß-Newton.


Ein Spezialfall ist ein lineares oder linearisiertes Gleichungssystem. Hier ist ein umfangreiches Instrumentarium entwickelt worden. Man betrachtet hier auch numerische Lösungsverfahren wie Choletzky-Zerlegung usw. Hier gibt es schon Berührungspunkte mit der deskriptiven Regression als empirischem statistischem Verfahren.


Statistik: Regression

Man unterscheidet

Deskriptive Regression
Rein numerisch-analytisches Verfahren wie oben
Stochastische Regression (würde ich als Regressionsanalyse bezeichnen)
Verteilungsfrei
Für die Bestimmung der Regressionskoeffizienten ausreichend
Normalverteilung
Für Schätzen und Testen

OLS ist übrigens Regressionsanalyse im multiplen linearen Regressionsmodell mit unkorrelierter homoskedastischer Störgröße. Im Gegensatz dazu ist GLS generalized least Squares mit einer von oben abweichenden Korrelationsmatrix der Störgröße.

Mein Vorschlag:

Artikel

Methode der kleinsten Quadrate ganz allgemein wie oben. Hier kann ich nicht viel zu beitragen.

Artikel

Regression als mechanisches Verfahren, etwa lineare R mit Ausblick auf nichtlineare.

Artikel

Regressionsanneliese für Statistik: Axiomensystem, Schätzer der Regressionskoeffizienten und der Prognose. Ev. Konfidenzintervalle und H-Tests.

Frage ist noch, wo man multiple Regression einordnet, gehört strenggenommen zu Regression, aber die Statistiker haben sie so lieb, dass wohl irgendwann ein solcher sie in die RA einordnet. Ein solcher Kandidat könnte beispielsweise der Benutzer Gowilei sein, der wie ich eine besondere Vorliebe für RA hegt.

Irgendwo sollten noch Berechnungsarten der Inverse aufgeführt werden, gehört eigentlich zu Regression, oder man macht was Eigenes.

Falls dieser Vorschlag vor Euren Augen Gnade fände, könnte ich ja mal R und RA kreativ angehen. Es sei denn, jemand anders fühlt sich berufen oder man ist "überhaupst" dagegen.

--Philipendula 19:50, 30. Jul 2004 (CEST)

Erstmal Danke fuer die Arbeit. Ich werde mal die Methode der kleinsten Quadrate so umarbeiten, wie du das jetzt vorgeschlagen hast. Fuer den Aspekt "Least Squares" als Schaetzer werde ich dann erstmal auf "Regressionsanalyse" verweisen, die statistische Sprache ist mir halt auch weitestgehend nicht gelaeufig. Zwei Sachen verstehe ich noch nicht: Was ist multiple Regression? Und was meinst Du mit Regression als mechanisches Verfahren? Viele Gruesse --DaTroll 14:09, 3. Aug 2004 (CEST)
Multiple Regression ist Regression mit mehreren unabhängigen Variablen xi, z.B. bei der Polynomregression. Mit mechanisch meinte ich die numerisch-analytische Berechnung ohne stochastische Elemente. Viel Spaß! --Philipendula 14:18, 3. Aug 2004 (CEST)
Mh. Nichtmultiple ist dann doch total trivial oder nicht? Was das mechanisch angeht: wie ich den Text ueber "Methode der kleinsten Quadrate" verstanden habe, sollte der numerische Teil doch darein? --DaTroll 14:43, 3. Aug 2004 (CEST)
Uih, ich glaube, da habe ich mich unpräzise ausgedrückt. Man unterscheidet:
Einfache Regression, also eine unabhängige Variable x und eine abhängige Variable y. Beispiel: Man hat für n Dörfer jeweils die Zahl der Störche (x) und die Zahl der Kinder (y) erhoben. Es gibt also n Wertepaare (xi;yi). Man untersucht, ob die Zahl der Kinder von der Zahl der Störche abhängig ist, also ob y ungefähr a+bx ist (hat früher geklappt, als es noch mehr Störche gab).
Multiple Regression: Man erhebt die Daten Zahl der Störche (Variable x1), Zahl der Ehepaare (x2), Zahl der Kindergartenplätze (x3) und Zahl der Kinder (y). Man untersucht, ob y von den Variablen x1, x2 und x3 abhängt und erhält n viele Quadrupel (x1, x2, x3, y). Man hat es hier mit Matrizenrechnung zu tun.
Einfachregression ist also ein Spezialfall der Multiplen Regression. Einfachregression wird allerdings sehr häufig verwendet, vermutlich weil sie auch einfach gestrickte Gemüter verstehen, verdient also eigene Abhandlung.
Ad Mechanisch: Eigentlich hatte ich Least Squares sogar noch allgemeiner beabsichtigt, dass es die Minimierung von Abweichung bedeutet und wo sie verwendet. Es gibt ja verschiedene Methoden, die Quadratsumme zu minimieren. In die Regression sollte dann speziell das Verfahren mit den Normalgleichungen. Aber man könnte auch die beiden obigen Artikel zu einem zusammenfassen. Ich schwanke da selber etwas.
--Philipendula 15:52, 3. Aug 2004 (CEST)
Das letztere halt ich fuer ungluecklich: Normalgleichungen kommen doch direkt aus der Quadratsummenminimierung. Also sollten sie doch nach Least Squares? Das mit der multiplen Regression habe ich jetzt verstanden :-) --DaTroll 10:36, 5. Aug 2004 (CEST)
Ja, da hast Du recht. Letztlich führen wohl alle Verfahren zu einem Normalgleichungssystem, das linear oder auch nichtlinear sein kann. Regression würde dann wohl speziell die linearen Systeme abdecken. Gehe vor, wie Du es für am besten hältst. Danke, dass Du Dich opferst. :-) Viele Grüße --Philipendula 17:53, 5. Aug 2004 (CEST)
Jaja, schon klar :-) Ich hab die nächsten Tage keine Zeit, danach werde ich mich dann aber mal um Least Squares kümmern. Viele Gruesse --DaTroll 21:47, 5. Aug 2004 (CEST)

Neustrukturierung von Regression

Da das Thema Regression in mindestens 4 Teilartikel zerfallen ist, die sich alle mehr oder weniger überschneiden, soll das Ganze in zwei Artikel zusammengefasst werden, nämlich Methode der kleinsten Quadrate, quasi als numerische Variante und Regressionsanalyse als statistisch-inferentielle Variante. Mir ist klar, dass die Titel keine eindeutige Trennung der Konzepte bedingen, aber man kann wohl keine saubere Grenze ziehen. Als ich die vorliegenden Artikel analysierte, merkte ich allerdings, dass zum Thema inferentielle Statistik relativ wenig vorliegt. Also habe ich dazu etwas ausgearbeitet, was dann viel mehr wurde, als ich eigentlich vorhatte.

Den vorherigen Text habe ich hier auf der Diskussionsseite zwischengeparkt. Er wird dann noch mit den anderen Artikeln auf die beiden verbliebenen Artikel verteilt.

Ich hoffe, Autoren der Artikel, Ihr hasst mich nicht! --Philipendula 00:35, 29. Aug 2004 (CEST)

In der Tat, liebe Philipendula, für meine Studenten (Biochemie) kann ich diesen Artikel nun nicht mehr gebrauchen. Meine Absicht war, die Grundprinzipien der nichtlinearen Regression zu erörtern, so wie sie den von mir angewendeten Programmen (z.B. der Enzymkinetik) zugrunde lagen. So ergibt sich durchaus Bewunderung, allerdings verbunden mit einem "Schade". Das beste ist wohl, den für mich wesentlichen Teil mit einem weniger allgemeinen Titel zu versehen (!?) Gruß, Juergen Bode 16:47, 29. Aug 2004 (CEST)

Hallo Jürgen Bode, tut mir leid. Der Artikel ist ja noch nicht weg. Es geht doch um ein spezielles Problem der nichtlinearen Regression. Könnte man das nicht als Anwendungsbeispiel bei Methode der kleinsten Quadrate unterbringen? Denn dieser Artikel befasst sich doch mit numerischen Aspekten. Du musst doch eigentlich zugeben, dass die Überschrift Regressionsanalyse für diese Anwendung etwas zu allgemein war. Außerdem hat das neue Semester ja noch nicht begonnen. :-)--Philipendula 19:13, 29. Aug 2004 (CEST)

...also, ich verlass mich auf Dich, ordne es ein, wo es am besten passt - bitte! Immerhin: als ich den Abschnitt verfasste, gab´s noch nichts zum Thema Regressionsanalyse. Richtig platziert kann´s nur gewinnen. Gruß, Juergen Bode 21:50, 29. Aug 2004 (CEST)

Ja, Danke an Philipendula, da hast Du tolle Arbeit geleistet. Ich habe "Lineare Regression" in einen Redirect auf den Artikel hier umgewandelt. Zieh doch einfach aus "Lineare Regressionsanalyse" noch raus, was Du für sinnvoll hältst und mach dann auch einen Redirect raus. Dann ist das wichtigste geschafft. Ich schreibe in den Artikel hier noch einen Satz zur Methode der kleinsten Quadrate rein, um dem Leser die Abgrenzung der beiden Artikel deutlicher zu machen. Dann ist zukünftigen Parallelentwicklungen vorgebeugt. Die Nachwehen wie das Einbinden von Jürgens Teil oder das Verbessern des Artikels über "Methode der kleinsten Quadrate" sind dann ja relativ straightforward. Zumindes sind wir jetzt CD-fähig mit den Artikel :-) Viele Gruesse --DaTroll 22:28, 29. Aug 2004 (CEST)

Ebenfalls Danke. So wird es wohl etwas werden. Viele Grüße -Philipendula 22:42, 29. Aug 2004 (CEST)

- 2005 -

Regressionsrechnung

@Philipendula: Die Regressionsanalyse wird deshalb auch als Regressionsrechnung bezeichnet, weil sie von der Aufgabenstellung her, so genannte "einseitige" statistische Abhängigkeiten, d.h. statistische Ursache-Wirkungs-Beziehungen, durch so genannte Regressionsfunktionen beschreibt. Dazu verwendet man im Normalfall lineare Funktionen, aber auch quadratische Funktionen und Exponentialfunktionen. Daher ist im Zusammenhang der Regressionsanalyse absolut gerechtfertigt, von einer Regressionsrechnung zu sprechen ! docmo 21:14, 16. Mai 2005 (CEST)

Eine Ursache-Wirkung-Beziehung ist im Regressionsmodell nicht gefragt. Die Rechentechnik findet in Methode der kleinsten Quadrate statt. Gruß --Philipendula 21:19, 16. Mai 2005 (CEST)
Ich sehe das leider anders; habe aber keine Lust hier eine akdemische Diskussion vom Zaun zu reißen. Die Ursache-Wirkung-Beziehungen sind insbesondere in der Regressionsanalyse zuhause. Den Ausgangspunkt für die RA bilden Wertepaare bez. die ergebnisgröße --> Wirkung einerseits und der Gesamtheit der Einflussgrößen --> Ursachen andererseits. Um den Anschlus an die Methoden in der Statistik zu gewinnen, setzt man voraus, dass die "Wirkungs"-Werte Realisierungen von zufälligen Merkmalen (Zufallsgrößen) sind. Dies wird zunächst mittels einer Regressionsfunktion verfolgt. Dies ist eine Regressionsrechnung. -- docmo 21:36, 16. Mai 2005 (CEST)
Es kommt mir vor hier werden einige Sachen nicht recht betrachtet. Man kann ohne weiteres von Regressionsrechnung sprechen statt von Regressionsanalyse, aber das hat keine andere Bedeutung als synoniem zu sein. Die statistische Ursache-Wirkungs-Beziehungen sind sicherlich Anwendungen der Analyse, aber werden nicht speziell mit Regressionsrechnung angedeutetet (im Vergangenheit war dass anders). Das Wort Regression ist eigentlich ein falscher, historisch bedinger, Andeutung fuer Regressionsrechnung, weil von Regression meistens keine Rede ist. Regressionsanalyse wird oft mit der Methode der kleinsten Quadrate identifiziert. Das ist aber ein Irrtum. Die Methode wird auch in andere Gebiete angewendet, und anderseits kann man zur Bestimmung der Regressionslinie auch ander Methoden benutzen.Nijdam 23:29, 16. Jun 2006 (CEST)

Es kommt mir ziemlich unlogisch vor die j-e Beobachtung van xi mit xji statt mit xij an zu deuten.Nijdam 23:59, 10. Jun 2006 (CEST)

Ich kriege auch immer Bauchweh davon. Aber die Datenmatrix hat als Zeilen die Beobachtungen und als Spalten die Variablen. Deshalb diese Indizierung. --Philipendula 00:24, 11. Jun 2006 (CEST)
Ich weiss, und die Unlogik stammt schon von der Definition einer Matrix. Die erste Spalte der Datenmatrix enthalt aber auch keine Daten, deshalb kan mann definieren: Xi1=1 und sonst Xij = xji.Nijdam 11:57, 14. Jun 2006 (CEST)

- 2006 -

Fehler bei der linearen Regressionsberechnung 11:02, 13. Jul 2006 (CEST), spetzl[a]gmx.at

Hab mir lange den kopf zerbrochen warum ich nicht auf die ergebnisse (b = -0,98, a=19,..) komme. Der Grund ist dass die Tabelle falsch ist! die letzte Zeile gehört gelöscht. weiss nicht wie man dabei üblicherweise vorgeht... soll ich das selber machen?

Du kannst es gern selber machen, oder sagen, wo der Fehler ist. Gruß --Philipendula 16:42, 13. Jul 2006 (CEST)

Keine Ahnung ob ich einfach blind war oder ob das jetzt schon wer ausgebessert hat. DIe letzte zeile stellt ja lediglich die summe dar, und darf natürlich nicht in die berechnung miteinfließen. es steht aber eh "Total" daneben, also eh alles ok, fehler von mir anscheinend...

Das "Total" steht erst seit einige Tagen da. Der beste Beweis dass meine Verbesserung effektiv ist.Nijdam 01:14, 21. Jul 2006 (CEST)

residuum

Die Störgröße betrifft die Grundgesamtheit, das Residuum ei die Stichprobe. Siehe ein paar Zeilen weiter unten. Ich wäre dankbar, wenn man es so lassen könnte. --Philipendula 16:26, 14. Jun 2006 (CEST)

Kompromiss ? --Chrisqwq 18:00, 14. Jun 2006 (CEST)
Die Zufallsvariable entstammt immer der Grundgesamtheit, sonst wäre es eine Stichprobe. Und das Residuum ist zwei Zeilen weiter unten erläutert. Bitte versuche es zu lesen. --Philipendula 21:24, 14. Jun 2006 (CEST)
Die Störgröße betrifft nur im algemeinen Model die Grundgesamtheit. Wenn man von einer Stichprobe spricht, soll man eigentlich der Zufallsvariablen meinen den man observieren moechte. Die Stichprobe als observierten Daten ist nur fuer Berechnungen interessant. Man kann also nicht sprechen van die Störgröße, aber von der Störgrößen. Jeder dieser Störgrößen ist ein Komponent eines Elements der Stichprobe und eine (stochastische) Kopie der Störgröße im algemeinen Model. Die erwaehnte Residuen (ei) sind die Schaetzungen der Störgrößen.Nijdam 23:11, 16. Jun 2006 (CEST)
Es sind keine Schätzungen, weil man eine Zufallsvariable nicht schätzen kann. --Philipendula 23:12, 16. Jun 2006 (CEST)
Ziemlich dogmatisch. Man schaetzt nicht die Zufallsvariable, aber der unbekannte Realisation dieser Zufallsvariable. Und ei=yi-(a+bxi), also ist es ein Funktion der Stichprobe (Englisch: ststistic, or in this case an estimator).Nijdam 00:05, 18. Jun 2006 (CEST)

Prädiktor-Variablen = Regressoren ?

  • Die Wurden auch vor meinen Änderungen als gleich bezeichnet im artikel, das stimmt aber doch nicht, oder? --Chrisqwq 15:38, 17. Jun 2006 (CEST)
Muss ich mich mal schlau machen. --Philipendula 12:50, 18. Jun 2006 (CEST)

Aenderungen

Es sind im Text Fehlauffassungen. Ich habe einiges rechtgestellt, aber mein Aenderungen sind ohne Diskussion rueckgaengig gemacht. Leider.Nijdam 11:18, 19. Jun 2006 (CEST)

Wenn gleich im ersten Wort Rechtschreibfehler auftreten, setze ich die Änderungen zurück, weil ich keine Lust habe, die ganzen Änderungen Wort für Wort durchzugehen. Ist vielleicht nicht nett, aber meine Zeit ist nicht beliebig für die WP verfügbar. --Philipendula 11:38, 19. Jun 2006 (CEST)
Ich bin kein Deutscher, aber versuche mein Bestens. Auch mein Zeit ist beschraenkt, doch versuche ich wo ich Texten ueber statistische Themen lese, wo noetig sie zu verbessern.Nijdam 13:01, 19. Jun 2006 (CEST)

Geloescht

Ich weiss nicht recht was passiert ist, aber es war nicht mein Absicht Text zu loeschen. Da ist etwas schief gegangen. Entschuldige. Nijdam 22:28, 16. Jul 2006 (CEST)

Warum machst du eigentlich den Zirkus mit der Tabelle? Sie ändert sich doch nicht durch das Verkleinern. --Philipendula 23:43, 16. Jul 2006 (CEST)
Weil bei Wikibooks jemand die letzte Reihe versehentlich auch als Daten interpretiert hat, habe ich eine Spalte mit Nummern angebracht und die letzte Reihe als Total angemerkt. Das ist der eigentlichen Zirkus. Hast du es gesehen? Nebenbei habe ich die Lay-out von die zwei Spaltentitel verbessert(? jedenfalls auf mein Monitor).Nijdam 23:08, 17. Jul 2006 (CEST)

Überarbeiten

Der Artikel hat starken Lehrbuchcharakter und schafft nicht zunächst einen Überblick. --Chrisqwq 18:08, 27. Jul 2006 (CEST)

Stimmt. Der ist quasi von Experten für Experten geschrieben. Es fehlt eine Einführung die dem Laien erklärt worum es geht, welche Probleme die Regressionsanalyse bewältigt, wofür sie eingesetzt wird, und in welchem geschichtlichem Umfeld sie entstanden ist. Wäre toll wenn das jemand hinzufügen könnte. Maikel 16:32, 8. Sep. 2007 (CEST)

Gliederung

Macht diese Gliederung Sinn? 2 Das klassische lineare Regressionsmodell (KLR) 2.1 Einfache Lineare Regression 2.2 Multiple Regression

Müsste es nicht so sein?: 2 Das klassische lineare Regressionsmodell (KLR)/ Einfache Lineare Regression 3 Multiple Regression --Chrisqwq 16:45, 28. Aug 2006 (CEST)

Tja, es ist ziemlich viel an dem Artikel herumgeschnitzt worden, besser ist er deshalb auch nicht geworden. Vor allem sind jetzt die Annahmen des KLR zweimal drin. IMHO, zugegebenermaßen vorbelastet, war die Version [1] (bis auf den Block der roten Links oben, die man ohne Schaden nach unten befördern könnte) schön rund und komplett. Am liebsten würde ich den Artikel wieder auf diesen Stand zurücksetzen. Aber das verstößt vermutlich gegen das heilige Wikiprinzip, dass jeder darf ... --Philipendula 17:44, 28. Aug 2006 (CEST)

Naja, der alte Artikel war auch nicht besser. Ich habe zu wenig Ahnung, um mich ernsthaft damit zu beschäftigen, und scheinbar geht das einigen anderen auch so. Jedenfalls scheint es sich noch um "work in prograss" zu handeln, und da kann man durchaus mal noch ein paar Tage abwarten. --Scherben 17:52, 28. Aug 2006 (CEST)
Hallo, nein die jetzige Gliederung macht so jetzt keinen Sinn. Eine bessere Gliederung wäre wohl 2 Einfache Lineare Regression 3 Multiple Regression. Ja, es ist steckt wohl noch ziemlich viel Arbeit daran dann Artikel zu verbessern, aber ich geb mir Mühe, nur leider ist das nicht in ein oder zwei Tagen erledigt. Ja, es ist auch klar, dass die Annahmen des KLR zweimal drin sind, aber das sollte auch nicht ein allzu großes Problem sein, diese an einer Stelle zu entfernen. --Pi666 18:26, 28. Aug 2006 (CEST)

Auslagerung der Multiplen Regression

Ich bitte darum, den Artikel vollständig zu lassen. Er ist aus ca. 6 Artikeln zusammengesetzt worden und es wäre schön, wenn man ihn als Einheit belassen würde. Auch ist die Einfachregression lediglich ein Spezialfall der multiplen Regression und muss keine Sonderbehandlung kriegen. --Philipendula 15:32, 4. Sep 2006 (CEST)

  • Wie die Regression im Allgemeinen funktioniert kann hier erläutert werden, die Unterpunkte zur einfachen und multiplen Regression gehen aber über das allgemeine Verständnis hinaus und erklären besondere Tatbestände bzw. sehr ausführliche Bespiele zum Verfahren. Übersichtlicher wäre es deshalb kurze Einleitungen stehen zu lassen und die Unterpunkkte auszugliedern. Eine Zusammensetzung aus 6 alten Artikeln wiedersricht nicht einer Auslagerung von 1 bzw. 2 Unterpunkten jetzt. --Chrisqwq 15:53, 4. Sep 2006 (CEST)
  • Die Lineare Regression ist natürlich im Grunde das gleiche wie die Multiple, ist aber doch wohl dennoch wichtig getrennt zu erläutern, da sonst kaum verständlich, sonst müsste man dies im Artikel ja auch tun. Besser fände ich im Ausgelagerten Artikel einfach einen Einleitungssatz "Die lin. Reg. ist ein sonderfall der multiplen Reg." und fertig. --Chrisqwq 15:59, 4. Sep 2006 (CEST)

Ein Artikel, wie Regression im Allgemeinen funktioniert und dann noch zwei Spezialartikel, die hochgradig redundant sind, halte ich für kontraproduktiv. --Philipendula 16:43, 4. Sep 2006 (CEST)

  • Dann würdest du sagen, das der bisherige Artikel genau so redundant ist? Dann verändere ihn doch dahingehend, das fänd ich dann ok. Ich denke dann sollte die absrakte Syntax der multiiplen Reg. aber dennoch einmal einfach mit "Schulmathematik" für die Einfachreg. beschrieben werden. --Chrisqwq 16:48, 4. Sep 2006 (CEST)

Warum soll der redundant sein? --Philipendula 16:58, 4. Sep 2006 (CEST)

  • weil die ausgelagerten Artikel lin Reg. und mult.reg. genaue Kopien des Artikelinhalts waren. Wenn du also sagst, sie seien Redundant, dann enthält der Artikel in der jetzigen Form Redundanzen. --Chrisqwq 17:06, 4. Sep 2006 (CEST)
Das hatte ich schon gemerkt, dass wieder mal einfach mit dem Hackebeil vorgegangen wurde. Wenn man drei Artikel draus macht, muss man aber auch Verbindendes etc. reinschreiben, und dann wird es redundant. Alles einfach aus dem Kontext zu reißen ist stümperhaft. --Philipendula 17:08, 4. Sep 2006 (CEST)
  • "und dann wird es redundant." denke ich nicht. An was denkst du da? Ich habe einen vorschlag gemacht, der Einleitungssatz, weitere Ergänzungen sehe ich nicht als nötig an. Wenn doch dann nenne sie. Wenn es nicht mehr als 5, 6 Hinweise auf das Oberthema sind denke ich kann man das an Redundanzen verkraften. --Chrisqwq 17:50, 4. Sep 2006 (CEST)
Ich sehr keinerlei Vorteil darin, den Artikel zu zerschlagen. --Philipendula 18:18, 4. Sep 2006 (CEST)

Überarbeitung

wir hatten doch schon drüber gesprochen, mit einfachreg und multipler, daher wolltest du doch keine zwei artikel, weil es im grunde das selbe ist. Wie hättest du denn gerne den Hinweis, das die Verfahren zusammenhängen? Statt zu reverten, könntest du auch konstruktiv dahingehend bearbeiten. Das Beispiel soll dem nichts-wissenden Leser zeigen worum es ungefähr geht, als einführung! --Chrisqwq 12:07, 5. Sep 2006 (CEST)

Wie das zusammenhängt, steht schon oben in den ersten 5 Zeilen. Ich fände es schön, wenn ich mal meine anderen Arbeiten hier machen könnte und mich nicht dauernd hier rumschlagen müsste. --Philipendula 12:13, 5. Sep 2006 (CEST)

Ich hatte jetzt ja einfach mal behauptet das das was anderes ist. Kann mir vieleicht jemand erklären, wie die beiden vieleicht doch zusammen hängen? --Chrisqwq 17:09, 18. Sep 2006 (CEST)



Ja,ich stimm Dir voll und Ganz zu, dass das was anderes ist;-)

Ansatz für logarithmische Regression

.

Bei der logistischen Regression arbeitet man mit einer binären Variablen Y, das heißt diese nimmt nur die Werte 0 und 1 an. Und dann lautet das logistische Regressionsmodell

,

Dies baut man dann in das Regressionmodell ein

Näheres dazu findet sich auch im Artikel Logistische Regression und bei einer Suchmaschine Deiner Wahl. Somit kann man grob sagen, bei der logarithmischen Regression taucht der eher bei den Kovariablen x auf und bei der logistischen Regression eher beim Response Y.

Andererseits wäre ich jedoch dafür für Logarithmische Regression, Logistische Regression, Geometrische Regression usw. eigene Artikel zu erstellen und im Artikel Regressionsanalyse darauf zu verlinken, da diese Regressionsformen, wie Du siehst in der Regel sehr speziell sein können und über den Stoff, der in einem Artikel zur Regressionsanalyse abgehandelt werden sollte hinausgeht. Außerdem wird kann der Artikel dann doch sehr schnell sehr groß werden.

Gruß --Pi666 19:25, 18. Sep 2006 (CEST)

Zusammenhangsarten

Die Zusammenhangsarten gehören in Methode der kleinsten Quadrate, weil das numerische Vorgehensweisen sind. Man kann bei den meisten die sich ergebenden Verteilungen der Schätzer gar nicht mehr angeben. --Philipendula 19:39, 18. Sep 2006 (CEST)

Ich würde, wie bereits weiter oben erwähnt eigene Artikel für diese Arten machen. Dennoch kann man ja in den Artikel Regressionsanalyse und Methode der kleinsten Quadrate jeweils Links dazu einfügen. --Pi666 19:47, 18. Sep 2006 (CEST)
*soifz* Wenn ihr meint ... Aber vielleicht sollte man die Links möglichst nicht gleich im Einleitungsteil aufführen. Denn letztlich laufen die ja nach entsprechender Transformation immer auf eine lineare Regression raus. Vor daher verstehe ich nicht, warum da zu jeder Variante ein eigener Artikel her muss. Ausnahmen wären vielleicht Logit oder Probitmodelle. --Philipendula 20:09, 18. Sep 2006 (CEST)
Es war ja auch nur ein Vorschlag, jeweils eigene Artikel zu erstellen. Sicherlich hast Du recht, dass sich Logit- oder Probitmodelle hier besonders anbieten. --Pi666 10:13, 19. Sep 2006 (CEST)
  • Mit der Transformation kann man aber auch bildlich verdeutlichen. Das ist bisher im Artikel nicht klar rausgestellt. Anderes Thema: Ich wäre dafür lineare Einfachregression und Methode der kleinsten Quadrate zusammenzulegen. Die Unterscheidung numerisch und stochastisch ist kaum durchzuhalten und wird es auch nicht in den Artikeln. Außerdem ist der Artikel Regressionsanalyse viel zu lang. Ich möchte mulitvariate auch auslagern. Das man beide Verfahren ineinander überführen kann kann ja kurz erwähnt werden. Dennoch haben Einfachregression und Multiple Regression doch so viele Besonderheiten das je ein eigener Artikel angebracht ist. --Chrisqwq 04:11, 19. Sep 2006 (CEST)
Ich bin entschieden gegen Ersteres. Ich habe aus dem heillosen Durcheinander von 6 Artikeln diese beiden bemacht, und die Aufteilung ist ok so, weil eben auch die numerische Komponente ein völlig eigene ist. Und einfache und multiple Regression passen gut zusammen, denn sie unterscheiden sich letztlich nur durch die Zahl der Regressoren. --Philipendula 08:00, 19. Sep 2006 (CEST)
Hi Chrisqwq, ich bitte daran zu erinnern, dass diese Artikel nicht vom Himmel gefallen sind, sondern eine Heidenarbeit gekostet haben. Wenn Du das zugrundeliegende Konzept ändern willst, muss schon ein bisschen was handfesteres kommen, um so tiefgehende Änderungen durchzuführen. --P. Birken 09:13, 19. Sep 2006 (CEST)
Eine Zusammenlegung von lineare Einfachregression und Methode der kleinsten Quadrate halte ich nicht für sinnvoll. Da es da doch rein aus fachlicher Sicher mehr Unterschiede als Überschneidungen gibt --Pi666 10:13, 19. Sep 2006 (CEST)

Verwaistes Bild

Bei den verwaisten Bildern gefunden, falls noch benötigt. --Gruß Crux 01:29, 21. Sep 2006 (CEST)

Hallo Crux, lass es bitte noch ein wenig leben. Ich muss erst mal schaun, ob man es wieder einfügen sollte. Danke --Philipendula 10:28, 21. Sep 2006 (CEST)
Naja, das meiste was in der Grafik aufgeführt ist, wurde von mir als Text in das Beispiel zur multiplen Regression eingefügt. Des Weiteren ist in dieser Grafik im unteren Teil eine ANOVA aufgeführt, welche für das Beispiel nicht benötigt wird. --Pi666 20:46, 21. Sep 2006 (CEST)
Eigentlich was dieser SPSS-Output auch ein bisschen als Anschauungsmaterial gedacht, wie so eine Auswertung profihaft aussieht. Das einfach zu killen finde ich zumindest befremdlich. --Philipendula 11:03, 1. Okt 2006 (CEST)

Zerschlagung des Artikels

Hallo, ich verfolge derzeit auch diesen hart umkämpften Arikel;-) Allerdings würde ich auch sagen, dass die Version vom 22:45, 18. Dez. 2006 besser ist als die aktuelle. Nach Aussage von Chrisqwq sollte der Artikel zu einem Übersichts-Artikel werden, diesen Anspruch kann er meiner Meinung nach in der aktuellen Form jedoch nicht erfüllen, ein sehr gutes Beispiel ist hierbei der Abschnitt Spezielle Anwendungen der Regressionsanalyse, in diesem erhält man so gut wie keine Information darüber, was man vielleicht unter dem Abschnittstitel erwarten würde. In der Version vom 22:45, 18. Dez. 2006 findet man jedoch einen meiner Meinung nach guten ersten Überblick zum Thema Regressionsanalyse. --Pi666 18:44, 19. Dez. 2006 (CET)

Ja, das finde ich auch. Ich war der Bösewicht, der die letzten zwei Reverts gemacht hat. Der Artikel war vorher eigentlich schön rund und vollständig. Allerdings würde ich noch vorschlagen, den Abschnitt Spezielle Anwendungen mit ein paar Worten aufzufüttern oder sonst zu entschlacken bzw. zu entfernen. --84.147.125.57 19:23, 19. Dez. 2006 (CET)
  • Der Übersichtsartikel sagt allgemein wie es funktioniert. Wie du ja richtig sagst ist die Einfachregression ein Sonderfall der multiple Regression, dashalb muss diese auch nicht hier in der Übersicht erklärt werden. Die multiple Regression ist zu komplex um sie zu verstehen, wenn man einfach nur verstehen will, das es hier darum geht, eine Grade über eine Punktwolke zu legen. Auch die Annahmen der Regression können in einem eigenen Artikel bleiben, der sich ja sowieso mit Gauss-Markov-Annahmen überlappt. Auch eine Beweisskizze gehört wohl kam in eine Übersicht. Das viel zu lange Beispiel gehört auch nicht in einen Übersichtsartikel. Man Könnte natürlich im Übersichtsartikel noch einige mehr Teilaspekte und deren Bedeutung ansprechen, aber nicht so ausführlich und wirklich umfassend erklären wie bisher. Da fehlten nur noch die Instrumentenvariablen (Scherz). --Chrisqwq 07:56, 21. Dez. 2006 (CET)
  • Berlin-Jurist hat de Artikel jetzt gesperrt. Gleichzeitig hat er dieTeilbeiträge schnellgelöscht. Damit ist nun keine Diskussion möglich, da man nicht weiß, worüber man diskutiert. Wegen der Schnelllöschung der Teilbeiträge ist jetzt von dritter Seite der Artikel Einfachregression entstanden. Wenn die Artikel "obsolet" sind ist das ein Fall für Doppeleintrag oder Redirect, abernicht für SLA. Wenn, dann klärt man das in der Diskussion und macht dann redirects. So kommt hier irgend ein neuer wie bei Einfachregression schon passiert, und legt wieder einen neuen artikel an --Chrisqwq 08:23, 21. Dez. 2006 (CET)

Ganz grundsätzlich: Die Tendenz muss allein aus wartungstechnischen Gründen dahingehen, dass wir weniger Artikel zu einzelnen Themen und mehr Überblicksartikel haben. In diesem Sinne gefällt mir die letzte Version auch besser. --Scherben 12:01, 21. Dez. 2006 (CET)

Du willst allen Ernstes die Annahmen auslagern???? --Philipendula 16:29, 22. Dez. 2006 (CET)
    • Schön, dass nur auf den Teil geantwortet wird, der Grad in die Argumentation passt. Die Annahmen sind schon in sich leider sehr überlappenden Artikeln (auch mit diesem hier überlappen) erläuert. Siehe z.B. BLUE und von da aus die verlinkten Artikel. Und auf jeden Fall ist es Quatsch die Annahmen unter dem Abschnitt "Einfachregression" zu lassen. --Chrisqwq 16:51, 22. Dez. 2006 (CET)
  • Da gegen die von mir vorgebrachten Argumente keine Gegenargumente kommen, gehe ich davon aus, dass ich alle überzeugt habe (hüstel!). --Chrisqwq 19:49, 27. Dez. 2006 (CET)
  • Naja, ich würde auch nicht unbedingt sagen, dass wir hier eine Einigung erzielt haben. Den Vorschlag die Annahmen aus dem Artikel auszulagen, halte ich zum Beispiel auch für den völlig falschen Weg. --Pi666 22:01, 27. Dez. 2006 (CET)
  • Was mich dazu bewegt hatte ich ja schon gesagt: "Da gegen die von mir vorgebrachten Argumente keine Gegenargumente kommen". Es ist gang und Gäbe in er Wikipedia Spezialinfos auszulagern und einen Übersichtsartikel bestehen zu lassen. Demnch werde ich die Beispiele in die Diskussion verschieben. Und wie gesagt: Die Annahmen haben bereits einen/mehrere Artikel,da kann ich garnichts für! --Chrisqwq 22:48, 27. Dez. 2006 (CET)
  • Wie oben schon erwähnt wurde, es kommen deshalb keine Gegenargumente, weil du beratungsresistent bist. Ich plädiere eher dafür, dass die Teilartikel, die in [2] aufgeführt wurden, in den Artikel Regressionsanalyse integriert werden. --Philipendula 23:22, 27. Dez. 2006 (CET)

a) Kannst du bitte mal anfangen, dich bei dieser Diskussion mit den formalen Aspekten des Setzens von * und : vertraut zu machen. Man blickt schon nach ein paar Zeilen nicht mehr durch, wer wann auf was geantwortet hat.
b) Kannst du zudem bitte anfangen, die Leistungen anderer Leute hier zu respektieren? Dieser Artikel wurde genau wie Methode der kleinsten Quadrate als Überblicksartikel angelegt und mühsamst aus verschiedenen anderen Teilen zusammengebaut. Dies geschah gerade weil zu viele Leute mit Halbwissen meinten, ihr nur rudimentär vorhandenenes Wissen im Bereich der Statistik anderen Benutzern als enzyklopädische Artikel zu verkaufen. Wenn du jetzt ernsthaft vorschlägst, die stochastischen Aspekte der Regression in den exzellenten numerischen Artikel zu den kleinsten Quadraten einzubauen, dann kann ich dich als Mitarbeiter hier nicht mehr ernstnehmen. --Scherben 11:39, 28. Dez. 2006 (CET)

      • "schlage ich vor sie als extra-Artikel zu lassen" - Sagte ich ja bereits. Wie gesagt geht es mir darum, dass es normal ist, das ein Artikel einen Überblick geben soll. Wenn aber Teilaspekte zum allgemeinen Verstandnis nicht notwendig sind, könnnen sie ausführlich in einem Sonderartikel behandelt werden. Weil du bei diesem Artikel Angst vor Stümpern hast ist doch kein Argument. Das gilt ja wohl für die ganze Wikipedia. --Chrisqwq 12:34, 28. Dez. 2006 (CET)
Hier noch eine Anmerkung aus den WP-Grundlagen: http://de.wikipedia.org/wiki/Wikipedia:Wie_schreibe_ich_gute_Artikel#L.C3.A4nge_eines_Artikels
Ich kontere jetzt NICHT mit [3], Punkt 1 und 9. --Philipendula 14:27, 10. Jan. 2007 (CET)

- 2007 -

Fehler im Beispiel der Regressionsberechnung 13:46, 15.Feb 2007 (CEST)

Hallo ich hätte da auch noch eine Frage...

ist da nicht auch ein Fehler bei der Berrechnung von b???

-wo bleibt das 1/n vor der Summe... ich in meinem Uni Skript habe auch diese 1/n vor den Summenzeichen nicht.

Kann es sein, dass die sich einfach wegkürzen? Oder was meinst du? --Scherben 14:24, 15. Feb. 2007 (CET)
hm... stimmt ja... dann ist ja alles klar... 6 stunden lernen sind einfach zuviel.
<- was ist hiermit eigentlich gemeint???
Steht im Absatz darunter, das sind die empirischen (Ko-)Varianzen. --Scherben 09:56, 16. Feb. 2007 (CET)

^yi Beispiel, falsche Formel

Bei der Berechnung der Regressionsgeraden lautet die Formel

^yi= a+bxi

leider wurde im Beispiel folgendes geschrieben

^yi = 19,73 - (minus statt plus) 0,98 * xi (nicht signierter Beitrag von 80.109.64.109 (Diskussion | Beiträge) 20:55, 10. Jun. 2007 (CEST))

Hallo, zwei Zeilen weiter oben ergab sich hier, dass b = -0,98 ist, ich habe dies jetzt etwas "schöner" im Sinne der Formel eingebaut. vorher wurde lediglich das plus sofort nach dem Einsetzen von b durch ein minus ausgetauscht. Gruß --Pi666 13:10, 26. Sep. 2007 (CEST)

- 2009 -

Unabhängig

Am Anfang steht: ... wobei die einzelnen x-Werte untereinander unabhängig sind. Was haben x-Werte mit stochastischer Unabhängigkeit zu tun?? Nijdam 12:24, 5. Mai 2009 (CEST)

Wahrscheinlich war damit gemeint, dass das die Matrix vollen Rang haben muss, also lineare Unabhängigkeit der Spaltenvektoren von X. -- Philipendula 13:39, 5. Mai 2009 (CEST)
Ok, die Verweisung aber zeigt auf stochastische Unabhängigkeit.Nijdam 17:00, 5. Mai 2009 (CEST)

Dann ist die Rede von: Im eindimensionalen Fall spricht man von einer einfachen linearen Regressionsanalyse, aber weiter im Artikel heisst es im Fall logarithmischen Regression. Nijdam 12:30, 5. Mai 2009 (CEST)

Dazwischen kommt aber was mit nichtlinearer Regression. -- Philipendula 13:39, 5. Mai 2009 (CEST)
Wird nun gemeint: sei ein Fall linearer Regression?Nijdam 17:00, 5. Mai 2009 (CEST)
Wenn , spricht man meiner Meinung nach von lineare Regression, wenn f linear ist in . und von einfacher Regression wenn x 1-dimensional ist. Nijdam 00:12, 6. Mai 2009 (CEST)

- 2010 -

F-Test nicht korrekt

Hallo, Ich bin mir zu 99.9% sicher, dass die Berechnung des F-Tests nicht ganz korrekt ist. Gemäss Eintrag lautet F= [ SSReg / (n-1)] / [ SSRes / (n-p) ]

Meiner Meinung nach sollte es heissen: F= [ SSReg / (p-1)] / [ SSRes / (n-p) ]

Gruss giordano (nicht signierter Beitrag von 85.3.32.180 (Diskussion | Beiträge) 19:12, 10. Jan. 2010 (CET))

Danke für den Hinweis. Es muss aber sein , denn es sind p+1 Variablen im Modell. -- Philipendula 11:51, 12. Jan. 2010 (CET)

Autoregressives Modell

Hey, ich würde gerne einen kurzen Abschnitt über autoregressive Modelle (AR(p)) einbauen, bin mir aber nicht sicher, wo das hinsoll. Dazu vielleicht noch einen Link zu (stochastischen) Differenzengleichungen. Gibt es irgendwelche Meinungen dazu? --Angsteh 14:21, 16. Jan. 2010 (CET)

Finde ich eine gute Idee. Vielleicht hast du ja Lust einen ganzen Artikel zu den autoregressiven Modellen zu schreiben (evtl mit Hilfe des englischen Artikels als roten Faden -- dann beachte aber die Importregeln, da hab ich mich vor kurzem dran verbrannt) und das Verfahren hier kurz zu skizzieren und auf den Hauptartikel zu verweisen? -- KW 19:37, 10. Mär. 2010 (CET)

Überarbeitung; Vorschlag einer Struktur

Der Artikel gehört dringend überarbeitet. In Anlehnung an den Artikel in der englischen Wikipedia und in Betracht der in deutschen Wikipedia bereits vorhandenen Artikel und Textbausteine schlage ich folgende Struktur vor:

Kurzbeschreibung (gehört überarbeitet, Regression ist keineswegs ein Spezialfall von Strukturgleichungsmodellen, vielmehr sind SEM eine Weiterentwicklung; Y muss keineswegs metrisch sein (s. logistische Regression); der Gedanke der Regression wird verschleiert durch unnötige Formeln)

Geschichte (hier würde ich / habe ich Teile des entsprechenden Abschnitts des englischen Artikels übersetzt)

Anwendungen (hier habe ich einen geeigneten Teil aus dem englischen Artikel zur Linearen Regression übersetzt; häufige Anwendungen sind Vorhersage und Analyse der unabhängigen Variablen)

Grundschema einer Regressionsanalyse (noch zu schreiben; mein Vorschlag, muss noch mehr eingedeutscht werden:

  • Daten: Transformation, Missing Value Imputation, Auswahl (Interaktionen, automatische Auswahlmethoden)
  • Modell: Fit, Verweis auf Abschnitt unten
  • Modellanalyse: Goodness of fit (Cross-Validation, etc), Kollinearität, Overfit, Ausreißer/Hebelpunkte, Residuenanalyse (Verteilung, Varianz, Autokorrelation)
  • Modellvergleich

Überblick über einige Regressionverfahren (Noch zu schreiben, Kurzbeschreibung und Verweis auf Hauptartikel)

Software (optional)

Beispiel (evtl als begleitende Grafiken, gerne auch das Sektflaschenbeispiel aus dem bestehenden Artikel)

Literatur/Anmerkungen/Siehe auch

Soweit mein Vorschlag. Ziel des Artikels sollte m.E. sein, die Idee der Regression darzustellen und Anknüpfpunkte zu den detaillierten Artikeln zu geben. Formeln, Rechenbeispiele und Ausgaben von statistischer Software sollten m.E. nur sehr sparsam in diesem Überblicksartikel angegeben werden. -- KW 13:14, 4. Mär. 2010 (CET)

Naja, wird wohl so sein müssen. Könnte man denn nicht erst mal oben den Hauptteil ausformulieren und dann den Rest auslagern? Denn wenn das mit dem Hauptteil doch nicht klappt, schlingert hier auf ewig eine Artikelruine rum und die lineare Regression findet niemand. -- Philipendula 14:36, 4. Mär. 2010 (CET)
Generell halte ich so eine Struktur für gut. Um tempöräre Artikelruinen und Versatzstücken zu vermeiden, sowie der Skepsis anderer Mitautoren vorzubeugen, würde ich vorschlagen den kompletten (Übersichts)Artikel zur Regressionsanalyse zunächst im BNR zu entwickeln und erst danach die nötigen Umstellung im ANR vorzunehmen.--Kmhkmh 15:18, 4. Mär. 2010 (CET)
Was ist BNR? -- KW 19:26, 4. Mär. 2010 (CET)
Benutzernamesraum, da man in Ruhe basteln bis eon Artikel fertig ist.--Kmhkmh 22:59, 4. Mär. 2010 (CET)
OK, da hab ich wieder was gelernt. Jedoch hoffe ich, dass der Artikel in seiner jetzigen Form (wenn noch der Teil zur linearen Regression verschoben wird) schon recht vollständig, wenn auch weiter überarbeitungsbedürftig ist. Es sind nur noch 4 Kurzbeschreibungen für einzelne Verfahren einzustellen, was im Laufe des Tages abgeschlossen sein sollte. -- KW 12:07, 5. Mär. 2010 (CET)
So, jetzt habe ich eine Grundstruktur eingestellt. Mir ist nur noch ein Anliegen, die Kapitel 5-7 in einen Artikel "Lineare Regression" zu verschieben. (nicht signierter Beitrag von KW (Diskussion | Beiträge) 01:38, 6. Mär. 2010 (CET))
Also in der vorliegenden Struktur scheint mir eine Auslagerung der linearen Regression sinnvoll. --P. Birken 16:28, 6. Mär. 2010 (CET)

Artikelauslagerung

Liebe Interessierte!

Auf WP:IU sind heute drei Anträge aufgeschlagen, die sich alle um diesen Artikel drehen. Wenn ich es richtig verstanden habe, wurden die Abschnitte „Geschichte“ aus en:Regression analysis und „Anwendungen“ aus en:Linear regression übersetzt hier eingefügt. Zudem wurden danach Abschnitte von Regressionsanalyse nach Lineare Regression kopiert. Beide Vorgänge sind lizenzwidrig. Nun besteht aber die Möglichkeit, komplette Versionsgeschichte durch Import zu kopieren. Selbstverständlich darf man dabei nicht Versionsgeschichten vermengen (Hilfe:Artikel_zusammenführen#Versionsgeschichten_vereinigen), weswegen eine Duplizierung der Versionsgeschichte der englischsprachigen Artikel auf Regressionsanalyse nicht sinnvoll ist, da sich die Versionsgeschichten überlappen würden (sähe dann in etwa so aus – man achte auf die verschiedenen Bytezahlen der Versionen). Hier müssen also entweder die Übersetzungen, die aus der englischsprachigen Wikipedia kommen, gelöscht werden, oder man verfolgt den Alternativweg zum Nachimport. Bei der Übertragung von Regressionsanalyse nach Lineare Regression wäre es hingegen möglich, die Versionsgeschichten zu kopieren, solange man sich hier (und dort) einigt, dass die Versionen vor der Auslagerung (Redirects etc.) gelöscht würden, eben damit es nicht auch dort zur Überlagerung von Versionen kommt. Da aber anscheinend Teile des Lemmas Lineare Regression aus dem englischsprachigen en:Linear regression und nicht nur aus Regressionsanalyse zu kommen scheinen, müsste, wenn man korrekt die Versionsgeschichten einhalten möchte, beide dorthin kopiert werden. Dies geht aus Überlagerungsgründen, wie gesagt, aber nicht. Insofern bestehen m. E. auch dort nur die Alternativen Löschen oder alternative Auslagerung/Übersetzung. Wobei ein Nachimport natürlich immer angessener ist als eine Kopie der Versionsgeschichte in eine Version des Artikels. Ansonsten gäbe es natürlich noch die Möglichkeit, Lineare Regression ausschließlich als Übersetzung von en:Linear regression zu gestalten. Dann dürfte man aber keine Inhalte mit Schöpfungshöhe aus Regressionsanalyse zitieren, um keine URV zu begehen. Sollte ich etwas falsch verstanden haben, möge man mich bitte korrigieren. Da ich diese Seite nicht beobachten werde, wäre ein Hinweis auf WP:IU oder BD:DerHexer hilfreich. Grüße, —DerHexer (Disk.Bew.) 19:38, 4. Mär. 2010 (CET)

Bezüglich "Geschichte" und "Anwendungen" aus den jeweiligen englischen Artikeln würde ich gern den Weg des Nachimports gehen. Leider bin ich kein versierter Wikipedianer und sehe nicht was die einzelnen Schritte für diesen Vorgang sind. Kannst du mir da helfen? Was die Verschiebung von de-Regressionsanalyse nach de-Lineare Regression angeht, sind dabei keine Inhalte der englischen Wikipedia betrofffen. Es werden lediglich Teile des deutschen Regressionsartikels im Lineare Regressionsartikel übernommen. Ist das so möglich? -- KW 20:06, 4. Mär. 2010 (CET)
Bei den Abschnitten geht ein Nachimport leider nicht, da die Versionsgeschichte sonst vermengt wird. Bitte die Alternative nutzen. Die Versionsgeschichte von Regressionsanalyse kann ich nach Lineare Regression, allerdings nur bis zu der Einfügung der beiden Abschnittsübersetzungen aus enwiki. Dann müssten aber die Versionen mit der Weiterleitung und dem urspünglichen Artikel bis zur Version „2. Mär. 2010, 20:56:27 (rev) (edit) KW (Diskussion | Beiträge | Sperren) (31.487 Bytes) (entfernen)“ auf Konsens hin gelöscht werden, um eine Vermengung zu vermeiden. Grüße, —DerHexer (Disk.Bew.) 20:11, 4. Mär. 2010 (CET)
Da habe ich Verständnisprobleme. 1) Was ist die Alternative zu Nachimport? Löschen der entsprechenden Textbestandteile? Und wie kann ich dann nachträglich wieder einpflegen, dann aber ohne "URV"? 2) Wie entsteht ein Konsens zur Löschung der Versionen von "Lineare Regression"? -- KW 20:33, 4. Mär. 2010 (CET)
Die Alternative steht hier: Hilfe:Artikelinhalte_auslagern#Alternativ. Einfach nochmal die Versionsgeschichte der Artikel aus enwiki in eine Version hier kopieren. Der Konsens ergibt sich aus der Diskussion hier. Oder macht ein Mini-Meinungsbild; nur möchte ich ungern auf eigene Entscheidung Artikelteile löschen, um eine Auslagerung durchzuführen. —DerHexer (Disk.Bew.) 20:41, 4. Mär. 2010 (CET)
Also die Versionsgeschichte habe ich mit dem tool [5] kopiert und hier in meinem Texteditor. Bloß wo soll ich das einfügen? Und wie mache ich ein Mini-Meinungsbild? -- KW 20:45, 4. Mär. 2010 (CET)
Einfach in Regressionsanalyse an das Ende des Artikels kopieren und abspeichern. Dann direkt wieder rausnehmen und nochmal abspeichern. Meinungsbild siehe unten, wobei ich das lieber anhand von Argumenten und nicht Stimmen sehen wollte … Grüße, —DerHexer (Disk.Bew.) 20:56, 4. Mär. 2010 (CET)

Soll eine Teillöschung von Lineare Regression geschehen, um den Abschnitt von Regressionsanalyse dorthin kopieren zu können?

Pro
  • Im Artikel von Regressionsanalyse ist eine Menge Material enthalten, das gut für das Thema Lineare Regression geeignet ist. Zudem gewinnt der Artikel Regressionsanalyse an Übersichtlichkeit durch das Verschieben. Um den Inhalt dorthin zu verschieben, ist die Teillöschung das Mittel der Wahl. -- KW 07:27, 5. Mär. 2010 (CET)
  • Was verloren geht, sind ca 30 Bearbeitungen, davon 9 mit "K" markiert, 9 von anonymen Bearbeitern, 2 Bots, 3 Bearbeitungen bzgl "Doppeleintrag", zwei Hinzufügen von Weblinks, je 1 Eintrag "stub" und "wiederherstellen von version x". Wesentliche (im Sinne des Urheberrechts) Beiträge sind jeweils wenige Sätze von GoWiLei und Kku. (nicht signierter Beitrag von KW (Diskussion | Beiträge) 22:50, 4. Mär. 2010 (CET))
Contra
Enthaltung
  • Die feinen Unterschiede zwischen Cut&Paste eines Abschnittes aus einem Artikel in einen anderen (führt angeblich zu URV) und Importieren (führt angeblich nicht zu URV) sind mir bei weitem zu obskur. Wer zum Geier hat sich denn so was ausgedacht??? Egal. Auch wenn es schade ist, dass evtl. ein Dokument (m)einer frühen WP-Tätigkeit über die Wupper geht: Macht's wie Ihr's wollt, aber bitteschön, die Lineare Regression benötigt eine geschlossene Darstellung in einem eigenen Artikel. -- kakau 17:58, 5. Mär. 2010 (CET)
  • Enthalte mich auch, zum einen weil es mir natürlich weh tut, wenn ein Baby von mir umgekrempelt wird und zum anderen, weil ich nicht unnötig rumzicken will. @Kku: Ganz verloren ist die Versionsgeschichte nicht, weil sie hier auf der Disku ganz oben aufscheint. -- Philipendula 18:39, 5. Mär. 2010 (CET)

Hmm, scheint so, als könnte nur ich Pro-Argumente nennen. Immerhin gibt es keine Kontra-Argumente. Was spricht eigentlich gegen diese Alternativ-Import Variante, wo die Versionsgeschichte von Regressionsanalyse in den Artikel "Lineare Regression" eingefügt wird, gespeichert und anschließend wieder rausgenommen? -- KW 01:38, 6. Mär. 2010 (CET)

Grundsätzlich nichts, vielleicht könnte man sich dabei absprechend, dass die Version von Philipendula erzeugt wird, damit klar ist, dass ein Großteil der Inhalte von ihr ist. --P. Birken 16:30, 6. Mär. 2010 (CET)
Lieber P. Birken, danke für das Angebot. Nur ist mir leider auf den ersten und auch zweiten Blick überhaupt nicht klar, was ich konkret machen muss. Muss ich einen Importwunsch an einen Steward richten, oder wie gehe ich hier vor? Viele Grüße -- Philipendula 11:13, 8. Mär. 2010 (CET)
Mit dem tool [6] (Format Wiki text (list)) die Versionsgeschichte von "Regressionsanalyse" in einen Texteditor kopieren, dann im Artikel "Lineare Regression" unten einfügen, speichern, wieder löschen und nochmal speichern. Schließlich die Kapitel 5-7 des Artikels "Regressionsanalyse" in den Artikel "Lineare Regression" verschieben und speichern. So verstehe ich jedenfalls die Ausführungen von DerHexer weiter oben. Gruß, -- KW 17:18, 8. Mär. 2010 (CET)
Isses ok, wenn ich es morgen mache? Bin heute zu müde.-- Philipendula 23:54, 8. Mär. 2010 (CET)
Zumindest ist dies die Variante ohne Nachimport, die man verwenden muss, wenn der neue Artikel aus mehreren Artikeln/Sprachen zusammengesetzt ist oder die bestehende Versionsgeschichte sich mit dem Nachimport überschneiden würde. Grüße, —DerHexer (Disk.Bew.) 00:14, 9. Mär. 2010 (CET)
Hm..., eigentlich bleibt ja die Versionsgeschichte von Regressionsanalyse ohnehin erhalten, oder? Wenn die nicht gekillt wird, könnte man ev. eine schmerzlose Variante wählen, indem man doch die Inhalte aus Regressionsanalyse mit Copy-Paste nach Lineare Regression überträgt und dann in der Zusammenfassungszeile bemerkt, dass die Versionsgeschichte noch in Regressionsanalyse liegt. Was meint ihr dazu? Oder besteht die Gefahr, dass die alte Versionsgeschichte in Regressionsanalyse über den Jordan geht? In dem Fall versuche ich das mit dem Nachimport. Grüße -- Philipendula 16:22, 9. Mär. 2010 (CET)
Für mich wäre das in Ordnung so -- KW 16:54, 9. Mär. 2010 (CET)
Mich hat die Geduld verlassen. Ich habe jetzt einen Nachimport mit explizitem Hinweis auf die Verdienste von Philipendula vorgenommen. Damit klinke ich mich aus dem Artikel wieder aus, in der Hoffnung einen nachhaltigen Beitrag zur Verbesserung geleistet zu haben. Wenn ich damit jemanden vor den Kopf gestoßen habe -- dafür gibt es die Edit-Funktion. -- KW 19:32, 10. Mär. 2010 (CET)

Beispiele

Ich möchte meinem Vorredner in allen Punkten zustimmen. Ich selbst wollte hier vorschlagen, zumindest ein Beispiel einer typischen Regressionsanalyse in heutigen statistischen Anwendungen (etwa aus dem Bereich Medizin) zu geben. In abstrakter Form fragt sich der Unwissende oder relativ Unwissende wie ich -- für den ein Lexikonartikel auch und gerade gedacht ist == die ganze Zeit, ob er sich die richtige Vorstellung darüber macht, worum es hier geht. Der Text bleibt viel zu abstrakt, um sich darüber Klarheit zu verschaffen. Selbst beim einzig gegebenen konkreten Beispiel (Planetenbahn) wird nicht klargestellt, wo denn hier die abhängige und die unabhängige Variable sein soll. Regression zur Mitte ist offensichtlich ein Sonderfall; auch hier wird aber nicht klar, wie und ob sich das in der gegebenen Formel darstellt. (nicht signierter Beitrag von 88.68.101.182 (Diskussion) 11:31, 1. Aug. 2010 (CEST))

Also, dass sehe ich anders. Der Artikel gibt einen knappen Überblick über die Regressionsanalyse und muß notwendigerweise anstrakt bleiben damit alle konkret genannten Verfahren abgedeckt sind. Wer konkrete Beispiele sucht, sollte in den Verweisen zu den entsprechenden Hauptartikeln nachschauen. Die Berechung der Planetenbahnen ist kein Beispiel sondern nur die erste bekannte Anwendung der Regression. Ich vermute eine Übersetzung dieses Problem in moderne Terminologie ist keine triviale Aufgabe. Die Regression zur Mitte ist doch beschrieben im entsprechenden Artikel.
Die Hauptaufgabe des Artikels ist es die Gemeinsamkeiten (Schema einer Regressionsanalyse) und Unterschiede (Überblick über einige Regressionsverfahren) darzustellen. Da könnte man vielleicht etwas genauer werden. Vorstellen könnte ich mir bestenfalls ein allgemeines Beispiel (ohne ein konkretes Verfahren zu benutzen), z.B. am Anfang oder Ende des Abschnittes Schema einer Regressionsanalyse. -- Sigbert 15:49, 2. Aug. 2010 (CEST)

- 2011 -

multiple versus multivariate Regression

Meines Wissens ist der Unterschied zwischen multipler und multivariater Regression folgender: bei einer multivariaten Regression habe ich mehrere unabhängige Variablen, bei der multiplen Regression hingegen mehrere abhängige Variablen (also praktische mehrere Regressionen). Im Internet scheinen die Begriffe im Allgemeinen synonym im Sinne der multivariaten Regression verwendet zu werden. Ich denke, das sollte lieber thematisiert werden anstatt einfach beides gleichzusetzen. (nicht signierter Beitrag von 193.175.223.77 (Diskussion) 11:44, 13. Okt. 2011 (CEST))

Meines Wissens heißt multivariate Regression, dass es statt eines Vektors von Störgrößen eine ganze Matrix von Störgrößen gibt. Die multiple Regression ist kein multivariates Verfahren, auch wenn es meistens in Lehrbücher zusammen aufgeführt wird. Siehe beispielsweise Fahrmeir et al.: Multivariate statistische Verfahren, Kapitel über Regression. --Philipendula 13:02, 13. Okt. 2011 (CEST)

Ok. Bei der multiplen Regression habe ich mehrere unabhängige Variablen ,die ja fest vorgegeben sind und daher nicht als Zufallsvariable gelten. Bei der multivariaten sind es mehrere abhängige Variablen. Das heißt, ich stimme nicht zu. Gruß --Philipendula 11:31, 16. Okt. 2011 (CEST)
Du hast recht, ich habe nicht gut gelesen. Multiple Regresion: mehrere unabhaengige Variablen; multivariate Regression: mehrere abhaengige (Zufalls)Variablen. Nijdam 12:03, 16. Okt. 2011 (CEST)
Yep. --Philipendula 12:43, 16. Okt. 2011 (CEST)

Kann man das mal so schreiben, dass es auch ein Nicht-Mathematiker versteht? Es fällt schon manchmal wirklich schwer Dinge einfach auf den Punkt zu bringen ;) (nicht signierter Beitrag von 217.5.198.115 (Diskussion) 17:16, 19. Mär. 2012 (CET))

Versionsgeschichten der Artikel, aus denen Methode der kleinsten Quadrate zusammengesetzt worden ist

Eingefügt von Philipendula 00:19, 1. Sep. 2004 (CEST))

Versionsgeschichte von: Lineare Regression

  • (Aktuell) (Letzte) 22:20, 29. Aug 2004 DaTroll (Redirect Regressionsanalyse)
  • (Aktuell) (Letzte) 12:45, 13. Aug 2004 83.64.137.106 (Determinationskoeffizent)
  • (Aktuell) (Letzte) 02:37, 2. Aug 2004 Zwobot K (Head - Bot: konvertiere/korrigiere HTML)
  • (Aktuell) (Letzte) 18:37, 29. Jul 2004 83.64.137.106 (Determinationskoeffizent)
  • (Aktuell) (Letzte) 18:36, 29. Jul 2004 83.64.137.106 (Determinationskoeffizent)
  • (Aktuell) (Letzte) 18:34, 29. Jul 2004 83.64.137.106 (Determinationskoeffizent )
  • (Aktuell) (Letzte) 18:33, 29. Jul 2004 83.64.137.106 (Determinationskoeffizent)
  • (Aktuell) (Letzte) 18:33, 29. Jul 2004 83.64.137.106 ( : Determinationskoeffizent)
  • (Aktuell) (Letzte) 17:51, 29. Jul 2004 83.64.137.106 ( : Determinationskoeffizent)
  • (Aktuell) (Letzte) 17:50, 29. Jul 2004 83.64.137.106 (R^2 Determinationskoeffizent)
  • (Aktuell) (Letzte) 17:24, 29. Jul 2004 83.64.137.106 (Berechnung der Ausgleichsgeraden)
  • (Aktuell) (Letzte) 09:31, 20. Jul 2004 DaTroll (Doppeleintrag: Lineare Regressionsanalyse)
  • (Aktuell) (Letzte) 09:27, 20. Jul 2004 DaTroll (OLS auch Doppeleintrag)
  • (Aktuell) (Letzte) 20:42, 19. Jul 2004 DaTroll (Doppeleintrag: Methode der kleinsten Quadrate, Regressionsanalyse)
  • (Aktuell) (Letzte) 18:49, 15. Jul 2004 Kku K
  • (Aktuell) (Letzte) 21:53, 11. Jul 2004 Philipendula K
  • (Aktuell) (Letzte) 18:37, 11. Jul 2004 Gowilei (Bezeichnungen)
  • (Aktuell) (Letzte) 17:46, 11. Jul 2004 Gowilei K
  • (Aktuell) (Letzte) 19:56, 9. Jul 2004 Gowilei (Inhalt hinzugefügt)
  • (Aktuell) (Letzte) 00:58, 18. Jun 2004 Philipendula (Verlinkung. Ich hoffe, das war mit linearer Korrelation gemeint.)
  • (Aktuell) (Letzte) 17:57, 7. Mai 2004 Zwobot K (Echoray - robot Ergänze:nl)
  • (Aktuell) (Letzte) 23:28, 22. Apr 2004 PyBot K
  • (Aktuell) (Letzte) 16:14, 20. Apr 2004 Wurblzap K (Links zu OLS, Kleinste-Quadrate-Methode und Regression)
  • (Aktuell) (Letzte) 10:49, 11. Apr 2004 Pm (weblinkformat)
  • (Aktuell) (Letzte) 17:53, 3. Jan 2004 Wipape K (fix wiki)
  • (Aktuell) (Letzte) 17:51, 3. Jan 2004 Wipape K (+weblink)
  • (Aktuell) (Letzte) 11:59, 18. Nov 2003 Kku K (Wiederhergestellt zur letzten Änderung von Kku)
  • (Aktuell) (Letzte) 08:46, 18. Nov 2003 80.132.189.179
  • (Aktuell) (Letzte) 18:55, 23. Okt 2003 Kku (stub)

Versionsgeschichte von: Methode der kleinsten Quadrate

  • (Aktuell) (Letzte) 00:06, 1. Sep 2004 Philipendula (Entwarnung)
  • (Aktuell) (Letzte) 13:45, 31. Aug 2004 Philipendula K
  • (Aktuell) (Letzte) 11:00, 31. Aug 2004 DaTroll (Dinge)
  • (Aktuell) (Letzte) 10:41, 31. Aug 2004 Philipendula (Noch nicht endgültige Fassung)
  • (Aktuell) (Letzte) 10:03, 31. Aug 2004 Philipendula (Lineare Regression, Regressionsanalyse, OLS, Lineare Regressionsanalyse teilweise hier zusammengefasst. Erste Fassung. Versionen werden in Diskussion noch aufgeführt.)
  • (Aktuell) (Letzte) 14:32, 27. Aug 2004 DaTroll (Das Verfahren - gebuegelt)
  • (Aktuell) (Letzte) 14:25, 27. Aug 2004 DaTroll (Das Verfahren)
  • (Aktuell) (Letzte) 10:31, 27. Aug 2004 Botteler K (Botteler - robot Ergänze:ja)
  • (Aktuell) (Letzte) 15:42, 13. Aug 2004 DaTroll (Struktur)
  • (Aktuell) (Letzte) 00:47, 27. Jul 2004 139.30.40.178 (K - Beispiel - Format)
  • (Aktuell) (Letzte) 09:32, 20. Jul 2004 DaTroll K (OLS und Lineare Regressionsanalyse auch Doppeleintrag)
  • (Aktuell) (Letzte) 20:40, 19. Jul 2004 DaTroll (Doppeleintrag: Lineare Regression, Regressionsanalyse)
  • (Aktuell) (Letzte) 12:47, 4. Jul 2004 DaTroll K (kategorie)
  • (Aktuell) (Letzte) 09:39, 29. Jun 2004 DaTroll K (Revert wegen ungeschickter Verlinkung)
  • (Aktuell) (Letzte) 09:37, 29. Jun 2004 141.44.12.41
  • (Aktuell) (Letzte) 11:12, 5. Jun 2004 DaTroll K (link)
  • (Aktuell) (Letzte) 11:02, 5. Jun 2004 DaTroll K
  • (Aktuell) (Letzte) 10:59, 5. Jun 2004 DaTroll (Optik)
  • (Aktuell) (Letzte) 03:51, 5. Jun 2004 128.97.70.87
  • (Aktuell) (Letzte) 20:53, 21. Mai 2004 SiriusB K (Notation)
  • (Aktuell) (Letzte) 16:53, 8. Mai 2004 Zwobot K (Echoray - robot Ergänze:sv)
  • (Aktuell) (Letzte) 15:59, 30. Apr 2004 81.173.150.53
  • (Aktuell) (Letzte) 13:18, 30. Apr 2004 81.173.150.53
  • (Aktuell) (Letzte) 13:01, 29. Apr 2004 129.13.73.29
  • (Aktuell) (Letzte) 13:00, 29. Apr 2004 129.13.73.29
  • (Aktuell) (Letzte) 23:20, 28. Apr 2004 DaTroll K (typos)
  • (Aktuell) (Letzte) 13:55, 27. Apr 2004 DaTroll (Langsam wirds)
  • (Aktuell) (Letzte) 08:40, 27. Apr 2004 129.13.73.29
  • (Aktuell) (Letzte) 16:54, 26. Apr 2004 DaTroll (Ueberarbeitung angefangen)
  • (Aktuell) (Letzte) 16:34, 26. Apr 2004 DaTroll (Inhalte von Least Squares einfach mal reinkopiert. Muss ueberarbeitet werden)
  • (Aktuell) (Letzte) 17:16, 22. Apr 2004 164.133.154.130
  • (Aktuell) (Letzte) 23:46, 6. Apr 2004 Zwobot K (Kat - Bot-unterstützte Begriffsklärung: Einheit)
  • (Aktuell) (Letzte) 21:56, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:51, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:49, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:43, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:40, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:36, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 21:33, 31. Mär 2004 217.228.125.7
  • (Aktuell) (Letzte) 17:05, 8. Mär 2004 164.133.154.130
  • (Aktuell) (Letzte) 15:54, 8. Mär 2004 CdaMVvWgS K
  • (Aktuell) (Letzte) 15:52, 8. Mär 2004 164.133.154.130

Versionsgeschichte von: Regressionsanalyse

  • (Aktuell) (Letzte) 00:11, 30. Aug 2004 Philipendula (Lineare Regression eingearbeitet)
  • (Aktuell) (Letzte) 22:59, 29. Aug 2004 Philipendula K (Beitrag der einzelnen Regressoren zur Erklärung von y)
  • (Aktuell) (Letzte) 22:55, 29. Aug 2004 DaTroll K (Abgrenzung zu Methode der kleinsten Quadrate)
  • (Aktuell) (Letzte) 22:52, 29. Aug 2004 Philipendula K (Schätzen und Testen im KLR)
  • (Aktuell) (Letzte) 22:50, 29. Aug 2004 DaTroll K
  • (Aktuell) (Letzte) 22:34, 29. Aug 2004 Philipendula
  • (Aktuell) (Letzte) 00:26, 29. Aug 2004 Philipendula (Neue Strukturierung des Komplexes Regression)
  • (Aktuell) (Letzte) 11:32, 28. Jul 2004 130.36.95.102
  • (Aktuell) (Letzte) 10:35, 21. Jul 2004 Juergen Bode (link)
  • (Aktuell) (Letzte) 10:18, 20. Jul 2004 Juergen Bode (Zuordnung)
  • (Aktuell) (Letzte) 09:35, 20. Jul 2004 DaTroll (Doppeleintrag: Lineare Regressionsanalyse)
  • (Aktuell) (Letzte) 09:26, 20. Jul 2004 DaTroll (OLS auch Doppeleintrag)
  • (Aktuell) (Letzte) 08:03, 20. Jul 2004 Juergen Bode
  • (Aktuell) (Letzte) 07:29, 20. Jul 2004 Juergen Bode
  • (Aktuell) (Letzte) 20:45, 19. Jul 2004 DaTroll (Doppeleintrag: Methode der kleinsten Quadrate, Lineare Regression)
  • (Aktuell) (Letzte) 13:53, 17. Jul 2004 Philipendula (Verbale Abschwächung + Verlinkung)
  • (Aktuell) (Letzte) 17:18, 15. Jul 2004 Kku
  • (Aktuell) (Letzte) 17:14, 15. Jul 2004 Kku (==, en:)
  • (Aktuell) (Letzte) 00:21, 22. Jun 2004 RolandD K (Kategorisiert)
  • (Aktuell) (Letzte) 22:45, 12. Mai 2004 62.204.120.158
  • (Aktuell) (Letzte) 13:54, 2. Mai 2004 JakobVoss K (+Signifikanztest)
  • (Aktuell) (Letzte) 13:30, 2. Mai 2004 JakobVoss K (+Korrelationskoeffizient)
  • (Aktuell) (Letzte) 13:12, 2. Mai 2004 JakobVoss K (Siehe auch: Konfidenzintervall, Bestimmtheitsmaß)
  • (Aktuell) (Letzte) 15:41, 9. Mär 2004 193.24.32.36
  • (Aktuell) (Letzte) 15:40, 9. Mär 2004 193.24.32.39
  • (Aktuell) (Letzte) 08:18, 20. Feb 2004 Juergen Bode
  • (Aktuell) (Letzte) 22:44, 19. Feb 2004 80.138.150.59 (+ Weblinks)
  • (Aktuell) (Letzte) 18:00, 22. Jan 2004 ErikDunsing K
  • (Aktuell) (Letzte) 12:12, 2. Jan 2004 Juergen Bode
  • (Aktuell) (Letzte) 12:08, 2. Jan 2004 Juergen Bode
  • (Aktuell) (Letzte) 12:07, 2. Jan 2004 Juergen Bode
  • (Aktuell) (Letzte) 12:06, 2. Jan 2004 Juergen Bode
  • (Aktuell) (Letzte) 03:54, 29. Okt 2003 Michael Schubart K
  • (Aktuell) (Letzte) 19:00, 23. Okt 2003 Kku (linx)
  • (Aktuell) (Letzte) 11:07, 20. Sep 2003 Caramdir (Formeln mit TeX)
  • (Aktuell) (Letzte) 16:13, 18. Sep 2003 Juergen Bode K
  • (Aktuell) (Letzte) 16:10, 18. Sep 2003 Juergen Bode K
  • (Aktuell) (Letzte) 14:03, 18. Sep 2003 Juergen Bode K
  • (Aktuell) (Letzte) 14:02, 18. Sep 2003 Juergen Bode K
  • (Aktuell) (Letzte) 13:58, 18. Sep 2003 Juergen Bode
  • (Aktuell) (Letzte) 13:48, 18. Sep 2003 Juergen Bode

Versionsgeschichte von: OLS

  • (Aktuell) (Letzte) 09:27, 20. Jul 2004 DaTroll (Doppeleintrag: Methode der kleinsten Quadrate, Regressionsanalyse, lineare Regression)
  • (Aktuell) (Letzte) 18:45, 25. Feb 2004 Croco97
  • (Aktuell) (Letzte) 18:44, 25. Feb 2004 Croco97
  • (Aktuell) (Letzte) 17:53, 25. Feb 2004 80.128.75.225
  • (Aktuell) (Letzte) 15:54, 22. Feb 2004 Triebtäter
  • (Aktuell) (Letzte) 23:22, 14. Feb 2004 Blaubart

Versionsgeschichte von: Lineare Regressionsanalyse

  • Aktuell) (Letzte) 08:37, 31. Aug 2004 BWBot K (Bananeweizen - Bot: ausser -> außer)
  • (Aktuell) (Letzte) 00:15, 22. Jun 2004 Weede K
  • (Aktuell) (Letzte) 19:21, 22. Apr 2004 Weede (Im alternativen "lineare Regression" werden nichtlineare Ansatzfunktionen verschwiegen.)
  • (Aktuell) (Letzte) 17:53, 22. Apr 2004 164.133.154.130
  • (Aktuell) (Letzte) 17:20, 22. Apr 2004 164.133.154.130

Least Square

  • (Aktuell) (Letzte) 16:34, 26. Apr 2004 DaTroll (Redirect)
  • (Aktuell) (Letzte) 16:21, 26. Apr 2004 G K (link)
  • (Aktuell) (Letzte) 18:41, 25. Feb 2004 Croco97