Diskussion:Satz von Bernstein-von-Mises

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 1 Jahr von Sigma^2 in Abschnitt Inkonsistente Notation
Zur Navigation springen Zur Suche springen

Der Verfasser..[Quelltext bearbeiten]

..des Artikel mag ja verstehen, was er da geschrieben hat. Hier fehlt zumindest eine verständliche Einleitung šùþërmØhî (Diskussion) 20:30, 18. Mai 2013 (CEST)Beantworten

Hoffentlich...[Quelltext bearbeiten]

ist jetzt klarer geworden worum es geht. Das Theorem bildet die Grundlage für viele Lernalgorithmen und erklärt, warum einige in gewissen Zusammenhängen erfolgreich "funktionieren" oder halt auch nicht... - Der Verfasser (nicht signierter Beitrag von 84.168.144.41 (Diskussion) 01:18, 19. Mai 2013 (CEST))Beantworten

nein, sorry aber an der Verständlichkeit hat sich nichts Wesentliches verbessert. Bitte versuch doch, eine Einleitung zu formulieren, in der das Lemma kurz und für Laien verständlich angerissen wird. Ich trage den Artikel im Portal Mathematik ein und hoffe, dass sich dort jemand des Artikels annimmt. Gruß šùþërmØhî (Diskussion) 06:33, 19. Mai 2013 (CEST)Beantworten
Hallo, ich finde den Artikel in der aktuellen Fassung ziemlich gelungen. Lediglich die im Kontext unübliche Notation von Theta als ϑ anstatt θ empfinde ich als etwas störend. Desweiteren würde ich im Anwendungsbeispiel statt Neuronalen Netzen eher Expectation Maximization erwähnen da das Beispiel ja genau den E-Schritt wiedergibt. --DownAnUp (Diskussion) 14:38, 12. Jul. 2013 (CEST)Beantworten

Neuronale Netze[Quelltext bearbeiten]

Dass bayessches Lernen „von neuronalen Netzen praktiziert wird“, ist ja wohl mal so was von citation needed, von der Personifikation (neuronale Netze betreiben gar nichts) bis hin zur Frage, ob die Lernverfahren (moderner) neuronaler Netze (Backpropagation = Gradientenabstieg) in irgendeiner Weise „bayessch“ sind. Okay, klar, Lossfunktionen sind heutzutage stochastisch motiviert (Maximum-Likelihood-Schätzung), nachdem man festgestellt hat, dass mittlerer quadratischer Fehler & Co zu zu vielen „schlechten“ lokalen Minima führen. Aber streng genommen macht das neuronale Netze nicht zu stochastischen Modellen und erst recht nicht zu irgendwas Bayesschem. Meint Sabrieleauftistik (Diskussion) 19:19, 14. Mai 2022 (CEST)Beantworten

Inkonsistente Notation[Quelltext bearbeiten]

Man kann unterschiedliche Funktionen nicht durch den Namen der Argumente unterscheiden, auch wenn dieser Fehler von Anwendern "zur Vereinfachung der Notation" gerne gemacht wird. Wenn und zwei unterschiedliche Funktionen sein sollen, was ist dann ?--Sigma^2 (Diskussion) 12:22, 30. Mär. 2023 (CEST)Beantworten