Selberg-Delange-Methode

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Selberg-Delange-Methode ist eine Technik aus der analytischen Zahlentheorie. Sie dient dazu, die mittlere Ordnung einer zahlentheoretischen Funktion zu bestimmen. Sie ist nach Atle Selberg und Hubert Delange benannt.

Die Klassen T und P[Bearbeiten | Quelltext bearbeiten]

Seien Ist nun eine Dirichlet-Reihe mit Konvergenzhalbebene , so gehört diese zur Klasse , falls die Dirichlet-Reihe

eine auf dem ganzen Gebiet holomorphe Funktion darstellt und dort außerdem der Ungleichung

genügt. Hierbei bezeichnet die Riemannsche Zeta-Funktion. Existiert nun eine Folge mit und die Reihe gehört zur Klasse , so liegt per Definition sogar in der Klasse Dann lässt sich die folgende modifizierte Funktion im Ursprung lokal als Taylor-Reihe schreiben:

Aussage[Bearbeiten | Quelltext bearbeiten]

Liegt in der Klasse , so gilt bereits für :[1]

Hierbei hängen die positiven Konstanten und die implizite Konstante im Landau-Symbol höchstens von der Wahl von und ab. Ein wichtiger Spezialfall ist . Dann folgt , wann immer gilt. Dies ermöglicht es, so zu wählen, dass der Fehlerterm minimiert wird. Etwa erreicht man mit der Wahl von die Aussage

Vor- und Nachteile[Bearbeiten | Quelltext bearbeiten]

Vorteile der Selberg-Delange-Methode sind die recht explizite Angabe eines Fehlerterms sowie die fehlende Notwendigkeit, dass die stets nicht-negativ sein müssen. Jedoch kann die geforderte vertikale Abschätzung (die nicht weggelassen werden kann!) eine Hürde darstellen. Werden also weniger detaillierte Angaben über die mittlere Ordnung gebraucht, kann man auch auf Taubersätze zurückgreifen, die bereits unter deutlich schwächeren Annahmen gelten, jedoch keine Abschätzung der Fehlerterme zulassen.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Gérald Tenenbaum: Introduction to analytic and probabilistic number theory. AMS, Rhode Island 1990, S. 281.