Selberg-Delange-Methode

Die Selberg-Delange-Methode i​st eine Technik a​us der analytischen Zahlentheorie. Sie d​ient dazu, d​ie mittlere Ordnung e​iner zahlentheoretischen Funktion z​u bestimmen. Sie i​st nach Atle Selberg u​nd Hubert Delange benannt.

Die Klassen und

Seien Ist nun eine Dirichlet-Reihe mit Konvergenzhalbebene , so gehört diese zur Klasse , falls die Dirichlet-Reihe

eine auf dem ganzen Gebiet holomorphe Funktion darstellt und dort außerdem der Ungleichung

genügt. Hierbei bezeichnet die Riemannsche Zeta-Funktion. Existiert nun eine Folge mit und die Reihe gehört zur Klasse , so liegt per Definition sogar in der Klasse Dann lässt sich die folgende modifizierte Funktion im Ursprung lokal als Taylor-Reihe schreiben:

Aussage

Liegt in der Klasse , so gilt bereits für :[1]

Hierbei hängen die positiven Konstanten und die implizite Konstante im Landau-Symbol höchstens von der Wahl von und ab. Ein wichtiger Spezialfall ist . Dann folgt , wann immer gilt. Dies ermöglicht es, so zu wählen, dass der Fehlerterm minimiert wird. Etwa erreicht man mit der Wahl von die Aussage

Vor- und Nachteile

Vorteile der Selberg-Delange-Methode sind die recht explizite Angabe eines Fehlerterms sowie die fehlende Notwendigkeit, dass die stets nicht-negativ sein müssen. Jedoch kann die geforderte vertikale Abschätzung (die nicht weggelassen werden kann!) eine Hürde darstellen. Werden also weniger detaillierte Angaben über die mittlere Ordnung gebraucht, kann man auch auf Taubersätze zurückgreifen, die bereits unter deutlich schwächeren Annahmen gelten, jedoch keine Abschätzung der Fehlerterme zulassen.

Einzelnachweise

  1. Gérald Tenenbaum: Introduction to analytic and probabilistic number theory. AMS, Rhode Island 1990, S. 281.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.