Selberg-Delange-Methode
Die Selberg-Delange-Methode ist eine Technik aus der analytischen Zahlentheorie. Sie dient dazu, die mittlere Ordnung einer zahlentheoretischen Funktion zu bestimmen. Sie ist nach Atle Selberg und Hubert Delange benannt.
Die Klassen und
Seien Ist nun eine Dirichlet-Reihe mit Konvergenzhalbebene , so gehört diese zur Klasse , falls die Dirichlet-Reihe
eine auf dem ganzen Gebiet holomorphe Funktion darstellt und dort außerdem der Ungleichung
genügt. Hierbei bezeichnet die Riemannsche Zeta-Funktion. Existiert nun eine Folge mit und die Reihe gehört zur Klasse , so liegt per Definition sogar in der Klasse Dann lässt sich die folgende modifizierte Funktion im Ursprung lokal als Taylor-Reihe schreiben:
Aussage
Liegt in der Klasse , so gilt bereits für :[1]
Hierbei hängen die positiven Konstanten und die implizite Konstante im Landau-Symbol höchstens von der Wahl von und ab. Ein wichtiger Spezialfall ist . Dann folgt , wann immer gilt. Dies ermöglicht es, so zu wählen, dass der Fehlerterm minimiert wird. Etwa erreicht man mit der Wahl von die Aussage
Vor- und Nachteile
Vorteile der Selberg-Delange-Methode sind die recht explizite Angabe eines Fehlerterms sowie die fehlende Notwendigkeit, dass die stets nicht-negativ sein müssen. Jedoch kann die geforderte vertikale Abschätzung (die nicht weggelassen werden kann!) eine Hürde darstellen. Werden also weniger detaillierte Angaben über die mittlere Ordnung gebraucht, kann man auch auf Taubersätze zurückgreifen, die bereits unter deutlich schwächeren Annahmen gelten, jedoch keine Abschätzung der Fehlerterme zulassen.
Einzelnachweise
- Gérald Tenenbaum: Introduction to analytic and probabilistic number theory. AMS, Rhode Island 1990, S. 281.