Nvidia GeForce
GeForce (zusammengesetzt aus geometry, englisch für Geometrie und force, englisch für Stärke/Kraft; Wortspiel auf g force, englisch für Erdbeschleunigung) ist ein Markenname für Desktop-Grafikprozessoren des Herstellers Nvidia und Nachfolger der Riva-Familie. Die GeForce-Grafikkarten sind seit 1999 auf dem Markt und konkurrieren hauptsächlich mit der Radeon-Produktfamilie.
Modellfamilie
Neben den Modellen für den Desktop-Einsatz gibt es auch GeForce-Karten für Notebooks (GeForce Go bzw. GeForce M) und Modelle für Mobiltelefone (GoForce). Nvidia-Grafikkarten für den professionellen Einsatz werden unter dem Namen Quadro vertrieben.
Geschichte
Mit der GeForce-Serie von der ersten bis zur vierten Generation konnte Nvidia die Performance-Führerschaft behalten und sich gegen Konkurrenten wie 3dfx, Matrox und ATI Technologies durchsetzen. Die mit FX 5xxx bezeichnete fünfte Generation hatte allerdings von Anfang an Schwierigkeiten und erreichte nicht die Leistung der Radeon-9000-Serie des Mitbewerbers ATI Technologies, wodurch Nvidia in Bedrängnis kam. Seitdem liefern sich ATI, inzwischen von AMD übernommen, und Nvidia einen wechselhaften Kampf um die „Performance-Krone“.
Der erste Vertreter der sechsten Generation, die GeForce 6800 Ultra mit dem neu entwickelten NV40-Chip, hat sich indes bei ersten Tests als deutlich leistungsfähiger als alle bisherigen Chips erwiesen, wurde jedoch wenige Tage später von ATIs Konkurrenzprodukt X800 XT PE wieder knapp von der Leistungsspitze verdrängt. Die beiden Karten sind in der Leistung in etwa ebenbürtig und unterscheiden sich nur in den verwendeten Techniken, ATIs nachgelegter Refresh-Chip R480 (unter anderem X850 XT PE) konnte sich allerdings später klar gegenüber der 6800 Ultra positionieren.
Die Reihe GeForce-FX-5 verwendet das Shader-Model Version 2.0a, während die vorherigen Modelle lediglich Version 1.3 unterstützen. Seit der GeForce-6-Reihe setzt Nvidia auf das Shader-Model Version 3.0, welches als erstes von dem Spiel Far Cry unterstützt wurde. Hauptkonkurrent ATI konnte erst im Herbst 2005 mit der Radeon-X1-Serie ein entsprechendes Konkurrenzprodukt mit Unterstützung für das Shader-Model Version 3.0 nachlegen. Ebenfalls seit der GeForce-6-Serie bietet Nvidia die Möglichkeit, Grafikkarten mithilfe der Scalable-Link-Interface-Technologie, kurz SLI, zusammenarbeiten zu lassen. Dabei teilen sich zwei identische Grafikkarten den Berechnungsaufwand, was zu Leistungssteigerungen von maximal 80 % gegenüber einer einzelnen Karte führt.
Mit der Einführung der GeForce-8-Serie im November 2006 bot Nvidia als erstes Unternehmen Grafikprozessoren mit DirectX-10-Unterstützung an. Damit verbunden ist auch eine Unterstützung des neuen Shader-Models Version 4.0.
Treiber-Unterstützung
Die Treiber für Nvidia-Grafikchips werden laufend weiterentwickelt und erscheinen in unregelmäßigen Abständen. Seit einigen Jahren werden neben den Treibern für Mac OS und Windows auch Treiber für Linux, FreeBSD und für Solaris bereitgestellt. Die Grafiktreiber hatten bis zur Version 4x.xx die Bezeichnung „Detonator“ (in Anspielung auf den Namen der Riva-TNT-Serie), von Versionsnummer 5x.xx bis 16x.xx wurden diese von Nvidia als „ForceWare“ bezeichnet (hier wird auf den Namen GeForce angespielt). Neuere Treiber werden nun unter der Bezeichnung „GeForce“ vertrieben. Die meisten Treiber werden auch WHQL-zertifiziert.
Auch unter ZETA werden mittlerweile alle bekannten GeForce-Grafikkarten unterstützt. Die Treiber werden im Haiku-Projekt ständig weiterentwickelt. Für alle GeForce-Grafikchips bis NV18 ist mittlerweile auch HW-OGL implementiert.
Stereo-3D-Treiber
Zusätzlich zu den eigentlichen Grafiktreibern existieren für GeForce-Grafikkarten auch Stereo-3D-Treiber. Diese ermöglichen im Zusammenspiel mit einem Grafiktreiber gleicher Version eine stereoskopische Ausgabe von OpenGL- oder DirectX-Grafik, was mit den meisten 3D-Anwendungen ohne Anpassungen genutzt werden kann. Um einen dreidimensionalen Eindruck zu erzeugen, produziert der Treiber bei einem gewöhnlichen Monitor anaglyphe Bilder (rot/cyan), die durch eine entsprechende Farbbrille betrachtet werden müssen. Alternativ kann bei einem Bildschirm mit kurzer Nachleuchtzeit (die meisten CRTs und spezielle 120-Hz-LCDs) eine Shutterbrille verwendet werden. Neuerdings gibt es aber auch Bildschirme (unter anderem von Zalman), die es dank geschickter Blickwinkelbegrenzung schaffen, ein räumliches Bild ohne Brille darzustellen.[1]
Auf der CES 2009 in Las Vegas stellte Nvidia eine drahtlose Shutterbrille mit dem Namen „3D Vision“ vor. Voraussetzung für den Einsatz sind eine GeForce-Grafikkarte sowie ein Display, das mindestens mit einer Bildwiederholrate von 100 Hz angesteuert werden kann. Dabei ist zu beachten, dass die meisten sogenannten 100-Hz-LCDs, vor allem Fernseher, 100 Hz nur durch das mehrfache Anzeigen von Bildern erreichen und nicht mehr als 60 Hz tatsächliche Bildinhalts-Wechsel unterstützen, um die es hier geht. Sie sind daher nicht geeignet für die Verwendung mit der 3D-Vision-Brille. Momentan gibt es die 3D-Brille in einem Set mit dem 3D Vision Kit. Mit diesem Kit kann man die Stärke des 3D-Effektes einstellen. Außerdem kann man mit der beigelegten Software auch das Rot-Grün-System aktivieren, die dazu benötigte Brille ist nicht im Set enthalten.
Grafikprozessoren
Die Codenamen der Grafikprozessoren (GPUs) haben eine Kennung der Form NVxx bzw. Gxx / Cxx. Die Nummerierung entspricht einem einfachen Schema: Ganze 10er-Stellen sind stets das erste Produkt einer Serie/Produktfamilie und meistens auch deren Flaggschiff. Bei Prozessoren mit höheren Nummern ist also nicht notwendigerweise die Grafikleistung verbessert worden, so ist der NV20 (GeForce 3 Titanium 200/500) in vielen Bereichen schneller als der NV34-Chipsatz, der in den GeForce FX 5200 Verwendung findet.
Teilweise basieren verschiedene Grafikkarten auf der gleichen GPU und werden nur durch interne Mechanismen eingeschränkt, so werden aufgrund von Produktionsfehlern z. B. Pipelines gesperrt oder die Taktfrequenz verringert (siehe Stepping). Häufig werden auch verschiedene GPUs für dasselbe Modell verwendet – z. B. wenn eine neuere Revision des Chips vorliegt bzw. überarbeitet wurde.
Zu beachten ist, dass sich alle GPUs mit nativer AGP-Schnittstelle problemlos auch bei PCI-Grafikkarten einsetzen lassen. Ähnlich verhält es sich mit GPUs mit nativer PCIe-Schnittstelle, diese lassen sich mittels eines Brückenchips (High-Speed Interconnect) auch für AGP-Grafikkarten und umgekehrt nutzen.
Modelle
GeForce-256-Serie |
GeForce-100-Serie (Tesla) |
GeForce-10-Serie (Pascal) |
Quadro-Serie |
Ranking der 10xx, 16xx und 20xx Grafikkarten-Generation (Pascal und Turing)[2][3]
Die GT 1010 stellt in dieser Liste die leistungsschwächste Grafikkarte und die RTX 2080 Ti die leistungsstärkste Grafikkarte dar.
Pascal und Turing sind die Namen der Grafikkarten-Generationen (Pascal ist älter als Turing).
Hier sind nur die Gaming-Grafikkarten von Nvidia und AMD aufgelistet, die Titan-Grafikkarten wurden hier weggelassen.
Zur Referenz: GTX 1060 < GTX 980 < RX 590 < GTX 1660 < GTX 980 Ti < GTX 1660 Ti
- Rot: wenig Leistung
- Orange: Leistung für 1080p@60FPS+ (Bei hohen Grafikeinstellungen in den meisten Videospielen)
- Grün: Leistung für 1440p@60FPS+ (Bei hohen Grafikeinstellungen in den meisten Videospielen)
- Weiß: Leistung für 2160p@~60FPS (Bei hohen Grafikeinstellungen in den meisten Videospielen)
Die Farben und das Ranking trifft in den überwiegenden Fällen zu, doch auch eine Grafikkarte mit einem niedrigeren Rang kann eine höher gestellte Grafikkarte in manchen Programmen und Spielen leistungsmäßig überlegen sein.
20xx (RTX: Turing) |
16xx (GTX: Turing ohne RTX- Features) |
10xx (GTX: Pascal) |
Grafikkartenname (Architektur, Speicher, Ersterscheinungsjahr) |
Rang |
---|---|---|---|---|
2080 Ti | RTX 2080 Ti (Turing, 11gb, 2018) | 1 | ||
2080 Super | RTX 2080 Super (Turing, 8gb, 2019) | 2 | ||
2080 | RTX 2080 (Turing, 8gb, 2018) | 3 | ||
1080 Ti | GTX 1080 Ti (Pascal, 11gb, 2017) | 4 | ||
2070 Super | RTX 2070 Super (Turing, 8gb, 2019) | 5 | ||
2070 | RTX 2070 (Turing, 8gb, 2018) | 6 | ||
2060 Super | RTX 2060 Super (Turing, 8gb, 2019) | 7 | ||
1080 | GTX 1080 (Pascal, 8gb, 2016) | 8 | ||
2060 | RTX 2060 (Turing, 6gb, 2019) | 9 | ||
1070 Ti | GTX 1070Ti (Pascal, 8gb, 2017) | 10 | ||
1660 Ti | GTX 1660 Ti (Turing, 6gb, 2019) | 11 | ||
1070 | GTX 1070 (Pascal, 8gb, 2016) | 12 | ||
1660 Super | GTX 1660 Super (Turing, 6gb, 2019) | 13 | ||
1660 | GTX 1660 (Turing, 6gb, 2019) | 14 | ||
1060 | GTX 1060 (Pascal, 3/5/6gb, 2016) | 15 | ||
1650 Super | GTX 1650 Super (Turing, 4gb, 2019) | 16 | ||
1650 | GTX 1650 (Turing, 4gb, 2019) | 17 | ||
1050 Ti | GTX 1050 Ti (Pascal, 4gb, 2016) | 18 | ||
1050 | GTX 1050 (Pascal, 2/3gb, 2016/2018) | 19 | ||
1030 | GT 1030 (Pascal, 2gb, 2017) | 20 | ||
1010 | GT 1010 (Pascal, 2gb, 2021) | 21 |
Weblinks
Einzelnachweise
- nvidia.com Nvidia: 3D-Stereo-Treiber
- GPU Performance Hierarchy 2019: Video Cards Ranked. Tom's Hardware, 12. Oktober 2019, abgerufen am 13. Oktober 2019 (englisch).
- Video Card Benchmarks. PassMark® Software, abgerufen am 13. Oktober 2019 (englisch, sortierbare Liste mit Rang/Preis- und Rang/Leistung-Werten).