Re: NVIDIA oder ATI? Das ist hier Frage...
Verfasst: Mi 29. Apr 2009, 19:14
Tekpoint hat geschrieben:Aber wenn die ATI Shader die selbe Leistung wie bei Nividia hätten, könnte Nividia dicht machen
Genau. Und da arbeiten die einzelnen Zellen bei NVidia schon lange parallel und übernehmen viele verschiedene Aufgaben. Die bei anderen Herstellern hardcodierten Aufgabenayin hat geschrieben:Die gesamte Architektur ist wichtig sowie das Zusammenspiel der Komponenten
(z.B. Shaderberechnungen; NVidia selber hat auch keine Angaben zu Shaderanzahl, etc. sondern nennt das alles einfach Recheneinheiten)
sind bei NVidia als Microcode gearbeitet und je nach Aufgabenstellung wird das in viele kleine Prozesse aufgeteilt und parallel berechnet. Es gibt keine klare Trennung: der Teil berechnet die Formen, der das Licht, der die Schatten,... . Dies hat den Vorteil, daß die einzelnen Prozessorzellen gleichmässig beansprucht werden, und nicht mal der Teil, mal der, und je nach Aufgabenfülle muss ein Teil noch auf die Ergebnisse des anderen warten. Daher waren CUDA und die Integrierung von PhysX kein großer Schritt, sondern eher logische Konsequenz. Der SLI-Modus z.B. ist auch nur eine Erweiterung der Parallelisierung.
Eh bei AMD/ATI die Parallelisierung soweit fortgeschritten ist (immerhin nennen sie ihre Shader superskalar was dann dem Ansatz von NVidia entsprechen würde), hat NVidia noch eine Menge Möglichkeiten die Leistung zu steigern, z.B. Erhöhung der Recheneinheiten auf die Anzahl der Shader bei AMD/ATI die ja teilweise die 4fache Anzahl für vergleichbare Leistung brauchen. NVidia selber stellt auch nur wenig Grafikkarten her, sondern eigentlich nur die Prozessoren. Was noch bei den Grafikkarten dabei ist, hängt an den anderen Herstellern. (z.B. GDDR5)
Andere Vergleichsangaben sind auch teilweise irreführend. Schneller, besser, preisgünstiger, blabla...
Wenn man bedenkt, daß das Auge nur eine "Bildfrequenz" von 25 Hz hat, brauche ich keine Berechnungen von 100 FpS = 100 Bilder/Sekunde entspricht 100 Hz. LCDs leisten auch absolut ausreichende 60 Hz. Wichtig ist, daß der Bildwechsel sehr schnell vonstatten geht, damit dem Auge nichts auffällt. Und das hängt weniger von der Grafikkarte denn von dem Anzeigegerät ab.
Würden sich alle mit niedrigen Frequenzen begnügen, läge eine Menge Rechenkapazität brach. Dem ist NVidia mit CUDA begegnet. Und AMD/ATI ziehen langsam hinterher. Ob DirectX11 oder GDDR5 nun wirklich eine deutliche Verbesserung der Grafikleistung darstellen bezweifel ich. Es gab schon in DirectX 7 eine Menge Möglichkeiten die ich so in aktuellen Spielen noch nicht gesehen habe. Verweisen möchte ich in dem Zusammenhang da mal auf die Coder-Szene und besonders auf Farbrausch . Deren EGO-Shooter namens .kkrieger ist grafisch immer noch auf sehr hohem Niveau und das bei der Größe von 96kByte (KiloByte!!!). Manche Officedatei ist da schon wesentlich größer. Andere Grafik-Demos begnügen sich mit noch weniger. Wenn Spieleentwickler mal da mithalten könnten... Selbst Testsoftware zum Erstellen von Benchmarks hat schon DVD-Größe...
Sorry für den langen unlesbaren Text.