Beitragsrückblick für (die neuesten Beiträge zuerst) |
svenska |
Erstellt: 23:57 am 15. Mai 2003 |
Zitat von grandpa am 21:49 am Mai 15, 2003 Kleiner Beitrag zu den §dmark und GF$ bzw Radeon Karten: ...naja zum Teil, das is auch der Knackpunt wieso sich nVidia mit Futuremark in den Haaren hat. Directx9 entspricht dem Pixel und VertexShader 2.0 hätte Futuremark aber alles nach DirectX9 Specifikationen gemacht, würde der Bench nur auf DirectX9 Karten (R300 oder NV30 und höher) laufen. Futuremark hat sich aber gedacht nö das können wir so nich machen, wir nehmen uns für Bench 1 bis 3 den "kleinsten gemeinsamen Teiler (der zwichen DirectX8 & DirectX9 --> Pixeleshader 1.4)" und nur Bench 4 wird ohnly DirectX9 werden. Da alle DirectX9 Karten auch PixelSahder 1.4 beherschen hat man sich also darauf geeinigt. Das aber Pixelshader 1.4 keine nVidia Specifikation hat/ist und von Microsoft nur aufgenommen wurde weil ATI mal wieder einen drauf setzen muste liegten die Karten mit R200 (ab Radeon 8500) und neuer mit ihrem PixelShader 1.4 support leicht im Vorteil. Geforce 3 --> Pixelshader 1.1 Geforce 4 --> Pixelshader 1.3 GeforceFX --> Pixelshader 1.4/2.0 ATI Radeon 8500 --> Pixelshader 1.4 ATI Radeon 9000 --> Pixelshader 1.4 ATI Radeon 9500 --> Pixelshader 1.4/2.0 ATI Radeon 9700 --> Pixelshader 1.4/2.0 zum einen weil Futuremark den Programieraufwand in Grenzen halten will und man sich an die DirectX8.1 Specifikationen gehalten hat. Man kann aber auch nVidia verstehen, da sie keine DirectX 8 Karten im Programm haben die den Pixelshader 1.4 unterstützen. Wärend ATI Karten die Aufgaben in einem pass (Arbeitsschrit) berechnen kann, müssen die Geforce3 & 4 Karten zwichen 1 bis 3 mal rechnen. Die Geforcrce FX is Benchmarkbezogen leidergottes auch an den falschen stellen optimiert wurden, die Pixelshader 1.4 Einheit der GeforceFX is nur aus kompatibilität´s Gründen vorhanden aber absolut unoptimiert. Aus der sicht von nVidia gab es keinen Grund PixelSahder 1.4 zu optimieren da die einzigen Karten mit Pixelshader 1.4 Support aus dem hause ATI kommen. Man könnte also schon sagen der 03er is ein ATI Bench, liegt aber nur daran, dass sich nVidia keine Zeit genommn hat den PixelShader 1.4 in der FX zu optimieren. Auch in der Geforce4 hätte der Pixelshader 1.4 ohne weiteres platz finden können wenn nVidia nicht so stur gewesen wäre. Zur Verteidigung von nVida gibt es noch zu sagen, dass es derzeit kein einiziges Spiel gibt welches PixelSahder 1.4 unterstützt und so ein Spiel wird es vermutlich auch nicht geben. Von daher is der 3DMark2003 nicht als "Gamers Benchmark" zu betrachten wie Futuremark dies gern hätte sondern eher als only DirectX9 Benchmark. ...mal noch ein paar Fakten zur GeforceFX. ...es is schon traurig was sich nVidia hier geleistet hat. Die GeforceFX NV30 wird in DirectX9 Anwendungen vermutlich der ATI immer unterlegen bleiben. Microsoft schreibt für DirectX9 vor, dass die Karte mit einer 24 Bit Floating-Point-Präzision oder besser arbeiten muß. Die ATI erfüllt genau die Specifikationen, nVidia hat zwar schön angepriesen unsere Karte kann in 32 Bit Floating-Point-Präzision arbeiten *wow freu hüpf*. Schön und gut aber die Leistung belibt dabei auf der Strecke, die FX5800 Ultra schafft so im 3DMark03 nur ~3500 Punkte. Die GeforceFX kann nur 16 oder 32 Bit Floating-Point-Präzision arbeiten, da aber laut Microsoft DirectX9 Specifikation 24 Bit oder besser vorschrift is, is die FX gezwungen in DirectX9 Anwendungen immer mit 32 Bit zu abreiten wodurch sie meist langsamer als ne Radeon 9500 Pro is. Wenn die GeforceFX in DirectX9 Anwendungen nur mit 16 Bit genauigkeit arbeitet erhält der Treiber kein WHQL Zertifikat von MS. Die Geforce FX 5800 Ultra is mit 16 Bit Floating-Point-Präzision etwas schneller als die ATI 9700 Pro mit 24 Bit Floating-Point-Präzision was aber eigentlich ein unfairer vergleich is. Genau das könnte für die FX auch ein Problem bei Doom3 werden. ...naja bleibt nur zu hoffen das nVidia mit dem NV35 alle "Fehler" beseitigt. ist kopiert, war schon mal hier! will mich ja nicht mit fremden Federn sch,mücken!
| sehr interessant entspricht den fragmenten, die man ab und zu mal im netz findet  |
grandpa |
Erstellt: 21:49 am 15. Mai 2003 |
Kleiner Beitrag zu den §dmark und GF$ bzw Radeon Karten: ...naja zum Teil, das is auch der Knackpunt wieso sich nVidia mit Futuremark in den Haaren hat. Directx9 entspricht dem Pixel und VertexShader 2.0 hätte Futuremark aber alles nach DirectX9 Specifikationen gemacht, würde der Bench nur auf DirectX9 Karten (R300 oder NV30 und höher) laufen. Futuremark hat sich aber gedacht nö das können wir so nich machen, wir nehmen uns für Bench 1 bis 3 den "kleinsten gemeinsamen Teiler (der zwichen DirectX8 & DirectX9 --> Pixeleshader 1.4)" und nur Bench 4 wird ohnly DirectX9 werden. Da alle DirectX9 Karten auch PixelSahder 1.4 beherschen hat man sich also darauf geeinigt. Das aber Pixelshader 1.4 keine nVidia Specifikation hat/ist und von Microsoft nur aufgenommen wurde weil ATI mal wieder einen drauf setzen muste liegten die Karten mit R200 (ab Radeon 8500) und neuer mit ihrem PixelShader 1.4 support leicht im Vorteil. Geforce 3 --> Pixelshader 1.1 Geforce 4 --> Pixelshader 1.3 GeforceFX --> Pixelshader 1.4/2.0 ATI Radeon 8500 --> Pixelshader 1.4 ATI Radeon 9000 --> Pixelshader 1.4 ATI Radeon 9500 --> Pixelshader 1.4/2.0 ATI Radeon 9700 --> Pixelshader 1.4/2.0 zum einen weil Futuremark den Programieraufwand in Grenzen halten will und man sich an die DirectX8.1 Specifikationen gehalten hat. Man kann aber auch nVidia verstehen, da sie keine DirectX 8 Karten im Programm haben die den Pixelshader 1.4 unterstützen. Wärend ATI Karten die Aufgaben in einem pass (Arbeitsschrit) berechnen kann, müssen die Geforce3 & 4 Karten zwichen 1 bis 3 mal rechnen. Die Geforcrce FX is Benchmarkbezogen leidergottes auch an den falschen stellen optimiert wurden, die Pixelshader 1.4 Einheit der GeforceFX is nur aus kompatibilität´s Gründen vorhanden aber absolut unoptimiert. Aus der sicht von nVidia gab es keinen Grund PixelSahder 1.4 zu optimieren da die einzigen Karten mit Pixelshader 1.4 Support aus dem hause ATI kommen. Man könnte also schon sagen der 03er is ein ATI Bench, liegt aber nur daran, dass sich nVidia keine Zeit genommn hat den PixelShader 1.4 in der FX zu optimieren. Auch in der Geforce4 hätte der Pixelshader 1.4 ohne weiteres platz finden können wenn nVidia nicht so stur gewesen wäre. Zur Verteidigung von nVida gibt es noch zu sagen, dass es derzeit kein einiziges Spiel gibt welches PixelSahder 1.4 unterstützt und so ein Spiel wird es vermutlich auch nicht geben. Von daher is der 3DMark2003 nicht als "Gamers Benchmark" zu betrachten wie Futuremark dies gern hätte sondern eher als only DirectX9 Benchmark. ...mal noch ein paar Fakten zur GeforceFX. ...es is schon traurig was sich nVidia hier geleistet hat. Die GeforceFX NV30 wird in DirectX9 Anwendungen vermutlich der ATI immer unterlegen bleiben. Microsoft schreibt für DirectX9 vor, dass die Karte mit einer 24 Bit Floating-Point-Präzision oder besser arbeiten muß. Die ATI erfüllt genau die Specifikationen, nVidia hat zwar schön angepriesen unsere Karte kann in 32 Bit Floating-Point-Präzision arbeiten *wow freu hüpf*. Schön und gut aber die Leistung belibt dabei auf der Strecke, die FX5800 Ultra schafft so im 3DMark03 nur ~3500 Punkte. Die GeforceFX kann nur 16 oder 32 Bit Floating-Point-Präzision arbeiten, da aber laut Microsoft DirectX9 Specifikation 24 Bit oder besser vorschrift is, is die FX gezwungen in DirectX9 Anwendungen immer mit 32 Bit zu abreiten wodurch sie meist langsamer als ne Radeon 9500 Pro is. Wenn die GeforceFX in DirectX9 Anwendungen nur mit 16 Bit genauigkeit arbeitet erhält der Treiber kein WHQL Zertifikat von MS. Die Geforce FX 5800 Ultra is mit 16 Bit Floating-Point-Präzision etwas schneller als die ATI 9700 Pro mit 24 Bit Floating-Point-Präzision was aber eigentlich ein unfairer vergleich is. Genau das könnte für die FX auch ein Problem bei Doom3 werden. ...naja bleibt nur zu hoffen das nVidia mit dem NV35 alle "Fehler" beseitigt. ist kopiert, war schon mal hier! will mich ja nicht mit fremden Federn sch,mücken!
|
Octron |
Erstellt: 13:57 am 15. Mai 2003 |
Mach knapp 2000 Punkte mit meiner GF4 |
HellerSebastian |
Erstellt: 13:36 am 15. Mai 2003 |
Naja ich werde bald ne 9700er mein eigen nennen dann kann ich richtig mit 1. rechner (9700er) und 2. rechner (geforce 4) testen, dann berichte ich weiter aber nur mal so ich schaff mit 1,6 ghz und gf4 schon 1700 punkte =) |
svenska |
Erstellt: 12:04 am 15. Mai 2003 |
5618 oder 5630 punkte  |
KakYo |
Erstellt: 11:34 am 15. Mai 2003 |
XP1800+ 7,5x205MHz, 2x256Mb Twinmos/Winbond, GF3Ti500@265/550MHz 01: 9450 03: 1320 |
NeoAndersson |
Erstellt: 10:48 am 15. Mai 2003 |
Leute, denkt doch mal nach. Der 3DMark2003 ist NUR für Standard Code ausgelegt!! Das heisst, das im 3DMark03 ein neutraler Code verwendet wird. Genau das, was NVidia die ganze Zeit versucht hat, zu verhindern, weil ihre Chips nur unter der für sie geschafenen Umgebungen richtig laufen. In Anwendungen, die neutralen Programmiercode haben, sind die NVidia Karten einfach nur noch unterlegen!!!! Genau das haben die Programmierer von 3DMark dann auch in ihrem Gegenstatement gesagt!! Der Benchmark soll ausschließlich dafür sein, verschiedene Grafikkarten von unterschiedlichen Herstellern auf ihre Leistung zu untersuchen auf sozusagen "neutralem" Boden, wo weder ATI noch NVidia einen Vorteil durch die Programmierung haben. Bei Spielen ist das doch schon wieder total anders. Bei den Spieleherstellern kommt es immer drauf an, von welchen Hardwareunternehmen die Spiele gefördert/unterstützt werden. Sowas gab es schonmal für die älteren unter uns, denkt mal an 3dfx und NVidias Riva128 Chip, wie man versucht hat, Spieleprogrammierer für die eine oder die andere Seite zu gewinnen. Auch da hatte damals NVidia die richtigen Geldreserven um ihren damals noch Konkurenten 3dfx aus dem Rennen zu schmeissen. Auch jetzt versucht NVidia es wieder, doch diesmal haben sie sich mit einer Firma angelegt, die genauso trickreich und fiffig ist, wie NVidia selbst. ATI kann auf eine lange Tradition zurück gucken, ihre Fire Karten sind in Servern schon lange Top (alle unsere Karten in Servern und Workstatuions hier in der Firma sind ATI Fire Karten) in Firmenrechnern werden fast nur die Standard RageXL und Rage128pro Karten gefahren, weil man mehr einfach nicht braucht im Office und Textverarbeitungsbereich. Die Spiele dieser momentanen Zeitspanne sind noch fast alle für NVidia Karten programmiert. Mal schauen ob es so bleibt und wenn ja, wie lange es so bleibt. Ich gehe davon aus, dass ATI auch seine "Präsente" verteilt um einige Spieleschmieden auf ihre Seite zu ziehen. Probleme werden nur die Gamer haben wenn das schlimmer wird, weil sie entweder sich immer nur die für Ihre Karte passenden Spiele kaufen müssen oder es für die Karten dann für jedes Game ein Patch gibt und man nur noch am runterladen und patchen ist. Aber wenigstens ist so der Preiskampf da und wir können schön zwischen "günstigen" Karten wählen. Das war mein Statement. MfG Neo |
NEO |
Erstellt: 8:55 am 15. Mai 2003 |
hab jetzt 5485 Punkte, Dualchannel hat ganze 45 Punkte gebracht!  |
hasufell |
Erstellt: 1:10 am 15. Mai 2003 |
also der 03er is ja 1. sehr Graka-lastig und 2. eigentlich nur was für ATI-Karten mit nvida-Karten kannste bei 01se 15000 Punkte machen und beim 03er trotzdem nur 3000 oder weniger (naja, so ungefähr ...könnte man so definieren: "ATI mehr Power, Nvidia flotter" jo und weil der 03 fast nur aufe Graka geht issa najo...CPU-Frequenz spielt echt kaum ne Rolle...aber trotzdem immer gerne (für die innere oc-Befriedigung ) mit ner gefurzMX....ahahahaha ...da würd ich den 03er gar nicht erst laufen lassen
|
DJ |
Erstellt: 23:33 am 14. Mai 2003 |
2003 Ist sch****e wieso sollte das jemand benutzen mit den resultaten vim 2001'er kann zum teil noch was anfangen aber der sinn des 2003 sehe ich nicht. |
× |