|
|
|
|
BUG
aus Trossingen offline
OC God 23 Jahre dabei !
Intel Core 2 Duo 1800 MHz @ 3200 MHz 75°C mit 1.45 Volt
|
Zitat von DJ am 1:38 am Sep. 14, 2003 ...wie kommst du auf den renderpfad die haben einen standard directx 9 und nen fallback mit directx 8.1 wo hast du den nv3x renderpfad hergezaubert...
| ...schlagmichtot, muß ich suchen aber Valve hat extra mit NV zusammen einen Pfad geschrieben (was bis zu 5mal länger gedauert hat als die normalen Shaderanweisungen nach HLSL), wo die Karte zwichen 16 und 32 FP switchen darf und wo die Shader eine andere instruktions Reihenfolge bekommen (eine die der nVidia Hardware besser liegt als der standard HLSL Compiler). Valve hat aber betohnt, dass dies eine "Ausnahme" war und sie in zukünftige Karten keine solche "Extrawürste" egal welcher IHV machen werden. Um die Shaderleistung haben sich die IHV´s zu kümmern und nich Valve! Das Problem is, dass nVidia mit ihren 2.0+ Shadern wieder eine Extrawurst machen wollten. Daher is es etwas "umständlich" diese Shader zu Programieren bzw kommen sie mir dem standard DirectX9 Pfad (HLSL) nich richtig oder nur uneffizient zurecht. Die FX Shader benötigen eine besondere "Hingabe" und das will sich idR kein Software Hersteller antun. Das Problem für NV war, dass ATI zu schnell mit ihrem R300 auf dem Markt waren und ATI auf Microsoft druck ausgeübt hat DirectX9 endlich fertig zu stellen (kann man ja auch durchaus verstehen), dadurch ist allerdings nVidia ein wenig in Bedrängnis geraten weil sich der nv30 immer wieder verspätete. Nvidia hatte ATi unterschätzt bzw einfach Pech da ihre Shader nicht rechtzeitig in der DirectX SDK "Beachtung" gefunden haben. Dies soll ja der Deto50 etwas kompensieren, er analysiert welche Shader im Spiel/Anwendung verwendet werden und schreibt sie in eine für die FX besser abzuarbeitende Reihenfolge um. Die derzeitigen Benches zeigen dadurch eine um etwa ~10% höhere Shader Performance. Zukünftige optimierunge werden ~vieleicht nochmal 5 bis 10% bringen, aber an die Shaderleistung der ATI Karten kommt NV vermutlich dennoch nicht ran. nVidia kann nur versuchen, im NV40 wieder alles auszubügeln, die derzeitigen FX Karten sind in der PS1.4 & 2.0 den ATI Karten unterlegen. Allerdings ruht sich ATI auf ihren "Loorberen" auch nich aus, dass wird wie früher 3DFX vs nVidia nur das anstelle 3DFX jetzt ATI steht. ...was vieleicht noch zu sagen ist, man wird HL2 auf der FX5900 Ultra ohne Probleme mit vollen Details spielen können sie wird in etwa auf Radeon 9700 nonPro niveau "zurückfallen". Die FX hat ihre stärken wo ander´s, z.B. kann sie die Stencil Buffer (DoomIII macht davon gebrauch) schnell abarbeiten und sie hat eine hohe Fillrate was idR. auch nich von Nachteil is. Was allerdings "anzumäklen" ist, dass nVidia die Treiber Cheaterei lassen soll, wenn man qualität einstellt soll auch qualität rauskommen. Sie können meinetwegen noch 10 "Schaltpulte" in den Teiber packen wo man dies und das ein/ausstellen kann, aber sie dürfen aus TRI AF kein "BRI" AF (mischung aus bi&tri) machen oder einfach die FP Präzession runterregeln. Dann sollten sie imho wenigstens zur etwas schlechteren Shader Performance stehen aber qualität bleibt erhalten bzw dem User die Auswahl lassen was ihm lieber wäre. cu BUG (Geändert von BUG um 15:27 am Sep. 14, 2003)
Intel E4300 @ 3200MHz | Abit FP-IN9 SLI | ATI HD3850 256MB Notebook | Zepto 6214W | C2D 2.0GHz | Geforce 7600go 512MB
|
Beiträge gesamt: 5725 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8530 Tagen | Erstellt: 2:01 am 14. Sep. 2003
|
|
|
|
BUG
aus Trossingen offline
OC God 23 Jahre dabei !
Intel Core 2 Duo 1800 MHz @ 3200 MHz 75°C mit 1.45 Volt
|
...naja das darf man ^^ so nich im Raum stehen lassen, ATI hatte nur einen Cheat beim Catalyst 3.2 für dem 3DMark03 sonnst nich. Was du vieleicht als Cheat ansiehst is, dass adaptive Winkelverhalten beim Anisostropischen Filter der ATI Karten, aber das lässt sich nich ändern das is in der ATI Hardware so vorgesehen, von daher Filtert die FX reihe (wenns im Treiber richtig Programiert wurde, was derzeit aber je nach Treiber nich der Fall is) etwas besser als die ATI. ...bei OpenGL bleibt einem auch nix ander´s über und wie gesagt die FX arbeitet in DoomIII mit 16 Bit FloatPoint Präzesion, die ATI mit 24Bit daher is die FX auch ein wenig schneller. In DoomIII kommen imho auch nich allzuviele Shader sachen zum Einsatz die nich auch mit PS1.1. oder 1.3 realisiert werden könnten und die PS1.1 & 1.3 hat nVidia bei der FX Serie von den Geforce 3 & 4TI Reihen übernommen. Doom3 kommt "irgendwann" ende nächsten Jahres, und wer jetzt ne Karte für Doom3 kauft der gehört imho "bestraft". Bis Doom3 erhältlich is, haben nVidia und ATI ihre neuen HighEnd sowie Mainstream Produckte auf dem Markt die vermutlich billiger und in Doom3 schneller sind als jetzige HighEnd Karten. Ich kann mir auch beim besten Willen nicht vorstellen das Valve nVidia einen "reindrücken" möchte, das hat nix mit TechnologiePartner zu tun. HL2 is ein "must-have" Game und ich bin mir ziemlich sicher, dass mit der FX einfach nich mehr viel aus der HL2 Engine rauszuholen is. Ohne nVidia Pfad würde die FX noch viel schlechter dastehen. ..in Sachen nVidia & Shaderleistung kann ich dir den 3DCenter Artikel ans Herz legen. http://www.3dcenter.de/artikel/cinefx/ Stellen wir nun unseren NV30 seinen Konkurrenten aus dem Hause ATi gegenüber, wird er von der Pro-Takt-Leistung erst einmal überfahren. ATi kommt hier mit 8 Textureinstruktionen und zusätzlichen 8 Arithmetik Operationen angerauscht. Durch den höhren Coretakt kann der NV30 zwar etwas Boden gut machen, aber selbst damit kommt er zum Beispiel nur auf 2600 MTO/s + 700 MAO/s oder 2000MTO/s + 1000 MAO/s. Die Universal FPU, welche der Shader Core darstellt, erlaubt es Texturops gegen Arithmetikops im Verhältnis 2:1 einzutauschen (siehe nachfolgendes Diagramm). Der R300 Chip als Radeon 9700 Pro kommt aber auch ohne diese Balance-Option auf 2600 MTO/s + 2600 MAO/s. Von dieser Rohleistung kann nVidia nur träumen (oder versuchen, einen NV30 auf 1 GHz hochzutakten). Neben dem Preis für die bessere Pro-Takt-Leistung geht nun auch der Preis für die bessere Gesamt-Rohleistung an den R300. ---[schnipp]--- Der R300 erreicht wie bereits erwähnt sein Maximum von 5200 MI/S beim Verhältnis von 1:1 und fällt zu den beiden Extremfällen (nur Textur- bzw. nur Arithmetik-Anweisungen) auf 2600 MI/s ab. Treten die Texturenoperationen nicht paarweise auf, erreicht der NV30 konstant 2000 MI/s und kommt damit nicht einmal dort in Bereiche der R300-Rohleistung, wo der R300 seine größten Schwächen hat. Abschließend kann man sagen, dass der NV30 zwar weit weniger anfällig für Rohperformanceverluste durch widrige Umstände als der R300 ist. Der R300 wiederum verfügt über so viel Rohperformance, dass er die Verluste verschmerzen kann. Dem NV30 fehlt hier ganz klar die Rechenleistung der Combiner, die er ja beim PS 2.0 nicht einsetzten kann. Ein nach den Empfehlungen von ATi geschriebener oder mit dem im DX9-SDK enthaltenen Compiler erzeugter 2.0-Pixelshader ist nun leider genau so aufgebaut, das er alle diese Probleme forciert. Solche Shader benutzen immer viele Temp-Register und haben die Textureanweisungen als Block gebündelt. Auch ein 1.4-Pixelshader ist genau nach diesem Prinzip aufgebaut. nVidia wird also sich dieser Probleme annehmen müssen, und zwar besser heute als morgen. Microsoft arbeitet bereits an einem SDK Update, welches eine neue Version des Compilers enthält, der Shader auch so compilieren kann, das sie mit weniger Temp-Register auskommen und die Texturezugriffe immer nur in 2er Blöcken einfügt. Nur wenn die Entwickler 1.4-Pixelshader benutzen oder nur einen 2.0 Shader erzeugen, ist die Aktion von Microsoft zwar ein gut gemeinter Zug, aber für nVidia recht nutzlos. Daher wird nVidia das Problem im Treiber lösen müssen. cu BUG (Geändert von BUG um 15:54 am Sep. 14, 2003)
Intel E4300 @ 3200MHz | Abit FP-IN9 SLI | ATI HD3850 256MB Notebook | Zepto 6214W | C2D 2.0GHz | Geforce 7600go 512MB
|
Beiträge gesamt: 5725 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8530 Tagen | Erstellt: 15:32 am 14. Sep. 2003
|
|
DJ
aus Luxemburg offline
OC God 22 Jahre dabei !
Intel Pentium IV 2400 MHz @ 3078 MHz 50°C mit 1.70 Volt
|
ich bezog micht nicht auf cheatmark 2003 sondern genau auf das von ut 2003 und das es keine moeglichkeit gibt bei ati die voelle qualitaet zu bekommen, das mit der hardware mag ich nicht so recht glauben aber okay ich nicht der ati experte. Zu doom naja also das spiel kommt meiner meinung nach spaetestens maerz raus und half-life 2 fruehstens im januar in dem punkt haben es beide verbockt. Mal kucken was dann an graka's raus ist aber das uebliche spiel von ati dass sachen gar nicht moeglich sind wie frueher das trilineare filtering + andere sachen und dann das truefrom debakel naja sowas wird immer schnell vergessen naja was solls ati muss noch lange arbeiten bis die bei mir die scharte ausgewetzt haben. Alle zeichen deuten aber darauf hin dass valve und nvidia nicht mehr die besten freunde sind , und leute die sogar seit immer mit nvidia zusammenarbeiten (john) wettern so gegen ati wie valve jetzt das mit nvidia macht sorry ich finde ne sauerei sonder gleichen den filter bug hattne auch nur die nvidia's oder beser gesagt bei den nvidia's waere das nicht zu loesen obwohl der fehler beim texturmelten bei valve lag und deren lausige kontrolel der eignen engine ne ne wer einmal so gelogen hat , hat bei mir kein vertrauen mehr. Dass nicht mehr aus der fx rauszuholen ist liegt an valve das ist ja wohl logisch, wer sein spiel mit ati's bundeln will und so verkaufen will kann nicht sagen es geht mit der konkurrenz super , zum must have naja mal sehen. Ich nene es noch immer nicht nvidia pfad weil es ne kruecke ist und sogar deren 5x mal loesung naja die arbeiten eben lausig mehr kann ich dazu nicht sagen , sorry alle mir bekannten fakten deuten auf genau das hin , wahrscheinliche verzoegerung beim release, zusammenarbeit mit ati, af probleme mit non ati karten, die brauchen john's hilfe usw aber dann sich weit aus dem fenster haengen usw. Den artikel kenne ich zeigt genau das problem auf dass man auf pixelshader 2.0 setzt und so automatisch nvidia schlecht aussehen lassen kann weil mircosoft von ati sich "diktieren" lies wie der hase zu laufen hat. Und es zeigt wie ich sagte das muss von nvidia per treiber geloest werden weil nvidia eben auf effizienz setzt und nicht aug rohleistung , war meiner meinung nach ein fehler.
CU
|
Beiträge gesamt: 8177 | Durchschnitt: 1 Postings pro Tag Registrierung: April 2002 | Dabei seit: 8277 Tagen | Erstellt: 5:13 am 15. Sep. 2003
|
|
BUG
aus Trossingen offline
OC God 23 Jahre dabei !
Intel Core 2 Duo 1800 MHz @ 3200 MHz 75°C mit 1.45 Volt
|
...ich glaub du verwechselt da was, DirectX9 schreibt vor, dass mit mindesten 24 Bit FP Rendergenauigkeit gearbeitet werden muß, und genau das macht ATI (die kann ganrix anderes). 32Bit FP is bei nVidia nur ein "Werbefeature" die Shader sind aber mit 32Bit FB einfach zu langsam, aus dem grund schalltet NV ja auch die Shader auf INT12 oder 16 Bit FP um nich ganz den Anschluß an die 24Bit FP von ATI zu verlieren! John Carmack sagt auch das die 2.0 Shader Leistung der FX nich das "gelbe" vom Ei sind. Update 09/05: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply: GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0.. Have you witnessed any of this while testing under the Doom3 environment? "Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit." John Carmack ..welches Truform Debakel meinst du? ..und wenn du jetzt das bi AF des R200 Chips ansprichst, das ging auch nich ander´s die Hardware lässt nur bi-AF zu. Desweiteren war es imho so genau richtig, schau dir mal die tri-AF Leistung der Geforce4 TI reihe an, die war zum Teil langsamer als das der GF3, an den bi-AF speed von ATI R200 Karten is keine der NV Karten gekommen bzw war es bei aktuellen Spieln auf der NV Hardware nich einsetzbar, auf der ATI schon (selbt 16x AF hat auf der ATI sogut wie keine Leistung gekostet) auch wenn´s nich ganz so schön ausgesehen hat wie bei der GF3 & 4TI. Am R200 war imho nur das FSAA nich zu gebrauchen, es sah zwar nett aus, war aber VIEL zu langsam da hier das alte Supersampling verfahren (aus Geforce1 & 2 Zeiten) Verwendung fand. ATI hatte zwar bei der Presentation des R200 was von Multisampling AA gesagt, allerdings is da wohl ein Fehler in der Hardware wodurch dies nie aktiviert bzw im Treiber freigeschalltet wurde. ...offizieller Release Termin von HL2 is immernoch 30.09.2003 bzw November, alle anderen Meldungen wurden bislang von Valve oder sonnstigen Distributoren NICHT bestätigt. http://www.heise.de/newsticker/foren/go.shtml?read=1&msg_id=4184362&forum_id=47223 cu BUG (Geändert von BUG um 6:09 am Sep. 15, 2003)
Intel E4300 @ 3200MHz | Abit FP-IN9 SLI | ATI HD3850 256MB Notebook | Zepto 6214W | C2D 2.0GHz | Geforce 7600go 512MB
|
Beiträge gesamt: 5725 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8530 Tagen | Erstellt: 5:42 am 15. Sep. 2003
|
|
|
|
|