|
Deep Shadow
aus geburt offline
OC God 20 Jahre dabei !
Intel Pentium IV Prescott 3200 MHz @ 4200 MHz -10°C mit 1.4 Volt
|
Zitat von razzzzia am 12:30 am Juni 14, 2004 maaaaaahaaaaaannnnnn Wayne? Können sich nicht alle die Nvidia doll finden, einen auf die 6800 wichsen gehen, und alle anderen kaufen sich ATI. Dummes rumgeflame und gesabbelle sollte mit der Zwangsbenutzung von der XGI Volari Duo nicht unter 4 Monaten geahndet werden. Im Endeffekt sind beide Karten schnell dahin gefurzt, Nvidia findet sich ganz doll, wegen Shader 3.0, kann aber sonst nix, und ATI hat im Prinzip nur ne GTI-Version der 9800er-serie gebracht. Ich warte auf die Generation nach 6800/X800.
| Du bist raus !!! Hier gehts ned ums Flamen !! Sky wollt zeigen das die NVidia-Teile besser, als anfangs behauptet wurde, sind, und ich wollt zeigen das die ATI-Teile ned so schlecht sind wie se mittlerweile gemacht werden... Das ATI "Cheatet" is bekannt (was nicht heisst das es NVidia ned macht ), das die hohen Auflösungen so gut wie keiner nutzt auch (wobei das Cheaten der ATI-Karten nicht sooooo viel ausmacht, das se ne Doppelte Punktanzahl in hohen Auflösungen bekommt - da muss noch mehr dahinterstecken....). Alles in allem liegen sie in den "gebräuchlisten" Bereichen eng beisammen. Bisher war es immer so, das die ATI-Karten nen besseres Bild gemacht haben (schärfe, Brillianz, usw.), wie es nun mit dieser Generation aussieht wird man erst wissen wenn genug von den Dingern im Umlauf sind und man sich nen Bild machen kann.... Und nu lasst mich in Ruhe MfG D$.
Was macht eine Frau, wenn sie ein leeres Blatt Papier anstarrt? Sie liest sich ihre Rechte durch...
|
Beiträge gesamt: 2340 | Durchschnitt: 0 Postings pro Tag Registrierung: Jan. 2004 | Dabei seit: 7640 Tagen | Erstellt: 16:40 am 14. Juni 2004
|
|
xxmartin
offline
OC God 22 Jahre dabei !
AMD Athlon 64 X2 Dual Core 2000 MHz @ 3000 MHz 43°C mit 1.39 Volt
|
Zitat von BUG am 14:54 am Juni 14, 2004 ..naja soviel deutlich mehr RawPower hat der NV40 nicht zu bieten. Bis auf SM3.0 liegt die 6800Ultra in Sachen Füllrate ne ganze Ecke hinter der X800XT PE. In sachen PixelShader 2.0 Power scheint die ATI auch noch etwas schneller zu sein (siehe FarCry, HL2 & ShaderMark), ggf wird die 6800Ultra aber mit dem FarCry 1.2 Patch aufschliesen können, ob es zum überholen reicht weis man noch nicht. X800XT PE = 8,1 GPix/s & 35GB/s Bandbreite 6800Ultra = 6,25 GPix & 34,5 GB/s Bandbreite Edit: ..ich selber weis noch nich was ich mir kaufe, vieleicht überspring ich eine Generation, mir sind die Karten jetzt auf jeden Fall noch viel zu teuer. Meine FX 5900XT muß also noch eine weile durchhalten.
| Ja, da hast Du recht. Meinte aber mehr das Potential, mein Fehler also bei unklarer Ausdrucksweise. Die X800 XT Serie läuft so ziemlich am Limit (die XT mit 520 MHz GPU). OC-mäßig ist da bei 530-540 MHz ohne Mods dicht. Bedenkt man, daß die 6800U "nur" mit 400 MHz läuft und nahezu gleich schnell / teilweise schneller als die X800XT ist, sehe ich mehr Power in der nVidia-Lösung. Denn die 6800U dürfte sich ohne weiteres in Regionen um 500 MHz takten lassen, wenn nicht sogar höher. Außerdem sind die ATi-Treiber ziemlich ausgereift, da ist nicht mehr viel Platz für Optimierungen. Bei nVidia und gerade mit der PS3.0 Geschichte ist noch viel Luft für die Zukunft. Zudem ist nVidia einfach mal wieder an der Reihe bei mir (und die Leistung paßt ja): Ti4400 -> 9800pro -> 6800ultra -> ??? Als nächstes dann wieder ATi als erste PCI-Express Graka in meinem Hause. MfG
|
Beiträge gesamt: 3511 | Durchschnitt: 0 Postings pro Tag Registrierung: Juli 2002 | Dabei seit: 8199 Tagen | Erstellt: 0:06 am 15. Juni 2004
|
|
|
|
|
BUG
aus BW offline
OC God 23 Jahre dabei !
AMD Ryzen 7 3400 MHz @ 4700 MHz 75°C mit 1.2 Volt
|
..also ich muß zugeben, ich bin was das AF angeht nich sonderlich "empfindlich". Bei meiner 9500 hab sogut wie nie bemerkt/gesehen, dass nur die erste Texturstufe vollen Trilinearen Filter bekommt und alle anderen nur bilinear gefiltert werden, auch das winkelabhängige AF hat mich kaum bis garnicht gestört. Ich habe im Panel immer 8xAF angeknipst und war mit der qualität zufrieden. Wenn man wirklich mal ne Welle vor sich hergeschoben hat weil die erste Texturstufe nicht sichtbar war oder ähnliches, hab ich das rtool benutzt um trilinear über alles stages zu erzwingen. ..mit dem AF der FX5900 bin ich soweit auch zu frieden, allerdings schluckt 8x AF deutlich mehr Leistung als auf der 9500 und qualitäts Unterschiede seh ich in Spielen nich wirklich (bis auf das die FX Karte gut 50% in der Leistung einbricht). Die neuen NV Treiber (61.40) haben aber nen Button im Panel, "Trilinear Optimization --> on/off" hab aber noch nich nachgeschaut ob sich auch was ändert (habe erstmal auf "aus" gestellt *g*), man sieht es ja zum Teil wirklich nur mit Testprogrammen die aber eh meist vom Treiber erkannt werden. In Spieln is das schon deutlich schwieriger, zumale auch nich jedes Spiel oder Textur für solche Optimierungen "anfällig" sind. Ich finde solche Optimierungen an sich auch nicht schlecht, jedenfalls solange, wie man sie deaktivieren und selber entscheiden kann welche Qualitätssettimgs man haben möchte. cu BUG (Geändert von BUG um 3:55 am Juni 15, 2004)
AMD Ryzen 5800X3D @ 4.7GHz | Asus Strix B550-E | 2x NV GTX690 2x2GB Quad-SLi -or- RTX3080 Strix | 32GB DDR4
|
Beiträge gesamt: 5728 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8548 Tagen | Erstellt: 3:54 am 15. Juni 2004
|
|
|
svenska
aus Bärlin :)) offline
OC God 22 Jahre dabei !
AMD Athlon 64 1800 MHz @ 2700 MHz 45°C mit 1.55 Volt
|
Zitat von BUG am 3:54 am Juni 15, 2004 ..also ich muß zugeben, ich bin was das AF angeht nich sonderlich "empfindlich". Bei meiner 9500 hab sogut wie nie bemerkt/gesehen, dass nur die erste Texturstufe vollen Trilinearen Filter bekommt und alle anderen nur bilinear gefiltert werden, auch das winkelabhängige AF hat mich kaum bis garnicht gestört. Ich habe im Panel immer 8xAF angeknipst und war mit der qualität zufrieden. Wenn man wirklich mal ne Welle vor sich hergeschoben hat weil die erste Texturstufe nicht sichtbar war oder ähnliches, hab ich das rtool benutzt um trilinear über alles stages zu erzwingen. ..mit dem AF der FX5900 bin ich soweit auch zu frieden, allerdings schluckt 8x AF deutlich mehr Leistung als auf der 9500 und qualitäts Unterschiede seh ich in Spielen nich wirklich (bis auf das die FX Karte gut 50% in der Leistung einbricht). Die neuen NV Treiber (61.40) haben aber nen Button im Panel, "Trilinear Optimization --> on/off" hab aber noch nich nachgeschaut ob sich auch was ändert (habe erstmal auf "aus" gestellt *g*), man sieht es ja zum Teil wirklich nur mit Testprogrammen die aber eh meist vom Treiber erkannt werden. In Spieln is das schon deutlich schwieriger, zumale auch nich jedes Spiel oder Textur für solche Optimierungen "anfällig" sind. Ich finde solche Optimierungen an sich auch nicht schlecht, jedenfalls solange, wie man sie deaktivieren und selber entscheiden kann welche Qualitätssettimgs man haben möchte. cu BUG (Geändert von BUG um 3:55 am Juni 15, 2004)
| ok, man muss natürlich einschränken, dass nicht jedes spiel diese "welle" hat. ich sehe aber bei bf1942 sehr deutlich a.) die winkelabhängigkeit von dem AF und b.) die bugwelle (welch' wortspiel *g* ) du weist aber auch, dass bei den x800 chips nochmal an AF optimiert wurde, da wurde irgednwas an der mimap ebende verändert,welches zwar performance bringt, aber zusätzlich durch die erhöhung der mipmaps den "flakereffekt" bei texturen in bewegungen begünstigt. das find ich doof
"Ich habe einen AMD Athlon und einen Pentium III aus dem Fenster geworfen." "Und?" "Der AMD Athlon war wirklich schneller!"
|
Beiträge gesamt: 7006 | Durchschnitt: 1 Postings pro Tag Registrierung: Feb. 2002 | Dabei seit: 8339 Tagen | Erstellt: 7:42 am 15. Juni 2004
|
|
|
BUG
aus BW offline
OC God 23 Jahre dabei !
AMD Ryzen 7 3400 MHz @ 4700 MHz 75°C mit 1.2 Volt
|
Zitat von skynet am 7:27 am Juni 15, 2004 kumpel kommt mit A2 stepping auf 457MHz core bei der ultra. und wenn die A3 cores kommen sind es sicherlich nochmal 50MHz mehr mit standardkühler
| ..das wird sich erst zeigen, in der Vergangenheit hat sich da meist nich viel getan, desweiteren wird vermutlich ATI den R420 auch weiter optimieren und ein neues Stepping bringen. Was die LOD Spielchen angeht, so macht das nVidia wohl nich viel anders. Ich will mir auf jeden Fall erst selber ein Bild davon machen, ein Kumpel hat kürzlich seine 9700 nonPro verkauft und ich werde ihm in nächter Zeit wohl eine X800 Pro aufschwatzen wenn die etwas im Preis gefallen sind (so um die ~300,- Euro). Ich habe zwar die "Filter Videos" von FarCry (R420 vs. R350) gesehen, ich glaube aber, dass es nich so schlimm ist bzw da nachgeholfen wurde (Verkettung unglücklicher Umstände die bewust so gewählt wurde --> Treibersettings + AF Level + Bestimmte Textur + Bestimmte Lichtverhältnisse und Contrast/Helligkeits Einstellungen). Wenn das immer so aussehen würde, würde ich die Karte nicht kaufen, wäre ja dann fast schimmer als das AF auf der Radeon 8500 was ich mir aber nicht vorstellen kann. cu BUG
AMD Ryzen 5800X3D @ 4.7GHz | Asus Strix B550-E | 2x NV GTX690 2x2GB Quad-SLi -or- RTX3080 Strix | 32GB DDR4
|
Beiträge gesamt: 5728 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8548 Tagen | Erstellt: 13:07 am 15. Juni 2004
|
|
|
|