|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
Die Qualitätsunterschiede sieht man selbst mit der Lupe beim Standbild kaum, während des Spiels merkt man davon nulkommanix (hab beide Karten im Vergleich gesehen, weiß also wovon ich rede, zumal div. Zeitschriften und Seiten da mit mir übereinstimmen)!
| entweder eine glatte lüge oder du bist blind. den unterschied zw. ATI und GF6 grafik erkennt nicht nur der PC zocker, das sehen auch meine frau, meine kumpels, meine putzfrau und auch so ziemlich jeder im 3D center. da solltest du vielleicht mal lesen gehen und dir die augen über ATIs schwierigkeiten und differenzen öffnen lassen. und: gerade in bewegung sieht man es besser, als auf standbildern. um HDR effekte auf bildern festhalten zu können, müsste man schon .gifs mit 20 ebenen erstellen. in so ziemlich jedem aktuellen spiel, zeigt ATI nur standard-brei. ich verstelle in der forceware übrigens nie etwas. ausser clamp bei bedarf. den rest regel ich über die optionen im spiel oder ich erzwinge AA modi mit ath's tuner. (..) meine alte FX konnte trotz implementierter 2.0 shader mit dem code nicht umgehen - trotzdem war ich nie frech oder dreist genug zu behaupten, dass man den unterschied zum model 1.4 nicht sieht oder braucht. mfg tobi
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7916 Tagen | Erstellt: 12:17 am 30. Mai 2005
|
|
kammerjaeger
aus Versehen offline
Real OC or Post God ! 21 Jahre dabei !
Intel Core i3 3100 MHz mit 1.10 Volt
|
Zitat von cuhlatee um 11:45 am Mai 30, 2005 Öhm 16 Fach AF, was soll das bringen ? Kostet dich massig Leistung und ein Unterschied zu 8 Fach ist allenfalls messbar! Und erzähle jetzt bitte keiner, er sieht nen Unterschied zwischen 8 und 16 fach!
| Der Unterschied ist wirklich marginal, aber bei der X800XL kostet es eben so gut wie keine Leistung. Das mag bei FX-Karten der Fall sein, bei High-End-Karten jedoch nicht mehr. Ob es denn Sinn macht, 16xAF zu nutzen, sei dahingestellt. Da stimme ich mit Dir überein.
Zitat von Beschleunigen um 12:17 am Mai 30, 2005
Die Qualitätsunterschiede sieht man selbst mit der Lupe beim Standbild kaum, während des Spiels merkt man davon nulkommanix (hab beide Karten im Vergleich gesehen, weiß also wovon ich rede, zumal div. Zeitschriften und Seiten da mit mir übereinstimmen)!
| entweder eine glatte lüge oder du bist blind. den unterschied zw. ATI und GF6 grafik erkennt nicht nur der PC zocker, das sehen auch meine frau, meine kumpels, meine putzfrau und auch so ziemlich jeder im 3D center. da solltest du vielleicht mal lesen gehen und dir die augen über ATIs schwierigkeiten und differenzen öffnen lassen. und: gerade in bewegung sieht man es besser, als auf standbildern. um HDR effekte auf bildern festhalten zu können, müsste man schon .gifs mit 20 ebenen erstellen. in so ziemlich jedem aktuellen spiel, zeigt ATI nur standard-brei.
| Komisch, dann müssen unsere Angestellten und ich alle blind und/oder blöd sein oder alles notorische Lügner... Wir haben wirklich beide Karten miteinander verglichen und von Brei kann da keine Rede sein! Ich hab schließlich selbst von einer 6800LE@16/6 zu einer X800XL gewechselt (Sig wird noch geändert...) und diesen Schritt absolut nicht bereut. Die ATI läuft schneller, runder und leiser. Dabei ist die Grafikqualität eher besser als schlechter.
Zitat von Beschleunigen um 12:17 am Mai 30, 2005 meine alte FX konnte trotz implementierter 2.0 shader mit dem code nicht umgehen - trotzdem war ich nie frech oder dreist genug zu behaupten, dass man den unterschied zum model 1.4 nicht sieht oder braucht.
| Der Qualitätsunterschied von 1.4 zu 2.0 ist ja auch deutlich größer als von 2.0 zu 3.0 und auch sichtbar. Außerdem wundert es mich doch sehr, warum Du jetzt auf einmal Deine FX grafisch so schlecht machst, wo Du sie doch sonst immer in den höchsten Tönen gelobt hast (neben Mehrschirmbetrieb und Performance insbesondere bei der Qualität!) und weit über eine 9800Pro/XT gesetzt hast. Angeblich sollte 2.0 ja immer mit Patches, Config-Anpassung etc. laut Dir auch auf der FX laufen. Hast Du Dir das jetzt etwa anders überlegt? Vielleicht besteht ja dann doch noch Hoffnung, daß Du irgendwann erkennst, daß die X800XL für die meisten Gamer eine mindestens gleichwertige Alternative zur 6800GT ist. (Geändert von kammerjaeger um 14:20 am Mai 30, 2005)
PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB /// Mein Spielmobil
|
Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag Registrierung: Jan. 2003 | Dabei seit: 8008 Tagen | Erstellt: 14:19 am 30. Mai 2005
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
hätte ich jetzt nicht ausversehen auf reset geklickt, könntest du hier jetzt lesen, was ich grad geschrieben habe. nochmal schreib' ich es aber nicht. du hast schon recht. ATI ist schon irgendwie endgeil! 2 monitore braucht kein mensch. shader3 oder performance für HDR auch nicht. du hast bestimmt auch einen gameboy oder?
Komisch, dann müssen unsere Angestellten und ich alle blind und/oder blöd sein oder alles notorische Lügner... Wir haben wirklich beide Karten miteinander verglichen und von Brei kann da keine Rede sein!
| die angestellten haben natürlich alle die intelligenz mit dem löffel gefressen und wissen auch, wie man in FC und Doom³ das maximum aus einer GF6 herausholt, stimmts? die kennen sich super in den konsolen aus und haben wirklich ihr bestes gegeben, richtig?
Ich hab schließlich selbst von einer 6800LE@16/6 zu einer X800XL gewechselt (Sig wird noch geändert...) und diesen Schritt absolut nicht bereut. Die ATI läuft schneller, runder und leiser. Dabei ist die Grafikqualität eher besser als schlechter.
| die LE ist eine sch****karte. damit kannst du an der oberfläche kratzen. mehr nicht. für HDR in guten frameraten fehlt ihr: DDR³ RAM, RAM menge, takt und puste. wenn man es aktiviert kann man aber SM3 bewundern. nur halt etwas langsamer, als auf einer GT/U. da ist alles flüssig und nice. (..) mfg tobi (Geändert von Beschleunigen um 15:50 am Mai 30, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7916 Tagen | Erstellt: 15:27 am 30. Mai 2005
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
auf ein paar sätze reduziert: die FX ist schon lange überholt. nach meinem So.A kam ein 754er und danach das 939 system. das AF, die präzäsion, die benchmarks und das handling beim arbeiten waren auf der FX immer besser, als auf der ATI karte. der mehrschirmbetrieb ist auf der FX auch besser, als auf der GF6, weil sie nicht unter SLI bedingten nview- und overlayrestriktionen zu leiden hat. das führe ich jetzt aber nicht weiter aus. das thema ist vielschichtig und nicht leicht zu erklären, wenn der gegenüber selbiges nicht nachvollziehen kann, weil sein sichtfeld nicht über den tellerrand des spieletellers reicht. -> welche karte kann man wohl länger nutzen? die karte, die heute schon nicht mehr alles darstellen kann, was aktuelle spiele fordern, oder die karte, die unterstützung für SM3 mitbringt? die ATI karte kann nichts ausser framespumpen. wenn man sie mal nicht mehr zum zocken einsetzen will, weil sie etwa keine SM3 effekte in der unreal 3 engine zustande bekommt, ist sie wertlos. sollte die nv-karte mal irgendwann zu langsam werden, ist es doch noch eine tolle mehrschirm oder openGL karte. beide hersteller verlangen gleichviel kohle für vergleichbare zockleistung. da kann man ruhig nach featureset entscheiden. dazu zählen aber auch die 3 monitor-anschlüsse frei konfigurieren und den GPU teil zum rendern benutzen zu können. ATI ist leider immer noch auf holzwegen unterwegs. besonders auf der openGL strasse. viele karten sind nichtmal vesa konform, aber was kümmert das schon jemanden, der ausser seiner bunten windows-welt, nicht anderes kennt oder jemanden, der die konformitätsmängel erst gar nicht merkt, weil das eingesetzte CRT kein prezisions TFT ist und nicht mit warnmeldungen auf ausbrechende pegel reagiert.. jetzt hab' ich schon wieder nen hals -> ati ist sch****e für die massen.. ähnlich wie perlen vor die säue. (..) mfg tobi (Geändert von Beschleunigen um 15:46 am Mai 30, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7916 Tagen | Erstellt: 15:38 am 30. Mai 2005
|
|
kammerjaeger
aus Versehen offline
Real OC or Post God ! 21 Jahre dabei !
Intel Core i3 3100 MHz mit 1.10 Volt
|
Zitat von Beschleunigen um 15:27 am Mai 30, 2005 die angestellten haben natürlich alle die intelligenz mit dem löffel gefressen und wissen auch, wie man in FC und Doom³ das maximum aus einer GF6 herausholt, stimmts? die kennen sich super in den konsolen aus und haben wirklich ihr bestes gegeben, richtig?
|
Zitat von Beschleunigen um 12:17 am Mai 30, 2005 ich verstelle in der forceware übrigens nie etwas. ausser clamp bei bedarf. den rest regel ich über die optionen im spiel oder ich erzwinge AA modi mit ath's tuner.
| Kannst Du Dich denn endlich mal entscheiden, ob Du nun viel optimieren mußt, damit die GF6 gute Quali bietet??? Vielleicht bist Du ja einfach nur zu blöd, um das Maximum aus der X800XL rauszuholen...
Zitat von Beschleunigen um 15:27 am Mai 30, 2005 die LE ist eine sch****karte. damit kannst du an der oberfläche kratzen. mehr nicht. für HDR in guten frameraten fehlt ihr: DDR³ RAM, RAM menge, takt und puste. wenn man es aktiviert kann man aber SM3 bewundern. nur halt etwas langsamer, als auf einer GT/U. da ist alles flüssig und nice.
| Hättest Du mal besser aufmerksam gelesen, statt nur in NVidia-Wahn zu verfallen, dann wäre Dir aufgefallen, daß wir "echte" GT-Karten auch schon mehrfach in Aktion erlebt haben. Und die sieht auch nicht besser aus... Ich weiß nicht, warum angeblich alle 6800LE so sch****e sein sollen und die X800XL nur Brei auf den Monitor zaubern soll. Vielleicht hast Du da jeweils nur Billig-Karten mit schrottigem RAMDAC erwischt. Davon auf alle Karten zu schließen ist nicht nur engstirnig sondern dumm.
Zitat von Beschleunigen um 15:38 am Mai 30, 2005 die FX ist schon lange überholt.
| Komisch, daß Du sie noch vor wenigen Wochen noch in den höchsten Tönen gelobt hast... (Geändert von kammerjaeger um 19:58 am Mai 30, 2005)
PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB /// Mein Spielmobil
|
Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag Registrierung: Jan. 2003 | Dabei seit: 8008 Tagen | Erstellt: 19:57 am 30. Mai 2005
|
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
.. leck mich! dass meine FX gestorben ist, schreib ich nicht nochmal. ist auch latte, weil ich das barton system schon 2mal ausgetauscht habe (gegen so 754 und jüngst gegen so 939). vergleich ruhig weiterhin ATI 24bit technik mit der 32bit technik von NV und behaupte auch weiterhin, dass SM3 keiner braucht. es sieht doch sowieso überall alles gleich aus und läuft gleichschnell. mehr als einen schirm hat idR deiner peterpanwelt, eh keiner und wer arbeitet schon mit overlays oder videos auf seinem spiele PC. auch openGL braucht kein mensch - die spiele-entwickler, die SM3 pfade implementieren, setzen auch aufs falsche pferd, stimmts? vielleicht kannst du dein verkäufer-gehalt noch toppen, wenn du ATI deine geistigen ergüsse mitteilst. die haben nämlich die letzten monate den shader3 nachgerüstet und wollen dieses erweiterte featureset im R520 implementieren. wenn du es schaffst, sie davon abzuhalten zahlen sie dir vielleicht ne prämie. immerhin denken deren ingenieure, dass dieses feature notwendig ist. also: hau rein und überzeug' sie vom gegenteil. schick dann auch eine mail an die hersteller -> die scheinen dich ebenfalls nicht zu kennen. schildere denen deinen standpunkt und reiss die welt aus den angeln. dann gibt's vielleicht bald wieder mehr ATI optimierte shader2 spiele und die ATI fans setzen dir ein denkmal. vielleicht schaffst du es mit der argumentation sogar, dass der TFT verkauf zurückgeht.. - Far Cry kann auf einer NV4x karte besser aussehen - Doom kann auf einer NV3x und NV4x karte besser aussehen - Splinter Cell 3 sieht schon heute auf einer NV4x karte besser aus - Silent hunter 3 sieht schon heute auf einer NV4x karte besser aus - Stronghold2 sieht schon heute auf einer NV4x karte besser aus aber ich habe das kapiert, was du meinst. es stimmt einfach nicht. es sieht auf ATIs uralt-technik natürlich genauso aus. und mit blurring und overbrighting, kann man ja die gleichen effekte erzielen, wie mit HDR oder über den shader 3.. LOL ---> wirklich bescheuert und nicht informiert. nochmal der tipp von mir: geh mal ins 3Dcenter und les' beiträge von leuten, die es besser wissen als du. (..) mfg tobi ps. ich glaube du bist einfach zu arm. kein geld für ne richtige NV4x karte (siehe deinen LE kauf) und dann hinterher freuen, dass das ATI schnäppchen auch nicht besser aussieht, dafür aber besser zur sache geht, was fps anbelangt - und warum das ganze? weil du nicht verstehst, wo die unterschiede in der technik liegen und wie sich unterschiedlich lange shader genauigkeit auswirken kann. du setzt immernoch shader2 und 24bittige genauigkeit mit voller 32bit präzäsion und shader3 technik gleich -> das ist wirklich albern und lächerlich. (Geändert von Beschleunigen um 8:32 am Mai 31, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7916 Tagen | Erstellt: 7:57 am 31. Mai 2005
|
|
|
|
kammerjaeger
aus Versehen offline
Real OC or Post God ! 21 Jahre dabei !
Intel Core i3 3100 MHz mit 1.10 Volt
|
Mannomann, ich dachte immer, skynet wäre an Ignoranz nicht zu überbieten und es gäbe keinen anderen User hier im Forum, der von seiner Hardware so überzeugt ist und der alles andere als Müll bezeichnet. Aber Du schaffst es tatsächlich! Kaum hatte skynet einen A64, war sein vormals vergötterter XP der letzte Dreck. Sobald er eine DualCore-CPU in händen hält, ist jeder SingleCore nur noch Müll für ihn. Bei seinen Grafikkarte war es genauso. Da hat er seine TI4200 solange als FX-Killer und R9700/9800-Killer dargestellt, bis er selbst eine schnellere Karte hatte. Bei Dir sehe ich genau die gleichen Tendenzen... Daß SM3.0 auch bei ATI kommen wird, ist klar. Nur momentan braucht es der Markt nunmal nicht, da die Performance für alle aktuellen Spiele mehr als ausreicht. Sonst hätte ATI es schon längst implementiert... Zu den 24bit: Das ist genau die DX9-Spezifikation! Die FX war ja nichtmal in der Lage, das zu schaffen, sondern mußte auf 16bit gefahren werden, da sie in 32bit viel zu lahm war. (Ich weiß, Deine FX ist tot. Aber "damals" war sie für Dich das non-plus-ultra und angeblich auch grafisch der 9800 überlegen, obwohl sie mit so schlechter Präzision arbeitete. Dies zeigt nur, wie sehr Du Dich wie ein Fähnchen im Wind drehst... ). Aber was rede ich hier? Du wirst nie verstehen, daß beide Hersteller gute Karten bauen, genausowenig wie skynet jemals einsehen wird, daß ein Dothan schnell ist (nur eben leider etwas teurer als ein vergleichbarer A64). Es gibt zwischen uns beiden einen ganz gravierenden Unterschied: Du suchst Dir die Hardware raus, die für Dich persönlich und Deine Art damit zu arbeiten die Beste sein mag und machst dann alles andere schlecht. Ich hingegen suche die Hardware raus, die für den überwiegenden Teil der User die beste Wahl ist, schaue aber auch über den Tellerrand. Auch finde ich es komisch, daß angeblich nur Du alleine in der Lage bist, eine 6800GT richtig einzustellen, während Millionen von Usern weder eine 6800 einstellen können noch die Qualität einer X800 beurteilen können. Bist Du etwa der Mittelpunkt der Welt und alle anderen User, die sich seit Jahren mit Hardware und Spielen beschäftigen, absolute Vollhonks? Wenn Du also mit Deiner Karte glücklich bist, dann freu Dich darüber, denn schließlich ist es ja auch eine gute Karte mit vernünftigem Preis/Leistungs-Verhältnis. Aber zwing nicht jedem Deine Meinung auf! Schließlich gibt es fast immer Alternativen, u.a. im Falle der 6800GT...
PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB /// Mein Spielmobil
|
Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag Registrierung: Jan. 2003 | Dabei seit: 8008 Tagen | Erstellt: 9:12 am 31. Mai 2005
|
|
|
|