Ein Ausdruck des Beitrags mit 38 Antworten ergibt bei 3 Antworten pro Seite ca. 13 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 64.86 Gramm Papier.
-- Veröffentlicht durch Blumenmann am 18:39 am 4. Juni 2005
So habe mir jetzt eine Gaunward 6800 gt goes like hell (400mhz GPU,1200mhz Speicher) jetzt keine Abstürze mehr. Es war ein Fehler der 9800 Pro habe wegen der häufigen Umauarbeiten daran etwas kaputt gemacht. Im 3d MArk 2003 erreichte ich kanpp 14000 punkte, werde das aber alles nochaml gennauer wenn der pc fertig ist und der idelae Treiber gefunden ist.
-- Veröffentlicht durch Blumenmann am 16:29 am 1. Juni 2005
So bestellt diese hier: http://www.arlt.com/shop/warenkorb.php?subm=get_it&wg=131&wgname=vgacard&subwg=241&searchwordfff=Grafikkarte%2B256MB%2BAGP&artnr=1020658&Arlt_Session=2002b32cccd07ae73c686bf1317a10d8 Leider war ich ein paar Tage zu spät, über das Kaltmacher Forum habe ich den Link zu obrigem Shop gefunden. Da hatten Die diese Karte als Cool Fx für 399,- angeboten incl inno GRafkühler ,+ radi+ lüfter + pumpe also incl gesamter Wasserkühlung. Mann bin ich sauer, bezahle jetzt 329, für 70€ hätte ich dann ne billige Wasserkühlung für meinen server hgehabt.
-- Veröffentlicht durch Vegeta2 am 11:25 am 1. Juni 2005
also im dos hab ich keine probleme :D und unter linux, naja mit der 9800 pro nicht ;) :blubb: und es geht ja hier um ne gamer karte ^^
-- Veröffentlicht durch Beschleunigen am 10:53 am 1. Juni 2005
ich weiss net was du hast o.O
| was ich habe? ich arbeite platformübergreifend. und eine karte die ihre spärlichen funktionen nur unter windows absturzfrei zur verfügung stellt, ist keine grafikkarte -> das ist ein zustand. ansonsten kann ich dieses ATI gebashe nicht ertragen. besonders von leuten, die ausser unter windows auf "einem" display zu spielen, von der karte nichts fordern und sie hinterher mit einer "funktionellen" karte gleichzusetzen versuchen. das thema mit der bildqualität ist schall und rauch und eher abhängig von der einstellung im treiber. wer kompromisslose grafik will, braucht ja nur die optimierungen abzuschalten, clamp aktivieren und ggf. 16x AF erzwingen. (..) mfg tobi
-- Veröffentlicht durch Vegeta2 am 23:20 am 31. Mai 2005
Beschleunigen wozu gibs multi res proggis o.O??? für den normalen gamer und pc user ist die ati x800xl wohl mit die beste wahl und relativ gleichzusetzen mit der 6800GT auch beim ocer ist sie eine optimale wahl. ich weiss net was du hast o.O und qualitativ ist für mich das ati bild eindeutig besser als das von der 6800er reihe. :thumb:
-- Veröffentlicht durch Blumenmann am 21:07 am 31. Mai 2005
Danke, da Ihr euch alles so bemüht habt diesen Thread unübersichtlicher denn je zu machen. Habe mein Problem nun gelöst, da mein Prescott ja übertaktet ist hat sich in den bioseinstellungen ein fehler eingeschlichen. (Asus P4c800edeluxe) fsb stand auf 265 (250 derzeit), vcore 1,3 volt, cl by spd, dramm 400, agp,pci stand auf 66.33 <--als ich den agp-pci nun auf auto gestellt hatte klappte es mit dem benchmark . ca 9000 punkte beim 2003.
-- Veröffentlicht durch kammerjaeger am 13:20 am 31. Mai 2005
Zitat von Beschleunigen um 10:09 am Mai 31, 2005 wenn du eine 68GT überhaupt mit einer ATI vergleichen willst, dann musst du schon tiefer in die tasche greifen und musst ihr eine X800XL gegenüberstellen.
| Und was hab ich die ganze Zeit getan????? :blubb: Genau diese beiden Karten als gleichwertige Konkurrenten gesehen. ;) Lesen ist wohl nicht Deine Stärke... :lol:
Zitat von Beschleunigen um 10:09 am Mai 31, 2005 sicher bin ich nicht der einzige nutzer, der weiss, wie man volle genauigkeit oder das shadermodel3 bzw. HDR erzwingt, aber ich bin derjenige, der es anfängern schon häufig erklärt hat. mit einfach treiber samt spiel installieren, ist es ja leider nicht getan. man muss schon in den configs oder den konsolen rumspielen, um ein maximum zu erreichen. und gerade dann lernt man die GF6 zu schätzen. es ist nunmal so, dass sie selbst mit allem was man an features aktivieren kann, auf spielbarem niveau bleibt. sicher werde ich durch die nativen TFT auflösungen in bestimmten auflösungsregionen begrenzt, aber gerade dieser umstand macht doch das "reindrücken" von allem was reindrückbar ist, notwendig. sonst würde ich echt potenzial verschenken. dass man dazu oft nachlesen und ausprobieren muss, ist unumgänglich. aber spätestens nach einer woche, weiss man wo der hase langläuft.
| Das klingt also so, daß die Karte ab Werk nur Müll liefert und erst von Experten wie Dir richtig eingestellt werden muß sowie jedes Spiel einzeln auf die Karte angepasst werden, damit die Karte was taugt. Dann haben wir hier aber ein kleines Problem: Entweder mußt Du jedem NV40-User haargenau erklären, was er bei der Karte einzustellen hat (wozu Du wohl zeitlich kaum in der Lage sei wirst und die meisten User Dich gar nicht kennen), oder aber die Karte ist definitiv keine Kaufempfehlung, weil kaum jemand ihr Potential nutzen kann oder ihm die Zeit/Lust dazu fehlt, stundenlang zu optimieren, nachdem er sich wochenlang durch Foren gelesen hat.... :blubb: Bei Ati sieht die Welt schon einfacher aus: Omega-Treiber drauf, AA/AF hochsetzen und sich über flüssige Qualitätssettings freuen. Das ist es, was der überwiegende Teil der Spieler will. :thumb: Und das Ganze dann noch mit leiserer Kühlung, geringerem Stromverbrauch und niedrigerer Mainboard/Netzteil-Belastung gepaart. ;) Und da eben trennt sich Deine Einschätzung vom Wert einer Grafikkarte von meiner. Deswegen nochmal: Für Dich und ein paar andere User mag die 6800GT die bessere Wahl sein, für den Großteil der Spieler ist es die X800XL. :) Somit ist diese unsägliche Diskussion für mich beendet...
-- Veröffentlicht durch Beschleunigen am 10:09 am 31. Mai 2005
wenn du eine 68GT überhaupt mit einer ATI vergleichen willst, dann musst du schon tiefer in die tasche greifen und musst ihr eine X800XL gegenüberstellen. mittelpunkt ist relativ. ich arbeite mit meinen rechnern. dabei kommt aber nicht nur windoof zum einsatz, sondern bspw. auch linux. da meine software häufig auf openGL aufsetzt, kann ich sehr gut beurteilen, wo bei welchen karten der hase im pfeffer liegt. das hat rein garnichts mit ignoranz zu tun. wer TFTs einsetzt kommt schnell in die missliche lage, dass die native auflösung nicht ausreichend ist. da kann man dann nur ein 2. nebenstellen. und schwups sind die anforderungen an die matrix und an den treiber gewachsen. das ist auch nicht abgedreht, das ist einfach die schraube, in der man sich wiederfindet, wenn man einmal mit dem kram angefangen hat. ich hatte in dem rechner, vor dem ich grad sitze, auch temporär ATI karten in betrieb. nur wurde meine arbeit selten so behindert, wie zu dieser zeit. das eintreffen der NV karten war ein seegen. auch hatte ich alle NVs drin, die man kaufen konnte. zumindest alles zwischen 6600 und 6800 ultra. sicher bin ich nicht der einzige nutzer, der weiss, wie man volle genauigkeit oder das shadermodel3 bzw. HDR erzwingt, aber ich bin derjenige, der es anfängern schon häufig erklärt hat. mit einfach treiber samt spiel installieren, ist es ja leider nicht getan. man muss schon in den configs oder den konsolen rumspielen, um ein maximum zu erreichen. und gerade dann lernt man die GF6 zu schätzen. es ist nunmal so, dass sie selbst mit allem was man an features aktivieren kann, auf spielbarem niveau bleibt. sicher werde ich durch die nativen TFT auflösungen in bestimmten auflösungsregionen begrenzt, aber gerade dieser umstand macht doch das "reindrücken" von allem was reindrückbar ist, notwendig. sonst würde ich echt potenzial verschenken. dass man dazu oft nachlesen und ausprobieren muss, ist unumgänglich. aber spätestens nach einer woche, weiss man wo der hase langläuft. und nocheinmal platformübergreifend: eine graka kann mehr, als nur frames auf den screen zu schleudern. schade dass man bei dem hersteller mit den 3 buchstaben so ziemlich auf windows beschränkt ist. ich gehe mal davon aus, dass der standard ATI kunde, auch irgendwann unter longhorn daddelt. über die damit einhergehenden restriktionen kann man sich in der vorletzten c't die ohren struppig lesen. ich für meinen teil geben meine sauer verdienten taler jedenfalls lieber für hardware aus, die ich selbst konfigurieren und einsetzen kann, wo und wie ich will. kapiert eigentlich niemand, dass diese teile zwar schnell sind, aber alle anderen funktionen nur schlecht oder halbherzig implementiert wurden? ich glaube nicht, dass ich der einzige bin, der verschiedene OS einsetzt respektive der einzige, der mit der hardware mehr macht, als benchmarks zu bewundern. (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 9:12 am 31. Mai 2005
Mannomann, ich dachte immer, skynet wäre an Ignoranz nicht zu überbieten und es gäbe keinen anderen User hier im Forum, der von seiner Hardware so überzeugt ist und der alles andere als Müll bezeichnet. Aber Du schaffst es tatsächlich! :blubb: Kaum hatte skynet einen A64, war sein vormals vergötterter XP der letzte Dreck. Sobald er eine DualCore-CPU in händen hält, ist jeder SingleCore nur noch Müll für ihn. Bei seinen Grafikkarte war es genauso. Da hat er seine TI4200 solange als FX-Killer und R9700/9800-Killer dargestellt, bis er selbst eine schnellere Karte hatte. Bei Dir sehe ich genau die gleichen Tendenzen... :lol: Daß SM3.0 auch bei ATI kommen wird, ist klar. Nur momentan braucht es der Markt nunmal nicht, da die Performance für alle aktuellen Spiele mehr als ausreicht. Sonst hätte ATI es schon längst implementiert... Zu den 24bit: Das ist genau die DX9-Spezifikation! Die FX war ja nichtmal in der Lage, das zu schaffen, sondern mußte auf 16bit gefahren werden, da sie in 32bit viel zu lahm war. (Ich weiß, Deine FX ist tot. Aber "damals" war sie für Dich das non-plus-ultra und angeblich auch grafisch der 9800 überlegen, obwohl sie mit so schlechter Präzision arbeitete. Dies zeigt nur, wie sehr Du Dich wie ein Fähnchen im Wind drehst... :lol:). Aber was rede ich hier? Du wirst nie verstehen, daß beide Hersteller gute Karten bauen, genausowenig wie skynet jemals einsehen wird, daß ein Dothan schnell ist (nur eben leider etwas teurer als ein vergleichbarer A64). Es gibt zwischen uns beiden einen ganz gravierenden Unterschied: Du suchst Dir die Hardware raus, die für Dich persönlich und Deine Art damit zu arbeiten die Beste sein mag und machst dann alles andere schlecht. Ich hingegen suche die Hardware raus, die für den überwiegenden Teil der User die beste Wahl ist, schaue aber auch über den Tellerrand. Auch finde ich es komisch, daß angeblich nur Du alleine in der Lage bist, eine 6800GT richtig einzustellen, während Millionen von Usern weder eine 6800 einstellen können noch die Qualität einer X800 beurteilen können. :blubb: Bist Du etwa der Mittelpunkt der Welt und alle anderen User, die sich seit Jahren mit Hardware und Spielen beschäftigen, absolute Vollhonks? :noidea: Wenn Du also mit Deiner Karte glücklich bist, dann freu Dich darüber, denn schließlich ist es ja auch eine gute Karte mit vernünftigem Preis/Leistungs-Verhältnis. Aber zwing nicht jedem Deine Meinung auf! Schließlich gibt es fast immer Alternativen, u.a. im Falle der 6800GT... ;)
-- Veröffentlicht durch SebasTian am 9:11 am 31. Mai 2005
Komm bitte von deinem hohen "Ross" runter :blubb:
-- Veröffentlicht durch Beschleunigen am 8:35 am 31. Mai 2005
Zitat aus einen anderen thread
Was meinst du wie ATI SM3.0 anpreisen wird, wenn der r520 auf den Markt kommt...dann ist das "alte" negativ-gerede von ATI über SM3.0 nur noch schnee von gestern....
| (..) mfg tobi
-- Veröffentlicht durch Beschleunigen am 7:57 am 31. Mai 2005
.. leck mich! dass meine FX gestorben ist, schreib ich nicht nochmal. ist auch latte, weil ich das barton system schon 2mal ausgetauscht habe (gegen so 754 und jüngst gegen so 939). vergleich ruhig weiterhin ATI 24bit technik mit der 32bit technik von NV und behaupte auch weiterhin, dass SM3 keiner braucht. es sieht doch sowieso überall alles gleich aus und läuft gleichschnell. mehr als einen schirm hat idR deiner peterpanwelt, eh keiner und wer arbeitet schon mit overlays oder videos auf seinem spiele PC. auch openGL braucht kein mensch - die spiele-entwickler, die SM3 pfade implementieren, setzen auch aufs falsche pferd, stimmts? vielleicht kannst du dein verkäufer-gehalt noch toppen, wenn du ATI deine geistigen ergüsse mitteilst. die haben nämlich die letzten monate den shader3 nachgerüstet und wollen dieses erweiterte featureset im R520 implementieren. wenn du es schaffst, sie davon abzuhalten zahlen sie dir vielleicht ne prämie. immerhin denken deren ingenieure, dass dieses feature notwendig ist. also: hau rein und überzeug' sie vom gegenteil. schick dann auch eine mail an die hersteller -> die scheinen dich ebenfalls nicht zu kennen. schildere denen deinen standpunkt und reiss die welt aus den angeln. dann gibt's vielleicht bald wieder mehr ATI optimierte shader2 spiele und die ATI fans setzen dir ein denkmal. vielleicht schaffst du es mit der argumentation sogar, dass der TFT verkauf zurückgeht.. - Far Cry kann auf einer NV4x karte besser aussehen - Doom kann auf einer NV3x und NV4x karte besser aussehen - Splinter Cell 3 sieht schon heute auf einer NV4x karte besser aus - Silent hunter 3 sieht schon heute auf einer NV4x karte besser aus - Stronghold2 sieht schon heute auf einer NV4x karte besser aus aber ich habe das kapiert, was du meinst. es stimmt einfach nicht. es sieht auf ATIs uralt-technik natürlich genauso aus. und mit blurring und overbrighting, kann man ja die gleichen effekte erzielen, wie mit HDR oder über den shader 3.. LOL ---> wirklich bescheuert und nicht informiert. nochmal der tipp von mir: geh mal ins 3Dcenter und les' beiträge von leuten, die es besser wissen als du. (..) mfg tobi ps. ich glaube du bist einfach zu arm. kein geld für ne richtige NV4x karte (siehe deinen LE kauf) und dann hinterher freuen, dass das ATI schnäppchen auch nicht besser aussieht, dafür aber besser zur sache geht, was fps anbelangt - und warum das ganze? weil du nicht verstehst, wo die unterschiede in der technik liegen und wie sich unterschiedlich lange shader genauigkeit auswirken kann. du setzt immernoch shader2 und 24bittige genauigkeit mit voller 32bit präzäsion und shader3 technik gleich -> das ist wirklich albern und lächerlich. (Geändert von Beschleunigen um 8:32 am Mai 31, 2005)
-- Veröffentlicht durch Blumenmann am 20:31 am 30. Mai 2005
Sorry an alle Ati Fans und sorry an alle Nvidia Fans, das hier schon wieder eine Diskussion alle Mercedes gegen BMW enstanden ist. Also falls mei e9800 pro jetzt kaputt ist werde ich zwischen diesen Karten entscheiden. 1. Gainward PowerPack 2400 GLH (Goes like hell) (6800gt auf Ulra Niveau getaktet) 2. Sapphire Atlantis X800XT PE 3. PixelView PV-N40GA(256JD (die billigste 250€) Wer hat die Goes like Hell, habe die Interesse diese Karte dann wasserzukühlen, wegen Layout und so?
-- Veröffentlicht durch kammerjaeger am 19:57 am 30. Mai 2005
Zitat von Beschleunigen um 15:27 am Mai 30, 2005 die angestellten haben natürlich alle die intelligenz mit dem löffel gefressen und wissen auch, wie man in FC und Doom³ das maximum aus einer GF6 herausholt, stimmts? die kennen sich super in den konsolen aus und haben wirklich ihr bestes gegeben, richtig?
|
Zitat von Beschleunigen um 12:17 am Mai 30, 2005 ich verstelle in der forceware übrigens nie etwas. ausser clamp bei bedarf. den rest regel ich über die optionen im spiel oder ich erzwinge AA modi mit ath's tuner.
| Kannst Du Dich denn endlich mal entscheiden, ob Du nun viel optimieren mußt, damit die GF6 gute Quali bietet??? :blubb: Vielleicht bist Du ja einfach nur zu blöd, um das Maximum aus der X800XL rauszuholen... :lol:
Zitat von Beschleunigen um 15:27 am Mai 30, 2005 die LE ist eine sch****karte. damit kannst du an der oberfläche kratzen. mehr nicht. für HDR in guten frameraten fehlt ihr: DDR³ RAM, RAM menge, takt und puste. wenn man es aktiviert kann man aber SM3 bewundern. nur halt etwas langsamer, als auf einer GT/U. da ist alles flüssig und nice.
| Hättest Du mal besser aufmerksam gelesen, statt nur in NVidia-Wahn zu verfallen, dann wäre Dir aufgefallen, daß wir "echte" GT-Karten auch schon mehrfach in Aktion erlebt haben. Und die sieht auch nicht besser aus... Ich weiß nicht, warum angeblich alle 6800LE so sch****e sein sollen und die X800XL nur Brei auf den Monitor zaubern soll. :noidea: Vielleicht hast Du da jeweils nur Billig-Karten mit schrottigem RAMDAC erwischt. Davon auf alle Karten zu schließen ist nicht nur engstirnig sondern dumm. ;)
Zitat von Beschleunigen um 15:38 am Mai 30, 2005 die FX ist schon lange überholt.
| Komisch, daß Du sie noch vor wenigen Wochen noch in den höchsten Tönen gelobt hast... :blubb: (Geändert von kammerjaeger um 19:58 am Mai 30, 2005)
-- Veröffentlicht durch Beschleunigen am 15:38 am 30. Mai 2005
auf ein paar sätze reduziert: die FX ist schon lange überholt. nach meinem So.A kam ein 754er und danach das 939 system. das AF, die präzäsion, die benchmarks und das handling beim arbeiten waren auf der FX immer besser, als auf der ATI karte. der mehrschirmbetrieb ist auf der FX auch besser, als auf der GF6, weil sie nicht unter SLI bedingten nview- und overlayrestriktionen zu leiden hat. das führe ich jetzt aber nicht weiter aus. das thema ist vielschichtig und nicht leicht zu erklären, wenn der gegenüber selbiges nicht nachvollziehen kann, weil sein sichtfeld nicht über den tellerrand des spieletellers reicht. -> welche karte kann man wohl länger nutzen? die karte, die heute schon nicht mehr alles darstellen kann, was aktuelle spiele fordern, oder die karte, die unterstützung für SM3 mitbringt? die ATI karte kann nichts ausser framespumpen. wenn man sie mal nicht mehr zum zocken einsetzen will, weil sie etwa keine SM3 effekte in der unreal 3 engine zustande bekommt, ist sie wertlos. sollte die nv-karte mal irgendwann zu langsam werden, ist es doch noch eine tolle mehrschirm oder openGL karte. beide hersteller verlangen gleichviel kohle für vergleichbare zockleistung. da kann man ruhig nach featureset entscheiden. dazu zählen aber auch die 3 monitor-anschlüsse frei konfigurieren und den GPU teil zum rendern benutzen zu können. ATI ist leider immer noch auf holzwegen unterwegs. besonders auf der openGL strasse. viele karten sind nichtmal vesa konform, aber was kümmert das schon jemanden, der ausser seiner bunten windows-welt, nicht anderes kennt oder jemanden, der die konformitätsmängel erst gar nicht merkt, weil das eingesetzte CRT kein prezisions TFT ist und nicht mit warnmeldungen auf ausbrechende pegel reagiert.. jetzt hab' ich schon wieder nen hals -> ati ist sch****e für die massen.. ähnlich wie perlen vor die säue. (..) mfg tobi (Geändert von Beschleunigen um 15:46 am Mai 30, 2005)
-- Veröffentlicht durch Beschleunigen am 15:27 am 30. Mai 2005
:lol: hätte ich jetzt nicht ausversehen auf reset geklickt, könntest du hier jetzt lesen, was ich grad geschrieben habe. nochmal schreib' ich es aber nicht. du hast schon recht. ATI ist schon irgendwie endgeil! 2 monitore braucht kein mensch. shader3 oder performance für HDR auch nicht. du hast bestimmt auch einen gameboy oder?
Komisch, dann müssen unsere Angestellten und ich alle blind und/oder blöd sein oder alles notorische Lügner... Wir haben wirklich beide Karten miteinander verglichen und von Brei kann da keine Rede sein!
| die angestellten haben natürlich alle die intelligenz mit dem löffel gefressen und wissen auch, wie man in FC und Doom³ das maximum aus einer GF6 herausholt, stimmts? die kennen sich super in den konsolen aus und haben wirklich ihr bestes gegeben, richtig?
Ich hab schließlich selbst von einer 6800LE@16/6 zu einer X800XL gewechselt (Sig wird noch geändert...) und diesen Schritt absolut nicht bereut. Die ATI läuft schneller, runder und leiser. Dabei ist die Grafikqualität eher besser als schlechter.
| die LE ist eine sch****karte. damit kannst du an der oberfläche kratzen. mehr nicht. für HDR in guten frameraten fehlt ihr: DDR³ RAM, RAM menge, takt und puste. wenn man es aktiviert kann man aber SM3 bewundern. nur halt etwas langsamer, als auf einer GT/U. da ist alles flüssig und nice. (..) mfg tobi (Geändert von Beschleunigen um 15:50 am Mai 30, 2005)
-- Veröffentlicht durch kammerjaeger am 14:19 am 30. Mai 2005
Zitat von cuhlatee um 11:45 am Mai 30, 2005 Öhm 16 Fach AF, was soll das bringen ? Kostet dich massig Leistung und ein Unterschied zu 8 Fach ist allenfalls messbar! Und erzähle jetzt bitte keiner, er sieht nen Unterschied zwischen 8 und 16 fach!
| Der Unterschied ist wirklich marginal, aber bei der X800XL kostet es eben so gut wie keine Leistung. Das mag bei FX-Karten der Fall sein, bei High-End-Karten jedoch nicht mehr. Ob es denn Sinn macht, 16xAF zu nutzen, sei dahingestellt. Da stimme ich mit Dir überein.
Zitat von Beschleunigen um 12:17 am Mai 30, 2005
Die Qualitätsunterschiede sieht man selbst mit der Lupe beim Standbild kaum, während des Spiels merkt man davon nulkommanix (hab beide Karten im Vergleich gesehen, weiß also wovon ich rede, zumal div. Zeitschriften und Seiten da mit mir übereinstimmen)!
| entweder eine glatte lüge oder du bist blind. den unterschied zw. ATI und GF6 grafik erkennt nicht nur der PC zocker, das sehen auch meine frau, meine kumpels, meine putzfrau und auch so ziemlich jeder im 3D center. da solltest du vielleicht mal lesen gehen und dir die augen über ATIs schwierigkeiten und differenzen öffnen lassen. und: gerade in bewegung sieht man es besser, als auf standbildern. um HDR effekte auf bildern festhalten zu können, müsste man schon .gifs mit 20 ebenen erstellen. in so ziemlich jedem aktuellen spiel, zeigt ATI nur standard-brei.
| Komisch, dann müssen unsere Angestellten und ich alle blind und/oder blöd sein oder alles notorische Lügner... :blubb: Wir haben wirklich beide Karten miteinander verglichen und von Brei kann da keine Rede sein! Ich hab schließlich selbst von einer 6800LE@16/6 zu einer X800XL gewechselt (Sig wird noch geändert...) und diesen Schritt absolut nicht bereut. Die ATI läuft schneller, runder und leiser. Dabei ist die Grafikqualität eher besser als schlechter. ;)
Zitat von Beschleunigen um 12:17 am Mai 30, 2005 meine alte FX konnte trotz implementierter 2.0 shader mit dem code nicht umgehen - trotzdem war ich nie frech oder dreist genug zu behaupten, dass man den unterschied zum model 1.4 nicht sieht oder braucht.
| Der Qualitätsunterschied von 1.4 zu 2.0 ist ja auch deutlich größer als von 2.0 zu 3.0 und auch sichtbar. Außerdem wundert es mich doch sehr, warum Du jetzt auf einmal Deine FX grafisch so schlecht machst, wo Du sie doch sonst immer in den höchsten Tönen gelobt hast (neben Mehrschirmbetrieb und Performance insbesondere bei der Qualität!) und weit über eine 9800Pro/XT gesetzt hast. :blubb: Angeblich sollte 2.0 ja immer mit Patches, Config-Anpassung etc. laut Dir auch auf der FX laufen. Hast Du Dir das jetzt etwa anders überlegt? Vielleicht besteht ja dann doch noch Hoffnung, daß Du irgendwann erkennst, daß die X800XL für die meisten Gamer eine mindestens gleichwertige Alternative zur 6800GT ist. :lol: (Geändert von kammerjaeger um 14:20 am Mai 30, 2005)
-- Veröffentlicht durch Beschleunigen am 12:17 am 30. Mai 2005
Die Qualitätsunterschiede sieht man selbst mit der Lupe beim Standbild kaum, während des Spiels merkt man davon nulkommanix (hab beide Karten im Vergleich gesehen, weiß also wovon ich rede, zumal div. Zeitschriften und Seiten da mit mir übereinstimmen)!
| entweder eine glatte lüge oder du bist blind. den unterschied zw. ATI und GF6 grafik erkennt nicht nur der PC zocker, das sehen auch meine frau, meine kumpels, meine putzfrau und auch so ziemlich jeder im 3D center. da solltest du vielleicht mal lesen gehen und dir die augen über ATIs schwierigkeiten und differenzen öffnen lassen. und: gerade in bewegung sieht man es besser, als auf standbildern. um HDR effekte auf bildern festhalten zu können, müsste man schon .gifs mit 20 ebenen erstellen. in so ziemlich jedem aktuellen spiel, zeigt ATI nur standard-brei. ich verstelle in der forceware übrigens nie etwas. ausser clamp bei bedarf. den rest regel ich über die optionen im spiel oder ich erzwinge AA modi mit ath's tuner. (..) meine alte FX konnte trotz implementierter 2.0 shader mit dem code nicht umgehen - trotzdem war ich nie frech oder dreist genug zu behaupten, dass man den unterschied zum model 1.4 nicht sieht oder braucht. mfg tobi
-- Veröffentlicht durch Vegeta2 am 12:03 am 30. Mai 2005
ja sonst hab ich ja immer 8af weils mir persönnlich voll reicht :D aber bis jetzt läuft alles flüßig von daher :D also wirklich nen unterschied mein ich zu sehen wenn alles stillsteht aber das is so minimal, und dann auch nur ganz hinten. aber nur im stand in der bewegung nicht wirklich nen unterschied :D aber solange alles läfut ^^ warum nicht? (Geändert von Vegeta2 um 12:07 am Mai 30, 2005)
-- Veröffentlicht durch cuhlatee am 11:45 am 30. Mai 2005
Öhm 16 Fach AF, was soll das bringen ? Kostet dich massig Leistung und ein Unterschied zu 8 Fach ist allenfalls messbar! Und erzähle jetzt bitte keiner, er sieht nen Unterschied zwischen 8 und 16 fach!
-- Veröffentlicht durch Vegeta2 am 11:23 am 30. Mai 2005
achso in sachen fertigungsprozzes bei gillette musste ich im 2qm berreich fertigen ;) XD ok ist kein guter vergleich ^.^ bin jedenfalls mit meiner x800xl glücklicher ;) besonders mit omega treibern ^^ hab standart mässig 16af und 6aa an :D (temp aa natürlich XD) und danke das das mit den speicher und ps3 erklärrt wurde!!!! :thumb:
-- Veröffentlicht durch kammerjaeger am 11:06 am 30. Mai 2005
Zitat von Beschleunigen um 9:06 am Mai 30, 2005 allerdings kann man sagen, dass auf einer NV karte vieles besser aussschaut.. bsp. doom³ mit 3mood, FC mit HDR, SC3 mit SM3, SH3 mit SM3, SH2 mit SM3 usw.
| Du solltest mal darüber nachdenken, was SM3.0 eigentlich bewirkt: Es bringt in erster Linie nur Performance-Gewinn, was sich je nach Engine im Bereich 5-10% bewegt. Die Qualitätsunterschiede sieht man selbst mit der Lupe beim Standbild kaum, während des Spiels merkt man davon nulkommanix (hab beide Karten im Vergleich gesehen, weiß also wovon ich rede, zumal div. Zeitschriften und Seiten da mit mir übereinstimmen)! Einzig und allein SC3 sieht auf dem NV4x besser aus, da dieses Spiel auf SM1.1 runterfährt statt SM2.0 zu nutzen, wenn SM3.0 nicht unterstützt wird. :blubb: Würde mich mal interessieren, wieviel Nvidia dafür bezahlt hat...
Zitat von Beschleunigen um 9:06 am Mai 30, 2005 frameraten sind übrigens nicht alles. sowohl gf6, als auch die 800XL haben genug power für flüssige darstellung.
| Damit liegst Du genau richtig, der Performance-Unterschied ist nicht spürbar, je nach Engine ist jede Karte mal schneller, aber flüssig sind sie beide. Da in der Quali keine Unterschiede sichtbar sind (von SC3 mal abgesehen), würde ich daher immer zur leiseren, stromsparenderen Karte greifen. Und das ist nunmal die X800XL... ;) Die 6800GT ist wirklich nur im Mehrschirmbetrieb im Vorteil, was aber für >99% der Spieler irrelevant ist. Somit muß jeder selbst wissen, was für ihn wichtig ist, aber Aussagen wie "alles andere ist wirklich spielerei" kann man sich echt sparen, denn die X800XL ist sehr wohl mehr als nur eine Alternative.
Zitat von Beschleunigen um 8:49 am Mai 30, 2005 technik von vor 2 jahren halt
| Trifft wohl eher auf die 6800GT zu: 130nm-Fertigungsprozess ggü. 90nm bei der X800XL :lol: (Geändert von kammerjaeger um 11:07 am Mai 30, 2005)
-- Veröffentlicht durch Beschleunigen am 9:55 am 30. Mai 2005
PS3 verleitet nicht zum ruckeln. zum ruckeln verleitet allenfalls das schlecht implementierte HDR in FC. HDR ist aber kein feature, das etwas mit PS3 zu tun hat. PS3 ist der nachfolger von PS2 und einfacher zu proggen. wie bei jeder weiterentwicklung arbeitet er auch schneller und kann längere befehle abarbeiten, als sein vorgänger. es ist bei expliziter PS3 programmierung davon auszugehen, dass das ergebnis schneller läuft und besser aussieht, als mit PS1.4 oder 2.0. nochmal: HDR kostet leistung, hat aber nichts mit shader 3.0 zu tun. der verlust ist aber nicht tragisch. zumindest nicht mit einer GT oder Ultra. dass unter HDR bedingungen die LE gegen die GT/U verliert, liegt darin, dass HDR sehr speicherlastig ist und damit, dass 128mb karten meist "nur" DDR1 RAM mitbringen. mit DDR³ RAM kann man FC ganz normal auf der nativen TFT auflösung (1280x1024 pixel) mit HDR zocken, ohne dass der fraps-counter unter 40 fällt. die meiste zeit zeigt er 48-60fps an. das wasser in FC sieht hier immer gleich aus. egal auf welcher karte ich es angucke. sch****e sieht's nur aus, wenn man AA erzwingt, da selbiges in FC nicht kompatibel mit HDR ist. die kantenglättungsstufen, die im treiber standard-mäßig zur verfügung gestellt werden, sehen auf ATI karten besser aus. das stimmt. allerdings bieten sämtliche NV chips ab GF4 noch weit mehr modi an, als der treiber zu auswahl bietet. wenn ich X x S AA oder supersampling AA erzwinge (mit dem atuner), sehen die ATI modi keine sonne mehr, gegen die NV AA's. der anisotrope filter ist sowieso eine sache für sich. der sah nirgends so sauber aus, wie auf meiner geForce FX. allerdings kann man bei den NV karten mit voller präzäsion rechnen, ohne dass es leistung kostet. er ist eine höhere pro-pixel leistung vorhanden und "optimierungen" des AF oder LOD schaltet man einfach per treiber ab. die leistung leidet darunter nur im messbaren bereich (also kaum). man muss sowohl ATI, als auch NV karten zu nutzen und einzustellen wissen. wenn man alle erreichbaren optimierungen ausstellt, bleibt auf der nv karte, mehr leistung übrig. auch bei besserer optik. ich kann nur empfehlen den 3D murks05 mal mit voller präzäsion zu betrachten. ggf. mit postprozessing. das sieht echt besser aus und läuft trotzdem noch gut. (..) ich springe hier schon wieder für NV in die bresche; was ich eigentlich nicht mehr tun wollte.. daher noch der hinweis: meine GF6 auf PCIe ist für spiele eine tolle karte. allerdings wurden wg. der sli-möglichkeit einige NView funktionen mit restriktionen belegt und das overlay geändert, was mir die "arbeit" ausserhalb des spielens und benchens erschwert. diese "änderungen" kotzen mich auch gewaltig an. allerdings ist für diese probs einzig der treiber zuständig und zur zeit gibt's grademal 3.5 treiber, die auf meinem system funzen. wenigstens besteht jetzt wieder die möglichkeit das overlay auf 2560x1024 pixel aufzuspannen (über 2 TFTs).. es ist also besserung in sicht.. das wäre also von meiner seite das negativa, das es zur gf6 einzugestehen gibt. mit der zockperformance gibts keine sorgen. die karte ist seit kauf nicht einmal abgestürzt -> ich hab sie ca. 2 monate. mfg tobi (Geändert von Beschleunigen um 9:58 am Mai 30, 2005)
-- Veröffentlicht durch Vegeta2 am 9:34 am 30. Mai 2005
also ich zieh meine x800xl @ 440/540(x2) meiner alten 6800le @ 16/5 mit 385/385(x2) vor. Ich find optisch sieht alles besser aus mit den omega treibern. besonders im AF berreich ;) auch wenn sie sich von der performance nicht viel nehmen. aber die bildquali ist meiner meinung nach besser (1 monitor berreich^^) bei der 6800 sahen manche dinge doch schon doof aus (far cry = wasser, hl2 mit filter an = kommische übergänge) naja und lautstärke halber ist die x800xl bei mir leiser ;) liegt aber am kühler, die 6800le mit silencer war aber auch fast genauso leise ^^ aber mit vmod kann man ja noch sehr viel rausholen ;) trodzdem würde ich im moment jeden zur 6800GT raten, da sie preis leistungs mässig besser ist. wer wakü hat und sich vmod traut dem empfehle ich die x800xl ;) :thumb: persönnliche meinung ^^ aso und zu PS3. ich find einfach nur das das nur zum ruckeln verleitet, aber nicht wirklich besser aussieht!
-- Veröffentlicht durch Beschleunigen am 9:06 am 30. Mai 2005
frameraten sind übrigens nicht alles. sowohl gf6, als auch die 800XL haben genug power für flüssige darstellung. allerdings kann man sagen, dass auf einer NV karte vieles besser aussschaut.. bsp. doom³ mit 3mood, FC mit HDR, SC3 mit SM3, SH3 mit SM3, SH2 mit SM3 usw. mein "fähigster" kumpel (ehemals 9800pro user) hat die features meiner GF6 gesehen und sich sofort auch so ein kärtchen gekauft (unabhängig von der framerate) -> nur wg. des optischen eindrucks und meiner mehrschirm-umgebung. (..) und das ist mal kein marketing gespinne - das ist realität. mfg tobi (Geändert von Beschleunigen um 9:08 am Mai 30, 2005)
-- Veröffentlicht durch Beschleunigen am 8:49 am 30. Mai 2005
das mit der lautstärke mag ja zutreffen, wobei meine beiden 68er unhörbar sind (das beQuiet NT ist lauter), aber : welche eigenschaften? wer wert auf die ATI-eigenschaften* legt, kann gleich bei seiner 9800 bleiben. ich nehme als maßstab das mittel meiner 4 stammforen und noch die erfahrungen meiner 2-3 involviertesten kumpels --> zusammengenommen kann man sagen, dass ATI (zur zeit) nicht konkurenzfähig ist. NV ist nicht nur besser ausgestattet und schneller, sondern beherrscht auch SM3. da sehen selbst stronghold2 und SC3 besser aus, als auf jeder verfügbaren ATI karte. von FC und D³ fange ich jetzt nicht wieder an, aber auch hier liegen welten zwischen der optischen pracht, die deutlich zugunsten einer 68er ausschlägt. mfg tobi *kein SM3, schlechte mehrschirm-matrix, grottiges OpenGL (technik von vor 2 jahren halt, nur um ein paar pipes erweitert) (Geändert von Beschleunigen um 9:00 am Mai 30, 2005)
-- Veröffentlicht durch kammerjaeger am 8:41 am 30. Mai 2005
Zitat von Beschleunigen um 6:37 am Mai 30, 2005 würde auf jeden fall zu einer neuen NV karte greifen. 66GT für sparer und 68GT für enthusiasten. alles andere ist wirklich spielerei..
| Dann hast Du noch keine X800XL erlebt. ;) Die liegt im gleichen Preissegment wie die 6800GT, ist dieser aber schon wegen der leiseren Kühlung und dem geringeren Verbrauch vorzuziehen. In der Leistung nehmen sie sich nicht viel, wobei mal die eine und mal die andere Karte die Nase vorn hat. In der Summe der Eigenschaften würde ich also immer zur X800XL greifen. Test bei k-hardware Test bei computerbase
-- Veröffentlicht durch Beschleunigen am 6:37 am 30. Mai 2005
schon die 66GT ist deutlich besser als eine 9800. die macht ohne probleme 9-10.000 punkte im 3dmurks03 und 60.000 im AM3. in spielen geht sie ebenfalls besser zur sache. dass eine 68er das ganze dann nochmal toppt, hat faulpelz ja schon geschrieben. würde auf jeden fall zu einer neuen NV karte greifen. 66GT für sparer und 68GT für enthusiasten. alles andere ist wirklich spielerei.. (..) mfg tobi
-- Veröffentlicht durch Blumenmann am 22:52 am 29. Mai 2005
Wie wärs mit der hier http://www1.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JAGW42&#tecData Und den Kühler hier: http://www.watercooling.de/catalog/product_info.php?cPath=1_17_42&products_id=591
-- Veröffentlicht durch faulpelz am 22:32 am 29. Mai 2005
wie 6800GT wäre kein untershied??haste jezz von 66 auf 68 hochgerechnet?? du hast die 66 nichtmal aber sagst ja sie ist ja nicht viel schneller wie die??lol ?? die 68GT macht deine 98Pro ganz schön nass:lol: und für das was du amchst reicht die 68GT allemal aus wenn nicht sogar doppelt:blubb:
-- Veröffentlicht durch Blumenmann am 21:15 am 29. Mai 2005
Dnke, wede morgen mal meine 9700 pro anschliessen, wenn die dann funzt werde ich mir was anderes überlegen. die 9800 pro würde ja ausreichen, ein 6600 gt wäre nicht viel schneller , eine 6800 gt wäre kein grosser unterschied, also müsste ich dann schon mit 300-400 € rechnen, gefallen würde mir ja die Sapphire Atlantis X800XT PE
-- Veröffentlicht durch OrkEater am 20:58 am 29. Mai 2005
wieviel willste denn ausgeben? also ich an deiner Stelle würd mir erstmal irgendwoher ne andere Graka leihen um sicherzugehen, dasses an der graka liegt. Evtl mal von nem Kollegen o.ä. besorgen ;)
-- Veröffentlicht durch Blumenmann am 20:24 am 29. Mai 2005
So habe jetzt übernacht mit Prime gecheckt null Fehler, dann mal ne Zeit mit mtest bei fsb 265 stürtzte der rechner nach einer zeit ab, bei fsb 250 keine probleme im memtest. Jetzt nochmal den 3d mark 2003 laufen lassen wieder abgestürtzt. Dann kompletter pc nochmal neu installiert, war kein problem da neusystem, jetztmal normaler ati treiber, einmal ein becnch geschafft gerade mal 5950 punkte dann nochmal einer direkt beiem ersten test (flugzeuge) bild einfach stehen geblieben. Ich denke jetzt mal die karte ist kaputt. Welche Karte kann man mir empfehlen, spilen tu ich so gut wie kaum, aber viel office,, bildbearbeiteung viseoschnitt und wenn das neue age of empire 3 rauskommt soll da laufen. Allerdings funzen nur agp karten. Cool wäre eine Karte , gute Bildqiualität, am besten den Speicher von einer Seite, am besten auch ein layout wo eseinen wasserkühler gibt, der speicher und gpu mitkühlt. (Geändert von Blumenmann um 20:40 am Mai 29, 2005)
-- Veröffentlicht durch OrkEater am 10:55 am 24. Mai 2005
nimm den hier den kannste auch unter windows benutzen und musste nicht extra auf ne bootdisc basteln :thumb:
-- Veröffentlicht durch N omega G am 0:47 am 24. Mai 2005
Zitat von Blumenmann um 19:20 am Mai 23, 2005 Also Cpu ist ok, Prime läuft stunden ohne das die temp üerr35 Grad geht.Speicher muss ich mal checken woher bekomm ich das programm?
| na geil ne wakü, aber ka was google ist :blubb: hier
-- Veröffentlicht durch Blumenmann am 19:20 am 23. Mai 2005
Also Cpu ist ok, Prime läuft stunden ohne das die temp üerr35 Grad geht.Speicher muss ich mal checken woher bekomm ich das programm?
-- Veröffentlicht durch Steppenwolf am 14:03 am 23. Mai 2005
teste mal mit prime , wahrscheinlich läuft deine CPU nich ganz perfekt. Oder Memtest vllt. spielt au n RAM nich mehr mit. MfG sTeppe
-- Veröffentlicht durch Blumenmann am 20:58 am 22. Mai 2005
Hallo habe folgendes Problem: Mein System : Asus P4c800edeluxe Prescott 3,2 @ 4,16 (Primestable 32 Grad 4std) Vcore 1,35, FSb260 Speicher syncron Sapphirre 9800 pro alles wassergekühlt. prime,Sandra, alle Werte in Ordnung. doch bei 3d mark 03 und 05 kackt der rechner immer ab. habe den aktuellen omega treiber + ati tool, beim 3d mark 03 ein durchgang klappte grafka mit original takt 5900 punkte, bei anderen durchgängen mal übertaktet mal nicht friert mal der screen ein das andere mal rebootet der rechner (netzteil 460 watt) Habe während der benchmarkversuche mal den mbm5 samt einem lcd screen angehabt temperaturen bei max 32 grad, voltwerte ohne schwankungen, direct x ist 9.0 c installiert.
|