Ein Ausdruck des Beitrags mit 548 Antworten ergibt bei 3 Antworten pro Seite ca. 183 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 913.10 Gramm Papier.
-- Veröffentlicht durch Girgl am 14:35 am 7. Dez. 2006
ist ja cool, und ich dachte schon, ich müsste mein Gehäuse aufdremeln, um ein neues Netzteil einzubauen, da Dell ja so toll ist und eine Eigenkonstrukiton eingebaut hat, die nicht mal nach ATX Standard ans Mobo angeschlossen ist... :punk: ha, das heisst, dass ich wenigstens BF2 auf high stellen kann, ohne dass es ruckelt...lol
-- Veröffentlicht durch kammerjaeger am 14:06 am 7. Dez. 2006
Ja. Die 9800Pro war nicht sonderlich sparsam...
-- Veröffentlicht durch Girgl am 10:52 am 7. Dez. 2006
Sorry, dass ich einen so alten thread nochmals ausgrabe, aber: bald kommt die x1650xt für agp auf den markt, und da ich mit Vista und directX 10 erst irgendwann Ende nächsten Jahres einen neuen PC kaufen werde, will ich meiner alten Mühle noch ein bisschen Leben schenken. ich habe hier (http://extreme.outervision.com/psucalculator.jsp) mal den Strombedarf meines Dell Dimension 8300 abgecheckt und scheinbar braucht dieser mit einer Radeon 9800pro mehr Strom als mit einer x1650xt. Ist das möglich? Das würde ja heissen, dass mein 305W Netzteil locker reicht....
-- Veröffentlicht durch smoke81 am 15:49 am 29. Juni 2006
Zitat von mkking um 15:35 am Juni 29, 2006 http://www.planet4one.de/planet/wbc.php?sid=361296a834&tpl=produktdetail.html&pid=15099&rid=1977&recno=45 Ist die besser als 9800pro oder x1600 pro?
| Die ist deutlich besser als eine 9800Pro oder X1600Pro/XT! Wenn die Taktraten stimmen (475/450), dann ist die Karte fast so schnell wie die X800GTO @ 16 Pipes bzw. X800XL mit 400/490, nur knapp 10% langsamer.
-- Veröffentlicht durch kammerjaeger am 15:49 am 29. Juni 2006
Ja. :thumb:
-- Veröffentlicht durch mkking am 15:35 am 29. Juni 2006
http://www.planet4one.de/planet/wbc.php?sid=361296a834&tpl=produktdetail.html&pid=15099&rid=1977&recno=45 Ist die besser als 9800pro oder x1600 pro?
-- Veröffentlicht durch kammerjaeger am 13:23 am 28. Juni 2006
Das liegt an der Benchmethode und den ersten Treibern der X1600Pro, mit denen sie überwiegend getestet wurde. Z.B. im Aquamark3 oder 3DMark03 erreicht die 6600GT höhere Werte. Bis 1024x768 und mittlerer Qualität kann sie auch in Spielen mithalten. Sobald es aber ingame um höhere Qualität und/oder höhere Auflösung geht, rennt ihr die X1600Pro davon. ;)
-- Veröffentlicht durch Dreamtem am 13:10 am 28. Juni 2006
Das ist sehr verwirrend !!!! Die 6600 GT ist bei der einen 5 und bei der anderen Liste 2 Plätze besser als die X1600 pro obwohl hier jeder sagt die x1600pro ist schneller. (Geändert von Dreamtem um 13:15 am Juni 28, 2006)
-- Veröffentlicht durch smoke81 am 12:36 am 28. Juni 2006
Eine gute Liste zur Einordnung der relativen Leistungsfähigkeit ist diese hier: http://www.hardware-infos.com/grafikkarten_charts.php Die X800GTO 16Pipes ist dann genau eine X800XL, bloß mit anderem Namen... Je nach Game/Engine kann der Rang um +/- 2 Plätze variieren, aber ansonsten ist es ein guter Anhaltspunkt. Wobei mir aufgefallen ist, dass NV meiner Meinung nach teilweise etwas "zu gut" wegkommt. Insbesondere die FX-5900er kommt etwas zu gut weg im Vergleich mit der 9800Pro und die X800 (Nr. 28, wahrscheinlich 256 MB, keine Angabe) würde ich noch vor 6800, 7600GS & X1600XT setzen. Noch ein paar Vergleiche: http://tomshardware.thgweb.de/charts/grafikkarten.html (Geändert von smoke81 um 12:57 am Juni 28, 2006)
-- Veröffentlicht durch Dreamtem am 12:24 am 28. Juni 2006
Die X800 GTO von Mad Monxx ist schon sehr verlockend. Vieleicht warte ich mit der Anschaffung noch ein bisschen und leiste mir dann die.:punk: Gibt es eigentlich eine seriöse Liste auf der man sieht wieviel Leistung eine Grafikkarte mit dem orig. Takt hat? Wenn ich mir 5 verschiedene Listen ansehe, bekomme ich 5 verschiedene Antworten. Welche Liste haltet ihr für authentisch?
-- Veröffentlicht durch kammerjaeger am 0:10 am 28. Juni 2006
Zitat von Redirion um 0:01 am Juni 28, 2006 oder die hardware is einfach nur am ende und die gpu/cpu steht kurz vorm freeze :D
| Genau das ist es! Erst ab einem bestimmten Punkt tritt dieser Effekt ein. Aber ein Werks-Kühler sollte so ausgelegt sein, daß dieser Punkt ohne Extrem-OC und in normal belüfteten Gehäusen nicht eintriff...
-- Veröffentlicht durch Redirion am 0:01 am 28. Juni 2006
Zitat von kammerjaeger um 23:48 am Juni 27, 2006
Zitat von Dreamtem um 22:02 am Juni 27, 2006 Mit steigender Wärme sinkt die Leistung, oder? Folglich müßte eine passiv gekühlte Karte weniger Leistung haben.
| Wo hast Du das denn her? Der Verbrauch und somit die Abwärme sagt nix über die Leistung, siehe z.B. A64/Centrino/Conroe vs. Pentium4 (Prescott usw.).
| was Dreamteam sagt stimmt allgemein betrachtet. Bei pc-hardware spielt das aber wirklich keine rolle. Wobei ich mich in dem zusammenhang frage : habt ihr das auch mal beobachtet, dass ihr weniger 3dmarks erreicht, wenn ihr zu stark übertaktet? vll is das ja dann n hitze-performanceverlustproblem ;) oder die hardware is einfach nur am ende und die gpu/cpu steht kurz vorm freeze :D
-- Veröffentlicht durch kammerjaeger am 23:48 am 27. Juni 2006
Zitat von Dreamtem um 22:02 am Juni 27, 2006 Mit steigender Wärme sinkt die Leistung, oder? Folglich müßte eine passiv gekühlte Karte weniger Leistung haben.
| Wo hast Du das denn her? Der Verbrauch und somit die Abwärme sagt nix über die Leistung, siehe z.B. A64/Centrino/Conroe vs. Pentium4 (Prescott usw.). Die X1600Pro braucht nur recht wenig Strom, dadurch kann sie mit einem guten Heatpipe-Kühler passiv gekühlt werden. Aber eine vernünftige Gehäusebelüftung, durch die ein Luftstrom über den Passiv-Kühler gleitet, kann nicht schaden... ;)
-- Veröffentlicht durch Dreamtem am 22:02 am 27. Juni 2006
Was ist ein "Speicherinterface"? Mit steigender Wärme sinkt die Leistung, oder? Folglich müßte eine passiv gekühlte Karte weniger Leistung haben. (Außer der Verlust ist so gering daß er nicht ins Gewicht fält)
-- Veröffentlicht durch smoke81 am 15:55 am 27. Juni 2006
Zitat von Dreamtem um 15:30 am Juni 27, 2006 Wiefiel schneller ist die und kommt da mein 2800er Athlon überhaupt noch mit? Ist die X800 GTO viel Lauter? Hat die X1600Pro von Gigabyte die gleiche Leistung wie z.B. die Sapphire?
| Die ist im Schnitt 40-50% schneller wie die X1600Pro, teilweise auch mehr :thumb: Im Standard entspricht sie genau einer X800XL. Das wäre das Maximale, was ich noch mit einem Sockel-A-System zum jetzigen Zeitpunkt neu kombinieren würde. Zusammen mit 1-1.5GB RAM hast Du dann wieder ein absolut spieletaugliches System. Selbst Fear läuft damit in 1280x960, FarCry in 1600x1200 + 16xAF usw... Wie laut sie ist, weiß ich nicht, dürfte aber erträglich sein. Außerdem hat sie normalerweise eine Lüftersteuerung, mit der man dann im 2D-Betrieb sehr schön runter regeln kann. ;) Solange das Speicherinterface und die Taktraten identisch sind, sind die GB und die Sapphire gleich schnell :thumb:
-- Veröffentlicht durch Dreamtem am 15:30 am 27. Juni 2006
Wiefiel schneller ist die und kommt da mein 2800er Athlon überhaupt noch mit? Ist die X800 GTO viel Lauter? Hat die X1600Pro von Gigabyte die gleiche Leistung wie z.B. die Sapphire?
-- Veröffentlicht durch smoke81 am 11:37 am 27. Juni 2006
Alternativ für etwas mehr Geld, aber wesentlich mehr Leistung: X800 GTO @ 16P Entspricht also einer X800XL AGP für sehr gute 139,- :thumb:
-- Veröffentlicht durch kammerjaeger am 8:39 am 27. Juni 2006
Die X1600Pro von Connect3D hat nur 250 statt 400MHz Speichertakt, also kein Kauftip! Die Gigabyte ist passiv gekühlt, bei ordentlicher Gehäusebelüftung eine sehr gute Wahl.
-- Veröffentlicht durch Dreamtem am 7:06 am 27. Juni 2006
und welchen Kartenhersteller würdet ihr empfehlen bzw von welchm abraten?
-- Veröffentlicht durch N omega G am 23:27 am 26. Juni 2006
Zitat von Garwain um 20:22 am Juni 26, 2006 soll heißen PCI E sind allgemein billiger als AGP, und 256 MB sind genau richtig, 128 MB reichen für hochauflösende Texturen nicht aus
| bei der karte ja
-- Veröffentlicht durch Garwain am 20:22 am 26. Juni 2006
soll heißen PCI E sind allgemein billiger als AGP, und 256 MB sind genau richtig, 128 MB reichen für hochauflösende Texturen nicht aus
-- Veröffentlicht durch kammerjaeger am 13:05 am 26. Juni 2006
Nein, aber PCIe statt AGP. 128MB gibt es für AGP afaik nicht, die 512MB-Versionen sind meiner Meinung nach Nonsens bei der Karte!
-- Veröffentlicht durch Dreamtem am 12:46 am 26. Juni 2006
Hi, jetzt hab ich den Threat durchgeackert und doch noch Fragen. Ich überlege auch mir eine x1600pro zuzulegen. Welchen Leistungsunterschied macht es ob 128mb, 256mb oder 512mb Grafikspeicher? Welcher Hersteller ist zu empfehlen? Ist die Sapphire gut? Ich hab hier was von 85€ gelesen, war die mit 128mb oder? Gruß Martin
-- Veröffentlicht durch smoke81 am 18:34 am 28. April 2006
Für die Faulen unter euch: http://www.hartware.de/review_581.html :lol:
-- Veröffentlicht durch Patrik am 17:48 am 28. April 2006
Wenn nicht schon erwähnt hier hab ich hier ein sehr schöner Test für euch gefunden, für die X1600Pro, insbes. gegen die 6600GT und 9800PRO ! http://www.hartware.de/review_581.html:)
-- Veröffentlicht durch sklave gottes am 23:40 am 21. April 2006
Zitat von Beschleunigen um 18:22 am April 21, 2006
Hallo, Ok bei 500/400mhz solltest du normalerweise 1024x768 mit allem an ohne aa/af locker flüssig spielen können.
| wie hoch muss man denn clocken, um ein bild flüssig darstellen zu können, das 60% mehr (pixel)daten hat, als die 1024x768er auflösung.. ? also ich rede von 1280x1024 pixeln. 60% höher clocken kannst du nicht meinen und linear skaliert die karte ebenfalls nicht. ergo: wenn man bei 500/400 auf 1024 ohne AA/AF schalten muss, muss man das mit 50 oder 100mhz mehr, auch. eben weil 20% füllrate/bandbreite, keine 60% mehr bildinhalt ausmachen können. (..) mfg tobi
| die betonung liegt auf locker, ich schaffe locker 1280x1024 mit 0aa 4af (x1600pro palit@oc)
-- Veröffentlicht durch kammerjaeger am 19:03 am 21. April 2006
Zitat von Patrik um 17:43 am April 21, 2006 hi, hätte mal für mich eine dringend wichtige Frage: Momentan habe ich ein Barton SockelA 2800+ (2,1GHZ), Nforce2 Board und RADEONX1600PRO. Nun kommts: Bringt es was bei SPIELEN, wenn ich umsteige auf einen A64Venice3200 mit pass. Board, mit der GLEICHEN grafikkarte. - müsste doch eigentlich net sooo viel bringen bei games,oder? :noidea:
| Bei den meisten Engines nicht. ;)
-- Veröffentlicht durch Beschleunigen am 18:22 am 21. April 2006
Hallo, Ok bei 500/400mhz solltest du normalerweise 1024x768 mit allem an ohne aa/af locker flüssig spielen können.
| wie hoch muss man denn clocken, um ein bild flüssig darstellen zu können, das 60% mehr (pixel)daten hat, als die 1024x768er auflösung.. ? also ich rede von 1280x1024 pixeln. 60% höher clocken kannst du nicht meinen und linear skaliert die karte ebenfalls nicht. ergo: wenn man bei 500/400 auf 1024 ohne AA/AF schalten muss, muss man das mit 50 oder 100mhz mehr, auch. eben weil 20% füllrate/bandbreite, keine 60% mehr bildinhalt ausmachen können. (..) mfg tobi
-- Veröffentlicht durch Patrik am 17:43 am 21. April 2006
hi, hätte mal für mich eine dringend wichtige Frage: Momentan habe ich ein Barton SockelA 2800+ (2,1GHZ), Nforce2 Board und RADEONX1600PRO. Nun kommts: Bringt es was bei SPIELEN, wenn ich umsteige auf einen A64Venice3200 mit pass. Board, mit der GLEICHEN grafikkarte. - müsste doch eigentlich net sooo viel bringen bei games,oder? :noidea:
-- Veröffentlicht durch kammerjaeger am 23:30 am 18. April 2006
Aber nimm für AGP bei der GTO bitte keine Sapphire. Neben dem schlechten Kühler hat sie auch einen niedrigen GPU-Takt. Der leicht erhöhte Speichertakt reißt es dabei nicht raus. Die Club3D ist nicht nur preiswert, sondern hat einen ordentlichen Kühler und GDDR3 sollte sich meist recht gut übertakten lassen. ;)
-- Veröffentlicht durch InkJet am 21:54 am 18. April 2006
für gute alte AGP :lol: Bei AGP ist die XT soweit ich das sehe sehr sehr viel teurer als die GTO, mind. das 2fache je nach Anbieter...
-- Veröffentlicht durch tOWNshIP am 19:17 am 18. April 2006
... ist schnurzpiepegal .. Taktung & Latenz zählt, alles andere ist Schönfärberei ... ich hab Deine Postings jetzt nicht genauverfolgt und weiss ned für welches Interface Du eine Karte suchst, sollte es PCIe sein, dann hol Dir die X800XL anstatt der GTO, die XL ist mom der PReis/LeistungsBrecher im MidRangeBereich ... (kostet 140€ neu)
-- Veröffentlicht durch InkJet am 19:00 am 18. April 2006
Hier hatte ich schon angesprochen das ich meine ATI Radeon 9500 Pro (AGP!) eventuell tauschen würde, wenn ich mir den Thread so ansehe ist die X800GTO vielleicht doch die bessere Wahl als eine X1600 Pro, die paar Euro sollte man opfern können! Ich habe 2 Varianten entdeckt, eine mit DDR2 VRAM und eine mit GDDR3 VRAM (ca. 50 Euro mehr), anscheinend gleicher Speichertakt, bringt GDDR3 überhaupt was!?
-- Veröffentlicht durch Avok am 0:54 am 18. April 2006
Danke Euch allen für Eure Antworten, ich werd mal noch ne Nacht drüber schlafen und morgen dann mal sehen :-)
-- Veröffentlicht durch sklave gottes am 22:34 am 17. April 2006
Hallo, Ok bei 500/400mhz solltest du normalerweise 1024x768 mit allem an ohne aa/af locker flüssig spielen können. Ich habe zur zeit den 6.4 drauf.Aber auch mit den treibern 6.1-6.3 hatte ich keine probleme.Vieleicht nimmst du mal einen treber cleaner und machst den 6.4 treiber mal drauf. mfg martin @Avok Ja die x800xl ist für 140€ ein sehr guter preis.Vieleicht wäre noch eine 7600gs extrem interresannt, wenn du eine karte suchst die passiv gekühlt ist.(die x800xl ist aber schneller)
-- Veröffentlicht durch blaueslicht am 21:51 am 17. April 2006
Zitat von sklave gottes um 13:40 am April 17, 2006 Hmm sorry keine ahnung, Bei mir kann ich sehr gut mit allem an(ausser hdr)1280x1024 und 4af/ohne aa spielen.Habe im grenzfall minimum 40fps. wie hoch ist den deine karte getaktet ?
| Die Karte hat den Standart- Takt, also 500/400 Mhz. Sonst läuft ja auch alles, nur halt HL² nicht. Welchen Catalyst Treiber verwendest du denn? Ich habe den 6.2 drauf.
-- Veröffentlicht durch kammerjaeger am 20:15 am 17. April 2006
Wow, ich kann es kaum fassen, daß wir uns einig sind. :thumb: :godlike: :lol:
-- Veröffentlicht durch tOWNshIP am 18:29 am 17. April 2006
jupp, da hat Kammerjager recht ... die XL ist die bessere Karte .. hab ich nur ned erwähnt, weil die zwei zur Auswahl standen und ich nur mit einem Auge dabei war ... und die 800 GTO ist wohl kaum günstiger zu kriegen als die 800XL, die ist momentan die beste MidRange/LowCost-Karte ..
-- Veröffentlicht durch Avok am 18:25 am 17. April 2006
@ kammerjäger Danke Dir für den Hinweis. Ich dachte halt an eine Graka die ein bissl mehr Saft hat wie mein "altes" Hündchen, eben um den Preis von ca. 100 - 150 EUR. Ich werd mal nach so einer "XL" schauen, wobei ich bei den Dinger fast wuschig werde:noidea: Da gibts welche ohne Zusatz, dann XL, XT, GT, GTO, GTO2 und weils noch net genug ist toppen die das noch mit den Zusätzen wie "ultimate & co" Da soll man als "Normalo" nicht am Rad drehen ^^ Aber vielen Dank :-)
-- Veröffentlicht durch kammerjaeger am 17:58 am 17. April 2006
Wenn schon, dann bitte die X800XL für 140,-! Die X1600Pro ist eben eine gute Empfehlung im Bereich um 100,-. Wenn es etwas mehr sein darf: Die X800GTO stellt für mich keine Alternative dar, weil sie kaum billiger ist als die X800XL! ;)
-- Veröffentlicht durch Avok am 17:18 am 17. April 2006
Ui danke...das war mal ne klare Antwort :-)
-- Veröffentlicht durch tOWNshIP am 17:09 am 17. April 2006
Zitat von Avok um 17:03 am April 17, 2006 Nur bei der Auswahl einer entsprechenden "preisgünstigen" guten Graka weiss ich nimmer weiter. Zuerst dachte ich an eine 7600 GS oder eine X800GTO dann hab ich aber von der 1600 pro PCIe erfahren.
| ... vergiss die X16Pro ganz schnell wieder, Du wirst es bereuen ... ne X800GTO ist eine wesentlich bessere Wahl .. lies Dir noch paar andere Threads hier durch ...
-- Veröffentlicht durch Avok am 17:03 am 17. April 2006
Hallöchen und Frohe Ostern... Ich habe nun diesen Tread alle 5x Seiten gelesen, genossen und gestaunt, letztendlich hat mich dieser dieser aber nur zu 80 % in meiner Entscheidung bestärkt. Von daher würde ich mich freuen wenn Ihr mir einen kleinen Tipp geben könntet, denn die vielzahl der am Markt befindlichen Produkte überfordert einen Hardwarenoob wie mich doch immens :-) Ich habe vor mein bestehendes System (AMD XP 3200 und NV 5900 XT Graka) ein wenig preiswert aufzurüsten: AMD 64 3500, Abit KN8 MB usw. Nur bei der Auswahl einer entsprechenden "preisgünstigen" guten Graka weiss ich nimmer weiter. Zuerst dachte ich an eine 7600 GS oder eine X800GTO dann hab ich aber von der 1600 pro PCIe erfahren. Meine Frage ist nun, ob diese Karte für mich als Onlinegamer (DAoC, WoW) ausreichend wäre, da meine alte 5900 XT bei beiden Games manchmal an ihre Grenzen stösst. (Habe leider nicht die Möglichkeiten etwas zu testen). Über einen Tip / Info würde ich mich sehr freuen, bis dahin noch schöne Ostern Grüsse
-- Veröffentlicht durch sklave gottes am 13:40 am 17. April 2006
Hmm sorry keine ahnung, Bei mir kann ich sehr gut mit allem an(ausser hdr)1280x1024 und 4af/ohne aa spielen.Habe im grenzfall minimum 40fps. wie hoch ist den deine karte getaktet ?
-- Veröffentlicht durch blaueslicht am 23:20 am 16. April 2006
Ich krame den Thread nochmal raus... :thumb: Habt ihr x1600pro Besitzer eigentlich auch Probleme mit Half Life 2? Bin heute mal wieder dazu gekommen, das Spiel zu testen und ich bin erschrocken, wie schlecht das auf meinem PC läuft... Ich kann es nur auf 1024x 768, Details mittel und ohne hdr ruckelfrei genießen. Das sind die gleichen Einstellungen wie mit meinem alten Athlon XP 1800 und ner 9600pro. Andere Spiele laufen einwandfrei, CoD2 z.B. spiele ich flüssig in 1280x 1024 details hoch ... Wie kann das sein? Ich bin da ziemlich ratlos, gerade weil die Karte sonst immer schnell genug ist und HL² ja schon etwas älter ist... CU Blaueslicht (Geändert von blaueslicht um 9:41 am April 17, 2006)
-- Veröffentlicht durch DexterDX1 am 21:20 am 6. April 2006
Der Thread-Titel heißt "Radeon X1600 Pro - Wer hat sie schon getestet?"
Zitat von Beschleunigen um 17:06 am April 6, 2006
Achso... jeder der ned alle paar Monate unsummen für so nen unwichtigen sch**** wie nen SPIELE-PC ausgibt ist also n Raubkopierer...klar Dann begründe doch mal deine Aussage.
| du langweilst mich. ja - ich könnte meine meinung begründen, wenn mir etwas daran liegen würde. mini-tipp: ich kenne 48 leute, die seit zwei, drei wochen nichts weiter machen, als p2p logs zu sichten und umzuspeichern. die kommen alle vom gleichen EDV dienstleister und arbeiten alle für die gleiche institution - noch mindestens für 6 monate. und mehr wird nicht verraten. vieles wird auf den AOL slogan "sie haben post" hinauslaufen.
| Wie passend, du kämpfst wie eine Kuh. Warum kennst Du denn zu jedem Spiele jede Framerate auf jeder Hardwarebasis? Du bist professioneller Nutzer => Du kaufst Dir Spiele nur, um Dein System zu benchen. :godlike: Warum sehen wir nicht einfach ein, dass... ...die 1600er nicht mit 7900er-SLI konkurrieren sollen? ...Schwarzkopiererei hier völlig OT ist? ...Angeber in den Kindergarten gehören? Zum Schluss _noch_ ein OT-Reißer von mir:
ich kenne 48 leute, die seit zwei, drei wochen nichts weiter machen, als p2p logs zu sichten und umzuspeichern. die kommen alle vom gleichen EDV dienstleister und arbeiten alle für die gleiche institution - noch mindestens für 6 monate.
| Befristete Arbeitsverträge sind völlig normal. MfG Dex
-- Veröffentlicht durch baumi88 am 20:10 am 6. April 2006
Zitat von Beschleunigen um 17:06 am April 6, 2006 du langweilst mich
| Das beruht dann wohl auf gegenseitigkeit
Zitat von Beschleunigen um 17:06 am April 6, 2006 [...]oder gibt's noch andere erklärungen dafür, dass hier zwar keiner geld für hardware hat, aber trotzdem jeder zu jedem spiel und zugehöriger framerate etwas sagen kann ?
| Damit sagst du doch wohl eindeutig, dass diejenigen hier, die keine zig tausend euro für ihren PC ausgeben aber trotzdem neue games zocken alle Raubkopierer sind. Ich weiss ja ned wies dir geht, aber ich seh da keinen Zusammenhang mim Konsolenkauf
-- Veröffentlicht durch BUG am 19:47 am 6. April 2006
Zitat von Kaffeeheld um 17:56 am April 6, 2006 dachte die 1600pro hat 12 pips
| ..nein 4! ..aber pro Pipe 3 Pixelshader Alus! cu BUG
-- Veröffentlicht durch Kaffeeheld am 17:56 am 6. April 2006
Zitat von Glorfindel um 17:27 am April 6, 2006 Moin ihr Freaks!!! :punk: Also nun will ich auch mal mein Senf dazu gebn. Meiner Meinung nach is die X1600 pro dasbeste was mir passieren konnte. Geht gut zu übertakten mit 590/450 und stellt jedes Spiel flüssig dar, außer Oblivion vielleicht ;). Doch das Beste kommt noch. Ich hab zum Spass ma mit meinen Freund (x800 pro) en Benchmark in fear gemacht und siehe da bei 1280*1024 alle detail hoch+AA habe ich durchschnittl. 42 fps genauso wie er auch. :thumb: Jeder der glaubt die x1600 pro sei schwach wegn 4 pipes liegt vollkommen danebn , wenn sie sogar mit ner x800 pro mithaltn kann.
| :noidea: dachte die 1600pro hat 12 pips das sie in den Preissegment unschlagbar ist, daran wird sich wohl nichts ändern;)
-- Veröffentlicht durch Glorfindel am 17:27 am 6. April 2006
Moin ihr Freaks!!! :punk: Also nun will ich auch mal mein Senf dazu gebn. Meiner Meinung nach is die X1600 pro dasbeste was mir passieren konnte. Geht gut zu übertakten mit 590/450 und stellt jedes Spiel flüssig dar, außer Oblivion vielleicht ;). Doch das Beste kommt noch. Ich hab zum Spass ma mit meinen Freund (x800 pro) en Benchmark in fear gemacht und siehe da bei 1280*1024 alle detail hoch+AA habe ich durchschnittl. 42 fps genauso wie er auch. :thumb: Jeder der glaubt die x1600 pro sei schwach wegn 4 pipes liegt vollkommen danebn , wenn sie sogar mit ner x800 pro mithaltn kann.
-- Veröffentlicht durch Beschleunigen am 17:06 am 6. April 2006
Achso... jeder der ned alle paar Monate unsummen für so nen unwichtigen sch**** wie nen SPIELE-PC ausgibt ist also n Raubkopierer...klar Dann begründe doch mal deine Aussage.
| du langweilst mich. ja - ich könnte meine meinung begründen, wenn mir etwas daran liegen würde. mini-tipp: ich kenne 48 leute, die seit zwei, drei wochen nichts weiter machen, als p2p logs zu sichten und umzuspeichern. die kommen alle vom gleichen EDV dienstleister und arbeiten alle für die gleiche institution - noch mindestens für 6 monate. und mehr wird nicht verraten. vieles wird auf den AOL slogan "sie haben post" hinauslaufen.
Dann behaupte ich doch mal, dass alle die nen Schwanz-Ersatz-PC haben ihre ganzen Games brennen weil se sonst kein Geld mehr für die nächste (sinnlose) Aufrüstaktion haben... Kann ich zwar auch ned begründen aber so eine Argumentationsweise sollte dich ja ned weiter stören
| ich denke, wer meint von "schwanz-ersatz" sprechen zu müssen, wenn jemand einen besseren PC oder ein schöneres haus hat, respektive ein schnelleres auto fährt od. die geilere frau abbekam, hat selbst das grösste defizit. das mit dem raubkopierer stand im kontext zur konsolenanschaffung. man kann nunmal nicht bestreiten, dass die konsole über längere zeit topptitel mit guten frameraten liefert, als ein 300€ PC. dass man diese titel nicht einfach mal beim kumpel ausleiht und "rüberjodelt", sollte bekannt sein. zumindest im bezug zur XB360, die oblivion mustergültig zu bewegen weiss. für 300€. (..) mfg tobi (Geändert von Beschleunigen um 17:23 am April 6, 2006)
-- Veröffentlicht durch Kauernhoefer Speedy am 16:58 am 6. April 2006
Was für eine sinnlose Diskussion :blubb: Hat denn hier keiner mehr mal was sinnvolles zum Thema zu berichten?
-- Veröffentlicht durch baumi88 am 16:25 am 6. April 2006
Zitat von Beschleunigen um 11:14 am April 6, 2006 naja, wem nutzt der längere pillermann etwas, wenn man aussieht, wie ein schlag in die fresse und das bugdet dann nichtmal einen puffbesuch zulässt?
| Dann erzähl doch mal...
Zitat von Beschleunigen um 11:14 am April 6, 2006 ich find's übrigens OK wenn leute zu ihrer armut stehen.. allerdings ist es naiv zu glauben, dass ein 300euro billigst PC in der lage ist, oblivion zu bewegen. da würde ich für's gleiche geld lieber eine konsole kaufen gehen. aber da kommt dann bei vielen auf lange sicht wieder das budget in die quere.. denn auf konsolen ist "spiele kaufen" angesagt. da kann man nicht viel mit raubkopien für lau aus i-net anfangen, gelle ? oder gibt's noch andere erklärungen dafür, dass hier zwar keiner geld für hardware hat, aber trotzdem jeder zu jedem spiel und zugehöriger framerate etwas sagen kann ?
| Achso... jeder der ned alle paar Monate unsummen für so nen unwichtigen sch**** wie nen SPIELE-PC ausgibt ist also n Raubkopierer...klar:lol: Dann begründe doch mal deine Aussage. Dann behaupte ich doch mal, dass alle die nen Schwanz-Ersatz-PC haben ihre ganzen Games brennen weil se sonst kein Geld mehr für die nächste (sinnlose) Aufrüstaktion haben... Kann ich zwar auch ned begründen aber so eine Argumentationsweise sollte dich ja ned weiter stören Andi
-- Veröffentlicht durch LeGoer am 15:56 am 6. April 2006
Ich finds übrigens OK, wenn Leute zu vernünftigen Kaufentscheidungen stehen! :thumb: Wäre mal eine interssante Studie, in welchem Zusammenhang das Budget einer Person zu der verbauten Hardware steht! :noidea: Mir drängt sich die Frage auf, ob es sooo wichtig ist, dass die Hardware ein bestimmtes Spiel bei extremen Einstellungen optimal bewegen kann!? Trotzdem schön zu sehen, dass trotz deiner proletigen Aussagen (@Beschleunigen), es einige hier im Forum gibt, bei denen sich im Gehirn alles optimal bewegt. Meiner Meinung nach wichtiger, oder!? Mein Tipp: Leg dein enormes Budget lieber mal für etwas "Intellektuelles" an! :lol:
-- Veröffentlicht durch Beschleunigen am 11:14 am 6. April 2006
naja, wem nutzt der längere pillermann etwas, wenn man aussieht, wie ein schlag in die fresse und das bugdet dann nichtmal einen puffbesuch zulässt? :lol: ich find's übrigens OK wenn leute zu ihrer armut stehen.. allerdings ist es naiv zu glauben, dass ein 300euro billigst PC in der lage ist, oblivion zu bewegen. da würde ich für's gleiche geld lieber eine konsole kaufen gehen. aber da kommt dann bei vielen auf lange sicht wieder das budget in die quere.. denn auf konsolen ist "spiele kaufen" angesagt. da kann man nicht viel mit raubkopien für lau aus i-net anfangen, gelle ? oder gibt's noch andere erklärungen dafür, dass hier zwar keiner geld für hardware hat, aber trotzdem jeder zu jedem spiel und zugehöriger framerate etwas sagen kann ? naja, und zum oblivion benchmark auf fireing squad kann man ja im 3DC lesen, was leute, die sich besser auskennen, davon halten: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=289050&page=3&pp=20 (..) mfg tobi (Geändert von Beschleunigen um 13:35 am April 6, 2006)
-- Veröffentlicht durch Girgl am 9:59 am 6. April 2006
"mit ignorant hat das weniger zu tun, als mit "lange dabei" und gestiegenem equippment-umfang.. viel hardware haben ruult " naja, aber einen zu kurzen zu haben (= wenig hardware) ruult nicht so... :thumb:
-- Veröffentlicht durch DanielOC am 20:16 am 5. April 2006
Zitat von BUG um 19:50 am April 5, 2006 ..naja bis 200,- Euro halt ich für "etwas" übertrieben. ..aber für um die 100,- Euro ist sie ganz ok. Die neue 7600GS (ab 140,- Euro) und GT (ab 180,- Euro) sind ja auch nicht schlecht. :) cu BUG
| genau so siehts aus ! ;)
-- Veröffentlicht durch baumi88 am 20:15 am 5. April 2006
Zitat von BUG um 19:50 am April 5, 2006 ..naja bis 200,- Euro halt ich für "etwas" übertrieben. ..aber für um die 100,- Euro ist sie ganz ok. Die neue 7600GS (ab 140,- Euro) und GT (ab 180,- Euro) sind ja auch nicht schlecht. :) cu BUG
| Ich denke mal er bezieht sich auf AGP, da gibts ja (leider) recht wenig. Aber irgendwie äusserst lächerlich, wenn man immer versucht in nem Thread bei dems um ne Karte um 100€ geht andere Leute davon zu überzeugen dass sie schiesse ist, und dass man doch besser zig tausend euro ausgeben müsste:lol:
Zitat von Fouche um 20:07 am April 5, 2006 aber lustig durchzulesen ist es immer wieder wie er vom thema auf sein ach so geiles sys kommt und irgendwelche tests einbringt um sich zu rechtfertigen...
| Wo du recht hast... Andi
-- Veröffentlicht durch Fouche am 20:07 am 5. April 2006
Zitat von Mome um 19:03 am April 5, 2006 @beschleunigen ich bon auch schon "lange dabei" auch wenn bestimmt noch nich so lange wie du und hohe Ansprüche hab ich auch, aber man muss immer gucken, wo diese bei einer Karte passen... und ich denk mal, das das bei einem X1600Pro Sammelthread nich so ganz zutrifft, da hier dann eher die Leute zusammenkommen, die nich viel für HW ausgeben wollen/können.
| ich glaub das versteht er/sie nicht, das es hier lediglich um erfahrungswerte mit der x1600pro geht und um nix anderes... aber lustig durchzulesen ist es immer wieder wie er vom thema auf sein ach so geiles sys kommt und irgendwelche tests einbringt um sich zu rechtfertigen...:ultragoil:
-- Veröffentlicht durch BUG am 19:50 am 5. April 2006
..naja bis 200,- Euro halt ich für "etwas" übertrieben. ..aber für um die 100,- Euro ist sie ganz ok. Die neue 7600GS (ab 140,- Euro) und GT (ab 180,- Euro) sind ja auch nicht schlecht. :) cu BUG
-- Veröffentlicht durch LeGoer am 19:34 am 5. April 2006
Die X1600Pro ist und bleibt das Beste im Preissektor bis 200 Euro. @Beschleunigen: Sli = Schwanzersatz :lol: du bist derbe lächerlich! Kannsten bei deinem Sli-System dazwischenstecken oder wie :noidea::punk: (Geändert von LeGoer um 19:35 am April 5, 2006)
-- Veröffentlicht durch Mome am 19:03 am 5. April 2006
@beschleunigen dann spam hier nich rum! mach dir dein eigenes Forum auf: "mein geiles SLi System" wenn du dich immer nur auf ne Multi-GPU Lösung beziehst, dann schreib das auch und schreib nich, dass dies oder jenes generell nix is. Das die MultiGPU Lösung von ATI noch nich das ist, was sie sein sollte, ist ja hinlänglich bekannt. Aber das was du oft betreibst sind ja schon fast Falschdarstellungen. ich bon auch schon "lange dabei" auch wenn bestimmt noch nich so lange wie du und hohe Ansprüche hab ich auch, aber man muss immer gucken, wo diese bei einer Karte passen... und ich denk mal, das das bei einem X1600Pro Sammelthread nich so ganz zutrifft, da hier dann eher die Leute zusammenkommen, die nich viel für HW ausgeben wollen/können.
-- Veröffentlicht durch DinkPeTe am 18:07 am 5. April 2006
Zitat von Beschleunigen um 17:16 am April 5, 2006 ps. was muss man denn einstellen, um auf einer 68GT nur 12 fps zu haben? out of the box und ohne SLi hab' ich da trotzdem nicht so geringe frameraten. (..) mfg tobi (Geändert von Beschleunigen um 17:18 am April 5, 2006)
| bei dir scheint sowieso alles ein bisschen anders zu sein ;) ... einfach lächerlich
-- Veröffentlicht durch Beschleunigen am 17:16 am 5. April 2006
@beschleunigen ich finds nurnoch arm!!! wie kann man dermaßen ignorant sein? wieso sollten die ATI Karten generell schlecht sein?
| weil's karten für kinder sind. für leute ohne sonderlichen anspruch. CRT oder single TFT -user. einzelkarten interessieren mich weder bei ati, noch bei NV. ich brauch' ja schon 3x DVI für die beiden TFTs und den beamer. dann noch einmal SVHS für den TV und natürlich alles frei mit bildwiederholfrequenzen und auflösungen belegbar. span-mode inklusive. am besten auch noch alles gleichzeitig nutzbar mit zwei unabhängigen hardware-overlays. quasi exakt das, was NV mit zwei karten bietet - wenn man nicht grad' spielchen spielt - eine ausgereifte arbeitsumgebung.. darum ist ATI generell schlecht, egal wie schnell sie irgendwo sind. mit ignorant hat das weniger zu tun, als mit "lange dabei" und gestiegenem equippment-umfang.. viel hardware haben ruult :punk: ps. was muss man denn einstellen, um auf einer 68GT nur 12 fps zu haben? out of the box und ohne SLi hab' ich da trotzdem nicht so geringe frameraten. (..) mfg tobi (Geändert von Beschleunigen um 17:18 am April 5, 2006)
-- Veröffentlicht durch Mome am 15:00 am 5. April 2006
@beschleunigen ich finds nurnoch arm!!! wie kann man dermaßen ignorant sein? wieso sollten die ATI Karten generell schlecht sein? Wie wärs denn damit mal anzuerkenen, das die ATI Karten (die Singlecards) die NVs ordentlich wegpwnen?
-- Veröffentlicht durch Patrik am 11:10 am 5. April 2006
Muss auch nochmal sagen, daß meine X1600Pro von Sapphire in meinem AGP System sehr gut und vor allem superstabil funzt. Wenn ich eine schlechte PC-TV Aufnahme übern TV schaue, dann verbessert AVIVO dass Bild so gut, dass es auch wirklich nicht schlecht ausschaut. Sowas konnte z.B meine 9800Pro nicht ! Oblivion geht ja z.B. auf einer 6800GT auch nich besonders schnell. 12 FPS ist für mich hässlich spielbar. Für ca. 120 Euro eine super Karte für den normalen User ! usw... :thumb: (Geändert von Patrik um 11:12 am April 5, 2006)
-- Veröffentlicht durch kammerjaeger am 9:55 am 5. April 2006
Zitat von Beschleunigen um 9:28 am April 5, 2006 bevor ich mich von "sponsor't by ati" tests beeindrucken lassen, vergleiche ich erstmal reale erfahrungswerte mit einheitlichen savegames. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=286799&page=1&pp=20 p.s. sehr interessant, dass ich meine 30-50 aussenleve-frames in keiner der benchlisten finde. demfolgend sollte ich nur 10-20 fps haben.. daher mal ein dicken LOL meinerseits und jetzt muss ich weg.
| Und bevor ich mich von irgendwelchen persönlichen Aussagen blenden lasse, die nur schwer vergleichbar sind, weil keinerlei Settings überprüfbar sind, verlass ich ich mich doch eher darauf, was unter homogenen Bedingungen gebencht wird. Denn auch dabei nutzt man i.d.R. einheitliche Savegames... ;) Herrlich, kaum ist mal eine ATI-Karte vorn, schon ist der Test "sponsort by ati". :lol:
-- Veröffentlicht durch Beschleunigen am 9:28 am 5. April 2006
bevor ich mich von "sponsor't by ati" tests beeindrucken lassen, vergleiche ich erstmal reale erfahrungswerte mit einheitlichen savegames. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=286799&page=1&pp=20 p.s. sehr interessant, dass ich meine 30-50 aussenleve-frames in keiner der benchlisten finde. demfolgend sollte ich nur 10-20 fps haben.. daher mal ein dicken LOL meinerseits und jetzt muss ich weg. (..) mfg tobi
-- Veröffentlicht durch Fouche am 3:35 am 5. April 2006
moin...:) also ich hab mir die x1600 Pro für AGP geholt, und ich bin glücklich, die GPU konnz ich bissher auf 605 hochtakten (noch net das ende,ist mir jetzt aber zu späht um weiter zu machen...:lol:) und den ram auf 455 getacktet, wobei das max beim ram bei 467 liegt,allerdings komm ich dann mit dem gpu takt nicht über 574. mal sehen wie weit ich mit der gpu noch komme,aber mich würd ma interesieren ob es für die karte schon ein v-mod gibt???
-- Veröffentlicht durch kammerjaeger am 22:58 am 4. April 2006
Ich kann diesen Hype um High-End-Karten auch nie ganz nachvollziehen. Ich hab genau wie BUG schon öfters stärkere Karten im eigenen Rechner gehabt (wenn es sich mal so ergab), aber dann oftmals doch wieder eine Stufe zurückgeschaltet. Wenn man sich mit den Settings etwas zurücknimmt, dann muß es kein 1.000,- teures und 200W ziehendes SLI-Sys sein. Eine vernünftige Mittelklasse-Karte reicht locker, wenn man sie zu nutzen weiß. Den geringen Unterschied der Settings kann man sehr wohl verschmerzen, da er oft kaum wahrnehmbar ist. Hingegen sind in den falschen Händen und bei entsprechender Engine (siehe Oblivion...) auch fette SLI-Systeme machtlos. ;) Zum Oblivion-Bench: Sieht gerade bei den wichtigen MinFPS gar nicht gut aus für Nvidia. Scheint sich langsam das gleiche Bild abzuzeichnen wie bei der FX-Reihe. Bei aktuellen oder speziell zugeschnittenen Engines noch gut dabei, aber schlechte Zukunftschancen (und das trotz schlechterer Bildqualität, was sich durch die beschnittenen Treiber nichtmal korrigieren läßt)... Das Einzige, was z.Zt. für Nvidia im High-End-Bereich spricht, ist der Verbrauch. Aber gerade den Käufer in diesem Segment dürfte es genauso wenig interessieren, wie den Fahrer eines Hummer der Spritkonsum.
-- Veröffentlicht durch BUG am 19:39 am 4. April 2006
..also die X800XT @ 560/560 ist schon ne ganze Ecke schneller als die X1600. Gerade wenn man FSAA und AF einsetzt, selbts A-AA ist meist kein Problem. Aber die X800 verbaucht z.B. deutlich mehr Strom und muß aufwendiger (lauter) gekühlt werden. Ich bin eh nich mehr so der dauer Zocker. Ich habe die X800 nur gekauft, weil die gerade im Angebot war und ich gleich 4 Stück von den GTOs gekauft habe (für den Freundeskreis) die sich alle auf wenigstens X800XT (500/500) freischallten liesen. Die besste hatte ich für mich aufgehoben, aber nach 2 Monaten schon wieder verkauft bzw. an einen Kumpel abgetreten weil mich mal wieder was "neues" gereizt hat. Da bin ich auch gleich auf PCIe umgestiegen und habe mir dafür erstmal ne günstige X1600 zugelegt. :) Zwischenzeitlich bin ich noch an ein günstiges Pentium4 AGP BareBone gekommen und da sollte es auch eine relativ sparsame & leise Graka sein mit der man abundzu mal zocken kann. Wenn AVIVO mal richtig funzt, is das sicherlich auch ganz interessant. btw.: Oblivion Benchmark ..am besten mal ganz runter scrollen. ;) cu BUG (Geändert von BUG um 20:25 am April 4, 2006)
-- Veröffentlicht durch Mome am 19:21 am 4. April 2006
und wie ist der Vergleich so zwischen der X800XT und der X1600? Lassen sich die Spiele merklich schlechter spielen?
-- Veröffentlicht durch BUG am 15:41 am 4. April 2006
Zitat von Garwain um 13:26 am April 4, 2006 kennt vielleicht jemand die X800 XL genauer ? Die liegt doch imm allgemeinen immer weit über der x1600 Pro oder ?
| ..das kommt ganz auf das Spiel an, aber ja "meist" ist die X800XL schneller, wieviel hängt von den ingames Settings ab bzw. was du für Vorlieben hast. Wenn es hier und da 8xAF und wenigstens 4xFSAA sein soll dann auf jeden Fall die X800XL! Allerdings sind diese Settings bei FEAR und Max Details auch nicht wirklich flüssig zumale dein Unterbau (XP 2800+) soweiso nicht mehr Up-to-Date ist. ..ich hatte z.B. vor meiner X1600 Pro eine X800GTO@XT-PE (560/560) die ich wieder verkauft habe. ;) cu BUG (Geändert von BUG um 15:43 am April 4, 2006)
-- Veröffentlicht durch Garwain am 13:26 am 4. April 2006
kennt vielleicht jemand die X800 XL genauer ? Die liegt doch imm allgemeinen immer weit über der x1600 Pro oder ?
-- Veröffentlicht durch kammerjaeger am 12:31 am 4. April 2006
Zitat von Girgl um 11:19 am April 4, 2006 in der neusten pc games haben sie grakas getestet und meine alte 9800pro schlägt die x1600pro praktisch immer locker...
| Ich weiß ja nicht, was die für einen Unsinn getestet haben, aber sämtliche User, die beide Karten kennen und beurteilen können (mich eingeschlossen), sagen genau das Gegenteil! ;)
-- Veröffentlicht durch BUG am 12:29 am 4. April 2006
Zitat von Garwain um 0:46 am April 3, 2006 Zur X1600 Pro mit Oblivion Performance, könnt ihr euch ja die letzten 3 oder 4 Seiten durchlesen, da hab ich mich herzlichst ausgelassen. :lol:
| ..ich bin mir sicher, das liegt zum Großteil an deinem System. Da kann die X1600 nicht viel dafür wenn sie ständig auf deine CPU warten muß. :( Es ruckelt selbts bei denen die einen Athlon 64 FX60 oder gleichwertigen DualCore Pentium 4 D haben + Crossfire oder SLI aus 7800/7900 bzw. X1800/X1900 Karten haben! Es gibt quasi derzeit kein System was durchgängig 30FPS und mehr liefert in Oblivion! Abhilfe schafft hier vermutlich nur ein Patch oder doppelt so starke CPUs wie es heute gibt bzw. richtigen DualCore support!
Übrigens bin ich mir sicher, dass der Schritt von ner 9800 auf ne x1600 Pro ÜBERHAUPT nicht lohnt es sei denn ihr verkauft eure alte Karte bei ebay, dann werdet ihr euch aber auch mehr über die AVIVO-Sachen freuen als über die paar Frames die ihr dann beim Spielen mehr habt.
| ..die X1600 ist doch schon meist ne ganze Ecke schneller als die 9800 Pro, gibt nur wenige sachen wo die 9800 Pro gleich schnell oder minimal schneller ist. In Zukunft (bei Shaderlast) wird sich die X1600 Pro von der 9800 Pro recht deutlich absetzen können! Die X1600 hat mit etwas OC die gleiche Füllrate wie eine 9800 Pro, aber dafür die dreifache Shaderleistung (oder mehr). Den Speed allein an Quake4 oder Doom3 Benchmarks fest zu machen halte ich auch für falsch, es gibt genügend Engines wo die X1600 Pro locker mit der 6800nU oder 6600GT mithalten bzw sogar drüber liegt (meist sind das die neueren Engines). http://www.ixbt.com/video2/agp-2k6-d.shtml#p17 ..die Doom3 und Quake4 Engine funzt komplett anders als als alle anderen/neueren Spiele Engines, hier gibt es kaum bzw. nur wenige Shader (nur ein paar billige BumpMaps). Die D3 bzw Q4 Engine setzt auf Stencil Shadows und solche spieleren, das schmeckt den kleinen ATI Karten nicht sonderlich. Die nervigen, flimrigen Alpha Texturen sind auch nicht unbedingt auf höher der Zeit zumale die sich nicht oder kaum komprimieren lassen. Deswegen gibts es die ganze Zeit nur so einen "TexturMatsch" zu sehen der mit etwas BumpMaping aufgewertet wurde. Edit: ..zusätzlich kommt bei THG noch dazu, dass die AGP X1600 Pro auf einem deutlich schwächeren System getestet wurde als die PCIe 6600 oder 6800! Das AGP System hat einen P4 HT mit FSB533 und 3.06GHz, wärend das PCIe System auf einen Pentium D (DualCore) 3200 MHz zurückgreifen kann! cu BUG (Geändert von BUG um 13:05 am April 4, 2006)
-- Veröffentlicht durch Girgl am 11:19 am 4. April 2006
jepp danke, bin jetzt auch zum schluss gekommen, dass sich ein solcher upgrade nicht lohnt. in der neusten pc games haben sie grakas getestet und meine alte 9800pro schlägt die x1600pro praktisch immer locker...allerdings ist mir eine 800xl zu teuer, das heisst ich werde warten, bis ich mir ne neue kiste leisten kann.... :)
-- Veröffentlicht durch Garwain am 10:57 am 4. April 2006
Schaut mal an...für den AGP Slot ist die X800 XL vielleicht keine Schlechte wahl für etwa 60 € mehr als ne x1600 Pro... siehe auch hier: hier
-- Veröffentlicht durch Breaker10 am 11:16 am 3. April 2006
Noch ein schöner Test ;) HIER
-- Veröffentlicht durch sklave gottes am 0:59 am 3. April 2006
@Girgl Wie die anderen schon schreiben wird dir der wechsel aus spielerischer sicht nicht viel bringen.Bei agp karten sieht es zur zeit richtig mau aus. Sieh dich lieber nach eine gebrauchten x800xt oder so um (c.a.200€) Das bringt viel mehr dann merks du auch was.
-- Veröffentlicht durch Garwain am 0:46 am 3. April 2006
Zur X1600 Pro mit Oblivion Performance, könnt ihr euch ja die letzten 3 oder 4 Seiten durchlesen, da hab ich mich herzlichst ausgelassen. :lol: Übrigens bin ich mir sicher, dass der Schritt von ner 9800 auf ne x1600 Pro ÜBERHAUPT nicht lohnt es sei denn ihr verkauft eure alte Karte bei ebay, dann werdet ihr euch aber auch mehr über die AVIVO-Sachen freuen als über die paar Frames die ihr dann beim Spielen mehr habt.
-- Veröffentlicht durch DanielOC am 0:03 am 3. April 2006
also selbst ich habe bei 1024er und sehr hohe einstellungen ganzschön zu kämpfen, das ich oblivion ruckelfrei spielen kann ( system syg.) ! also ich glaube nich das eine x1600pro da was reissen kann ! schaut euch doch lieber bei einer 7600GT oder X1800GTO um ...... wesentlich sinnvoller zum zoggen :thumb:
-- Veröffentlicht durch spraadhans am 19:36 am 2. April 2006
ja, überlege genau das gleiche. hauptzweck ist allerdings oblivion, da bis jetzt alles gut lief, selbst fear.
-- Veröffentlicht durch Girgl am 18:50 am 2. April 2006
Hallo zusammen. Ich habe diesen Thread aufmerksam verfolgt, da ich mir überlege, meine gute alte 9800pro mit einer x1600pro zu ersetzen, da diese in meinem System (3,2GHz, 1GB Ram) wohl den Flaschenhals bildet. Ausserdem möchte ich dafür nicht zuviel ausgeben, da ich grad nicht so flüssig bin. Ich würde mir die HIS Excalibur IceQ holen, da die die warme Luft nach draussen pustet und die Temperatur im Gehäuse dadurch sinkt. Ist eben ein bisschen warm da drin, da ich rumbasteln musste, um meine Kiste (Dell Dimension 8300) annehmbar leise zu machen...naja, lange Geschichte... Ich habe nun zwei Fragen an die Spezis hier: 1. ich spiele sehr oft BF2 und kann es mit der 9800pro alles auf Mittel auf 1024x768 ziemlich flüssig zocken...kann ich mit einer x1600 alles auf high stellen und es läuft dann immer noch flüssig? 2. Mein Netzteil bringt nur 305W, muss ich ein neues einbauen? Wäre doof, da man bei einem Dell nicht ein x-beliebiges nehmen kann...ich habe aber gelesen, dass die x1600 weniger Saft braucht als die 9800pro... danke im voraus
-- Veröffentlicht durch Garwain am 17:09 am 31. März 2006
Oh, hmm, na ja, aber ich bin mit der Leistung der Karte sowieso unzufrieden, außerdem hab ich mit meiner 9600 Pro an denselben Stellen, auch wenn bei Low Quality, keine solchen komischen Texturaussetzer.
-- Veröffentlicht durch DanielOC am 14:29 am 31. März 2006
ähhmm :noidea: ich meinte eigentlich den Arbeitsspeicher :) bevor du sie zurückschickst solltest du lieber nochmal anderen ram probieren um sicher zu gehen das es auch die graka is ! (Geändert von DanielOC um 14:30 am März 31, 2006)
-- Veröffentlicht durch Garwain am 11:50 am 31. März 2006
Da haben wirs ! Danke für eure Hilfe, ich werd die Karte jetzt ausbauen und endgültig zurückschicken.
-- Veröffentlicht durch kammerjaeger am 11:47 am 31. März 2006
Zitat von sklave gottes um 11:21 am März 31, 2006 @ kammerjaeger hast du vieleicht ccs ?
| Nicht mehr...
-- Veröffentlicht durch DanielOC am 11:45 am 31. März 2006
ich hatte auch mal solch ähnliche grafikfehler, die ursache war ein defekter RAM !!
-- Veröffentlicht durch Garwain am 11:32 am 31. März 2006
Jo, Cat 6.3 ... ich fürchte halt, dass es an der Hardware liegt, das die Karte also DOCH kaputt ist.
-- Veröffentlicht durch sklave gottes am 11:21 am 31. März 2006
Geht doch für eine 85,- teure Karte...! :thumb: Da muß sich selbst eine gemoddete 6800LE ganz schön strecken. Unter 12/6 dürfte sie da nicht rankommen.
| So Jetzt meine endtakte ohne V-mod 645/590mhz (bei gpu ist vieleicht noch was drin,der speicher ist aber am ende) CSS 1280x1024 all on 4aa/16af 84fps (kommt mir bissel viel vor) 3dmark2001 21134 3dmark2003 9310 3dmark2005 5251 @Garwain Das sieht echt nicht gut aus.Wenn du garnicht OC hast.Ich könnte mir vorstellen das die fehler mit dem neuen Cat 6.4 aufhören.Hast du denn den neusten treiber drauf ?(cat 6.3 ?) @ kammerjaeger hast du vieleicht ccs ? (Geändert von sklave gottes um 11:22 am März 31, 2006)
-- Veröffentlicht durch Garwain am 10:38 am 31. März 2006
DAS ist das bis dato schönste Bild (auch wenn der Mauszeiger grad da liegt wo er nicht hingehört :D ) ScreenShot14.JPG
-- Veröffentlicht durch Garwain am 10:08 am 31. März 2006
Ich hab nicht overclocked
-- Veröffentlicht durch Beschleunigen am 7:49 am 31. März 2006
das ist nicht normal. klar sind das grafikfehler. ob das vom OC kommt, kann der betroffene ja checken, indem er guckt, wie es ohne OC aussieht. ich hab' sowas jedenfalls nicht. (..) mfg tobi
-- Veröffentlicht durch DanielOC am 7:13 am 31. März 2006
wenns flackert könnte es an z.B zu hoher übertaktung liegen . allerdings hab ich das game auch noch nich gezoggt, von daher > :noidea:
-- Veröffentlicht durch Garwain am 1:22 am 31. März 2006
:noidea: sind das Pixelfehler oder Grafikbugs ? ScreenShot0.JPG ScreenShot1.JPG ScreenShot4.JPG ScreenShot5.JPG
-- Veröffentlicht durch kammerjaeger am 22:37 am 30. März 2006
Zitat von sklave gottes um 22:25 am März 30, 2006 Jo hat was geholfen habe die karte jetzt mit 625/575mhz bei 2005 gebenscht 5064 punkte(575/500 standart) vieleicht geht noch was mehr.Das teste ich dann morgen.
| Geht doch für eine 85,- teure Karte...! :thumb: Da muß sich selbst eine gemoddete 6800LE ganz schön strecken. Unter 12/6 dürfte sie da nicht rankommen.
-- Veröffentlicht durch Redirion am 22:29 am 30. März 2006
auch wenns bestimmt nicht weiter interessant ist : bei meinem kleinen Bruder hab ich seit 2 Monaten die agp MSI 1600pro verbaut... läuft wie sie laufen sollte - unübertaktet - aber gut ^^
-- Veröffentlicht durch sklave gottes am 22:25 am 30. März 2006
Jo hat was geholfen habe die karte jetzt mit 625/575mhz bei 2005 gebenscht 5064 punkte(575/500 standart) vieleicht geht noch was mehr.Das teste ich dann morgen.
-- Veröffentlicht durch Beschleunigen am 21:22 am 30. März 2006
kannst du mal gucken, wie oblivion mit meiner .ini bei dir läuft ?
Code[General] SStartingCell= SStartingCellY= SStartingCellX= SStartingWorld= STestFile10= STestFile9= STestFile8= STestFile7= STestFile6= STestFile5= STestFile4= STestFile3= STestFile2= STestFile1= bEnableProfile=0 bDrawSpellContact=0 bRunMiddleLowLevelProcess=1 iHoursToSleep=3 bActorLookWithHavok=0 SMainMenuMusicTrack=special\tes4title.mp3 bUseEyeEnvMapping=1 bFixFaceNormals=0 bUseFaceGenHeads=1 bFaceMipMaps=1 bFaceGenTexturing=1 bDefaultCOCPlacement=0 uGridDistantTreeRange=30 uGridDistantCount=25 uGridsToLoad=7 fGlobalTimeMultiplier=1.0000 bNewAnimation=1 fAnimationDefaultBlend=0.1000 fAnimationMult=1.0000 bFixAIPackagesOnLoad=0 bForceReloadOnEssentialCharacterDeath=1 bKeepPluginWhenMerging=0 bCreate Maps Enable=0 SLocalSavePath=Saves\ SLocalMasterPath=Data\ bDisableDuplicateReferenceCheck=1 bTintMipMaps=0 uInterior Cell Buffer=3 uExterior Cell Buffer=36 iIntroSequencePriority=3 bPreloadIntroSequence=1 fStaticScreenWaitTime=3.0000 SCreditsMenuMovie=CreditsMenu.bik SMainMenuMovie=Map loop.bik SMainMenuMovieIntro=Oblivion iv logo.bik SIntroSequence=bethesda softworks HD720p.bik,2k games.bik,game studios.bik,Oblivion Legal.bik iFPSClamp=0 bRunVTuneTest=0 STestFile1= bActivateAllQuestScripts=0 fQuestScriptDelayTime=5.0000 SMainMenuMusic=Special\TES4Title.mp3 bUseThreadedBlood=1 bUseThreadedMorpher=1 bExternalLODDataFiles=1 bBorderRegionsEnabled=1 bDisableHeadTracking=0 bTrackAllDeaths=0 SCharGenQuest=0002466E uiFaceGenMaxEGTDataSize=67108864 uiFaceGenMaxEGMDataSize=67108864 SBetaCommentFileName= bCheckCellOffsetsOnInit=0 bCreateShaderPackage=0 uGridDistantTreeRangeCity=4 uGridDistantCountCity=4 bWarnOnMissingFileEntry=0 iSaveGameBackupCount=1 bDisplayMissingContentDialogue=1 SSaveGameSafeCellID=2AEEA bAllowScriptedAutosave=1 bPreemptivelyUnloadCells=0 iNumBitsForFullySeen=248 iPreloadSizeLimit=26214400 SOblivionIntro=OblivionIntro.bik bUseHardDriveCache=0 bEnableBoundingVolumeOcclusion=0 bDisplayBoundingVolumes=0 bUseThreadedTempEffects=1 bUseThreadedParticleSystem=1 bUseMyGamesDirectory=1 [Display] uVideoDeviceIdentifierPart1=3619102270 uVideoDeviceIdentifierPart2=298795961 uVideoDeviceIdentifierPart3=287856397 uVideoDeviceIdentifierPart4=902545923 fDecalLifetime=10.0000 bEquippedTorchesCastShadows=0 bReportBadTangentSpace=0 bStaticMenuBackground=1 bForcePow2Textures=0 bForce1XShaders=0 bHighQuality20Lighting=0 bAllow20HairShader=1 bAllowScreenShot=0 iMultiSample=0 bDoTallGrassEffect=1 bForceMultiPass=1 bDoTexturePass=1 bDoSpecularPass=1 bDoDiffusePass=1 bDoAmbientPass=1 bDoCanopyShadowPass=1 bDrawShadows=0 bUseRefractionShader=1 bUse Shaders=1 iNPatchNOrder=0 iNPatchPOrder=0 iNPatches=0 iLocation Y=0 iLocation X=0 bFull Screen=1 iSize W=1280 iSize H=1024 iAdapter=0 iScreenShotIndex=0 SScreenShotBaseName=ScreenShot iAutoViewMinDistance=2000 iAutoViewHiFrameRate=40 iAutoViewLowFrameRate=20 bAutoViewDistance=0 fDefaultFOV=75.0000 fNearDistance=10.0000 fFarDistance=10000.0000 iDebugTextLeftRightOffset=10 iDebugTextTopBottomOffset=10 bShowMenuTextureUse=1 iDebugText=2 bLocalMapShader=1 bDoImageSpaceEffects=1 fShadowLOD2=400.0000 fShadowLOD1=200.0000 fLightLOD2=1500.0000 fLightLOD1=1000.0000 fSpecularLOD2=1050.0000 fSpecularLOD1=750.0000 fEnvMapLOD2=800.0000 fEnvMapLOD1=500.0000 fEyeEnvMapLOD2=190.0000 fEyeEnvMapLOD1=130.0000 iPresentInterval=0 fSpecualrStartMax=1000.0000 fSpecularStartMin=0.0000 iActorShadowIntMax=10 iActorShadowIntMin=0 iActorShadowExtMax=10 iActorShadowExtMin=0 fGammaMax=0.6000 fGammaMin=1.4000 iMaxDecalsPerFrame=10 bDynamicWindowReflections=1 fShadowFadeTime=1.0000 fGamma=1.0000 bDecalsOnSkinnedGeometry=1 iShadowFilter=2 bAllowPartialPrecision=1 iShadowMapResolution=1024 bShadowsOnGrass=1 bActorSelfShadowing=1 iActorShadowCountInt=10 iActorShadowCountExt=10 bAllow30Shaders=1 iTexMipMapMinimum=0 iTexMipMapSkip=0 bDoStaticAndArchShadows=0 bDoActorShadows=0 bIgnoreResolutionCheck=0 fNoLODFarDistancePct=1.0000 fNoLODFarDistanceMax=10240.0000 fNoLODFarDistanceMin=1700.0000 [Controls] fVersion=1.7000 Forward=0011FFFF Back=001FFFFF Slide Left=001EFFFF Slide Right=0020FFFF Use=00FF00FF Activate=0012FFFF Block=0039FFFF Cast=0038FFFF Ready Item=0021FFFF Crouch/Sneak=001DFFFF Run=002AFFFF Always Run=003AFFFF Auto Move=0010FFFF Jump=002E01FF Toggle POV=002F02FF Menu Mode=000FFFFF Rest=0013FFFF Quick Menu=003BFFFF Quick1=0002FFFF Quick2=0003FFFF Quick3=0004FFFF Quick4=0005FFFF Quick5=0006FFFF Quick6=0007FFFF Quick7=0008FFFF Quick8=0009FFFF QuickSave=003FFFFF QuickLoad=0043FFFF Grab=0022FFFF bInvertYValues=0 fXenonLookXYMult=0.0005 fMouseSensitivity=0.0029 fJoystickLookXYMult=0.0200 iJoystickLookLeftRight=3 iJoystickLookUpDown=6 iJoystickMoveLeftRight=1 iJoystickMoveFrontBack=2 fXenonMenuMouseXYMult=0.0003 bBackground Mouse=0 bBackground Keyboard=0 bUse Joystick=1 fXenonLookMult=0.0030 fXenonMenuStickSpeedMaxMod=5.0000 iXenonMenuStickSpeedThreshold=20000 iXenonMenuStickThreshold=1000 ;Language values: 0-English, 1-German, 2-French, 3-Spanish, 4-Italian iLanguage=1 Vorwärts=0011FFFF Zurück=001FFFFF Links bewegen=001EFFFF Rechts bewegen=0020FFFF Benutzen=00FF00FF Aktivieren=0012FFFF Blocken=0039FFFF Zauber=0038FFFF Gegenst. bereit=0021FFFF Ducken/Schleichen=001DFFFF Laufen=002AFFFF Immer laufen=003AFFFF Autom. Bewegen=0010FFFF Springen=002E01FF Sicht wechseln =002F02FF Menü-Modus=000FFFFF Rasten=0014FFFF Schnellmenü=003BFFFF Schnell1=0002FFFF Schnell2=0003FFFF Schnell3=0004FFFF Schnell4=0005FFFF Schnell5=0006FFFF Schnell6=0007FFFF Schnell7=0008FFFF Schnell8=0009FFFF Schnellspeichern=003FFFFF Schnellladen=0043FFFF Greifen=0022FFFF Sicht wechseln =002F02FF fJoystickLookLRMult=0.0200 fJoystickLookUDMult=0.0200 fJoystickMoveLRMult=1.0000 fJoystickMoveFBMult=1.0000 fXenonMenuStickMapCursorMinSpeed=1.0000 fXenonMenuStickMapCursorMaxSpeed=15.0000 fXenonMenuStickMapCursorGamma=0.1700 fXenonMenuStickSpeedPlayerRotMod=3000.0000 fXenonMenuDpadRepeatSpeed=300.0000 fXenonMenuStickSpeed=300.0000 iXenonMenuStickDeadZone=15000 Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF Sicht wechseln =001302FF [Water] fAlpha=0.5000 uSurfaceTextureSize=128 SSurfaceTexture=water SNearWaterOutdoorID=NearWaterOutdoorLoop SNearWaterIndoorID=NearWaterIndoorLoop fNearWaterOutdoorTolerance=1024.0000 fNearWaterIndoorTolerance=512.0000 fNearWaterUnderwaterVolume=0.9000 fNearWaterUnderwaterFreq=0.3000 uNearWaterPoints=16 uNearWaterRadius=1000 uSurfaceFrameCount=32 uSurfaceFPS=24 bUseWaterReflectionsMisc=1 bUseWaterReflectionsStatics=1 bUseWaterReflectionsTrees=1 bUseWaterReflectionsActors=1 bUseWaterReflections=1 bUseWaterHiRes=1 bUseWaterDisplacements=1 bUseWaterShader=1 uDepthRange=250 bUseWaterDepth=1 bUseWaterLOD=1 fTileTextureDivisor=4.7500 fSurfaceTileSize=2048.0000 uNumDepthGrids=3 bUseObliqueFrustumCulling=1 [Audio] bDSoundHWAcceleration=1 fMinSoundVel=10.0000 fMetalLargeMassMin=25.0000 fMetalMediumMassMin=8.0000 fStoneLargeMassMin=30.0000 fStoneMediumMassMin=5.0000 fWoodLargeMassMin=15.0000 fWoodMediumMassMin=7.0000 fDialogAttenuationMax=35.0000 fDialogAttenuationMin=7.7500 bUseSoundDebugInfo=1 fUnderwaterFrequencyDelta=0.0000 bUseSoftwareAudio3D=0 fDefaultEffectsVolume=0.8000 fDefaultMusicVolume=0.3000 fDefaultFootVolume=0.8000 fDefaultVoiceVolume=0.8000 fDefaultMasterVolume=1.0000 bMusicEnabled=1 bSoundEnabled=1 fLargeWeaponWeightMin=25.0000 fMediumWeaponWeightMin=8.0000 fSkinLargeMassMin=30.0000 fSkinMediumMassMin=5.0000 fChainLargeMassMin=30.0000 fChainMediumMassMin=5.0000 fDBVoiceAttenuationIn2D=0.0000 iCollisionSoundTimeDelta=50 fGlassLargeMassMin=25.0000 fGlassMediumMassMin=8.0000 fClothLargeMassMin=25.0000 fClothMediumMassMin=8.0000 fEarthLargeMassMin=30.0000 fEarthMediumMassMin=5.0000 bUseSpeedForWeaponSwish=1 fLargeWeaponSpeedMax=0.9500 fMediumWeaponSpeedMax=1.1000 fPlayerFootVolume=0.9000 fDSoundRolloffFactor=4.0000 fMaxFootstepDistance=1100.0000 fHeadroomdB=2.0000 iMaxImpactSoundCount=32 fMainMenuMusicVolume=0.6000 [ShockBolt] bDebug=0 fGlowColorB=1.0000 fGlowColorG=0.6000 fGlowColorR=0.0000 fCoreColorB=1.0000 fCoreColorG=1.0000 fCoreColorR=1.0000 fCastVOffset=-10.0000 iNumBolts=7 fBoltGrowWidth=1.0000 fBoltSmallWidth=3.0000 fTortuosityVariance=8.0000 fSegmentVariance=35.0000 fBoltsRadius=24.0000 [Pathfinding] bDrawPathsDefault=0 bPathMovementOnly=0 bDrawSmoothFailures=0 bDebugSmoothing=0 bSmoothPaths=1 bSnapToAngle=0 bDebugAvoidance=0 bDisableAvoidance=0 bBackgroundPathing=0 [MAIN] bEnableBorderRegion=1 fLowPerfCombatantVoiceDistance=1000.0000 iDetectionHighNumPicks=40 fQuestScriptDelayTime=5.0000 iLastHDRSetting=-1 [Combat] bEnableBowZoom=1 bDebugCombatAvoidance=0 fMinBloodDamage=1.0000 fHitVectorDelay=0.4000 iShowHitVector=0 fLowPerfNPCTargetLOSTimer=1.0000 fHiPerfNPCTargetLOSTimer=0.5000 iMaxHiPerfNPCTargetCount=4 fLowPerfPCTargetLOSTimer=0.5000 fHiPerfPCTargetLOSTimer=0.2500 iMaxHiPerfPCTargetCount=4 iMaxHiPerfCombatCount=4 [HAVOK] bDisablePlayerCollision=0 fJumpAnimDelay=0.7500 bTreeTops=0 iSimType=1 bPreventHavokAddAll=0 bPreventHavokAddClutter=0 fMaxTime=0.0167 bHavokDebug=0 fRF=1000.0000 fOD=0.9000 fSE=0.3000 fSD=0.9800 iResetCounter=5 fMoveLimitMass=95.0000 iUpdateType=0 bHavokPick=0 fCameraCasterSize=1.0000 iHavokSkipFrameCountTEST=0 fHorseRunGravity=3.0000 fQuadrupedPitchMult=1.0000 iNumHavokThreads=1 fChaseDeltaMult=0.0500 iEntityBatchRemoveRate=100 iMaxPicks=40 bAddBipedWhenKeyframed=0 [Interface] fDlgLookMult=0.3000 fDlgLookAdj=0.0000 fDlgLookDegStop=0.2000 fDlgLookDegStart=2.0000 fDlgFocus=2.1000 fKeyRepeatInterval=50.0000 fKeyRepeatTime=500.0000 fActivatePickSphereRadius=16.0000 fMenuModeAnimBlend=0.0000 iSafeZoneX=20 iSafeZoneY=20 iSafeZoneXWide=20 iSafeZoneYWide=20 fMenuPlayerLightDiffuseBlue=0.8000 fMenuPlayerLightDiffuseGreen=0.8000 fMenuPlayerLightDiffuseRed=0.8000 fMenuPlayerLightAmbientBlue=0.2500 fMenuPlayerLightAmbientGreen=0.2500 fMenuPlayerLightAmbientRed=0.2500 bAllowConsole=1 bActivatePickUseGamebryoPick=0 iMaxViewCasterPicksGamebryo=10 iMaxViewCasterPicksHavok=10 iMaxViewCasterPicksFuzzy=5 bUseFuzzyPicking=1 fMenuBGBlurRadius=2.0000 [LoadingBar] iMoveBarWaitingMilliseconds=10 iMoveBarChaseMilliseconds=100 iMoveBarMaxMilliseconds=2500 fLoadingSlideDelay=15.0000 fPercentageOfBar3=0.1500 fPercentageOfBar2=0.4400 fPercentageOfBar1=0.3500 fPercentageOfBar0=0.0600 bShowSectionTimes=0 [Menu] fCreditsScrollSpeed=40.0000 iConsoleTextYPos=890 iConsoleTextXPos=30 iConsoleVisibleLines=15 iConsoleHistorySize=50 rDebugTextColor=255,251,233 iConsoleFont=3 iDebugTextFont=3 [GamePlay] bDisableDynamicCrosshair=0 bSaveOnTravel=1 bSaveOnWait=1 bSaveOnRest=1 bCrossHair=1 iDifficultyLevel=50 bGeneralSubtitles=0 bDialogueSubtitles=1 bInstantLevelUp=0 bHealthBarShowing=0 fHealthBarFadeOutSpeed=1.0000 fHealthBarSpeed=80.0000 fHealthBarHeight=4.0000 fHealthBarWidth=40.0000 fHealthBarEmittanceFadeTime=0.5000 fHealthBarEmittanceTime=1.5000 STrackLevelUpPath= fDifficulty=0.0000 bTrackLevelUps=1 bAllowHavokGrabTheLiving=0 bEssentialTakeNoDamage=1 iDetectionPicks=21 bSaveOnInteriorExteriorSwitch=1 [Fonts] SFontFile_1=Data\Fonts\Kingthings_Regular.fnt SFontFile_2=Data\Fonts\Kingthings_Shadowed.fnt SFontFile_3=Data\Fonts\Tahoma_Bold_Small.fnt SFontFile_4=Data\Fonts\Daedric_Font.fnt SFontFile_5=Data\Fonts\Handwritten.fnt [SpeedTree] iTreeClonesAllowed=12 fCanopyShadowGrassMult=1.0000 iCanopyShadowScale=512 fTreeForceMaxBudAngle=-1.0000 fTreeForceMinBudAngle=-1.0000 fTreeForceLeafDimming=-1.0000 fTreeForceBranchDimming=-1.0000 fTreeForceCS=-1.0000 fTreeForceLLA=-1.0000 fTreeLODExponent=1.0000 bEnableTrees=1 bForceFullLOD=0 fLODTreeMipMapLODBias=-0.7500 fLocalTreeMipMapLODBias=-0.2500 [Debug] bDebugFaceGenCriticalSection=0 bDebugFaceGenMultithreading=0 bDebugSaveBuffer=0 [BackgroundLoad] bBackgroundLoadLipFiles=0 bLoadBackgroundFaceGen=0 bUseMultiThreadedFaceGen=1 bBackgroundCellLoads=1 bLoadHelmetsInBackground=1 iAnimationClonePerLoop=5 bSelectivePurgeUnusedOnFastTravel=0 bUseMultiThreadedTrees=1 iExteriorPriority=50 bCloneModelsInBackground=0 iBackgroundLoadFaceMult=200 fBackgroundLoadingPerLoop=20.0000 fBackgroundLoadClonedPerLoop=5.0000 iBackgroundLoadExtraMaxFPS=20 iBackgroundLoadExtraMinFPS=10 iBackgroundLoadExtraMax=3000 iBackgroundLoadExtraMin=5 iBackgroundLoadExtraMilliseconds=2 iBackgroundLoadTreeMilliseconds=7 iBackgroundLoadMilliseconds=1 iBackgroundLoadLoading=1 bUseBackgroundFileLoader=0 [LOD] fLodDistance=500.0000 bUseFaceGenLOD=0 iLODTextureTiling=2 iLODTextureSizePow2=8 fLODNormalTextureBlend=0.5000 bDisplayLODLand=1 bDisplayLODBuildings=1 bDisplayLODTrees=1 bLODPopTrees=0 bLODPopActors=0 bLODPopItems=0 bLODPopObjects=0 fLODFadeOutMultActors=15.0000 fLODFadeOutMultItems=15.0000 fLODFadeOutMultObjects=15.0000 fLODMultLandscape=1.0000 fLODMultTrees=2.0000 fLODMultActors=7.0000 fLODMultItems=7.0000 fLODMultObjects=7.0000 iFadeNodeMinNearDistance=400 fLODFadeOutPercent=0.9000 fLODBoundRadiusMult=3.0000 fTalkingDistance=2000.0000 fTreeLODMax=2.0000 fTreeLODMin=0.0200 fTreeLODDefault=1.2000 fObjectLODMax=15.0000 fObjectLODMin=1.0000 fObjectLODDefault=5.0000 fItemLODMax=15.0000 fItemLODMin=1.0000 fItemLODDefault=2.0000 fActorLODMax=15.0000 fActorLODMin=2.0000 fActorLODDefault=5.0000 bLODUseCombinedLandNormalMaps=1 bForceHideLODLand=0 fLODQuadMinLoadDistance=65536.0000 fLODFadeOutActorMultInterior=1.0000 fLODFadeOutItemMultInterior=1.0000 fLODFadeOutObjectMultInterior=1.0000 fLODFadeOutActorMultCity=1.0000 fLODFadeOutItemMultCity=1.0000 fLODFadeOutObjectMultCity=1.0000 fLODFadeOutActorMultComplex=1.0000 fLODFadeOutItemMultComplex=1.0000 fLODFadeOutObjectMultComplex=1.0000 fLODLandVerticalBias=0.0000 [Weather] fSunGlareSize=350.0000 fSunBaseSize=250.0000 bPrecipitation=1 fAlphaReduce=1.0000 SBumpFadeColor=255,255,255,255 SLerpCloseColor=255,255,255,255 SEnvReduceColor=255,255,255,255 [Voice] SFileTypeLTF=ltf SFileTypeLip=lip SFileTypeSource=wav SFileTypeGame=mp3 [Grass] iMinGrassSize=142 fGrassEndDistance=16000.0000 fGrassStartFadeDistance=10000.0000 bGrassPointLighting=0 bDrawShaderGrass=1 iGrassDensityEvalSize=2 iMaxGrassTypesPerTexure=2 fWaveOffsetRange=1.7500 fGrassWindMagnitudeMax=100.0000 fGrassWindMagnitudeMin=1.0000 fTexturePctThreshold=0.3000 [Landscape] bCurrentCellOnly=0 bPreventSafetyCheck=0 fLandTextureTilingMult=2.0000 fLandFriction=2.5000 iLandBorder2B=0 iLandBorder2G=0 iLandBorder2R=0 iLandBorder1B=0 iLandBorder1G=255 iLandBorder1R=255 [bLightAttenuation] fQuadraticRadiusMult=1.0000 fLinearRadiusMult=1.0000 bOutQuadInLin=0 fConstantValue=0.0000 fQuadraticValue=16.0000 fLinearValue=3.0000 uQuadraticMethod=2 uLinearMethod=1 fFlickerMovement=8.0000 bUseQuadratic=1 bUseLinear=0 bUseConstant=0 [BlurShaderHDRInterior] fTargetLUM=1.0000 fUpperLUMClamp=1.0000 fEmissiveHDRMult=1.0000 fEyeAdaptSpeed=0.5000 fBrightScale=2.2500 fBrightClamp=0.2250 fBlurRadius=7.0000 iNumBlurpasses=1 [BlurShaderHDR] fTargetLUM=1.2000 fUpperLUMClamp=1.0000 fGrassDimmer=1.3000 fTreeDimmer=1.2000 fEmissiveHDRMult=1.0000 fEyeAdaptSpeed=0.7000 fSunlightDimmer=1.3000 fSIEmmisiveMult=1.0000 fSISpecularMult=1.0000 fSkyBrightness=0.5000 fSunBrightness=0.0000 fBrightScale=1.5000 fBrightClamp=0.3500 fBlurRadius=4.0000 iNumBlurpasses=2 iBlendType=2 bDoHighDynamicRange=1 [BlurShader] fSunlightDimmer=1.0000 fSIEmmisiveMult=1.0000 fSISpecularMult=1.0000 fSkyBrightness=0.5000 fSunBrightness=0.0000 fAlphaAddExterior=0.2000 fAlphaAddInterior=0.5000 iBlurTexSize=256 fBlurRadius=0.0300 iNumBlurpasses=1 iBlendType=2 bUseBlurShader=1 [GethitShader] fBlurAmmount=0.5000 fBlockedTexOffset=0.0010 fHitTexOffset=0.0050 [MESSAGES] bBlockMessageBoxes=0 bSkipProgramFlows=1 bAllowYesToAll=1 bDisableWarning=1 iFileLogging=0 bSkipInitializationFlows=1 [DistantLOD] bUseLODLandData=0 fFadeDistance=12288.0000 iDistantLODGroupWidth=8 [GeneralWarnings] SGeneralMasterMismatchWarning=Ein oder mehr Plugins konnten die korrekten Versionen der Master-Dateien nicht finden, auf denen sie beruhen. Während des Ladens oder Spielens können Fehler auftreten. Sie finden weitere Informationen in der Datei "Warnings.txt". SMasterMismatchWarning=Eine der Dateien, von denen "%s" abhängt, ist seit der letzten Speicherung verändert worden. Das kann zu Fehlern führen. Eine erneute Speicherung lässt diese Nachricht verschwinden, repariert jedoch nicht unbedingt einen Fehler. [Archive] SMasterMiscArchiveFileName=Oblivion - Misc.bsa SMasterVoicesArchiveFileName2=Oblivion - Voices2.bsa SMasterVoicesArchiveFileName1=Oblivion - Voices1.bsa SMasterSoundsArchiveFileName=Oblivion - Sounds.bsa SMasterTexturesArchiveFileName1=Oblivion - Textures - Compressed.bsa SMasterMeshesArchiveFileName=Oblivion - Meshes.bsa SInvalidationFile=ArchiveInvalidation.txt iRetainFilenameOffsetTable=1 iRetainFilenameStringTable=1 iRetainDirectoryStringTable=1 bCheckRuntimeCollisions=0 bInvalidateOlderFiles=1 bUseArchives=1 SArchiveList=Oblivion - Meshes.bsa, Oblivion - Textures - Compressed.bsa, Oblivion - Sounds.bsa, Oblivion - Voices1.bsa, Oblivion - Voices2.bsa, Oblivion - Misc.bsa [CameraPath] iTake=0 SDirectoryName=TestCameraPath iFPS=60 SNif=Test\CameraPath.nif [Absorb] fAbsorbGlowColorB=1.0000 fAbsorbGlowColorG=0.6000 fAbsorbGlowColorR=0.0000 fAbsorbCoreColorB=1.0000 fAbsorbCoreColorG=1.0000 fAbsorbCoreColorR=1.0000 iAbsorbNumBolts=1 fAbsorbBoltGrowWidth=0.0000 fAbsorbBoltSmallWidth=7.0000 fAbsorbTortuosityVariance=2.0000 fAbsorbSegmentVariance=7.0000 fAbsorbBoltsRadius=5.0000 [OPENMP] iThreads=30 iOpenMPLevel=30 [TestAllCells] bFileShowTextures=1 bFileShowIcons=1 bFileSkipIconChecks=0 bFileTestLoad=0 bFileNeededMessage=1 bFileGoneMessage=1 bFileSkipModelChecks=0 bFileCheckModelCollision=0 [CopyProtectionStrings] SCopyProtectionMessage2=Oblivion-CD einlegen. SCopyProtectionTitle2=Oblivion-CD wurde nicht gefunden. SCopyProtectionMessage=Auf diesem Computer konnte kein CD-ROM/DVD-Laufwerk gefunden werden. SCopyProtectionTitle=CD-ROM-Laufwerk wurde nicht gefunden.
| diesen bereich bitte nicht übernehmen, sonst initialisiert das spiel die ini neu:
Code[Display] uVideoDeviceIdentifierPart1=3619102270 uVideoDeviceIdentifierPart2=298795961 uVideoDeviceIdentifierPart3=287856397 uVideoDeviceIdentifierPart4=902545923 | (..) mfg tobi
-- Veröffentlicht durch Garwain am 21:01 am 30. März 2006
Kaum zu glauben dass es für knapp über 100 Euro nichts besseres gibt....
-- Veröffentlicht durch sklave gottes am 20:57 am 30. März 2006
@BUG Ja Ich werde versuchen mir eine gute kamera zu besorgen.Das wäre echt super :-) Ja ich versuche den ram mal mit dem neusten rivatuner zu takten. was studiers du denn wenn ich fragen darf ? wie kann ich hier bilder hochladen ? oder soll ich die per e-mail schicken ? edit habe die eine e-mail geschickt mit bildern . (Geändert von sklave gottes um 21:10 am März 30, 2006) (Geändert von sklave gottes um 21:20 am März 30, 2006)
-- Veröffentlicht durch BUG am 20:53 am 30. März 2006
Zitat von sklave gottes um 20:42 am März 30, 2006 Jo vielen dank für den link.Ja denke das mit volt-mod kann ih vergessen. Meine Palit karte hat ein etwas anderes layout.Aber zuviel anders das ich noch erkenne wo ich löhten muss.So ein dreck :-(.Naja Teste Jetzt noch bissel wie hoch alles geht.Zur zeit denke ich aber das bei 640mhz gpu takt und 505mhz ram takt ende ist.Ja der ram geht nicht höher als 5 mhz echt lächerlich :-(.
| ..also wenn du ein paar hochauflösende Bilder machst kann ich dir ggf beim vMod helfen. :) ..das der Ram nicht höher will ist irgednwie "doof", da muß doch noch etwas gehen! Mit welchem Programm hast du übertaktet? Abundzu spinnt das ATI-Tool auch wenn es nach fehlern suchen soll. cu BUG
-- Veröffentlicht durch BUG am 20:53 am 30. März 2006
*doppelt* (Geändert von BUG um 20:58 am März 30, 2006)
-- Veröffentlicht durch sklave gottes am 20:42 am 30. März 2006
Zitat von BUG um 20:11 am März 30, 2006
Zitat von sklave gottes um 19:45 am März 30, 2006 AMD64 2,25 ghz, 1GB ram, x1600pro(palit)@standart 3dmark2001 20276 3dmark2003 8367 3dmark2005 4613 3dmark2006 1761 (sm2 575/sm3 787/cpu 872) Aquamark 52.720 (7179 gpu)
| ..das sieht doch garnicht schlecht aus. :thumb: ..also ich habe zwei Karten, eine AGP für das BareBone und eine PCIe für den Celeron M siehe Sig. Aber das PCIe System ist gerade etwas zerlegt und mein P4 BareBone ist dann doch ne Ecke schwächer als dein A64 was sich auch in den Benchmarks niederschlägt. Ich habe aber noch ein Screen vom 3DMark06 meines Celeron M Systems gefunden. Celeron M 350 @ 2600 MHz Asus P4GPL-X @ 200 MHz FSB 2x 1024MB MDT PC400 @ 200 MHz CL2.5 MSI X1600Pro @ 620/420 1280x1024 kann auch gerade schlecht testen, habe hier in meiner Stundenten Bude nur einen kleinen 15" TFT stehen mit 1024x768. Also im 3DMark05 und 06 limitiert schon abundzu die 128MB VRAM, Karten mit 256MB sind bei gleichem Takt meist ~10% schneller im 3DMark05 & 06. Edit: Link zur Palit X1600 Pro Golden http://www.vr-zone.com/index.php?i=3092 cu BUG (Geändert von BUG um 20:13 am März 30, 2006)
| Jo vielen dank für den link.Ja denke das mit volt-mod kann ih vergessen. Meine Palit karte hat ein etwas anderes layout.Aber zuviel anders das ich noch erkenne wo ich löhten muss.So ein dreck :-(.Naja Teste Jetzt noch bissel wie hoch alles geht.Zur zeit denke ich aber das bei 640mhz gpu takt und 505mhz ram takt ende ist.Ja der ram geht nicht höher als 5 mhz echt lächerlich :-(.
-- Veröffentlicht durch BUG am 20:11 am 30. März 2006
Zitat von sklave gottes um 19:45 am März 30, 2006 AMD64 2,25 ghz, 1GB ram, x1600pro(palit)@standart 3dmark2001 20276 3dmark2003 8367 3dmark2005 4613 3dmark2006 1761 (sm2 575/sm3 787/cpu 872) Aquamark 52.720 (7179 gpu)
| ..das sieht doch garnicht schlecht aus. :thumb: ..also ich habe zwei Karten, eine AGP für das BareBone und eine PCIe für den Celeron M siehe Sig. Aber das PCIe System ist gerade etwas zerlegt und mein P4 BareBone ist dann doch ne Ecke schwächer als dein A64 was sich auch in den Benchmarks niederschlägt. Ich habe aber noch ein Screen vom 3DMark06 meines Celeron M Systems gefunden. Celeron M 350 @ 2600 MHz Asus P4GPL-X @ 200 MHz FSB 2x 1024MB MDT PC400 @ 200 MHz CL2.5 MSI X1600Pro @ 620/420 1280x1024 kann auch gerade schlecht testen, habe hier in meiner Stundenten Bude nur einen kleinen 15" TFT stehen mit 1024x768. Also im 3DMark05 und 06 limitiert schon abundzu die 128MB VRAM, Karten mit 256MB sind bei gleichem Takt meist ~10% schneller im 3DMark05 & 06. Edit: Link zur Palit X1600 Pro Golden http://www.vr-zone.com/index.php?i=3092 cu BUG (Geändert von BUG um 20:13 am März 30, 2006)
-- Veröffentlicht durch sklave gottes am 19:45 am 30. März 2006
AMD64 2,25 ghz, 1GB ram, x1600pro(palit)@standart 3dmark2001 20276 3dmark2003 8367 3dmark2005 4613 3dmark2006 1761 (sm2 575/sm3 787/cpu 872) Aquamark 52.720 (7179 gpu) Die OC ergäbnisse werde ich morgen posten,muss noch testen wieviel max geht. @BUG Kannst du vieleicht deine werte posten x1600pro@standart und full OC ? Am besten bei 3dmark2006 auch sm2/3 score sowie Aquamark gpu score.Wäre echt super nett.Hast du vieleicht auch noch den link vom x1600pro palit test(golden sample) ? kann den gerade nicht finden :-(. Und noch was hast du vieleicht eine idee wie wir testen können wie stark die 128MB meiner karte limitieren ? Zur zeit kommt mir das als ausreichend for. Hast du CSS ? oder ein anderes spiel was wir mit 1280x1024 testen können und dann immer mehr aa zuschalten ?
-- Veröffentlicht durch BUG am 19:40 am 30. März 2006
Zitat von Garwain um 19:26 am März 30, 2006 Das bedeutet dann also, dass die Karte genau die Leistung bringt, für die der Hersteller sie gebaut hat ? Dann werd ich wohl nix besseres für meinen Rechner (AGP Steckplatz) zu nem guten Preis finden...:noidea:
| ..naja sie bringt die Leistung die auf deinem System in etwa zu erwarten ist. Deine alte 9600 Pro macht ca. 1500 Punkte im 3Dmark05! Das heist aber nicht, dass die X1600 überall 3mal so schnell ist sondern halt nur in diesem Benchmark! Der 3DMark ist recht Sahderlastig und hier kann die X1600 Punkten. Im Aquamrk3 liegen 9600XT und X1600 z.B. deutlich näher beieinander, hier ist z.B. relativ viel Füllrate gefragt wo die X1600 nur wenig mehr als die Radeon 9600 hat. cu BUG
-- Veröffentlicht durch Garwain am 19:26 am 30. März 2006
Das bedeutet dann also, dass die Karte genau die Leistung bringt, für die der Hersteller sie gebaut hat ? Dann werd ich wohl nix besseres für meinen Rechner (AGP Steckplatz) zu nem guten Preis finden...:noidea:
-- Veröffentlicht durch BUG am 18:58 am 30. März 2006
Zitat von Garwain um 18:51 am März 30, 2006 SO In der kostenlosen Version von 3DMark05 kann man ja nicht viel einstellen, also hab ich genau 3917 Punkte. Klingt nicht nach besonders viel
| ..doch sollte passen, ich habe auf meinem P4 @ 2600 MHz und X1600 Pro leicht übertaktet etwa 4100 Punkte. :)
Außerdem steht bei den System Details: VGA Memory Clock 0.0 Hz :lol: VGA Core Clock 375.000000000 :noidea:
| ..wird wohl ein auslesefehler sein, deine Punkte sind aber wohl ok. Kannst ja mal deine Radeon 9600 gegen testen. ;) Edit: @gamerx15 ..ich habe aktuelle den Catalyst 6.2 drauf, gibt aber schon 6.3 aber da hatte ich Probleme mit dem deutschen Catalyst Control Center. cu BUG (Geändert von BUG um 19:00 am März 30, 2006)
-- Veröffentlicht durch Garwain am 18:51 am 30. März 2006
SO In der kostenlosen Version von 3DMark05 kann man ja nicht viel einstellen, also hab ich genau 3917 Punkte. Klingt nicht nach besonders viel.... Außerdem steht bei den System Details: VGA Memory Clock 0.0 Hz :lol: VGA Core Clock 375.000000000 :noidea:
-- Veröffentlicht durch baumi88 am 18:28 am 30. März 2006
Zitat von Garwain um 12:53 am März 30, 2006 kleines Update zu Oblivion & x1600 Pro 1024 X 768 UND Gras läuft einfach nicht, egal wie alles andere eingestellt ist...man kann einfach nicht mit 15 Frames durch die Gegend stapfen und dann vielleicht noch kämpfen. Ich hoffe nur meine Karte ist nicht irgendwie...kaputt oder so ?
| Gibt auch genügend Leute, die mit ner 7800GT oder noch höher des Gras ganz/fast ganz zurück stellen weils ned gescheit läuft...
-- Veröffentlicht durch gamerx15 am 18:16 am 30. März 2006
habe festgestellt das meine graka immer bei festplatten aktivität pfeift bzw das besagte geräusch macht....naja da es nich zu laut ist und wohl auch nix schlimmes ist, lebe ich einfach damit. ansonsten ne feine karte! bild ist (jetzt) einfach traumhaft und die qualität der 3d-darstellungen hat sich auch enorm verbessert. meine geforce4 gehörte wohl doch langsam zum alten eisen^^ außer bei 3dmark01...da macht die ati grad mal ~2.5k punkte mehr als meine geforce aber sagt mal, mit welchen treibern habt ihr die besten erfahrungen gemacht? bin wirklich ein totaler ati anfänger
-- Veröffentlicht durch BUG am 18:08 am 30. März 2006
@ sklave gottes ..ja teste mal OC Ergebnisse und vieleicht noch Aquamark, 3DM03, 3DM06. :) @Garwain ..einfach die default Einstellungen des Benchmarks nutzen. cu BUG (Geändert von BUG um 18:09 am März 30, 2006)
-- Veröffentlicht durch Garwain am 18:07 am 30. März 2006
Wie gasagt, bin unerfahren;): Ich will auch mal so en Benchmark machen.... wie macht man das ? Will sagen, wie soll ich 3dmark2005 einstellen ?
-- Veröffentlicht durch sklave gottes am 17:42 am 30. März 2006
Hallo, Habe jetzt meine x1600pro von palit bekommen. mit standart takt habe ich bei 3dmark2005: 4611 punkte und bei CSS bei 1280x1024 alles on 0aa/af 95fps durchschnitt mit bensch system amd64 2,25GHZ,1GB ram will noch jemmand irgendein test sehen ?
-- Veröffentlicht durch Kaffeeheld am 17:28 am 30. März 2006
da hättest mal lieber die benches deiner 9800pro genommen und verglichen mit der 1600pro, die 1600 ist zwar schneller,aber nicht so schnell das man sagen könnte krass was fürn unterschied. hoppalla da hab ich was verwechselt, hast ja neh 9600pro,aldo den unterschied merk man eigentlich schon :blubb: (Geändert von Kaffeeheld um 20:22 am März 30, 2006)
-- Veröffentlicht durch Garwain am 17:21 am 30. März 2006
Na ja, nach all den Benchmarks im Netz waren meine Erwartungen wohl etwas hoch.:lol: Und Battlefront 2 ist doch schon so alt (oder ?) da hab ich erwartet, dass die Karte mehr hinkriegt, schließlich hats meine 9600 Pro auf mittel und 1280 x 1024 auch geschafft. Nicht dass ich so hohe Anforderungen an Spielgrafik stelle, ich dachte nur dass bei 130 Euros mehr drinn ist als das. Bin halt unerfahren :D
-- Veröffentlicht durch BUG am 16:46 am 30. März 2006
..naja 4xAA! ..is kein Wunder. Da fehlt es der X1600 einfach na Bandbreite, 2xFSAA sollte aber meist drinn sein. Wenn du 4xFSAA willst must du schon unteres oder mittleres HighEnd kaufen und das liegt meist so bei um die ~200,- Euro und drüber! Unter diesen Vorraussetzungen und Ansprüchen ist die X1600 definitiv die falsche Karte! cu BUG
-- Veröffentlicht durch Garwain am 16:05 am 30. März 2006
Ich hab noch ein andere Spiel ausprobiert: star Wars Battlefront 2 Bei 1280 x 1024 Grafik auf Max und 4 x AA -> sehr ruckelig über den Daumen gepeilt ab 20 fps, hätt ich auch besseres erwartet...:noidea: Unter Umständen echt das Geld nicht wert, wenn ich ein allgemeines Fazit aufstellen sollte (und die Karte wirklich nicht kaputt ist ;) ) dann würde ich sagen: Für jemanden der eine Radeon 9600 Pro von Sapphire hat lohnt sich der Wechsel zur X1600 Pro nicht wirklich. PUNKT
-- Veröffentlicht durch Garwain am 15:11 am 30. März 2006
Ich glaub ihr habt recht, ich schick das Ding zurück ... es ist mir echt nicht 130 Euro wert... Danke für eure Unterstützung :ocinside:
-- Veröffentlicht durch BUG am 15:04 am 30. März 2006
..zeig mal Bilder von den Fehlern. Klingt für den ersten Moment eher nach falschen Einstellungen bzw. fehler im Grafik-Treiber. Von solchen Fehlern habe ich bislang aber nix gelesen, ist schon etwas merkwürdig. cu BUG (Geändert von BUG um 15:06 am März 30, 2006)
-- Veröffentlicht durch Garwain am 14:58 am 30. März 2006
oder auch Eckige Löcher in Gesichtern PS. Uuuund nochmal Syorry für Doppelposts ;)
-- Veröffentlicht durch Garwain am 14:52 am 30. März 2006
Zählen manchmal weiße und halbdurchsichtige Köpfe und rosafarbene Nebelschwaden, die die Charaktere umgeben auch zu den typisch-kaputte Grafikkarte-Fehlern oder klingt das eher nach Spielbugs ?
-- Veröffentlicht durch BUG am 14:30 am 30. März 2006
Zitat von Garwain um 14:03 am März 30, 2006 Ich habs im Versand bestellt...Mix-Computerversand... hm...wen man sagt sie würde nicht laufen, dann prüfen die das sicher nach....
| ..wenn du die Karte im Versand bestellt hast, kannst du sie innerhalb 14 Tagen ohne angaben von Gründen zurückschicken und du bekommst dein Geld wieder! Schreib einfach, dass du von deinem Rückgaberecht gebrauch machen willst (mehr nicht!). Das es auf der 6600 besser läuft glaub ich nicht, vieleicht limitiert auch dein System (ist auf jeden Fall nicht unwarscheinlich bei deinem Sockel A). Wenn die 14 Tage schon vorbei sind, bleibt dir ggf noch eBay oder SBT-Forum (bekommst wohl so um die ~100,- Euro). Kannst es dann aber gern mit einer Karte wie der X800RX von Club3D ausprobieren, das ist eine X800GTO (12 Pipes) mit X800 Pro Taktraten. http://www.geizhals.at/deutschland/a187717.html cu BUG (Geändert von BUG um 15:01 am März 30, 2006)
-- Veröffentlicht durch Karlchen P am 14:23 am 30. März 2006
Es gibt viele Leute, die behaupten bei ihnen würde es auf ner GF6600 toll laufen....und die X1600Pro soll doch besser sein ...
-- Veröffentlicht durch Beschleunigen am 14:22 am 30. März 2006
dann lern daraus, kauf nächstes mal im mediamarkt (oder karstadt oder ähnlich). bei versandgeschäften ist das wirklich ziemlich aussichtslos, da das immer mit dackelblick, noob-tun und redegewandtheit verbunden ist. behalt das spiel und gib' die graka zurück. wenn's noch geht. (..) mfg tobi (Geändert von Beschleunigen um 14:23 am März 30, 2006)
-- Veröffentlicht durch Garwain am 14:03 am 30. März 2006
Ich habs im Versand bestellt...Mix-Computerversand... hm...wen man sagt sie würde nicht laufen, dann prüfen die das sicher nach....
-- Veröffentlicht durch Beschleunigen am 13:55 am 30. März 2006
kommt halt immer ganz drauf an, was man so kauft. im letzten jahr hab' ich ca. 650 euro für grakas ausgegben. hat sich aber gelohnt, weil die noch heute alles sehr lecker bewegen. auf den preis darf man eigentlich nie achten - das macht nur die laune kaputt. apropos kaputt: deine karte ist nicht kaputt. wenn eine graka kaputt ist, hat man bildfehler oder überhaupt kein bild. vielleicht auch abstürze etc, aber sicher nicht einfach zu wenig leistung. wenn eine karte nur 4 pixelpipelines hat, performt sie auch so. das ist kein defekt, sondern die vom hersteller angedachte und zugestandene leistung. du siehst grad' den unterschied zw. realität und marketing. blumige 3 shader pro pipeline, ein ringbusspeichercontroller und avivo features auf der einen - und oblivion auf der anderen seite ;) bring's doch einfach zurück und sag' es läuft nicht. ich konnte bisher alles zurückgeben. egal ob software, hardware oder film. (..) mfg tobi
-- Veröffentlicht durch Garwain am 13:12 am 30. März 2006
Tja..und DAFÜR hab ich 130 Euro bezahlt...das geht doch nicht, dass man 500 Euro hinblätter muss um ein Spiel bei guter Grafik spielen zu können....ich habs ja garnicht hoch eingestellt...entweder es läuft flüssig bei fast maximalen Deteils auf 1024 x 768 OHNE Gras oder es ruckelt mit 10 - 15 fps MIT Gras.. ich find das echt lächerlich.... Woanders hab ich gelesen, dass Leute mit ner GeForce 6600 bei maximalen Deteils auf derselben Auflösung flüssig spielen...ich versteh das nicht... und warum sollte sie nicht kaputt sein, sie läuft ja schlechter als sie sollte .... tja, und es gibt auch andere Spiele, aber dummerweise hab ich mir grad DAS gekauft...und zurückgeben geht ja nicht ...
-- Veröffentlicht durch Beschleunigen am 13:03 am 30. März 2006
die ist nicht kaputt. das ist das, was du bezahlt hast und schon fast mehr, als ich der karte zugetraut hätte. vielleicht helfen dir die tweaks, die man auf geforce FX karten einbauen muss, um eine flüssige diashow zu bekommen. dann siehts aber aus, wie quake2 oder arx fatalis. naja, es gibt ja noch ein paar andere spiele, die auch spass machen :punk: (..) mfg tobi (Geändert von Beschleunigen um 13:05 am März 30, 2006)
-- Veröffentlicht durch Garwain am 12:53 am 30. März 2006
kleines Update zu Oblivion & x1600 Pro 1024 X 768 UND Gras läuft einfach nicht, egal wie alles andere eingestellt ist...man kann einfach nicht mit 15 Frames durch die Gegend stapfen und dann vielleicht noch kämpfen. Ich hoffe nur meine Karte ist nicht irgendwie...kaputt oder so ?
-- Veröffentlicht durch Beschleunigen am 9:04 am 30. März 2006
gegen pfeiffende spulen hilft pattex sekundenkleber oder ein bissl kleister aus der heissklebepistole. lokalisieren kannst du die pfeife ganz gut, wenn du mit der klopapier-rolle am ohr auf die suche gehst. eine pappe aus der küchenrolle tut es aber auch ;) viel glück. (..) mfg tobi
-- Veröffentlicht durch gamerx15 am 21:49 am 29. März 2006
die auflösung habe ich inzwischen ändern können! habe mal die chipsatz treiber+grakatreiber deinstalliert und anschl. wieder installiert! im omegatreiber habe ich die richtige einstellung gefunden! jetzt bleibt nurnoch die piepserei^^....gabs sowas ähnliches nicht auch mal mit nvidia karten? ist definitiv die karte..von welchem bauteil es kommt, ist allerdings sehr schwer zu lokalisieren! muss ich beim anstecken des zusätzlichen stromanschlusses auf irgendwas achten? also im moment teilt die graka sich nen anschluss mit meiner lüftersteuerung! wenn ich die graka zu den festplatten hänge, gibt es aber auch keinen unterschied....
-- Veröffentlicht durch Stuzzy am 21:21 am 29. März 2006
so ein pfeifen hatte ich auch mal.. bei mir kams ausm NT:noidea:
-- Veröffentlicht durch BUG am 21:17 am 29. März 2006
Zitat von gamerx15 um 20:25 am März 29, 2006 ..das pfeifen kommt von der karte selbst! ist nicht direkt ein pfeifen, kommt dem aber ähnlich! und die hz-zahl ändert sich wirklich nicht! ich sehe absolut KEINEN unterschied zwischen 60hz und 100hz! beim wecheln der frequenz, zuckte das bild auch immer kurz mit meiner geforce. jetzt geht es schlag auf schlag aber nix passiert! also evtl doch treiberprob?
| ..das werden dann wohl irgendwelche Spulen sein, kann auch vom Mobo kommen, schau nochmal genau nach wo das Pfeifen herkommt. :) ..bzgl deiner Monitoreinstellung, scheint ein Einstellungs Fehler zu sein. Öffne das Catalyst Control Center und gehe zu "Monitor Properties -> Atributes" und machst unten das Häkchen bei "Use Extended Display Identification.." raus. Dann stallst du die Maximalauflösung ein die dein Monitor darstellen kann oder soll (z.B. 1600x1200). Bei Refreshrate stellst du die MAX Hz ein die dein Monitor darstellen kann (z.B. 120Hz). Die Refrehrate hat jetzt nix mit der 1600er Auflösung zu tun, in 640x480 wird dein Monitor 120Hz packen oder?! Dann klickst du auf Apply und gehts in das Menü Display Manager, hier stellst du jetzt meinetwegen 1280x960 ein bei 85Hz oder eine Auflösung & Refrehrate deiner Wahl! :) cu BUG (Geändert von BUG um 21:18 am März 29, 2006)
-- Veröffentlicht durch Garwain am 20:25 am 29. März 2006
Sorry wegen der Doppelposts aber ich hab Cookies deaktiviert, deswegen kann ich nicht editieren, weil ich nie eingeloggt bleibe... Das Flimmerbildproblem hab ich auch manchmal, ich denke es liegt am neuen ATI Treiber -> meine Lösung: Rechner ausschalten und gleich wieder neu Starten... Zu meinem vorherigen Beitrag: das erwähnte starke Ruckeln lag nicht an der Grafikkarte sondern am Ram oder an meiner Festplatte: ich hab diese Stelle nochmal ausprobiert und gemerkt, das der Rechner heftig ratterte - > und als er sich beruhigt hat gings wieder gut... Nochmal Sorry für Doppelposts :)
-- Veröffentlicht durch gamerx15 am 20:25 am 29. März 2006
Zitat von BUG um 19:44 am März 29, 2006
Zitat von gamerx15 um 19:32 am März 29, 2006 allerdings pfeift die karte unter 3d-anwendungen und im internet explore! was ist da los?
| ..der Lüfter oder die Karte selber? Welche Karte (Hersteller) hast du denn bekommen?
zudem hatte ich eigentl. einen besseres bild im 2d-betrieb erwartet, doch leider flimmert mein bildschirm jetzt total bei den gleichen einstellungen wie vorher! 1024*768, high color, 100hz!
| ..bekommt der Bildschirm auch seine 100Hz? Sind manchmal zwei verschiedene Paar Schuhe ob du 100Hz einstellst und diese auch zu sehen bekommst. Ich weis ja nich was und wie du die 100Hz im Treiber eingestellt hast, ist der Monitor Treiber installiert? Die Maximale Refreshrate deines Monitors im Treiber richtig eingestellt? ..idR haben ja modernere CRT Monitore eine OSD wo man sich die Frequenz und Auflösung anzeigen lassen kann, schau da mal nach. :)
sollte ich xp mal neu drüberinstallieren oder sogar das komplette sys neu aufsetzen? (bitte nicht!!) oder gibt es extra einstellungen dafür, die ich als total ati-neuling einfach nich finde? vielen dank schonmal!
| ..ich glaub nich, das eine Neuinstallation deine Probleme löst es sei denn dein Widnows ist irgendwie komplett "verstellt". cu BUG (Geändert von BUG um 19:45 am März 29, 2006)
| das pfeifen kommt von der karte selbst! ist nicht direkt ein pfeifen, kommt dem aber ähnlich! und die hz-zahl ändert sich wirklich nicht! ich sehe absolut KEINEN unterschied zwischen 60hz und 100hz! beim wecheln der frequenz, zuckte das bild auch immer kurz mit meiner geforce. jetzt geht es schlag auf schlag aber nix passiert! also evtl doch treiberprob?
-- Veröffentlicht durch Garwain am 19:59 am 29. März 2006
Irgendwas versteh ich da nicht, wenn ein bisschen mehr Feuer, Rauch und Nebel auftauchen ruckelt es selbst bei niedrigen Auflösungen ziemlich arg :noidea:
-- Veröffentlicht durch BUG am 19:44 am 29. März 2006
Zitat von gamerx15 um 19:32 am März 29, 2006 allerdings pfeift die karte unter 3d-anwendungen und im internet explore! was ist da los?
| ..der Lüfter oder die Karte selber? Welche Karte (Hersteller) hast du denn bekommen?
zudem hatte ich eigentl. einen besseres bild im 2d-betrieb erwartet, doch leider flimmert mein bildschirm jetzt total bei den gleichen einstellungen wie vorher! 1024*768, high color, 100hz!
| ..bekommt der Bildschirm auch seine 100Hz? Sind manchmal zwei verschiedene Paar Schuhe ob du 100Hz einstellst und diese auch zu sehen bekommst. Ich weis ja nich was und wie du die 100Hz im Treiber eingestellt hast, ist der Monitor Treiber installiert? Die Maximale Refreshrate deines Monitors im Treiber richtig eingestellt? ..idR haben ja modernere CRT Monitore eine OSD wo man sich die Frequenz und Auflösung anzeigen lassen kann, schau da mal nach. :)
sollte ich xp mal neu drüberinstallieren oder sogar das komplette sys neu aufsetzen? (bitte nicht!!) oder gibt es extra einstellungen dafür, die ich als total ati-neuling einfach nich finde? vielen dank schonmal!
| ..ich glaub nich, das eine Neuinstallation deine Probleme löst es sei denn dein Widnows ist irgendwie komplett "verstellt". cu BUG (Geändert von BUG um 19:45 am März 29, 2006)
-- Veröffentlicht durch gamerx15 am 19:32 am 29. März 2006
hey leuts! hab mir ne sapphire x1600pro gegönnt! hatte vorher ne geforceti drin! habe die alte grafikkarte deinstalliert->rechner ausgemacht->neu karte rein->rechner hochlaufen lassen->ati gedöns installiert! hat auch alles ohne probleme funktioniert, allerdings pfeift die karte unter 3d-anwendungen und im internet explore! was ist da los? zudem hatte ich eigentl. einen besseres bild im 2d-betrieb erwartet, doch leider flimmert mein bildschirm jetzt total bei den gleichen einstellungen wie vorher! 1024*768, high color, 100hz! sollte ich xp mal neu drüberinstallieren oder sogar das komplette sys neu aufsetzen? (bitte nicht!!) oder gibt es extra einstellungen dafür, die ich als total ati-neuling einfach nich finde? vielen dank schonmal!
-- Veröffentlicht durch Garwain am 18:07 am 29. März 2006
Ok, bei Gras auf Default (also auf fast MAX) hat man im Gelände oft nur 20 frames
-- Veröffentlicht durch Garwain am 17:50 am 29. März 2006
Default, ganz einfach Default...nur mit Bloom statt mit HDR. Wer ne X1600 Pro hat der kriegt automatisch das gleiche. Genauer: Schatten niedrig, Texturen hoch, Weitsicht hoch kein AA ich geb später noch ne genauere Liste....
-- Veröffentlicht durch DinkPeTe am 17:17 am 29. März 2006
was haste denn für Details eingestellt? :noidea: @ Beschleunigen: Das war ja mal wieder unterste Schublade :thumb: (Vorsicht, Ironie ;) )
-- Veröffentlicht durch Garwain am 17:12 am 29. März 2006
Hi ! Also hier mein erster kurzer Bericht zu Oblivion mit einer Sapphire X1600 Pro Karte: Mein System zuerst: Athlon XP 2800 FSB 333 weil: gelockter Barton 1024 MB Ram Festplatte: Samsung SP 1614N Board: Abit AN 7 Catalyst Control Center und neuester Treiber Fazit: 1024 x 768 JA 1280 x 1024 NEIN Ganz endeutig: Wenn man das Spiel an jeder Stelle flüssig spielen möchte kann man die Auflösung nicht auf 1280 X 1024 + mittlere Deteils stellen. Das heißt: in Städten und Innenräumen ist es auch dann noch flüssig spielbar (20 bis 50 fps), in Außenbereichen ebenfalls, aber nicht mehr in effektlastigen Gegenden. Es gibt da recht früh im Spiel einen Ort an dem eine riesige Feuerseule vom Boden bis durch die Decke ragt und gleichzeitig wird man von Gegnern angegriffen. Ist die Feuerseule nicht gerade im Bild hat man auch bei den hohen Einstellungen moderate Frameraten von 20+-, wendet man sich der Feuerseule zu dann fällt die Framerate jedoch auf 7 bis 12 ab.. ABER: mit Catalyst Control Center (das endlich bei mir läuft :D )Einstellungen auf Default UND Spieleinstellungen ebenfalls auf Default (die Einstellungen die das Spiel beim ersten Starten automatisch dem System anpasst, hier "High" mit Weitsicht, Schatten usw.) NUR mit Bloom statt HDR läuft das Spiel sogar an dieser oben beschriebenen Stelle noch Spielbar bis flüssig (20 bis 35 Frames). Also: Ich hab ein kleines bisschen mehr erwartet, aber na ja, was besseres fürn AGP Slot zu einem ähnlich Preis gibts ja leider nicht :D Auf jeden Fall ne verbeserung im Vergleich zur 9600 Pro Und nochwas: Mit Prozessor-Speicher- und Festplattenbedingten Frameeinbrüchen durch Nachladen von Texturen z.B. muss man bei einem System wie meinem immer rechnen, vor allem in Städten, die stören einen nicht überverwöhnten Spieler allerdings nicht :lol: Nur...einmal blieb das Spiel für 10 Sekunden stehen :noidea:
-- Veröffentlicht durch Kaffeeheld am 13:59 am 29. März 2006
Zitat von kammerjaeger um 10:57 am März 29, 2006
Zitat von Kaffeeheld um 4:24 am März 29, 2006 :noidea: nanüh wieso den das, wat hast den für neh 9600pro die standard pro von mir hier 256MB 9600pro 400/400 ocen hat da kein sinn bei der :lol:
| Die normale Pro hat immer 400/600MHz, alles andere sind abgespeckte Varianten.
| dat ist für mich schon die gute Pro :lol: ist ja auch nebensächlich, es ging ja darum das er es nicht spielbar machen konnte mit seiner 9600pro;)
-- Veröffentlicht durch kammerjaeger am 10:57 am 29. März 2006
Zitat von Kaffeeheld um 4:24 am März 29, 2006 :noidea: nanüh wieso den das, wat hast den für neh 9600pro die standard pro von mir hier 256MB 9600pro 400/400 ocen hat da kein sinn bei der :lol:
| Die normale Pro hat immer 400/600MHz, alles andere sind abgespeckte Varianten.
-- Veröffentlicht durch Garwain am 10:43 am 29. März 2006
Auf 1024 x 768 und mittel solls ja schon auf ner X1300 flüssig laufen. Meine Idee von Flüssig ist übrigens 20 bis 25 Frames, ich glaub da hat jeder unterschiedliche Erfahrungen. @ Beschleunigen: Das mit dem Tweaken ist schon ne schlimme Sache: Das Programm hat damals meinen so "zurechtoptimiert" dass ich ihn formatieren musste :lol: Übrigens, wir wollen uns alle akzeptieren, egal welcher Ansicht einer ist. Deshalb bitte, finger in den arsch schieben, klappe und luft (an)halten.
| klingt nicht sehr erwachsen
-- Veröffentlicht durch Beschleunigen am 10:27 am 29. März 2006
..angeblich läuft es recht anständig auf der X1600 ich habe es selber auch noch nicht ausprobiert (habe das Spiel nicht) aber was ich so gelesen habe ist es spielbar solang man nicht alles auf MAX stellt oder mit der Auflösung übertreibt. Aber angeblich funzt es sogar recht gut mit HDR (nein kein Bloom!).
| auf meinem SLi macht es keinen unterschied, ob HDR oder bloom. das läuft immer gleich. entweder 12x10, HDR oder 12x10, Bloom 4x AA.
Angeblich ist Oblivion auch ein "ATI-Spiel" also es soll auf ATI Hardware etwas "runder" laufen, nV hat ja extra nochmal einen Treiber nachschieben müssen?!
| gucke ich mir mal am sonntag auf ATI hardware an. das mit dem treiber ist quark. der "oblivion-treiber" (84.25) ist bugverseucht und bringt rein gar nichts an performance. nicht auf GF6 und nicht auf GF7 und nicht im SLi betrieb. soweit waren wir im 3DC schon.
ps.: ..schonmal ausprobiert wie es auf deinem Sockel-A System + FX5950 läuft? *g*
| besagten rechner hab' ich schon im oktober 05 verkauft. für fette 475euro. @garwain dass windows tweakerei nix bringt, hat c't vor nem halben jahr mal ausgebencht. das einzige, was etwas bringt ist regelmäßiges defragmentieren und das verlagern der swap-datei auf eine separate partition. alles andere (registry tweaks, dienste und autostarts) ist humbug.
nanüh wieso den das, wat hast den für neh 9600pro die standard pro von mir hier 256MB 9600pro 400/400 ocen hat da kein sinn bei der Autlösung 1024x768 AA: aus Modus: maximieren u. v.sync Bildschirmeffekte: Bloom entferntes rendering: 3x Häckchen und dann sollte es funktionieren fließend, hab zwar ab u zu mal ein ruckler bei gehabt aber nischt wo man sagen könnte unspielbar etc.
| das notiere ich mir mal und checke das mal auf der 256mb 9600XT ab, die hier noch rumpoltert. ich glaub' die hatte einen rv360 mit 500mhz clock. bin da aber nicht so sicher.. mal sehen was am WE so geht.
Hmmm..kein Zweifel, dass man mit ner x1600 Pro Oblivion flüssig zum Laufen bekommt. Hab auch in einem Forum gelesen dass es flüssig mit mittleren bis hohen Deteils zumindest auf 1024 x 768 'er Auflösung laufen soll. Ich hab schon nach Benchmarks gesucht, aber die scheint es noch nicht zu geben. Im selben Foum berichten aber Leute mit GeForce 6600'er-irgendwas-Karten ganz gute Erfahrungen. hier
| das mit den mittleren bis hohen details bezweifle ich mal. nicht bei der füllrate und mickrigen anzahl pipelines. schade dass man das spiel nicht benchen kann und dass es nicht über die shader limitiert.
Was bistn du für einer??? Is echt lächerlich was du hier von dir gibst... Ein streitsüchtiger, Hardware geiler freak...lass mich mal überlegen schätze son kleines dickes Kind ohne Freunde des von seinen Eltern zu viel Geld in den A**** geschoben bekommt... Is aber nur ne Vermutung meinerseits...dein Verhalten lässt jedenfalls drauf schließen
| och göttchen. da ist aber jemand neidisch, was? schliess' was immer du willst - am besten die tür hinter dir und ess' den schlüssel. tipp1: meine eltern sponsern meine hobbys seit ich 17 wurde nicht mehr. und das ist jetzt fast 14 jahre her. ich bin zwischenzeitlich nicht nur dem kindergarten entwachsen -> ich verdiene für meine hobbys sogar schon (sehr viele jahre) mein eigenes geld. toll nicht? - gibt auch erwachsene hier - nicht nur neukluge schulkiddies - tipp2: finger in den arsch schieben, klappe und luft (an)halten.
@topic kann mal wer posten wie Oblivion auf ner X1600Pro läuft??? Geht des mit Details irgendwo zwischen mittel und hoch auf 1280x1024 relativ flüssig??? (so bis 15fps isses wie ich finde durchaus noch spielbar)
| ha ha ha - wie sch****e muss dein rechner sein, dass dir 15fps reichen? das ist ja mal unterstes gameboy niveau. (..) mfg tobi (Geändert von Beschleunigen um 10:28 am März 29, 2006)
-- Veröffentlicht durch Garwain am 10:02 am 29. März 2006
Ich hab keinen blassen Schimmer :noidea: Noch als sie neu war hat sie z.B. bei Raucheffekten stark geruckelt ... Nur, hab ich mal naiverweise noch als mein System ganz frisch war eines dieser automatischen Tweaking-Progs benutzt um meine Systemleistung zu "optimieren" und auch wenns doch fast unmöglich ist (?): ich hatte danach das gefühl, dass meine Grafikkarte plötzlich lahmer war...ich habs nachgeprüft aber an den Taktraten hat sich nichts geändert. Hoffentlich ist dann mit meinem Mainboard alles korrekt ...*sorgenvollessmily* So, ich hab jetzt gerade eben meine x1600 bekommen :D
-- Veröffentlicht durch Kaffeeheld am 4:24 am 29. März 2006
Zitat von Garwain um 1:17 am März 29, 2006 :nabend: @ baumi88: haaarte Worte;) Die Wahrheit kann sicher sehr wehtun :D Hmmm..kein Zweifel, dass man mit ner x1600 Pro Oblivion flüssig zum Laufen bekommt. Hab auch in einem Forum gelesen dass es flüssig mit mittleren bis hohen Deteils zumindest auf 1024 x 768 'er Auflösung laufen soll. Ich hab schon nach Benchmarks gesucht, aber die scheint es noch nicht zu geben. Im selben Foum berichten aber Leute mit GeForce 6600'er-irgendwas-Karten ganz gute Erfahrungen. hier Ach ja, mit einer 9600 Pro kommt man bei Oblivion leider nicht weit, Außenareale und Städte (zumindest die ersten zwei) sind zwar kein großes Problem aber die ersten Lichteffekte haben meine Karte sofort in die Knie gezwungen, sogar bei niedrigester Auflösung geht da nichts mehr. Aber jetzt hat man scih das Spiel gekauft, kann es nicht mehr zurückgeben, also was tun als sich ne aktuelle Karte zu holen, wird ja auch schon Zeit ;) Sobald meine Sapphire x1600 Pro kommt schreib ich nen Bericht, versprochen :thumb:
| :noidea: nanüh wieso den das, wat hast den für neh 9600pro die standard pro von mir hier 256MB 9600pro 400/400 ocen hat da kein sinn bei der :lol: Autlösung 1024x768 AA: aus Modus: maximieren u. v.sync Bildschirmeffekte: Bloom entferntes rendering: 3x Häckchen und dann sollte es funktionieren fließend, hab zwar ab u zu mal ein ruckler bei gehabt aber nischt wo man sagen könnte unspielbar etc. :thumb:
-- Veröffentlicht durch Garwain am 1:17 am 29. März 2006
:nabend: @ baumi88: haaarte Worte;) Die Wahrheit kann sicher sehr wehtun :D Hmmm..kein Zweifel, dass man mit ner x1600 Pro Oblivion flüssig zum Laufen bekommt. Hab auch in einem Forum gelesen dass es flüssig mit mittleren bis hohen Deteils zumindest auf 1024 x 768 'er Auflösung laufen soll. Ich hab schon nach Benchmarks gesucht, aber die scheint es noch nicht zu geben. Im selben Foum berichten aber Leute mit GeForce 6600'er-irgendwas-Karten ganz gute Erfahrungen. hier Ach ja, mit einer 9600 Pro kommt man bei Oblivion leider nicht weit, Außenareale und Städte (zumindest die ersten zwei) sind zwar kein großes Problem aber die ersten Lichteffekte haben meine Karte sofort in die Knie gezwungen, sogar bei niedrigester Auflösung geht da nichts mehr. Aber jetzt hat man scih das Spiel gekauft, kann es nicht mehr zurückgeben, also was tun als sich ne aktuelle Karte zu holen, wird ja auch schon Zeit ;) Sobald meine Sapphire x1600 Pro kommt schreib ich nen Bericht, versprochen :thumb:
-- Veröffentlicht durch Kaffeeheld am 23:24 am 28. März 2006
:noidea: kam noch nicht dazu, ahb bis jetzt nur mit 9600pro u 7800GTX SLI getestet :lol: läuft auf beiden;)
-- Veröffentlicht durch baumi88 am 22:15 am 28. März 2006
Zitat von Beschleunigen um 9:44 am März 28, 2006 ... blablablub ...
| :D :D :D Was bistn du für einer??? Is echt lächerlich was du hier von dir gibst... Ein streitsüchtiger, Hardware geiler freak...lass mich mal überlegen schätze son kleines dickes Kind ohne Freunde des von seinen Eltern zu viel Geld in den A**** geschoben bekommt... Is aber nur ne Vermutung meinerseits...dein Verhalten lässt jedenfalls drauf schließen @topic kann mal wer posten wie Oblivion auf ner X1600Pro läuft??? Geht des mit Details irgendwo zwischen mittel und hoch auf 1280x1024 relativ flüssig??? (so bis 15fps isses wie ich finde durchaus noch spielbar)
-- Veröffentlicht durch Kaffeeheld am 14:09 am 28. März 2006
Zitat von DinkPeTe um 14:03 am März 28, 2006
Zitat von Beschleunigen um 9:44 am März 28, 2006 gegen oblivion kann man absolut nichts sagen, wenn man einen rechner nutzt, der es zu bewegen vermag. es ist endgeil! allein dieses eine spiel rechtfertigt schon die anschaffung einer xbox360. (..) mfg tobi
| ... kostet ja auch fast nix ... :crazy: .. in was für einer Welt lebst du? :noidea:
| Also ich hab mehr von den Spiel erwartet, naja standard Rollenspiel mit hübscher Grafik mehr auch nicht :lol: statt neh Xbox könnte man sich eher neh vernüftige Graka holen, Konsolen :gulp: nothing is better than Gamer PC :dance:
-- Veröffentlicht durch BUG am 14:07 am 28. März 2006
Zitat von Beschleunigen um 7:26 am März 28, 2006 wie läuft das game denn jetzt (oblivion) auf ATI x1600 hardware..? bescheiden und schade für ATI, dass bethesda keine shaderlimitierung impliziert hat, gelle?
| ..angeblich läuft es recht anständig auf der X1600 ich habe es selber auch noch nicht ausprobiert (habe das Spiel nicht) aber was ich so gelesen habe ist es spielbar solang man nicht alles auf MAX stellt oder mit der Auflösung übertreibt. Aber angeblich funzt es sogar recht gut mit HDR (nein kein Bloom!). ;) Angeblich ist Oblivion auch ein "ATI-Spiel" also es soll auf ATI Hardware etwas "runder" laufen, nV hat ja extra nochmal einen Treiber nachschieben müssen?! Deinen Ansprüchen (8xAF und SLI-SSAA in 1280x1024 Max Details + HDR) wird die X1600 vermutlich nicht gerecht werden. Die meisten die eine X1600 haben werden auch eher einen Rechner in der ~3GHz/3000+ Klasse haben bzw. leicht drunter wo das CPU Limit schon deutlich früher greift. ;) ps.: ..schonmal ausprobiert wie es auf deinem Sockel-A System + FX5950 läuft? *g* @kammerjaeger ..mag sein das UT2003/2004 beim erscheinen auf nahezu jeder Hardware spielbar war, aber das ist bei einem Shooter meist auch priorität, zumale kann man die Settings ja so weit runterschrauben + INI Tweak das von der Grafik fast nix mehr überbleibt. ;) Wenn man sich aber die RGPs der letzten Zeit ansieht, dann reichen einfach 20 bis 30FPS aus, hier kommt es nicht auf das Aming an. Gothic II lief z.B. auch recht bescheiden auf damaliger Hardware. Scheint also doch Genere abhängig zu sein, die KI ist vermutlich deutlich aufwendiger als bei Shootern, die Grafik meist auch komplexer bzw. Detailreicher (Größe/Weitsicht usw.). cu BUG (Geändert von BUG um 14:13 am März 28, 2006)
-- Veröffentlicht durch DinkPeTe am 14:03 am 28. März 2006
Zitat von Beschleunigen um 9:44 am März 28, 2006 gegen oblivion kann man absolut nichts sagen, wenn man einen rechner nutzt, der es zu bewegen vermag. es ist endgeil! allein dieses eine spiel rechtfertigt schon die anschaffung einer xbox360. (..) mfg tobi
| ... kostet ja auch fast nix ... :crazy: .. in was für einer Welt lebst du? :noidea:
-- Veröffentlicht durch Beschleunigen am 9:44 am 28. März 2006
Kannst Du auch echte Argumente bringen oder nur dummes Gesülze? Wenn die CPU z.B. die K.I. vieler Gegner/Bots auf großen Karten berechnen muß, dann wird sie sehr wohl auch in Shootern beansprucht. Willst Du ernsthaft behaupten, die Performance eines Games hängt nur vom Genre und der Grafik ab? Scheinst ja echt genau zu wissen, was Programmierung ausmachen kann... Und daß die Programmierer zu 90% nur noch an Konsolen arbeiten, ist absoluter Nonsens. Viele Spiele werden parallel entwickelt, zumal die XBOX-Hardware nunmal sehr PC-nah ist. Der Unterschied ist eben, daß man für die Konsole genauer programmieren muß, da sie nicht aufrüstbar ist...
| vielleicht solltest du beim verkaufen von disketten bleiben, bevor du dich auf eis bewegst, das dich nicht trägt. tipp: les' mal nach, wieviele entwickler-teams zwischenzeitlich unter M$-flagge segeln.
Zu Hartz4: Das Problem ist eben, daß die Leute sich Hardware kaufen, die sie sich eigentlich gar nicht leisten könnten. Das Problem mögen wir beide nicht haben, aber ich erleb es hier im Laden täglich.
| das wird sich sicher noch ändern.
Konsole hin oder her, es laufen nunmal nicht alle Spiele auf Konsole. Und da der PC inkl. Internetzugang inzwischen selbst für Schulkinder Pflicht ist, ist er nunmal oft die bessere Allroundlösung und ohnehin unabdingbar.
| darüber kann man diskuttieren, wie man lustig ist. ich hab' eh beides parallel und sich ergänzend. mit jemandem, der nicht weiss, was so mit einer konsole geht, über vor- und nachteile zu diskuttieren erübrigt sich. der wirkliche grund gegen konsolen ist übrigens harzIV. warum? weil man da nicht jedes spiel als raubkopie für lau bekommt.
P.S.: Wenn mir einer das Spiel leiht, teste ich es gerne. Ist aber absolut nicht mein Genre, daher kauf ich es mir auch nicht...
| hat bei uns jeder zweite videoshop. das argument mit dem genre kenn' ich von meinem bekloppten nachbarn. der kann auch nichts aktuelles flüssig über den schirm zaubern und hat auch kein budget. leider hat er ein problem, diese diskrepanz einzugestehen und daher "interessiert" ihn einfach alles was nicht läuft, nicht. gegen oblivion kann man absolut nichts sagen, wenn man einen rechner nutzt, der es zu bewegen vermag. es ist endgeil! allein dieses eine spiel rechtfertigt schon die anschaffung einer xbox360. (..) mfg tobi (Geändert von Beschleunigen um 9:47 am März 28, 2006)
-- Veröffentlicht durch kammerjaeger am 9:12 am 28. März 2006
Kannst Du auch echte Argumente bringen oder nur dummes Gesülze? Wenn die CPU z.B. die K.I. vieler Gegner/Bots auf großen Karten berechnen muß, dann wird sie sehr wohl auch in Shootern beansprucht. Willst Du ernsthaft behaupten, die Performance eines Games hängt nur vom Genre und der Grafik ab? :blubb: Scheinst ja echt genau zu wissen, was Programmierung ausmachen kann... :lol: Und daß die Programmierer zu 90% nur noch an Konsolen arbeiten, ist absoluter Nonsens. Viele Spiele werden parallel entwickelt, zumal die XBOX-Hardware nunmal sehr PC-nah ist. Der Unterschied ist eben, daß man für die Konsole genauer programmieren muß, da sie nicht aufrüstbar ist... Zu Hartz4: Das Problem ist eben, daß die Leute sich Hardware kaufen, die sie sich eigentlich gar nicht leisten könnten. Das Problem mögen wir beide nicht haben, aber ich erleb es hier im Laden täglich. ;) Konsole hin oder her, es laufen nunmal nicht alle Spiele auf Konsole. Und da der PC inkl. Internetzugang inzwischen selbst für Schulkinder Pflicht ist, ist er nunmal oft die bessere Allroundlösung und ohnehin unabdingbar. P.S.: Wenn mir einer das Spiel leiht, teste ich es gerne. Ist aber absolut nicht mein Genre, daher kauf ich es mir auch nicht...
-- Veröffentlicht durch Beschleunigen am 7:26 am 28. März 2006
Dessen bin ich mir bewußt, deshalb hab ich ja auch geschrieben: "UT2003/2004 zeigt, daß es auch möglich ist, (bei Erscheinen) anspruchsvolle Grafik auf kleineren Systemen problemlos spielen zu können"
| bist du schon breit, oder was? was hat denn ein blöder shooter wie UT mit einem RGP wie elder-scrolls gemeinsam - ausser dass beides spiele sind?
Daß es heute bei der Grafik nicht mehr mit den Top-Titeln mithalten kann, ist klar. Damals hingegen war es der Hammer.
| oh ja - und diese spieltiefe.. diese aufstiegsmöglichkeiten für den charakter.. hammer. hab' nie kapiert, wie man in UT2004 ein haus baut, aber sch**** drauf!
Selbst mit kleinen CPUs und auch zu der Zeit schon veralteten DX7-Karten sah es top aus und war trotzdem flüssig spielbar.
| fragst du dich wirklich, warum das so war/ist ? LOL
Genau das sollte eigentlich die Zielsetzung der Programmierer sein, nämlich grafisch anspruchsvolle Spiele so zu optimieren, daß man selbst auf Hardware der "unteren Mittelklasse" gute Grafik flüssig spielen kann.
| ..und im himmel ist jahrmarkt. 90% aller programmierteams arbeiten zwischenzeitlich an spielen für next-gen konsolen. die games werden bestenfalls portiert und leiden an der wenig einheitlich, schnell ausrangierten PC technik.
Und wenn nicht jeder Hartz4-Empfänger beim ersten Anzeichen von Ruckeln gleich in den nächsten PC-Laden rennen würde, statt die Settings etwas runter zu fahren, dann wären alle Programmierer stärker gefordert, dem Beispiel von Epic bzw. den Programmierern von UT und ähnlich gut programmierten Engines zu folgen.
| wen kratzt hartz4. wenn die noch genug geld für PC updates haben, hat sich die regierung scheinbar verrechnet. dann hat da noch jemand zuviel kohle. im prinzip könnten die sich nichtmal ne konsole leisten. allerdings ist die besser zum spielen (wenn man eh zuviel freizeit hat) geeignet, als ein PC..
Dann würde man vielleicht 5,- mehr pro Spiel für den höheren Programmierungsaufwand zahlen, aber im Laufe der Jahre hunderte Euros für Hardware sparen...
| klar! aber dann würde auch keiner mehr hardware kaufen. spiele sind der einzige motor (neben KJ's ATI propaganda), der kaufmotivationen für aufrüstungen schafft. alles andere sind peanuts.. wie läuft das game denn jetzt (oblivion) auf ATI x1600 hardware..? bescheiden und schade für ATI, dass bethesda keine shaderlimitierung impliziert hat, gelle? (..) mfg tobi (Geändert von Beschleunigen um 7:27 am März 28, 2006)
-- Veröffentlicht durch kammerjaeger am 23:15 am 27. März 2006
Zitat von BUG um 13:48 am März 27, 2006 ..naja is aber doch schon ein Unterschied, schau dir mal die Grafik Pracht von Oblivion an, das kannst du nicht mit UT2004 vergleichen. Auch sonnst ist die interaktion mit NPCs und Gegner viel komplexer als das bei UT der Fall ist.
| Dessen bin ich mir bewußt, deshalb hab ich ja auch geschrieben: "UT2003/2004 zeigt, daß es auch möglich ist, (bei Erscheinen) anspruchsvolle Grafik auf kleineren Systemen problemlos spielen zu können" Daß es heute bei der Grafik nicht mehr mit den Top-Titeln mithalten kann, ist klar. Damals hingegen war es der Hammer. Selbst mit kleinen CPUs und auch zu der Zeit schon veralteten DX7-Karten sah es top aus und war trotzdem flüssig spielbar. Genau das sollte eigentlich die Zielsetzung der Programmierer sein, nämlich grafisch anspruchsvolle Spiele so zu optimieren, daß man selbst auf Hardware der "unteren Mittelklasse" gute Grafik flüssig spielen kann. Und wenn nicht jeder Hartz4-Empfänger beim ersten Anzeichen von Ruckeln gleich in den nächsten PC-Laden rennen würde, statt die Settings etwas runter zu fahren, dann wären alle Programmierer stärker gefordert, dem Beispiel von Epic bzw. den Programmierern von UT und ähnlich gut programmierten Engines zu folgen. Dann würde man vielleicht 5,- mehr pro Spiel für den höheren Programmierungsaufwand zahlen, aber im Laufe der Jahre hunderte Euros für Hardware sparen... ;)
-- Veröffentlicht durch Beschleunigen am 17:40 am 27. März 2006
die xbox hat einige boni, die mich vermuten lassen, dass es dort eklatant besser läuft. die muss auch nur die 30fps schaffen und sicher arbeitet die konsole mit vsync. bei drei cores sollten weit weniger cpu-limitierungen zum tragen kommen, als zum beispiel bei mir, wo mein singlecore schon mit 2.2GHz zu langsam für ein anständiges lodballancing ist, so dass ich OCen muss, um das gleichgewicht wieder herzustellen. die grafikdetails sind bei der konsole ebenfalls fix und nicht in abgedrehte bereiche erhöhbar. der PC hat einfach zuviele "qualitätsregler" vielleicht wären wir überrascht, wie gut die PC fassung performen würde, würden wir eine .ini von der xb36 als konfigurationsdatei nehmen. leider kann ich solche configs nur von der xbox classic auf den pc übertragen, da mir für die xb36 kein sinnvoller mod bekannt ist. neugierig wäre ich aber schon, mit welcher .ini das auf der konsole rennt. (..) mfg tobi
-- Veröffentlicht durch BUG am 13:48 am 27. März 2006
..naja is aber doch schon ein Unterschied, schau dir mal die Grafik Pracht von Oblivion an, das kannst du nicht mit UT2004 vergleichen. Auch sonnst ist die interaktion mit NPCs und Gegner viel komplexer als das bei UT der Fall ist. Ob die "miese" Performacne von Oblivion das jetzt rechtfertigt oder ob einfach nur schlecht programiert wurde kann ich nicht wirklich beurteilen, aber sicherlich wird es noch ein paar Performance Patches geben. Würde mich auch mal interrresieren wie es auf der XBOX360 läuft. :) cu BUG
-- Veröffentlicht durch kammerjaeger am 13:31 am 27. März 2006
Zitat von Beschleunigen um 10:32 am März 27, 2006 naja. NFS oder UT sind für ein RPG nicht grad' der maßstab.
| Finde ich schon, denn UT2003/2004 zeigt, daß es auch möglich ist, (bei Erscheinen) anspruchsvolle Grafik auf kleineren Systemen problemlos spielen zu können. Nur weil andere Spieleschmieden nicht in der Lage sind, sauber zu programmieren, sollte man genau die nicht als Maßstab nehmen...
-- Veröffentlicht durch Beschleunigen am 10:32 am 27. März 2006
Nur wenn die Engines so schlecht programmiert sind wie fast die gesamte NFS-Reihe ... Bei Spielen wie UT2004 hab ich selbst mit (damals) kleinen CPUs und GraKas keinerlei Framedrops.
| naja. NFS oder UT sind für ein RPG nicht grad' der maßstab. ich würd' mich da eher an gothic oder TES3 orientieren. diese spiele haben aber gemein, dass sie mit round-about 20fps noch spielbar sind. oblivion fühlt sich allerdings auf einer einzelkarte so grottig an, dass ich es wieder von der platte geputzt hätte. OK - details zurückschrauben hab' ich nicht probiert - aber ich hab' auch die karten nicht eingebaut, um details zu reduzieren ;) (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 9:20 am 27. März 2006
Zitat von Beschleunigen um 9:00 am März 27, 2006 CPU bedingte framedrops gibt's in rpg's immer wieder.
| Nur wenn die Engines so schlecht programmiert sind wie fast die gesamte NFS-Reihe ... Bei Spielen wie UT2004 hab ich selbst mit (damals) kleinen CPUs und GraKas keinerlei Framedrops. ;)
-- Veröffentlicht durch Beschleunigen am 9:00 am 27. März 2006
..bei 20FPS und drunter gurkst du mit SLI auch abundzu rum, da das Spiel stellenweise hoffnungslos CPU limitiert ist.
| das kannst du mit der laggy performance einer singlekarte gar nicht vergleichen. ich hab's probiert. das ist während des spielens ein unterschied, wie diashow und filmgucken. mit zwei kärtchen laggt es nirgends. CPU bedingte framedrops gibt's in rpg's immer wieder. have phun :punk: (..) mfg tobi
-- Veröffentlicht durch BUG am 14:48 am 26. März 2006
Zitat von Beschleunigen um 9:47 am März 26, 2006 kann mal einer mit der schrottkarte oblivion testen? würde mich mal interessieren zu sehen, ob die karte auf 20fps kommt.
| ..bei 20FPS und drunter gurkst du mit SLI auch abundzu rum, da das Spiel stellenweise hoffnungslos CPU limitiert ist. ;)
Zitat von Mome um 8:56 am März 26, 2006 hatte nun wer die Palit X1600Pro mit 128MB getestet? Wie geht die ab? Hat die HW Monitoring? Also werden die Temps ausgelesen?
| ..die Palit hat leider kein Hardwaremonitoring. :( cu BUG (Geändert von BUG um 14:49 am März 26, 2006)
-- Veröffentlicht durch GPU Tweaking am 14:13 am 26. März 2006
muss man dazu was sagen...?
-- Veröffentlicht durch Beschleunigen am 13:56 am 26. März 2006
das seht ihr falsch. ihr müsst auf die frames achten. frames=zentimeter. 45fps/cm sind in TES4 völlig in ordnung, wenn man TFT nativ mit HDR spielt. aber es ärgert doch sehr, wenn's dann mal auf 25 einbricht ;) was wäre, wenn das mal beim poppen passiert? dann kriegt frauchen ja für eine sekunde wieder luft. (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 12:11 am 26. März 2006
Zitat von DinkPeTe um 11:49 am März 26, 2006 kannst du mal aufhören überall son' schei** zu schreiben? Wir wissen ja das dein SLi Quark deine Männlichkeit auf ca. 3m verlängert :crazy:
| Wie soll das gehen? Unendlich mal Null bleibt Null! :lol:
-- Veröffentlicht durch DinkPeTe am 11:49 am 26. März 2006
Zitat von Beschleunigen um 9:47 am März 26, 2006 kann mal einer mit der schrottkarte oblivion testen? würde mich mal interessieren zu sehen, ob die karte auf 20fps kommt. :punk: (..) mfg tobi
| kannst du mal aufhören überall son' schei** zu schreiben? Wir wissen ja das dein SLi Quark deine Männlichkeit auf ca. 3m verlängert :crazy: unglaublich sowas ...
-- Veröffentlicht durch DanielOC am 10:46 am 26. März 2006
danke :thumb:
-- Veröffentlicht durch kammerjaeger am 10:39 am 26. März 2006
4x3 Architektur des Cores
-- Veröffentlicht durch DanielOC am 10:31 am 26. März 2006
wieviel pixelpipelines haben die x1600pro nun ? bei geizhals steht überall 4 :noidea:
-- Veröffentlicht durch Beschleunigen am 9:47 am 26. März 2006
kann mal einer mit der schrottkarte oblivion testen? würde mich mal interessieren zu sehen, ob die karte auf 20fps kommt. :punk: (..) mfg tobi
-- Veröffentlicht durch Mome am 8:56 am 26. März 2006
hatte nun wer die Palit X1600Pro mit 128MB getestet? Wie geht die ab? Hat die HW Monitoring? Also werden die Temps ausgelesen?
-- Veröffentlicht durch kammerjaeger am 23:46 am 25. März 2006
Zur Asus: Leider stimmen die bei Geizhals angegebenen Werte nicht. Dort ist sie beim Speicher mit 390MHz angegeben, laut Herstellerseite hat sie aber mit 512MB die auch hier verifizierten 270MHz. Das bremst natürlich enorm. Bei der Connect3D war ich auch etwas enttäuscht, aber mit der vollen Taktung (wie z.B. von MSI, Gigabyte etc.) läuft die Karte spürbar besser...
-- Veröffentlicht durch BUG am 23:28 am 25. März 2006
Zitat von sklave gottes um 23:16 am März 25, 2006 Was habt ihr so für erfahrungen mit dem OC der 1600pro Welches Tool eignet sich da am besten ? Das Find max clock vom ATI Tray Tool soll ja nicht funktionieren oder?
| ..eigentlich funzt das ATI Tool nur die Fehlererkennung von FindMax Mem/Core funzt manchmal nicht richtig. Must also manuell abbrechen wenn du Fehler siehts. cu BUG
-- Veröffentlicht durch sklave gottes am 23:16 am 25. März 2006
@ DanielOC Ja das liegt an den 270mhz ram takt. Da hast du dich von den 512MB verlocken lassen. Eine 256MB version mit 400mhz ram wäre viel schneller. Ein freund von mir hatte sich die x1600pro von connect3d gekauft auch mit 250mhz ram.Die war schon ein gutes stück langsamer als die normalen karten. ach ja noch eine frage: Was habt ihr so für erfahrungen mit dem OC der 1600pro Welches Tool eignet sich da am besten ? Das Find max clock vom ATI Tray Tool soll ja nicht funktionieren oder ? (Geändert von sklave gottes um 23:22 am März 25, 2006)
-- Veröffentlicht durch BUG am 23:11 am 25. März 2006
Zitat von DanielOC um 18:59 am März 25, 2006 so... hab jetzt mal die x1600pro mit 512 mb von asus getestet und muss sagen das ich echt entäuscht bin ! in verbindung mit nen oc sempron64 @ 2400MHz, 1GB RAM und dem K8NF4G SATAII hatten wir gerademal 3600P im 3d mark05 erreicht und das obwohl wir die karte auf 620x 640MHz übertaktet hatten. sorry aber für 112€ sollte man echt ein wenig mehr erwarten ! ich bezweifle stark das diese karte bis ,,Crysis" reichen wird ! haben ja jetzt schon so manche mit Oblivion zu kämpfen !
| ..hmm, vieleicht hat die 512MB Version von Asus DDR1 Speicher!? Also meine 256MB AGP Sapphire X1600 Pro @ 550/420 (840) macht in meinem BareBone mit P4 2000@2900 MHz ca. 4200 Punkte im 3DMark05. Edit: ..von der Asus sollte man dann wohl besser die Finger lassen, scheint ähnlich abgespeckt zu sein wie die Connect 3D. :( cu BUG (Geändert von BUG um 23:13 am März 25, 2006)
-- Veröffentlicht durch Karlchen P am 22:30 am 25. März 2006
Oh, dann sind die Preise also schon gesenkt ... Das ist mir garnicht aufgefallen, weil ich eh nur nen AGP Slot hab und alles wo PCIe steht ignorier :lol:
-- Veröffentlicht durch Kaffeeheld am 22:13 am 25. März 2006
JA sieht man doch in den Shops PCIe 256mb 1600pro ca, 110euro 1600XT ca. 150euro AGP 256mb 1600pro ca. 125euro :thumb:
-- Veröffentlicht durch DanielOC am 22:13 am 25. März 2006
Zitat von Garwain um 21:30 am März 25, 2006 Komisch, alle anderen berichten von 4000P ohne OC ... vielleicht hast du so stark übertaktet, dass da was durchgebrannt ist :noidea:
| naja ich glaube es liegt daran das die karte nur 540MHz VRAM hat (standart glaube 780-800MHz) ! ohne oc hatten wir nur 3300P im 05er. naja was will man erwarten ! man sollte nich vergessen das dies kein high end chip ist und deshalb isses auch zu verschmerzen ! Gruß DanielOC edit: es is übringens die (Geändert von DanielOC um 22:15 am März 25, 2006)
-- Veröffentlicht durch Karlchen P am 22:06 am 25. März 2006
DAS schon gesehen ?
-- Veröffentlicht durch Garwain am 21:30 am 25. März 2006
Komisch, alle anderen berichten von 4000P ohne OC ... vielleicht hast du so stark übertaktet, dass da was durchgebrannt ist :noidea:
-- Veröffentlicht durch DanielOC am 18:59 am 25. März 2006
so... hab jetzt mal die x1600pro mit 512 mb von asus getestet und muss sagen das ich echt entäuscht bin ! in verbindung mit nen oc sempron64 @ 2400MHz, 1GB RAM und dem K8NF4G SATAII hatten wir gerademal 3600P im 3d mark05 erreicht und das obwohl wir die karte auf 620x 640MHz übertaktet hatten. sorry aber für 112€ sollte man echt ein wenig mehr erwarten ! ich bezweifle stark das diese karte bis ,,Crysis" reichen wird ! haben ja jetzt schon so manche mit Oblivion zu kämpfen ! ich glaube man sollte doch ein paar euronen mehr ausgeben und sich wenigstens ne GF7600GT anschaffen (für die preiswerten zogger ;) ) Gruß DanielOC
-- Veröffentlicht durch spraadhans am 15:01 am 25. März 2006
hat hier jemand zufällig von einer 9800 (pro) auf eine x1600 pro agp aufgerüstet? wenn ja wie fällt denn der durchschnittliche leistungszuwachs aus? bis jetzt hat mein r350 gute dienste geleistet aber oblivion schafft er nicht mehr so recht;)
-- Veröffentlicht durch sklave gottes am 13:27 am 25. März 2006
Hallo zusammen, @BUG Ohh schade habe mir auch heute die palit für 77€ bestellt, dachte die hätte auch Temperatur Monitoring. @Breaker10 Sag mal kannst du ein paar Ergäbnisse mit deiner karte posten? Wollte die werte mal mit einer "nomalen" x1600pro vergleichen. In 1280x1024 ohne aa müste die palit normalerweise schneller sein als die 256MB karten oder ? Wenn meine kommt werde ich aufjedenfall berichten
-- Veröffentlicht durch BUG am 13:16 am 25. März 2006
..ja, leider hat die Palit und auch die Asus ein abgespecktes Platinen Layout ohne Lüftersteuerung, Temperatur Monitoring funzt auch nicht. :( Bei der MSI fehlt das auch, die ist aber dafür recht leise. ;) Habe vor ein paar Tagen noch eine AGP Sapphire X1600 Pro für mein BareBone bekommen, da funzt Lüftersteuerung und Temperaturauslesen. :thumb: cu BUG (Geändert von BUG um 13:17 am März 25, 2006)
-- Veröffentlicht durch DanielOC am 9:45 am 25. März 2006
jo , kumpel von mir hat die asus x1600pro 512 > das ding höhr ich bis auf die straße runter :lol:
-- Veröffentlicht durch Breaker10 am 5:29 am 25. März 2006
Habe mir die Palit mal zugelegt um mal zu testen wie die so ist, muss dazu sagen das die Karte für den Preis (ca 80 Euro) wirklich top ist, nur der Lüfter ist die reinste Turbine :lol:
-- Veröffentlicht durch DanielOC am 21:45 am 23. März 2006
KRASS :lol: @N omega G nicht lachen, das is ein profi ... :ultragoil: ne mal im ernst... hab ja schon vieles nettes gehöhrt aber das is echt KRASS !! da passt ja fast ganix zusammen !
-- Veröffentlicht durch N omega G am 21:27 am 23. März 2006
Zitat von tw3aker um 20:50 am März 23, 2006 Meine Meinung ist, und da werde ich nicht alleine sein, dass eine Nvidia nie eine chance gegen eine ATI hat, da man bei einer nvidia spielen ein größeres Bios draufziehen kann und nett mit den Taktraten testen kann ohne sich die karte zu versauen,... was bei nvidia nicht der fall ist, da ich in meinen sli sys 2 7800 GTX verbaut habe und es in ettlichen benchmarks gegen mein crossfiregespann 2 mal X1900XT laufen hab lassen, nvidia ihr nicht mal bei standart takt raten das wasser reichen konnte. ich hatte stäündig in älteren spielen bei der nvidia bildfeheler, aussetzter usw, obwohl ich noch keine übertaktungen vorgenommen hatte. bei meinem crossfire sys hatte ich auch feheler, die aber nur auf die fehlende unterstützung der richtigen treiber zurückzuführen ist und nicht von den graffikkarten selbst. desweiteren hatte ich trotzt einen fehlereichen test bei beiden systemen sehr nette ergebnisse.... wobei mein ati gespann mit 35 % mehr punkten abgeschlossen hat als mein SLI gespann, ...... Ich denke, dass du mit deiner grafikkarte einen guten Fang gemacht hast, da für diese preislage, kannst du ihr immer noch ein nettes XT bios schenken usw... habe sogar gelesen, dass es bei richtiger handhabung möglich sei ein bios einer pci express karte zu verwrenden,.... wovon ich aber abraten würde, da es doch immerhin eine andere bauart ist. aber da heutzutage gottseis gepriesen schon nette biosse für mainboards gibt von hellfire, mit welchen du auch die taktraten deiner grafikkarten beeinflussen kannst von dem grundsteinan, bin ich der meinung, dass du dich einmal in diese richtung invomieren solltest. aber an meisten holt man immer noch mit DFI boards raus, da sie nicht zerstörbar sind,... perfekte einstellmöglichkeiten besitzen usw.... ps sie sind nichts für anfänger oder hardware ungeübte bzw unerfahrene leute, da sie wirklich auf jeden winkel deiner hardware einstellbar sind. mfg by bastian R. bei fragen usw mailto: info@dome-clan.de
| ich sag nur: :lolaway: das posting gehört echt gelöscht.
-- Veröffentlicht durch tw3aker am 20:50 am 23. März 2006
Meine Meinung ist, und da werde ich nicht alleine sein, dass eine Nvidia nie eine chance gegen eine ATI hat, da man bei einer nvidia spielen ein größeres Bios draufziehen kann und nett mit den Taktraten testen kann ohne sich die karte zu versauen,... was bei nvidia nicht der fall ist, da ich in meinen sli sys 2 7800 GTX verbaut habe und es in ettlichen benchmarks gegen mein crossfiregespann 2 mal X1900XT laufen hab lassen, nvidia ihr nicht mal bei standart takt raten das wasser reichen konnte. ich hatte stäündig in älteren spielen bei der nvidia bildfeheler, aussetzter usw, obwohl ich noch keine übertaktungen vorgenommen hatte. bei meinem crossfire sys hatte ich auch feheler, die aber nur auf die fehlende unterstützung der richtigen treiber zurückzuführen ist und nicht von den graffikkarten selbst. desweiteren hatte ich trotzt einen fehlereichen test bei beiden systemen sehr nette ergebnisse.... wobei mein ati gespann mit 35 % mehr punkten abgeschlossen hat als mein SLI gespann, ...... Ich denke, dass du mit deiner grafikkarte einen guten Fang gemacht hast, da für diese preislage, kannst du ihr immer noch ein nettes XT bios schenken usw... habe sogar gelesen, dass es bei richtiger handhabung möglich sei ein bios einer pci express karte zu verwrenden,.... wovon ich aber abraten würde, da es doch immerhin eine andere bauart ist. aber da heutzutage gottseis gepriesen schon nette biosse für mainboards gibt von hellfire, mit welchen du auch die taktraten deiner grafikkarten beeinflussen kannst von dem grundsteinan, bin ich der meinung, dass du dich einmal in diese richtung invomieren solltest. aber an meisten holt man immer noch mit DFI boards raus, da sie nicht zerstörbar sind,... perfekte einstellmöglichkeiten besitzen usw.... ps sie sind nichts für anfänger oder hardware ungeübte bzw unerfahrene leute, da sie wirklich auf jeden winkel deiner hardware einstellbar sind. mfg by bastian R. bei fragen usw mailto: info@dome-clan.de
-- Veröffentlicht durch baumi88 am 18:15 am 23. März 2006
Hi Hat vielleciht der ein oder andere bereits Oblivion (oder plant es morgen zu kaufen...) und eine X1600Pro und kann dann ein bissl was zur Leistung der Karte sagen? (wie viele fps, welche Einstellungen, restliches System...) Wäre nett... Andi
-- Veröffentlicht durch Lucifer am 0:32 am 23. März 2006
wat kostet das teil? Aber ich denke ich warte eh erstmal ab wies mit aegaeis aussieht.
-- Veröffentlicht durch Kauernhoefer Speedy am 23:24 am 22. März 2006
Zitat von Kauernhoefer Speedy um 14:23 am März 4, 2006 Nachdem sich hier so viele ne X1600 pro zugelegt haben, dachte ich ich hol mir auch mal so ein Spielzeug. Es ist leider schon die zweite, weil die erste bereits nach 5 Tagen streikte :frown:. Es handelt sich um höher getaktete Connect3D X1600XT, einen Testbericht dazu gibts hier! Ich war von der kurzen Bauform überrascht (im Gegensatz zu meiner 7800GTX), ist richtig niedlich die kleine.:lol: Auf der Karte sind Speicherchips mit 1,4ns von Infineon verbaut. Das heißt es sollte ein Ramtakt von ca. 715/1430DDR mindestens drin sein. Originaltakt beträgt: Chip 587Mhz u. Speicher 693/1386 Mhz Getestet wurde @ Standart und oc mit Catalyst Control Center 6.2 Original Kühler, keine v.mod o. ähnliches. Testumgebung: @ Standart ASRock 939Dual-SATA2, 2x Samsung 1024MB UCCC, Opteron 146 2000Mhz bei 1,175V, X1600XT Chip 587Mhz u. Speicher 693/1386 Mhz 3DM06 = ~2200 Punkte 3DM05 = ~5240 Punkte 3DM03 = ~8960 Punkte 3DM01 = ~20450 Punkte AQM3 = ~54.000 Punkte Opteron 146 2700Mhz bei 1,32V, X1600XT Chip 650Mhz u. Speicher 760/1520 Mhz mehr gibt das CCC 6.2 leider nicht her. 3DM06 = ~2500 Punkte 3DM05 = ~5840 Punkte 3DM03 = ~10100 Punkte 3DM01 = ~24800 Punkte AQM3 = ~62.500 Punkte Die tatsächliche Spielperformace spiegelt sich keinesfalls in den Benches wieder. Sie liegt meiner Meinung nach höher. Positiv sind noch die kräftigen Farben und die brilliante Bildqualität zu erwähnen. Lüftergräusch ist eigentlich nur beim Sys.-boot kurz zu hören, da er mit voller Drehzahl startet. Die Karte ist durchaus eine Empfehlung wert. :thumb:
| @Lucifer Das sind die Benchs meiner X1600XT:thumb:
-- Veröffentlicht durch Lucifer am 22:30 am 21. März 2006
nagut dann werd ich wohl nicht umsteigen da ich schon 5000 hinbekomme ;/
-- Veröffentlicht durch Waldikult am 22:19 am 21. März 2006
mit 2,5 Ghz, 1GB corsair ramm, und der X 1600 Pro @ 700 / 418 hab ich -- 4690 -- 3dmark 2005 punkte
-- Veröffentlicht durch Lucifer am 22:00 am 21. März 2006
Hab ein PCIe Board ;-) Son ASRock... Meine Graka langweilt mich halt... ICH BRAUCH WAS NEUES >D Sollte halt aber schon nen wenigstens 25%igen Speedzuwachs bringen. Die 6800 hat zwar volle Pipes, dafür aber nur 700Mhz RAM-Takt und 400mhz GPU. Geht zwar auch auf 450 aber seid der Kühler rumspinnt hab ich lieber etwas dampf weggenommen :D Was unterscheidet denn die XT von der Pro und kann mal jemand n paar Benches von der X1600 (übertaktet) sagen? So ca mit nem 2,4-2,7 Ghz A64 :D
-- Veröffentlicht durch kammerjaeger am 20:51 am 21. März 2006
Kommt ganz auf Engine und Settings an. In manchen Situationen wird die X1600Pro schneller sein, teilweise aber auch langsamer. Mach Dir auf die 6800 einen neuen Lüfter drauf. Das sollte reichen, bis Du irgendwann ohnehin auf ein PCIe-Sys wechselst...
-- Veröffentlicht durch Lucifer am 19:04 am 21. März 2006
Was ist denn von einer X1600Pro mit 512 MB zu halten? RAM Takt 800Mhz und GPU 500. Hab derzeit eine 6800LE@16/5 mit 128MB die langsam anfängt rumzuspinnen. (Lüfter rattert beim Starten des PCs) Merk ich da einen Speedzuwach oder sollte ich lieber nochn Jahr warten? (Geändert von Lucifer um 19:05 am März 21, 2006) (Geändert von Lucifer um 19:06 am März 21, 2006)
-- Veröffentlicht durch BUG am 9:44 am 17. März 2006
Zitat von kammerjaeger um 9:13 am März 17, 2006 Beim Catalyst kannst Du Dir ATI-Tool dazu installieren, beim Omega-Treiber ist im ATI Tray Tool ein OC-Werkzeug dabei. ;)
| ..also imho funzt das OC Prog aus dem ATI Tray Tool noch nicht mit der X1600 und sollte besser deaktiviert bleiben. :) cu BUG
-- Veröffentlicht durch hanniball am 9:21 am 17. März 2006
Danke! :) das ist doch mal ne Antwort! Du meinst also, ich sollte ruhig mal schauen wie hoch der geht wenn ich auf "Find Max Core" klicke? Hört der dann irgendwann auf wenns zu heiss wird? Und beim Speicher...verfahre ich da genauso?
-- Veröffentlicht durch kammerjaeger am 9:13 am 17. März 2006
80 Grad ist für moderne Karten keine Seltenheit, viele Karten gehen mit dem Standard-Kühler bis über 90 Grad. Nvidia-Karten z.B. setzen die Schwelle für die Kernverlangsamung je nach Karte auf ca. 135 Grad. ;) Achte auf vernünftige Belüftung im Gehäuse, überprüf evtl. den Sitz des Kühlers, dann brauchst Du Dir keine Gedanken machen. Im Zweifelsfall mach einen besseren Kühler drauf. Beim Catalyst kannst Du Dir ATI-Tool dazu installieren, beim Omega-Treiber ist im ATI Tray Tool ein OC-Werkzeug dabei. ;)
-- Veröffentlicht durch hanniball am 9:05 am 17. März 2006
Sagt mal, ich habe mir auch so ne Sapphire X1600 Pro 512 AGP gekauft und will das teil übertakten. Im ATI Tool wird mir angezeigt, dass die GPU OHNE OC nach fünf minuten BF2 schon bei 80 Grad war...Ich finde das ganz schön heiss! Wenn ich im ATI Tool auf "Find Max Core" klicke geht das teil immer höher...bei über 600 mhz hab ich dann abgebroch weil die temp schon über 80 war....wie weit geht der denn da? oder mache ich was falsch? Will nicht, dass sich meine karte in rauch auflöst! Weiterhin die frage: ich habe mir vorgestern (kauf-tag) gleich den aktuellen Treiber von ati runtergeladen. wo kann man denn da übertakten?!? ich habe als letzten punkt "gpu recover" ...oder so. wo ist denn da der teil zum überkakten?!?! Wie heiss dürfen denn Core bzw. Speicher max. werden?!?! Bitte helft mir...ich habe keinen blassen schimmer ;) danke! im vorraus mfg hanniball
-- Veröffentlicht durch Waldikult am 20:10 am 16. März 2006
is schon i.o. aber ich mach es nur wegen dem spaß am basteln :ocinside:
-- Veröffentlicht durch Kauernhoefer Speedy am 19:11 am 16. März 2006
@Waldi Ich will dich ja nicht in deinem Tatendrang bremsen, aber: du hast jetzt die Vmem von 2,05 auf 2,42V erhöht das sind fette 18,05% mehr Spannung. Die daraus resultierende Erhöhung des Ram Taktes beträgt ganze 7 instabile Mhz mehr :lol: macht 1,67%, da lohnt der Aufwand/Nutzen meiner Meinung nach wirklich nicht.
-- Veröffentlicht durch Waldikult am 18:30 am 16. März 2006
Standart Vmem is 2,05 V ich habe in 0,05 V schritten mich vorgearbeitet und erziele eine geringe besserung... habe nun 2,42 V auf den ramms und komme von 418 DDR mit ati tool - nächster automatischer sprung - auf 425 DDR aber nicht stabil.... mit welchem tool kann man die Mhz von den ramms um 1 Mhz schritten erweitern?? mfg Waldi
-- Veröffentlicht durch Couchsurfer25 am 11:22 am 15. März 2006
Wer noch was zur Lesitungsfähigkeit der X1600 Pro wissen möchte, den möchte ich auf meine Benchmark X1600 Pro vs. 6800GS in fast gleich benanntem Thread hinweisen. Erstaunliches Ergebniss :punk:
-- Veröffentlicht durch Waldikult am 21:22 am 14. März 2006
:thumb: Supi, werd ich dann morgen umsetzen! son 10Kohm spindeltrimmer hab ich nun :)
-- Veröffentlicht durch BUG am 19:54 am 14. März 2006
*g* ..muß ich wirklich? :biglol: ..nagut, aber wie gesagt, bringt nix oder fast nix! Genaue widerstandswerte bzgl der Spannung habe ich aber gerade nicht im Kopf, ein 10kOhm SpindelTrimmer + 1kOhm Vorwiderstand (in Reihe) reicht aber. Einfach schön langsam runter drehen und dabei auf das Multimeter schaun. :thumb: cu BUG
-- Veröffentlicht durch Waldikult am 19:34 am 14. März 2006
@ Bug! mach doch bitte ein pic vom DDR mod auch wenn ich nur 425 Mhz stabil laufen kann, dann is es immerhin besser als 412 !!
-- Veröffentlicht durch Kaffeeheld am 14:31 am 14. März 2006
@patrik meistens ja u manchmal nicht :blubb:
-- Veröffentlicht durch Patrik am 13:54 am 14. März 2006
nur noch was zum asrock habe 2 mdt 512MB 3200er Cl 2,5 Ramriegel. MDT Speicher ist wirklich sehr gut, hatte früher auch schon MDT, nie Probleme. Sollte doch auf ASrock stable laufen!:noidea:
-- Veröffentlicht durch Waldikult am 18:04 am 13. März 2006
*lol* Siehe Sig :punk:
-- Veröffentlicht durch Blade1972 am 0:13 am 13. März 2006
Zitat von kammerjaeger um 23:44 am März 12, 2006 Ich hab auf dem Board schon reichlich VT verbaut und keine Probs gehabt. Sicher, daß das nicht an irgendetwas anderem lag?
| Nope, Samsung drauf und das Teil lief Mem@200 stable ... die VT sind nur @166Mhz gelaufen. Bei 200 hat ich sporadische Bluescreens bzw merkwürdige Fehler angefangen bei Fehlerberichterstattung bei Mozila oder I-Ner Explore etc. Bei Tomalla das selbe mit "normalem" Speichertakt vom Ram hat er alle Naselang freezes gehabt. Es scheint generell bei Asrock so zu sein das die Teile etwas Speicherzickig sind und bei NTs auch wählerischer als andere Boards ... aber ich denke das sollte wir in dem Topic net weiter "auswalzen" geht ja um 1600er Grakas ... die mich auch sehr interessieren :biglol: Brauch aber eine für AGP bzw en Barbone ;)
-- Veröffentlicht durch kammerjaeger am 23:44 am 12. März 2006
Ich hab auf dem Board schon reichlich VT verbaut und keine Probs gehabt. Sicher, daß das nicht an irgendetwas anderem lag?
-- Veröffentlicht durch Falcon am 23:43 am 12. März 2006
Zitat von kammerjaeger um 23:25 am März 12, 2006
Zitat von Falcon um 23:21 am März 12, 2006 der letzte sch**** is das, typischer asrock müll!
| :blubb: Komisch, daß das Board inzwischen schon Kultstatus hat und auch hier im Forum viele Freunde gefunden hat...
| habs 3 mal verbaut nach 2 wochen NUR probleme...
-- Veröffentlicht durch Blade1972 am 23:40 am 12. März 2006
Zitat von kammerjaeger um 23:25 am März 12, 2006
Zitat von Falcon um 23:21 am März 12, 2006 der letzte sch**** is das, typischer asrock müll!
| :blubb: Komisch, daß das Board inzwischen schon Kultstatus hat und auch hier im Forum viele Freunde gefunden hat...
| Es is kein schlechtes Board, gerade für den doch sehr günstigen Preis. Allerdings ist es wohl recht zickig beim Speicher ... auch wenn der Controller in der CPU ist, haben Boards doch einen gewissen Einfluß und der ist bei dem Board eher als "ungünstig" zu bezeichnen. VT Rams laufen damit nicht stabil und Tomalla hatte auch mit seinen MDT massive Schwierigkeiten ... ;)
-- Veröffentlicht durch kammerjaeger am 23:25 am 12. März 2006
Zitat von Falcon um 23:21 am März 12, 2006 der letzte sch**** is das, typischer asrock müll!
| :blubb: Komisch, daß das Board inzwischen schon Kultstatus hat und auch hier im Forum viele Freunde gefunden hat...
-- Veröffentlicht durch Falcon am 23:21 am 12. März 2006
der letzte sch**** is das, typischer asrock müll!
-- Veröffentlicht durch kammerjaeger am 23:02 am 12. März 2006
Ja, denke schon, solange sie nicht gerade auf der Cebit vorgestellt wurde und man sie in den Shop eingepflegt hat, bevor der Hersteller sie offiziell launcht... @ Patrick Du meinst das 939DUAL-SATA2. Das Board ist nicht schlecht. Wenn Du wirklich auf S.939 umsteigen willst und kein Extrem-OC betreibst, dann wäre das eine echte Alternative.
-- Veröffentlicht durch baumi88 am 19:50 am 12. März 2006
Hi Hab grade folgendes gefunden X1600XT AGP:noidea: Auf der Homepage von Club3D hab ich nix über eine solche AGP Karte gefunden. Wird sich wohl um nen Fehler handeln oder??? Andi
-- Veröffentlicht durch Patrik am 18:38 am 12. März 2006
@alice ich frage mich auch, ob das klebepad auf der sapphire abgemacht werden kann, das alice 1 seite vorher erwähnt hat !? @kammerjaeger die X800 Karte von dir von 109 Euro find ich einfach unglaublich günstisch! schade nur dass ich kein pci-e hab und mir gerade die X1600Pro geholt habe. Allg. Frage: Es gibt doch boards von ASRock, die haben PCI-e und einen "echten" AGP Port für Sockel939, irgendwie mit "ULI" Chipsatz !? Dachte, dieses Board mit Athlon64 holen und erstmal die Sapphire X1600Pro weiterverwenden, und später dann auf PCI-e-Karte umsteigen. Meinst das ist gut? :ocinside:
-- Veröffentlicht durch alice am 8:34 am 11. März 2006
so nun läuft sie mit 610 core und 423 mem problemlos... gutes teil! :thumb: nur bin ich von ati einwenig bezgl. der treiber geschichte enttäuscht, bei nvidia ist das ganze eleganter gelöst... naja trotzdem, für ca.140eur sehr gut... alice :thumb:
-- Veröffentlicht durch kammerjaeger am 2:31 am 11. März 2006
So, wie es in der Bestell-Info aussieht, hab ich zumindest noch 3 Karten davon bekommen. Für den Preis nicht schlecht (auch wenn ich gerne mehr genommen hätte...). Dürfte im 3DMark05 ca. 4.800 Punkte ohne OC schaffen und etwa 10.500 im 03er. :godlike: @ BUG Ich kann dann ja mal berichten, wie weit sie wirklich kommt. Schließlich ist eine "normale" X800Pro immerhin schon mit 900MHz beim Speicher getaktet, während die X800 nur 700MHz als Spezifikation angibt....
-- Veröffentlicht durch BUG am 14:51 am 10. März 2006
..jo nicht lieferbar, aber R430 :ohwell: .. naja aber für den Preiß ist es ok. ;) ..beim Speichertakt sollten wohl alle X800 Karten mit GDDR3 Spicher in diese Regionen kommen. Also meine X800 Pro geht mit ihren 2NS Steinchen Problemlos auf knapp 550 MHz (also 1100). :) cu BUG
-- Veröffentlicht durch kammerjaeger am 14:39 am 10. März 2006
Ich hab übrigens noch ein kleines Schnäppchen gefunden, was eine prima Alternative zur X1600Pro PCIe darstellt, sofern man auf SM3.0/HDR und Avivo verzichten kann: klick Mit Silencer, 12/6 Pipes und einem Speichertakt, der ggü. der normalen X800 um 30% höher liegt und sogar viele X800 GTO übertrifft, dürfte dies die mit Abstand schnellste Karte um die 100,- sein. :godlike: Kaufen, Marsch, Marsch.... :lol: P.S.: Soeben wurde der Lieferstatus auf rot gesetzt. Schade... (Geändert von kammerjaeger um 14:41 am März 10, 2006)
-- Veröffentlicht durch BUG am 12:11 am 10. März 2006
..aha interessant 2.5NS Hynix. Naja die Hynix Teile gehen dann wohl besser zu übertakten. :) Der Chip auf der Rückseite ist der BridgeChip der die AGP Signale in PCIe Signale umwandelt, das Pad ist nur zum Schutz der SMD Bauteile. :) cu BUG
-- Veröffentlicht durch alice am 8:31 am 10. März 2006
hi, die fotos (sapphire x1600pro , agp): 1.ram (rückseite) es müssten 2.5ns chips sein? 2. agp -> pci umstetzer frage: dieses pad was da drauf klebt, behindert doch die wärmeabstrahlung des chips... ich denke sie dient dem schutz der smd chips darunter... kann das teil ab? alice
-- Veröffentlicht durch LeGoer am 22:13 am 9. März 2006
Hi! Bin auch stolzer Besitzer dieser Grafikkarte. War anfangs auch recht skeptisch, doch das Risiko hat sich 100% gelohnt! Komme mit 590Mhz/460Mhz OC auf 4760 Punkte in 3DMark05 - Wahnsinn! Karte geht ohne Fehler bis auf 630/470 - schade dass der Speicher limitiert. Wenn ich das aber hier so lese, ist mein Speicher super zu takten, oder!? ;-):punk::thumb: Zocke alle Spiele auf höchsten Auflösungen, teilweise mit AA und AF! Bye bye 6600GT! Ach ja, habe den Originallüfter gleich runter und einen Revoltec Graphic Freezer drauf! Temperatur unter Volllast nie höher als 50°C! (Geändert von LeGoer um 22:17 am März 9, 2006)
-- Veröffentlicht durch Kaffeeheld am 18:41 am 9. März 2006
bin total zufrieden mit der 1600pro ich überlege ob ich die nicht bei meinen beiden SoA Semp sys einbaue und die beiden 256MB 9600pro verkaufen tuh:noidea:
-- Veröffentlicht durch alice am 18:30 am 9. März 2006
hi, habe mir heute eine sapphire x1600pro ( 256mbyte, AGP ) geholt :punk:, ich werde mal flux ein paar bilder von ihr machen und hier rein stellen... mit dem atitool komme ich aud 423 mhz (mem) und 580 mhz (core) beim mem ist das das limit, beim core geht es noch höher, dann wird die karte heiss und der lüfter wird mir zu laut... alice
-- Veröffentlicht durch BUG am 18:21 am 9. März 2006
..die hat auf jeden Fall DDR2 und wie auf den meisten Karten wird der wohl von Infineon sein mit 2.5NS. :) cu BUG
-- Veröffentlicht durch baumi88 am 18:17 am 9. März 2006
Hi hier steht, dass die Karte GDDR3 Speicher hat. http://www.sapphiretech.com/de/products/graphics_specifications.php?gpid=133 Und vor ein paar Tagen stand bei Alternate auch noch GDDR3, jetzt steht DDR2 da:noidea: Andi
-- Veröffentlicht durch BUG am 17:59 am 9. März 2006
..die AGP X1600 von Sapphire hat auch DDR2 Speicher und gibt es in einer 256 und 512MB Konfiguration! http://www.geizhals.at/deutschland/?fs=Sapphire+x1600+AGP DDR3 Speicher gibt es erst auf der X1600XT oder eben auf der X1600 Pro von Palit mit 128MB. cu BUG
-- Veröffentlicht durch baumi88 am 17:53 am 9. März 2006
Zitat von BUG um 20:27 am März 8, 2006 @ baumi88 ..ich denke es liegt zum Teil an den Speichertimings, mir ist bis auf die X1600 Pro von Palit keine X1600 Pro Karte mit GDDR3 bekannt. Vermutlich hat die MSI recht straffe Timings, es gibt aber derzeit noch keinen funzenden Bios Editor mit dem man die Timings ändern könnte. Die Palit X1600 Pro mit GDDR3 Speicher hat aber nur 128MB VRam.
| Also die AGP karten von Sapphier haben GDDR3 Speicher(oder meintest du nur PCI-E Karten???) Kann man denn davon ausgehen, dass sich die Karten mit GDDR3 Speicher besser übertakten lassen? Klingt für mich als Neuling irgendwie nachvollziehbar(und da ich noch ne AGP Karte brauch würds mich auch ned stören;) ) Was für Timings haben denn die verschiedenen Karten? (besonders die 2 AGP Karten von Sapphire hier würden mich interessieren;) ) Andi (Geändert von baumi88 um 17:53 am März 9, 2006)
-- Veröffentlicht durch Hiemel am 15:00 am 9. März 2006
habe jetzt 3747 im 05er ohne OC, also 100 Punkte mehr und ca. so viel wie vorher, als ich leicht Übertaktet habe. :thumb:
-- Veröffentlicht durch Hiemel am 14:26 am 9. März 2006
@kammerjaeger: Stimmt , ist ein AMD Athlon XP 2,4+ .... :thumb: bin auch gerade den 6.3er am laden, mal sehn was es bringt.
-- Veröffentlicht durch Beschleunigen am 11:35 am 9. März 2006
fantastisch :punk: OC ruult :punk: (..) mfg tobi
-- Veröffentlicht durch Patrik am 10:22 am 9. März 2006
habe einen AthlonXP 2800+ (333 FSB und 2,08GHZ), und Sapphire x1600Pro 256 MB, wirklich nix übertaktet , um 3DMark 2005 rund 4000 Punkte ! Habs schonmal in einem Beitrag geschrieben:punk:
-- Veröffentlicht durch alice am 8:43 am 9. März 2006
läuft diese ati tool auch mit windows x64? gibt es diese omega treiber auch für win x64? alice
-- Veröffentlicht durch BUG am 23:53 am 8. März 2006
..als mit dem heute erschienenen Catalyst 6.3 sollten es im 05er noch ein paar Pünktchen mehr sein. ;) https://support.ati.com/ics/support..questionID=640 cu BUG (Geändert von BUG um 23:56 am März 8, 2006)
-- Veröffentlicht durch kammerjaeger am 23:42 am 8. März 2006
Zitat von Hiemel um 22:58 am März 8, 2006 H x1600pro agp mit catalyst 6.2 2,4+ amd 64 ( rl 2,0 ) 1gb infineon Asus A7V8X
| Das ist dann aber kein AMD 64, sondern ein SockelA-System, was also bis auf den Chipsatz sogar eher dem von Kaffeeheld ähnelt. Da der VIA etwas langsamer ist als der Nforce2, gehen die Werte i.O. und können natürlich nicht an S.754/939-Werte ranreichen. Mit meinem aktuellen PC1 hab ich übrigens mit den letzten Omega-Treibern und ohne GraKa-OC schon >4.150 Punkte.... ;)
-- Veröffentlicht durch Kaffeeheld am 23:21 am 8. März 2006
naja kommt aufs sys an also mit dein sys müsstes idR so bei 3700-3800 punkte liegen ohne ocen :thumb: kammerjäger hat mit son ähnlichen sys ca. 3800Punkte ich habs mit folgen den sys auf ca. 3850 ohne ocen gebracht AMD 2400XP 2ghz SoA Sapphire 1600pro 2xDDR333 Gigabyte NF2 Mobo IDE 40GB Festplatte :punk:
-- Veröffentlicht durch Hiemel am 22:58 am 8. März 2006
Hallo zusammen, verfolge dieses Thema schon en bissel länger und hab auch mal versucht mit ATI-Tool mehr raus zu holen. Bin allerdings nicht sehr hoch gegangen, da als schüler in der 10. noch nicht sehr viel Budget für das teure Zeug da is ;-): Verwendet habe ich: x1600pro agp mit catalyst 6.2 2,4+ amd 64 ( rl 2,0 ) 1gb infineon Asus A7V8X Standart: 499,5/405 3dMarkt05: ca 3650 OC: 560/418 3dMarkt05: ca 3750 ... irgendwie finde ich, das ist zu wenig, kann aber auch an meinem restlichen System liegen. Windows wurde auch erst neu aufgesetzt. Sobald ich versuche den Speicher von höher zu Takten treten Fehler auf. was haltet ihr denn davon?:lol::lol::lol::lol::lol::lol: (Geändert von Hiemel um 23:06 am März 8, 2006)
-- Veröffentlicht durch BUG am 21:36 am 8. März 2006
..einmal laden und Takt einstellen, dann kann das Prog wieder beendet werden (bis zun nächsten Reboot). ..es gibt andere Möglichkeiten, z. B. etwas eingeschränkt im Catalyst Control Center (es sei denn man deinstalliert dieses). Eine Bios-seitige Übertaktung ist theoretisch auch möglich, allerdings gibt es noch kein passenden (funktionierenden) Editor. cu BUG
-- Veröffentlicht durch alice am 21:31 am 8. März 2006
@alice ..das ATI-Tool muß bei jedem Windows Start geladen werden damit die gespeicherten Taktraten wider geladen werden können. Es sei denn du übertaktest über das Control Center, da kann man einstellen das er den Takt beim nächsten Start übernehmen soll. Ist aber letztendlich ähnlich wie mit dem ATI-Tool da das Catalyst Control Center auch bei jedem Windows start geladen wird.
| geladen werden und GELADEN BLEIBEN...? oder kann es nach dem aktivieren wieder beendet werden? gibt es auch andere mögl. die karte zu übertackten? ohne ein programm laufen zu lassen?
-- Veröffentlicht durch BUG am 20:27 am 8. März 2006
@ baumi88 ..ich denke es liegt zum Teil an den Speichertimings, mir ist bis auf die X1600 Pro von Palit keine X1600 Pro Karte mit GDDR3 bekannt. Vermutlich hat die MSI recht straffe Timings, es gibt aber derzeit noch keinen funzenden Bios Editor mit dem man die Timings ändern könnte. Die Palit X1600 Pro mit GDDR3 Speicher hat aber nur 128MB VRam. @alice ..das ATI-Tool muß bei jedem Windows Start geladen werden damit die gespeicherten Taktraten wider geladen werden können. Es sei denn du übertaktest über das Control Center, da kann man einstellen das er den Takt beim nächsten Start übernehmen soll. Ist aber letztendlich ähnlich wie mit dem ATI-Tool da das Catalyst Control Center auch bei jedem Windows start geladen wird. @Waldikult ..mal sehen, aber eigentlich bringt der nix. Die im XS Forum haben auch Probleme mit dem Infineon Speicher, der will irgendwie nich höher. :ohwell: cu BUG
-- Veröffentlicht durch alice am 18:42 am 8. März 2006
hmm, bin ati neuling, deshalb ne *doofe* frage: zum übertakten der x1600pro nutzen die meisten hier das atitool... also einmal den takt von speicher+gpu hochstellen dann speichern. das wars? oder? also muss das ati tool immer mitlaufen laufen um die karte höher zu takten oder ist das nur eine einmalige sache, die im der reg. abgelegt wird um beim nächsten winstart wieder aktiv wird ? alice
-- Veröffentlicht durch Waldikult am 21:47 am 6. März 2006
kannst du evtl. trotzdem den Vdd mod hier reinposten? würd ihn bei mir auch versuchen :thumb:
-- Veröffentlicht durch Waldikult am 21:44 am 6. März 2006
hmm... dan reichen vorerstmal 700 GPU und 418 DDR :godlike: das geht auch gut ab :) ------------------------ Die Karte entwickelt ganz schön viel Wärme ;) Lüfter läuft auf 12 V :-/ (Geändert von Waldikult um 21:45 am März 6, 2006)
-- Veröffentlicht durch BUG am 20:58 am 6. März 2006
..nein, ich habe leider derzeit keine Ahnung wo und wie ich den machen soll. Ich werd wohl mal noch etwas warten müssen bis ggf andere vMods für ähnliche Karten erscheinen. Ich habe mir die meisten Bauteile (PDFs) auf der Karte schon angeschaut, aber nix passendes gefunden. :ohwell: cu BUG
-- Veröffentlicht durch Waldikult am 20:48 am 6. März 2006
@ Bug, hast du schon ihrgentwelche erfolge mit Vdd - VDDQ ??:noidea:
-- Veröffentlicht durch baumi88 am 13:26 am 6. März 2006
Hi Nachdem ich mir über die sehr unterschiedlichen Übertaktungserfolge beim Speicher gewundert hab hab ich mich mal bei alternate in den beschreibungen umgeschaut und mir is folgendes aufgefallen: Die PCI-E Karte von z.B. MSI hat DDR2 Speicher und geht anscheinend kaum über 420 Speichertakt Die AGP Karte von Sapphire, die jemand auf ich glaube 460 speichertakt oder so gekriegt hat, hat GDDR3 Speicher Da liegt doch irgendwie der Verdacht nahe, dass die doch sehr unterscheidlichen Übertaktungserfolge mit dem Speicher bzw. AGP oder PCI-E zusammen hängen ;) Ich würde mich sehr freuen, wenn alle bei ihren Übertaktungs Ergebnissen noch angeben könnten ob es sich um eine PCI-E oder AGP Karte handelt... Nachdem der Thread recht lang ist könnten ihr ja eure Ergebnisse nochmal posten und dazu schreiben ob die Karte mit DDR2 oder GDDR3 Speicher ist. Dann muss man sich nicht nochmal durch den ganzen Thread lesen... Baumi :ocinside:
-- Veröffentlicht durch alice am 11:27 am 6. März 2006
woran erkennst du das, das sie gelockt ist?
-- Veröffentlicht durch AMDKILLER am 17:50 am 5. März 2006
Kannst aber auch Pech haben un die is wie meine Sapphire Radeon X1600 Pro 256MB gelockt ;)
-- Veröffentlicht durch Mome am 17:38 am 5. März 2006
naja du hast auch ne XT, da ghet der Speicher noch was höher. Ansonsten kann man wohl sagen, dass 600Mz Coretakt realistisch sein sollten. (zeigt auch der aktuelle CT Test). Beim Ram sollten dann knapp über 400 MHZ drin sein, also nich allzuviel. Da die 6600GT idr schneller war als ne 6800XT/LE, welche aber wiederum langsamer ist als ne X1600Pro, kann man sagen, das die X1600 die bessere Wahl ist, vor allem, weil sie auch mehr Speicher besitzt. Lediglich wenn sich die 6800XT freischalten ließe, wäre sie entweder genausoschnell oder etwas schneller wie die X1600Pro. Ich würd die X1600 nehmen, auch weil sie weniger Strom verbrät:thumb:
-- Veröffentlicht durch Kauernhoefer Speedy am 15:57 am 5. März 2006
Zum jetzigen Stand der Dinge würde ich dir ganz klar die X1600 empfehlen. Oc geht meine geht problemlos auf Anschlag Catlyst Control Center 6.2 Chip 587-->650Mhz Speicher 693/1386 -->760/1520 Kein Lock, da ist bestimmt noch nicht Ende, nur die Einstellung im CCC lässt keine höheren Taktraten zu. (Geändert von Kauernhoefer Speedy um 15:57 am März 5, 2006)
-- Veröffentlicht durch alice am 15:46 am 5. März 2006
hi all, habe mit grossem intr. diesen beitrag gelesen... wollte mit eine dieser beiden grakas zulegen: Leadtek WinFast A6800XT-TDH128 (AGP) Grafikchipsatz: GeForce 6800 XT Speichergröße: 128 MB / Speichertyp: DDR / Speicherinterface: 256 Bit / Chiptakt: 325 MHz / Speichertakt: 700 MHz / Pixel-Pipelines: 8 / Vertex-Shader: 4 / Shader Modell 3.0 oder die: Sapphire Radeon X1600 Pro 256MB (AGP) Grafikchipsatz: ATI Radeon X1600 Pro Speichergröße: 256 MB / Speichertyp: DDR2 / Speicherinterface: 128 Bit / Chiptakt: 500 MHz / Speichertakt: 780 MHz / Pixel-Pipelines: 12 / Vertex-Shader: 5 / Shader Modell 3.0 aber werde jetzt wohl die sapphire holen! :thumb: oder spricht etwas dagegen? bei der nvidia spricht nur das 256bit speicherint. für sie... hat einer einen vergl. test dieser beiden gpu's zur hand? beide karten kosten so um die 130-140 eur... die eine halt mit 128mbyte (nvidia) die andere mit 256mbyte (ati) wie weit kann man dieses modell (sapphire ) denn nun OC? (ohne volt mod)? sind diese modelle irgendwie gelockt? alice ;)
-- Veröffentlicht durch Kaffeeheld am 20:51 am 4. März 2006
GENAU ;) auf SoA basis ein 2ghz prozi u 1GB ram kann man eigentlich jedes Spiel mit der Graka flüssig zocken sowie S754 u 1GB ram, also wer AGP u noch eine alte Graka hat der kann sich die X1600pro bedenkenlos holen:thumb: entweder die oder für ungefähr das doppelte an Geld die 7800GS alles was dazwischen liegt wäre unsinn, wie z.b X800GTO u dann flashen oder 6800GS etc.
-- Veröffentlicht durch kammerjaeger am 18:03 am 4. März 2006
Zitat von blaueslicht um 17:41 am März 4, 2006 ---> Sockel 754, Sempron 64, X1600pro :godlike: Auch wenn viele diese Kombi als zu leistungsschwach kritisieren, sie ist vom P/L- Verhältnis her unschlagbar und reicht vollkommen aus!!!
| Richtig! :thumb: Wer etwas Anderes behauptet, ist entweder blind vor lauter Zahlengeplänkel, Tests und Werbeaussagen oder ein absoluter Hardware-Junkie...
-- Veröffentlicht durch blaueslicht am 17:41 am 4. März 2006
Zitat von Kauernhoefer Speedy um 14:23 am März 4, 2006 Die tatsächliche Spielperformace spiegelt sich keinesfalls in den Benches wieder. Sie liegt meiner Meinung nach höher.
| Das kann ich auch nur bestätigen. Gerade COD2, womit ich euch hier so genervt habe, läuft einwandfrei. Ich bin total begeistert. Das Spiel läuft so flüssig ---> wow :thumb: Seltsamerweise ruckelt HL² bei mir ein wenig, egal in welcher Auflösung. Es scheinen Laderuckeler zu sein, die nix mit der Grafikkarte zu tun haben. Das tolle ist ja auch, dass ich momentan nix übertaktet habe und daher noch für die Zukunft einge Reserven habe. :lol: ---> Sockel 754, Sempron 64, X1600pro :godlike: Auch wenn viele diese Kombi als zu leistungsschwach kritisieren, sie ist vom P/L- Verhältnis her unschlagbar und reicht vollkommen aus!!! (Geändert von blaueslicht um 17:42 am März 4, 2006)
-- Veröffentlicht durch Waldikult am 14:50 am 4. März 2006
nun zu meinen Benches... 3Dmark05 hab ich 4650 punkte @ Venice 2,3 Ghz und ramms auf 200 Mhz Fsb (real) also 133ger teiler... (mit 2,6 Ghz probier ichs später mal..) bin auch der meinung, dass die Benches schlechter ausfallen, aber dafür die Spiele Performance umso besser is :thumb: ---------------------------- @BUG - Hast schon ne ahnung, wie man den Vddmod verbessern kann?? denn 412 Mhz auf den ramms is nich so berauschend (Geändert von Waldikult um 14:52 am März 4, 2006)
-- Veröffentlicht durch kammerjaeger am 14:39 am 4. März 2006
Zitat von Kauernhoefer Speedy um 14:23 am März 4, 2006 Die tatsächliche Spielperformace spiegelt sich keinesfalls in den Benches wieder. Sie liegt meiner Meinung nach höher.
| Genau die Erfahrung hab ich eben auch gemacht und daher schon mehrfach darauf hingewiesen. :thumb: Deshalb interessiert es mich wenig, daß z.B. der Konkurrent 6600GT im Aquamark und 3DMark03 höher liegt, denn in der realen Spieleperformance kann sie nicht einmal der X1600Pro das Wasser reichen. ;)
-- Veröffentlicht durch Kauernhoefer Speedy am 14:23 am 4. März 2006
Nachdem sich hier so viele ne X1600 pro zugelegt haben, dachte ich ich hol mir auch mal so ein Spielzeug. Es ist leider schon die zweite, weil die erste bereits nach 5 Tagen streikte :frown:. Es handelt sich um höher getaktete Connect3D X1600XT, einen Testbericht dazu gibts hier! Ich war von der kurzen Bauform überrascht (im Gegensatz zu meiner 7800GTX), ist richtig niedlich die kleine.:lol: Auf der Karte sind Speicherchips mit 1,4ns von Infineon verbaut. Das heißt es sollte ein Ramtakt von ca. 715/1430DDR mindestens drin sein. Originaltakt beträgt: Chip 587Mhz u. Speicher 693/1386 Mhz Getestet wurde @ Standart und oc mit Catalyst Control Center 6.2 Original Kühler, keine v.mod o. ähnliches. Testumgebung: @ Standart ASRock 939Dual-SATA2, 2x Samsung 1024MB UCCC, Opteron 146 2000Mhz bei 1,175V, X1600XT Chip 587Mhz u. Speicher 693/1386 Mhz 3DM06 = ~2200 Punkte 3DM05 = ~5240 Punkte 3DM03 = ~8960 Punkte 3DM01 = ~20450 Punkte AQM3 = ~54.000 Punkte Opteron 146 2700Mhz bei 1,32V, X1600XT Chip 650Mhz u. Speicher 760/1520 Mhz mehr gibt das CCC 6.2 leider nicht her. 3DM06 = ~2500 Punkte 3DM05 = ~5840 Punkte 3DM03 = ~10100 Punkte 3DM01 = ~24800 Punkte AQM3 = ~62.500 Punkte Die tatsächliche Spielperformace spiegelt sich keinesfalls in den Benches wieder. Sie liegt meiner Meinung nach höher. Positiv sind noch die kräftigen Farben und die brilliante Bildqualität zu erwähnen. Lüftergräusch ist eigentlich nur beim Sys.-boot kurz zu hören, da er mit voller Drehzahl startet. Die Karte ist durchaus eine Empfehlung wert. :thumb:
-- Veröffentlicht durch Mome am 12:03 am 4. März 2006
hätte gedacht, das die noch was schneller wird. Da scheintg der Ram dann doch recht stark zu limitieren. Denn ne XT schafft ja bei 590/690 über 5000Punkte im 05er. Daher dachte ich, weil vor allem die X1800er Serie stark mit dem Coretakt skaliert, müsste die jetzt mit 700/430 ziemlich genausoschnell wie ne XT sein. Gib mal mehr Spannung ;)
-- Veröffentlicht durch BUG am 11:23 am 4. März 2006
..also bei mir sieht es in etwa so aus mit 700 MHz Chiptakt. 3DM06 = ~2100 Punkte | CPU = ~1100 3DM05 = ~4650 Punkte 3DM03 = ~8200 Punkte 3DM01 = ~20500 Punkte AQM3 = ~60.000 Punkte System: Celeron M 350 @ 2600 MHz Asus P4GPL-X @ 200 FSB MSI X1600 Pro 256MB @ 700/430 cu BUG
-- Veröffentlicht durch Mome am 9:50 am 4. März 2006
was sagen die Benches eig. nun bei über 700 MHz Takt? der 3DMurks05 müsste doch jetzt schon über 5000bringen oder?
-- Veröffentlicht durch Waldikult am 0:56 am 4. März 2006
Mod is nun Amgelötet! Hab 1,47 V an der GPU anliegen! mal sehen, was das so bringt... ---------------------------------------------------- GPU hab ich 702 Mhz u. DDR 412 Mhz .... werde morgen nen Höheren Takt der GPU Testen! nun is Zeit fürs Bettchen, cui (Geändert von Waldikult um 1:30 am März 4, 2006)
-- Veröffentlicht durch BUG am 23:53 am 3. März 2006
..na da werde ich mir wohl auch mal die Feile schnappen. :lol: :thumb: cu BUG
-- Veröffentlicht durch Waldikult am 23:43 am 3. März 2006
ja, den Bügel hab ich auch draufgemacht! nich dass es die platine beim festschreuben verbiegt ;) mir is es egal, so siehts auch gut aus :thumb: und schön leise is er auch noch! :godlike: ----------- achja, den Bügel hab ich vom Kühler runter geschraubt, dann kann man besser feilen :ocinside: (Geändert von Waldikult um 23:45 am März 3, 2006) (Geändert von Waldikult um 23:59 am März 3, 2006)
-- Veröffentlicht durch BUG am 23:39 am 3. März 2006
..jo, hast du das mit dem Bügel für die Rückseite auch gemacht? ..aber ich hätte den Zalman 90° gedreht draufgemacht, sieht dann imho besser aus. ;) cu BUG
-- Veröffentlicht durch Waldikult am 23:34 am 3. März 2006
Sooo, nun is der Zalman VF700 drauf ;) hier sind ein paar pics :) die Löcher hab ich mit einer kleinen Rundfeile am schraubstock etwas aufgefeilt! die unteren lamellen stoßen bei mir nirgens an. man könnte Sie auch etwas näher zum kühler biegen.... nun bräuchte ich nen passenden poti oder Wiederstand :rollsmile: (Geändert von Waldikult um 23:36 am März 3, 2006)
-- Veröffentlicht durch BUG am 21:49 am 3. März 2006
Zitat von Waldikult um 21:33 am März 3, 2006 hast versucht dir neue Löcher zu bohren oder aufzufeilen :noidea:... müsste dan passen
| ..die Idee hatte ich auch schon, ich habe das aber noch nicht in Angriff genommen. cu BUG
-- Veröffentlicht durch Waldikult am 21:33 am 3. März 2006
hmm... habs extra vom Verkäufer nachsehen lassen! Laut der Compatibility List, muss er drauf passen! .. wenn nich, bekommt der denn wieder :kick: ------------ sieht so aus, als er nicht passen würde.. hast versucht dir neue Löcher zu bohren oder aufzufeilen :noidea:... müsste dan passen :thumb: ich gug mal (Geändert von Waldikult um 21:36 am März 3, 2006)
-- Veröffentlicht durch BUG am 21:31 am 3. März 2006
..also mein VF700 ALCU passt nicht auf die Karte (falsche Lochabstände). cu BUG
-- Veröffentlicht durch Waldikult am 21:25 am 3. März 2006
bin grad am Wiederstände messen ^^ mol sehen, was es bei mir bringt ;) Hab mir gerade noch nen ZALMAN VF 700 ALCU gekauft :punk: bin schon gespannt :buck:
-- Veröffentlicht durch BUG am 20:04 am 3. März 2006
..so hier mal nen Bild von meiner vmoddet X1600 Pro von MSI. :thumb: ..der dritte Poti hat nix zu sagen, ist nur ein überbleibsel einer alten Karte, der zweite Poti ist für vMEM, aber das bringt irgendwie noch nix. Vieleicht bekommt der dritte Poti aber mal noch ne Funktion wenn ich weis wie und wo VDDQ (SpeicherSignalSpannung) zu machen ist. :ocinside: cu BUG
-- Veröffentlicht durch Waldikult am 17:37 am 3. März 2006
Erstmal Respeckt an BUG!!:godlike: geile Sache!! Werde dann heut noch des auch probieren, forausgesetzt ich find son widerstand oder gar ein Poti! hau alles rein, wast hast!
-- Veröffentlicht durch BUG am 15:37 am 3. März 2006
"Pinseln" ist mir zu ungenau und ja GND (Masse bzw. Ground) kannst du dir von irgendwo her holen. :thumb: cu BUG (Geändert von BUG um 15:42 am März 3, 2006)
-- Veröffentlicht durch Mome am 15:34 am 3. März 2006
aso du hast jetzt nur nen Resistormod gemacht... nen Pencilmod wäre noch feiner :D Aber ich würd wahrscheinlich direkt nen Poti nehmen, da ich keine Lust hätte immer auf eine Spannung dann fest zu sein. Und man muss doch normal GND nicht an da so ein Beinchen löten... das kann man doch idrt auch einfach ans Gehäuse pappen oder?
-- Veröffentlicht durch BUG am 14:21 am 3. März 2006
..also vMod für GPU bei der MSI sieht so aus: ..zwischen [FB] und [GND] einen Widerstand von 2.7kOhm einlöten, das ergibt dann knapp 1.5Volt VGPU. Alternativ kann auch ein 10kOhm Spindeltrimmer (Poti) via Kabel an FB und GND angelötet werden. Aber vorsicht mit dem Poti! Den Poti auf keinen Fall bis 0Ohm runter drehen, das ergibt sonnst einen Kurzschluß, am besten zur Sicherheit einen 1kOhm Vorwiderstand in Reihe zwischenschalten! ..das ist der Messpunkt für die GPU Spannung! ..mit dem VMEM Mod bin ich zur Zeit noch unzufrieden, bringt irgendwie fast nix oder nur sehr wenig. Ich muß da mal noch etwas weiter rumprobieren, ggf muß ich auch noch die VDDq Spannung modifizieren, da weis ich aber noch nicht wie. :noidea: cu BUG (Geändert von BUG um 14:35 am März 3, 2006)
-- Veröffentlicht durch kammerjaeger am 8:42 am 3. März 2006
Na das klingt ja schonmal nicht schlecht! :thumb:
-- Veröffentlicht durch BUG am 2:43 am 3. März 2006
..also ich habe es geschafft, meine MSI hat jetzt nen vMod für die GPU (knapp 1.45Volt) und geht so auf knapp 700 Chiptakt mit original Kühler (da meldet sich VPU Recover wenn ich noch höher takte). :biglol: Wird dann aber doch langsam warm, dass is ja auch nur nen billiger Alu Kühler + WLPad. Mit nem (voll)Kupfer oder Alu Kühler mit Kupferkern + WLPaste ist ggf noch etwas mehr drinn. :) ..ich werde morgen mal noch etwas weiter rumprobieren und wenn alles funzt den Mod veröffentlichen. :) Für VMEM habe ich auch schon ne Idee, aber habe den Mod noch nicht ausprobiert. :think: cu BUG (Geändert von BUG um 2:43 am März 3, 2006)
-- Veröffentlicht durch Mome am 18:43 am 2. März 2006
mach mal Bilder von deiner Karte , also bevorzugtdie Rückseite, dann schauen wir mal :D
-- Veröffentlicht durch Waldikult am 18:04 am 2. März 2006
BUG: hast schon ne idee für ein mod? :noidea: will mehr safft ;)
-- Veröffentlicht durch Mome am 17:42 am 2. März 2006
1,3V is aber wenig! Die bei VR.Zone haben ja über 1,5V Drauf gegeben. Ich denk man kann bei guter Kühlung auch noch mehr nehmen :P Wie sind denn die Benchergebnisse bei std. Takt?
-- Veröffentlicht durch BUG am 17:01 am 2. März 2006
..so meine MSI ist angekommen. Das Multimeter habe ich auch schon kurz rangehalten. ;) VGPU = 1.30 Volt VMEM = 2.05 Volt ..schade das ATI Tool die Temp nicht ausliest und man kann den Lüfter nicht steuern. :ohwell: ..laut einigen Revies funzt das ja auf anderen X1600 Karten. :noidea: Erste OC Versuche --> knapp ~620 MHz Chip & 420 MHz Speicher Takt. Aquamark 3 : ~56000 3DMark05 : ~4700 cu BUG (Geändert von BUG um 17:12 am März 2, 2006)
-- Veröffentlicht durch Waldikult am 22:24 am 1. März 2006
wenn dus genau weis, mach eine detailierte anleitung ;) dann im netz veröffentlichen ^^ :punk:
-- Veröffentlicht durch BUG am 20:23 am 1. März 2006
..naja ich sag mal so, man bekommt mit der Zeit Übung und letztendlich sind auf der Karte immer ähnliche Bauteile verbaut. :) Ich werd die MSI auf jeden Fall mal durchmessen, dann sehen wir weiter. :) cu BUG
-- Veröffentlicht durch Waldikult am 20:20 am 1. März 2006
bist du ein feinelektriker oder woher kennst dich da aus?:noidea:
-- Veröffentlicht durch BUG am 17:14 am 1. März 2006
..naja also ich kenne auch keine "Anleitung" für die MSI, aber ich habe vermutlich schon nen Plan wie und wo der Vmod zu machen ist. Bei der GeCube 9550XT habe ich es ja auch hinbekommen, bei der Medon/MSI 9600TX auch (ohne Anleitung). :) cu BUG
-- Veröffentlicht durch Waldikult am 16:36 am 1. März 2006
jop, so is es ;) Aber wenn ich lämger mit 640 GPU zocke, stellt ati tool das nach einer zeit zurück! 638 GPU geht aber ohne probs auf dauer :thumb: @BUG: Du willst ein Vmod machen? hast du ihrgentwelche links? dann würd ich ihn auch glei testen! der mod von VR-Zone geht bei der Karte nich! (Geändert von Waldikult um 16:37 am März 1, 2006)
-- Veröffentlicht durch BUG am 16:29 am 1. März 2006
..da gibts vermutlich auch solche und solche, die MSI von Kammerjaeger ging auch auch nich besonders hoch wärend die von Waldikult knapp 640 MHz Chiptakt macht. :) cu BUG
-- Veröffentlicht durch Kauernhoefer Speedy am 15:58 am 1. März 2006
@bug Hab vor kurzem nen Testbericht im I-net gelesen mit der Radeon X1600 Pro IceQ, und die ließ sich absolut besch...en takten. Da hat auch der große Kühler nix gebracht, nur bissl leiser war sie halt.
-- Veröffentlicht durch Mome am 15:38 am 1. März 2006
die is ja richtig billig geworden... da kann man bestimmt auchnoch bequem nen Vmod machen :D ich denk mal, dass der Silencer nicht passen wird, da der Lochabstand größer sein müsste. Bin mir aber nich so ganz sicher ;)
-- Veröffentlicht durch BUG am 12:45 am 1. März 2006
..ich habe mir auch mal son Spielzeug ala MSI X1600Pro 256MB gekauft, sobald sie da ist, gibts von mir auch ein paar Infos, vermutlich mach ich sogar nen vMod für die Karte! :thumb: Edit: ..mich würde mal interessieren ob der alte VGA Silencer auf die MSI Karte passt oder ggf auf die Gigabyte. Kann mal einer die Löchabstände nachmessen bzw Foto von der Rückseite machen? :) http://www.geizhals.at/deutschland/a180485.html ..wollte mir ja erst die^ kaufen, aber bei MF gabs die leider nich. :ohwell: cu BUG (Geändert von BUG um 13:19 am März 1, 2006)
-- Veröffentlicht durch Patrik am 0:33 am 28. Feb. 2006
hab hier was http://www.hardwareecke.de/testberichte/grafikkarten/sapphire_x1600pro_seite_1.php wobei die Karte bei doom3 definitiv mehr leistet als in diesem test da. ich habe einen wesentlich schwächeren cpu mit msi board und habe bei doom 3 über 52 Frames im HigQuality Modus bei 1024er Auflösung ( auch treiber auf HQ!);)
-- Veröffentlicht durch Patrik am 23:01 am 27. Feb. 2006
@ PrometheusCH Also, ich habe auch die Sapphire 1600Pro AGP mit 256MB und einen 2800+ mit auch 2X512MB Ram. Habe mal den 3Dmark 2005 durchlaufen lassen, habe unglaubliche 4000Punkte erreicht ( genau 3955 Points). Die Sapphire kann ich sehr sehr gut übertakten. Die Karte ist super, samt der Verpackung, steht immer noch neben meinem Monitor. Hatte vorher eine 9800Pro und bereue den Wechsel überhaupt nicht. Ich finde Sapphire die coolste Marke für ATI sowieso.
-- Veröffentlicht durch kammerjaeger am 22:35 am 27. Feb. 2006
Nein, die 512MB lohnen nicht bei der Karte und dem Sys! Falls irgendwann die Spiele mal mehr als die 256MB brauchen, wird Deine gesamte Hardware überholungswürdig sein... ;)
-- Veröffentlicht durch PrometheusCH am 20:17 am 27. Feb. 2006
Hallo zusammen, ich hab das ganze hier mal durchgelesen und bin zum Schluss gelangt, dass für mich als Gelegenheitsspieler eine x1600 Pro wohl das richtige ist, da ich die auch relativ günstig bekomme. Sind die Sapphire x1600 Pro Karten zu empfehlen? Und lohnt es sich, 512 MB zu kaufen? Klar, bei aktuellen Games lohnt sich das nicht, doch ich habe AMD 3000+ mit 2*512 MB RAM etc. und noch AGP, und will den PC noch eine Weile behalten, und nachher nicht alles neu kaufen müssen weils keine Grakas mehr gibt. Ausserdem spiele ich eher wenig. Für nicht ganz 140 Euro umgerechnet bekomm ich die Sapphire Radeon x1600 Pro mit 256 MB, für 160 Euro die Version mit 512 MB. Lohnt sich das, eben auch mit Blick auf die Zukunft? Meine Hoffnung ist, dass dann das Zeug noch laufen muss, auch wenn ich halt die Details runter schrauben muss (eh egal). Gruss, Prometheus
-- Veröffentlicht durch Patrik am 10:16 am 27. Feb. 2006
ich bins nochmal, hab den neuen omega jetzt drauf und bin bis jetzt echt zufrieden ! Vor allem, weil jetzt das .net wieder deinstalliert ist. In Doom3 ist der neue Omega bei mir schneller als der orig. 6.2 ! TV-out probiere ich noch, ein Overscan-Button ist auf jeden Fall diesmal schon verfügbar - denke es wird gehen. :thumb:
-- Veröffentlicht durch Patrik am 22:58 am 26. Feb. 2006
wollte mal fragen, ob mit dem neuen omega treiber auch der tv out funktioniert, das war zumindest mit dem omega 6.1 nicht der fall in verbindung mit der x1600pro bei mir. da war ein uraltes cp eingebaut. und mit den tray tools gings nicht gut. ich glaube mit dem omega geht kein overscan oder ähnliches. hat der neue omega nun mehr funktionen in cp wie zb. temporal aa ? ich steh nich so auf traytools.
-- Veröffentlicht durch Mome am 18:01 am 26. Feb. 2006
oder ausm Autostart nehmen... mach ich sowieso, da mich das rumgeflacker nachm hochfahren immer nervt und der Kram viel zu viel Ressourcen braucht.
-- Veröffentlicht durch kammerjaeger am 17:43 am 26. Feb. 2006
Einfach deinstallieren! Omega auf Basis des Cat.6.2
-- Veröffentlicht durch yogibeere am 17:40 am 26. Feb. 2006
Also ich glaube ich bin irgendwie zu dumm :noidea: ich habe eben mal versucht das controlcenter zu deaktivieren aber ich finde nichtmal nen button wo ichs ausstellen könnte. Und dann wollte ich mal fragen welches die neusten omegatreiber sind und wo ich die bekomme ? Ich freue mich über jede brauchbare Antwort Gruß Yogibeere (Geändert von yogibeere um 17:41 am Feb. 26, 2006)
-- Veröffentlicht durch kammerjaeger am 13:12 am 26. Feb. 2006
Ist eine Frage der Version... Falls Du keine passende Version hast, kannst Du aber auch die entsprechenden Tools nehmen, die Dir der Catalyst oder Omega bieten. ;)
-- Veröffentlicht durch Waldikult am 12:37 am 26. Feb. 2006
wie habt ihr ATI tool zum laufen gebracht?
-- Veröffentlicht durch yogibeere am 12:25 am 26. Feb. 2006
nee ncoh nciht mache ich jetzt mal mom :) Gruß Yogibeere
-- Veröffentlicht durch kammerjaeger am 12:07 am 26. Feb. 2006
Hast Du denn das CCC mal deaktiviert, wie ich es gesagt habe?
-- Veröffentlicht durch yogibeere am 12:05 am 26. Feb. 2006
hab das problem jetzt behoben liegt an einer zu alten version mußt am besten die von 2006 insttallieren :thumb: ändert aber leider nix daran , daß die taktraten immer wieder zurückgesetzt werden :( Gruß Yogibeere
-- Veröffentlicht durch kammerjaeger am 11:48 am 26. Feb. 2006
Dort zeigt Everest die GPU bei mir auch nicht an, aber unter "Computer/Übersicht"! ;)
-- Veröffentlicht durch yogibeere am 11:34 am 26. Feb. 2006
So :moin: jetzt nochmal das Bild , welches gestern nciht wollte warum auch immer nciht :noidea: Okay also hier : weiß irgendjemand was hier nciht stimmt ? ich bin für jeden ratschlag dankbar Gruß Yogibeere
-- Veröffentlicht durch Kaffeeheld am 16:09 am 25. Feb. 2006
so hab die X1600pro bei mein Paps drin. mußte noch neues Mobo kaufen und ein neues NT :noidea: das SYS: 2400XP (266) 2x512 DDR333 256mb X1600pro Sapphire Mobo Gigabyte 7N400 S-L 450 Watt NT 3dmark 05 durchlaufen lassen und ich kamm ohne ocen auf 3874 Punkte ich denke das geht in Ordnung :thumb:
-- Veröffentlicht durch kammerjaeger am 12:41 am 25. Feb. 2006
Zitat von yogibeere um 11:45 am Feb. 25, 2006 h hab jetzt herausgefunden , daß es mit dem atitool doch zu ocen geht aber er übernimmt die taktraten nicht im controlcenter wird kurzzeitig 600/441 angezeigt aber das ist spätestens nach dem neustart wieder weg egal was ich mache :(
| Dann mußt Du entweder das Control-Center dauerhaft ausschalten oder die Werte dort festschreiben. Scheinbar überschreibt es mit der Standard-Taktung... ;)
-- Veröffentlicht durch yogibeere am 11:45 am 25. Feb. 2006
hmm scheint problem mit directupload zu sein wie hieß die andere seite nochmal imagehack oder wie ? hab jetzt herausgefunden , daß es mit dem atitool doch zu ocen geht aber er übernimmt die taktraten nicht im controlcenter wird kurzzeitig 600/441 angezeigt aber das ist spätestens nach dem neustart wieder weg egal was ich mache :(
-- Veröffentlicht durch simonderchefe am 11:41 am 25. Feb. 2006
Hi zusammen! hab etz nich alles gelesen (23 Seiten :noidea: ..) naja^^ auf jeden fall hab ich mir gestern den PC ge P!mpt;) 2 GB Ram etc. aber vorallem hab ich mir die Sapphire X1600Pro 512 MB AGP geleistet. Bis jetzt macht die Möre ne gute Leitung.. doch wie stehts mit overclocken? sie is auf 400/500 getaktet, wie weit soll/kann ich gehen?? MfG simonderchefe (Geändert von simonderchefe um 11:42 am Feb. 25, 2006)
-- Veröffentlicht durch kammerjaeger am 23:42 am 24. Feb. 2006
Kann das Bild nicht sehen... ;)
-- Veröffentlicht durch yogibeere am 23:26 am 24. Feb. 2006
Also ich hab nochmal nen screen gemacht wie das ganze bei mir aussieht ich werde da noch verrückt vllt fällt dir ja was merkwürdiges auf ;) Gruß Yogibeere (Geändert von yogibeere um 23:32 am Feb. 24, 2006)
-- Veröffentlicht durch kammerjaeger am 22:29 am 24. Feb. 2006
So, ich hab mal nachgesehen. Everest zeigt definitiv als Chip die X1600-Serie an! Taktraten lassen sich auch mit ATITool ändern! @ spraadhans Bei älteren Benchmarks liegt die Karte hinter einer 6600GT (siehe auch Vergleich auf Seite 7), bei neueren Benchmarks (3DMark05 und 06) hingegen sowie insbesondere in Spielen zeigt sie ihre Stärken. So komme ich ohne GraKa-OC im 03er mit meiner aktuellen Config "nur" auf ca. 7.000 Punkte, im 05er auf ca. 4.200 Punkte und knapp 1.800 Punkte im 06er. Vergleicht man die Werte im 03er mit der realen Spieleperformance, erkennt man die Sinnlosigkeit vieler synthetischer Benchmarks, solange man nicht identische Karten vergleicht, um Bremsen im System zu entlarven. Um verschiedene Karten in ihrer Spieleperformance zu vergleichen, taugen sie nur sehr bedingt.... ;)
-- Veröffentlicht durch yogibeere am 18:56 am 24. Feb. 2006
@wakko0816 bei mir besteht genau das gleiche problem ich kann die taktraten nur gering ändern aber auch nur im controlcenter :( alles andere wie rivatuner oder atitool lassen zwar das verschieben der regler zu und im 3dmark05 wird auch angezeigt , daß ich den takt verändert habe aber die punkte bleiben immer gleich :-! wäre net wenn mir oder besser uns jemand helfen könnte :ocinside: Gruß Yogibeere
-- Veröffentlicht durch wakko0816 am 13:25 am 24. Feb. 2006
bei mir scheinen sämtliche übertaktungstools wirkungslos zu sein :noidea: die bei den omega-treibern mitgelieferten tray-tools lassen keine änderung des takts zu. bei manueller veränderung mit diesem schiebe- regler springt der regler immer wieder auf den default zurück, ohne dass man auf "Apply" drücken könnte. gleiches problem bei "Find Max". nur dass dabei der oben erwähnte regler und der "Apply"-button anfangen zu flackern. sieht aus, als wollte das programm erfolglos den takt verändern und bleibt dann in einer endlosschleife hängen. atitool meldet, dass der chip nicht unterstützt wird. versuche ich trotzdem, den takt zu ändern, gibt es einen sofortigen freeze. hat die sapphire x1600pro nen lock? oder mache ich was falsch? mfg. wakko
-- Veröffentlicht durch spraadhans am 10:53 am 24. Feb. 2006
@ kammerjäger: was schafft deine x1600 denn im 3dm2003? und bei weiviel gpu takt?
-- Veröffentlicht durch kammerjaeger am 22:41 am 23. Feb. 2006
Gute Frage... Bei Everest kann ich morgen mal nachsehen (sitze gerade an Sys2...). Aber ATITool sollte funzen. RivaTuner weiß ich nicht. Falls die Karte aber tatsächlich 468MHz Speichertakt schaffen sollte, dann hast Du enormes Glück. Ich komm beim Speicher nur auf ca. 415MHz. Dafür geht die GPU sehr gut. ;)
-- Veröffentlicht durch yogibeere am 19:07 am 23. Feb. 2006
@kammerjaeger hab ein derbes problem die karte läuft zwar einwandfrei aber irgendwie wird bei everest der chip nicht erkannt , und außerdem , kann cih die taktraten bei rivatuner und atitool nicht erhöhen einzig und allein der weg über controlcenter geht aber da nur bis 560/468 weil der regler dann zu ende ist .... was ist hier los ? Gruß Yogibeere
-- Veröffentlicht durch yogibeere am 17:21 am 23. Feb. 2006
Moin Jungs :punk: meine x1600pro von gigabyte ist da.. echt der Hammer das Teil eben schnell eingebaut 3dmark05 durchgelaufen 4227 Punkte :godlike: Ich werde natürlich weiter testen aber das solls erstmal fürs erste sein Gruß Yogibeere
-- Veröffentlicht durch kammerjaeger am 0:54 am 21. Feb. 2006
Ok, werd ich morgen mal probieren. Aber das scheint nur ein Framecounter zu sein, kein Benchmark! Dann kann ich auch Fraps nehmen, das erfüllt den gleichen Zweck... ;)
-- Veröffentlicht durch Udo am 22:27 am 20. Feb. 2006
To display the framerate, create a file in your AgeofEmpires3\startup directory called "user.cfg" without the quotes. In that file type "+showFPS" again without quotes. Then save it. That's all you need to do.
| also das sollte funzen :thumb:
-- Veröffentlicht durch Udo am 20:40 am 20. Feb. 2006
@kammerjaeger noch nicht gefunden; probier mal im spiel: ENTER drücken und dan showfps oder show fps oder show_fps Hit the ENTER key and key in the code: showFPS of show fps http://espn.com.com/Age_of_Empires_III_PC/4524-9696_7-31322105.html?tag=sub
-- Veröffentlicht durch Waldikult am 18:02 am 20. Feb. 2006
ne, is es nich :( hab ich aber schon mal verglichen.. bleibt nur abzuwarten, bis einer den MSI mod macht ;)
-- Veröffentlicht durch bud am 15:03 am 20. Feb. 2006
@Waldikult HI, Ich würd sie gern Messen, aber die MSI hat ein ganz anderes Layout! ich weis nich wo ich messen soll! schau mal auf http://www.vr-zone.com.sg/?i=3092&s=9 ob dein Layout, das gleiche ist??
-- Veröffentlicht durch kammerjaeger am 12:39 am 20. Feb. 2006
@ Udo Wo finde ich den Benchmark AoE3?
-- Veröffentlicht durch Waldikult am 21:56 am 19. Feb. 2006
Zitat von bud um 14:48 am Feb. 18, 2006 @Waldikult Final: 641Mhz GPU und 418Mhz DDr kannst du bitte mal messen wie deine standart vcore spannung ist?? meine X1600pro AGP Saphire hat eine standart vcore von 1,33 volt und damit komme ich auf max 577 core! standart: Core: 500 Mem: 405 übertaktet: Core: 577 Mem: 450
| HI, Ich würd sie gern Messen, aber die MSI hat ein ganz anderes Layout! ich weis nich wo ich messen soll! denk aber, dass Sie auch den Standart von 1,33 V besitzt! (wie auch alle anderen X1600PRO´s)
-- Veröffentlicht durch yogibeere am 20:44 am 19. Feb. 2006
jo , wäre auch interessiert versteht sich aber sie flattert ja auch bald bei mir ins Haus und dann werde ich ebenfalls mal durchtesten was es so gibt ;) THX nochmal Gruß Yogibeere
-- Veröffentlicht durch Mome am 20:43 am 19. Feb. 2006
@kammerjaeger wie läuft denn eigentlich so NFS MW? sind 1024 mit allen Details und mit AA möglich? oder was sind die maximal spielbaren Settings?
-- Veröffentlicht durch kammerjaeger am 19:41 am 19. Feb. 2006
Ja. Selbst 1280x1024 schafft sie i.d.R. ohne Probs, während hier einer 6600GT oder 6800 128MB schon mächtig die Puste ausgeht... ;) @ Udo thx Ich werde morgen (falls die Zeit es erlaubt) mal die Demo testen. :thumb:
-- Veröffentlicht durch yogibeere am 18:43 am 19. Feb. 2006
Aber alle lassen sich grundsätzlich ocen und das weniger gute Speicherpotenzial ist auf den DDR 2 Speicher zurückzuführen ? Also was ich nochmal explizi fragen muß weil es mir jetzt doch auf dem Herzen liegt geht nochmal in Richtung Gameperformance ;) worauf sich unser guter kammerjaeger angesprochen fühlen dürfte ;) Wobei ich ihm DAnke für jede Aussage bzw einschätzung :) Ich bin nich gerade ein Hardcorezocker aber ich lasse wenig Spiele aus : Also schafft die x1600pro fear , quake 4 , BF2 , Mostwanted auf 1024x768 auf mittleren bis hohen Deatils ? Wobei mich eher interessiert ob hohe Details möglich sind ;) Gruß Yogibeere
-- Veröffentlicht durch Udo am 17:30 am 19. Feb. 2006
@kammerjaeger: Klasse info zur agp x1600pro! Hat vielleicht einer der besitzer dieser karte mal zeit und lust Age of Empire 3 mal anzutesten? Die demo ist gratis und enthält bereits einen benchmark. Es ist ein schweres game - vielleicht das schwerste SM 3.0m dafür aber ein echter hingucker!, und wenn die x1600pro das schafft, wäre der hammer! http://www.ageofempires3.com/ ==> demo 1.1 cu Udo
-- Veröffentlicht durch kammerjaeger am 16:06 am 19. Feb. 2006
Beim Speicher schwanken die Werte afaik meist zwischen 410 und 450MHz, Einzelfälle auch darüber. GPU ist sehr unterschiedlich, Werte von 515 bis 680MHz sind mir bekannt. Im 3DMark05 erreicht sie ohne OC ca. 3.800 Punkte mit einem durchschnittlichen Sys und ca. 1.600 Punkte im 06er. Viel wichtiger ist aber die Game-Performance, zu der ich schon genug geschrieben hab. Daher laß ich hier mal die Anderen ran... ;)
-- Veröffentlicht durch yogibeere am 15:59 am 19. Feb. 2006
Also ich hab das hier mal verfolgt und hab da jetzt doch nochmal der Tatsache , daß ich guten alten Kammerjaeger eine gigabyt x1600pro geordet habe doch noch mal 2 Fragen. Ersten ist bei allen Karten der Reihe für PCIE der memory irgendwie gelocked oder ähnliches , sodaß man auf über 400mhz hinaus kommt? Zweitens kann mir jemand nochmal explizit sagen , was er aus der karte rausgeholt hat und was das dingen dann im 3dmark 05 bringt bzw ob man in games ausreichend frames zur verfügung hat ? Gru? Yogibeere
-- Veröffentlicht durch smoke81 am 14:58 am 19. Feb. 2006
Zitat von smoke81 um 13:22 am Feb. 17, 2006 Wie sind denn so die Dual-Monitor-Fähigkeiten bei ATI? (Hatte selber noch keine ATI) Ich habe einen großen CRT, den ich im Office-Betrieb mit 1600x1200 ansteuere (darauf ist auch der gesamte Desktop) und einen kleinen TFT mit 1024x768 als Erweiterung. Geht das mit ATI sinnvoll anzusteuern? Wenn ja, wie schaut das dann aus?
| ??
-- Veröffentlicht durch kammerjaeger am 12:06 am 19. Feb. 2006
Zitat von Patrik um 11:50 am Feb. 19, 2006 Also bei mir läuft die karte auf stand. 1,5V, glaube ich, habs gemessen mit dem tool - 8rdavcore-
| Bist Du sicher, daß das nicht die Spannung für den Graka-Slot ist? Kann mir kaum vorstellen, daß 8rdavcore die echte GPU-Spannung ausliest... ;)
-- Veröffentlicht durch Patrik am 11:50 am 19. Feb. 2006
Also bei mir läuft die karte auf stand. 1,5V, glaube ich, habs gemessen mit dem tool - 8rdavcore-
-- Veröffentlicht durch bud am 14:48 am 18. Feb. 2006
@Waldikult Final: 641Mhz GPU und 418Mhz DDr kannst du bitte mal messen wie deine standart vcore spannung ist?? meine X1600pro AGP Saphire hat eine standart vcore von 1,33 volt und damit komme ich auf max 577 core! standart: Core: 500 Mem: 405 übertaktet: Core: 577 Mem: 450 (Geändert von bud um 14:49 am Feb. 18, 2006)
-- Veröffentlicht durch Patrik am 21:31 am 17. Feb. 2006
ich habe bei meiner SapphireX1600Pro AGP den Speicher schon auf 450 MHZ(900 DDR) getaktet( original ist der schon auf 405 MHZ !!!), mit dem ATI Tool, ohne einen einzigen Bildfehler oder Artefakte, wobei ich den GPU auf 550 MHZ getaktet habe, alles ohne Fehler! Höher traue ich mich beim GPU nich. Aber ich denke, da würd bei beidem noch mehr gehen. Mit den o.g. werten habe ich beim Aquamark ca. 2000 Points mehr, und ich habe das Gefühl, daß NF$MostWanted etwas flüssiger rennt!;)
-- Veröffentlicht durch Waldikult am 14:38 am 17. Feb. 2006
Übertaktung per Rivatuner!!! Final: 641Mhz GPU und 418Mhz DDr mehr als 645mhz gpu freezt das system ein... mehr als 420Mhz DDr gibts artefakte... mit einem vcore mod oder besserer Kühlung, geht bestimmt noch mehr! naja, aufjedenfall Is die X1600 Pro ihr geld wert! :godlike: wenn Sie meine 6800le 12/6 414 Mhz gpu und 866Mhz DDr schlägt, na dann lässt sichs wieder 1 jahr ohne mucken zocken ;) ------------------------------------------------- Ich weis nich was ich falsch mache? bei ATI tool wird meine karte nicht angezeigt? kann auch nichts ändern.... (Geändert von Waldikult um 14:41 am Feb. 17, 2006)
-- Veröffentlicht durch smoke81 am 13:22 am 17. Feb. 2006
Wie sind denn so die Dual-Monitor-Fähigkeiten bei ATI? (Hatte selber noch keine ATI) Ich habe einen großen CRT, den ich im Office-Betrieb mit 1600x1200 ansteuere (darauf ist auch der gesamte Desktop) und einen kleinen TFT mit 1024x768 als Erweiterung. Geht das mit ATI sinnvoll anzusteuern? Wenn ja, wie schaut das dann aus?
-- Veröffentlicht durch kammerjaeger am 13:18 am 17. Feb. 2006
Zitat von Waldikult um 12:55 am Feb. 17, 2006 @kammerjäger - vielleicht weist du wo man den bleistift bzw. Silberleitlack anwenden muss??
| Leider nicht, bei Hardware-Mods bin ich immer etwas vorsichtig (Garantie etc...). ;) P.S.: Dann hat die MSI wohl doch keine OC-Sperre und ich hatte einfach nur Pech mit der Karte. Aber schön, daß sie sogar besser läuft als die gemoddete LE. :thumb: (Geändert von kammerjaeger um 13:21 am Feb. 17, 2006)
-- Veröffentlicht durch blaueslicht am 13:11 am 17. Feb. 2006
Hi, meine Gigabyte X1600pro ist gestern angekommen und ich bin beeindruckt. :godlike: COD2 läuft flüssig, obwohl mein Sempron momentan wieder auf 1600Mhz läuft. Ich habe die Karte noch nicht übertaktet, denn das werde ich mir noch ein wenig für später aufheben können. :lol: Bisher kann ich die Karte nur empfehlen. PS: Was ist denn der Pencil mod? CU Blaueslicht
-- Veröffentlicht durch Waldikult am 12:55 am 17. Feb. 2006
hab mir nun eine MSI X1600Pro für 135 Euros geholt! erste OC versuche: GPU 500@640 Mhz DDR 390@418 Mhz und COD² Läuft ohne ruckler! mit der LE hat geruckelt wie sau mal weider testen! aber den Vcore u. Vmem mod kann man bei dieser grafikkarte nich anwenden! anderes layout... @kammerjäger - vielleicht weist du wo man den bleistift bzw. Silberleitlack anwenden muss?? mfg waldi ---------------- Welchen Treiber könnt ihr empfehlen? der catalyst 6.2 schreibt mir ein fehler:"die hardware konnte nicht richtig installiert werden, bitte nehmen Sie einen Geeigneten treiber" lol? (Geändert von Waldikult um 13:16 am Feb. 17, 2006)
-- Veröffentlicht durch Waldikult am 7:05 am 17. Feb. 2006
dieser messpunkt is ja zum auslesen von gpu core! man sollte ja den linken messpunkt nehmen. wo soll man die masse ansetzen? hmm.. ich gug mal im laden, was die Pro bei uns kostet ^^
-- Veröffentlicht durch kammerjaeger am 1:29 am 17. Feb. 2006
Wenn es ein guter Graphit-Bleistift ist, dann kann es reichen. Sonst Silberleitlack nehmen...
-- Veröffentlicht durch Waldikult am 0:23 am 17. Feb. 2006
noch eine Frage zum Pencil mod: muss man da nur mit einem Bleistifft drüber gehen? mein english is nich so gut :lol:
-- Veröffentlicht durch kammerjaeger am 23:39 am 16. Feb. 2006
Leider nicht. Ist wohl auch von der Architektur bzw. dem Layout her zu weit von der X1800 weg... ;)
-- Veröffentlicht durch Waldikult am 23:08 am 16. Feb. 2006
kann sein, der Reiz sie auszuprobieren is aber so stark, dass ich se mir wohl hole und teste :punk: X1600Pro :godlike: natürlich eine GIGABYTE ;) (geh davon aus und die gehen alle so gut wie deine test Karte) gibt es bei den X1600ter noch versteckte pipes / vertex? (freischaltbar)? (Geändert von Waldikult um 23:36 am Feb. 16, 2006)
-- Veröffentlicht durch Waldikult am 23:01 am 16. Feb. 2006
hab da ein guten vergleich gefunden ;) is zwar keine Pro aber trotzdem :) X1600XT vs 6800 GS mfg waldi
-- Veröffentlicht durch kammerjaeger am 22:58 am 16. Feb. 2006
Naja, die Benchmarks sagen wirklich nicht viel aus (auch wenn 42k für die Karte wirklich nicht viel sind...). Siehe mein Bericht auf Seite 7. ;) Ob ein Wechsel von der 6800le @12/6 mit 414/866 MHz Sinn macht, hängt wohl eher davon ab, was man Dir für die Geforce zahlt und ob Avivo interessant für Dich ist. Da Dir wohl 1024x768 reichen, sind auch die 128MB der 6800LE ausreichend. Wenn man neu vor der Wahl zwischen den beiden Karten steht, würde ich der ATI klar den Vorzug geben. Aber bei Dir ist es wirklich eine Frage des Preises für die LE...
-- Veröffentlicht durch Waldikult am 22:36 am 16. Feb. 2006
Zitat von Patrik um 0:41 am Feb. 12, 2006 bei aquamark : um die 42000, vorher mit dem catalyst 6.1 oder 5.13 um die 40000, das einzige spiel, wo bei mir besser laufen könnte ist nfsmostwanted, aber habs schon durch. jedenfalls macht mir diese karte spaß
| Ich finde deine Punkte etwas mikrig! warum so wenig? alles standart? ----------------------------------------------------------------------------------------- Ich Überlege obich mir nich auch so ne Günstige Variante zuleg? :noidea: Bin keinHardcorezocker! mir reicht schon 1042* ... und 2*AA meine GF 6800le hab ich @ 12/6 und 414 GPU / 866 DDR bei aquamark hab ich 65.550 Punkte! das is ja um weiten besser als Patrik seine! wenn ich mir den bench ansehe, dann sollt ich lieber bei meiner 6800 ter bleiben! War schon immer ein ATI fan, da die Bildqualität besser als bei nv is.... Ich weis, das die ganzen benches usw.. alles misst is, aber trotzdem find ich das Sie mehr schaffen müsste oder? mfg waldi (Geändert von Waldikult um 22:42 am Feb. 16, 2006)
-- Veröffentlicht durch kammerjaeger am 18:36 am 12. Feb. 2006
Zitat von Stuzzy um 17:46 am Feb. 12, 2006 zieht 4xAF wohl auf ner 6200er sehr runter?:noidea:
| Ausprobieren.... ;)
-- Veröffentlicht durch Stuzzy am 17:46 am 12. Feb. 2006
zieht 4xAF wohl auf ner 6200er sehr runter?:noidea: also ich hab mich einfach daran gewöhnt... (mit der 6800GT hab ich auch immer mit gespielt, aber bei der jetztigen 6200er hab ich mich aufgrund der performance an diese Texturen gewöhnt.)
-- Veröffentlicht durch kammerjaeger am 17:10 am 12. Feb. 2006
Zitat von Stuzzy um 16:46 am Feb. 12, 2006 7800GS oder 1600Pro?:noidea: welche sollte man für gelegenheitsspielen nehmen? 1280x1024 ist pflicht! mittlere-hohe Details und evtl auch 2xAA (AF is mir egal)
| Dann reicht auch die X1600Pro. Die 7800GS ist natürlich schneller, aber eben auch deutlich teurer... ;) P.S.: Ich möchte nicht mehr ohne AF spielen! Diese unscharfen Texturwellen braucht kein Mensch, zumal AF bei aktuelleren Karte nicht viel Leistung frißt (zumindest bei 4x oder teilweise sogar bis 8x).
-- Veröffentlicht durch Stuzzy am 16:46 am 12. Feb. 2006
7800GS oder 1600Pro?:noidea: welche sollte man für gelegenheitsspielen nehmen? 1280x1024 ist pflicht! mittlere-hohe Details und evtl auch 2xAA (AF is mir egal) (Geändert von Stuzzy um 17:47 am Feb. 12, 2006)
-- Veröffentlicht durch smoke81 am 16:27 am 12. Feb. 2006
Habt ihr noch Links zu irgendwelchen Benchmarks/Tests?
-- Veröffentlicht durch Philly am 16:27 am 12. Feb. 2006
Nö :lol::noidea:
-- Veröffentlicht durch Paseoboy am 16:18 am 12. Feb. 2006
Zitat von Philly um 16:14 am Feb. 12, 2006 Hm, die X1600 kanns aber nicht mit einer X850XT PE @ 600 / 1400 aufnehmen oder? ...Weil die saugt auch heftigst Strom...:noidea:
| Haste nen Vmod gemacht?
-- Veröffentlicht durch Philly am 16:14 am 12. Feb. 2006
Hm, die X1600 kanns aber nicht mit einer X850XT PE @ 600 / 1400 aufnehmen oder? ...Weil die saugt auch heftigst Strom...:noidea:
-- Veröffentlicht durch kammerjaeger am 16:01 am 12. Feb. 2006
Zitat von spraadhans um 13:03 am Feb. 12, 2006 lohnt sich die neuanschaffung zum austausch einer 9800pro?
| Insbesondere wenn Du 1280x1024 spielen willst. Und einige neuere Engines laufen auch spürbar besser. ;) Die Sapphire Lite Retail für AGP wird ab ca. 125,- angeboten, jedoch aufgrund der riesigen Nachfrage z.Zt. kaum lieferbar. Wenn Du für die alte Karte noch ca. 80-90,- bekommst, lohnt es auf alle Fälle, schon wegen des Stromverbrauchs...
-- Veröffentlicht durch Couchsurfer25 am 14:03 am 12. Feb. 2006
Wow.... die neuen Catalyst Treiber bringen ja wirklich was.... hoffentlich geht es mit der Entwicklung der Treiber noch ein wenig so weiter. In der X3-Reunion waren 2 FPS mehr drinne und das ist in der Benchmark nicht gerade schlecht. :thumb: Ich denke das Ende der möglichkeiten dieser Karte sind noch nicht erreicht. Jetzt ist COD2 erst recht kein Problem mehr für die Karte :lol:
-- Veröffentlicht durch spraadhans am 13:03 am 12. Feb. 2006
lohnt sich die neuanschaffung zum austausch einer 9800pro?
-- Veröffentlicht durch Patrik am 0:41 am 12. Feb. 2006
bei aquamark : um die 42000, vorher mit dem catalyst 6.1 oder 5.13 um die 40000, das einzige spiel, wo bei mir besser laufen könnte ist nfsmostwanted, aber habs schon durch. jedenfalls macht mir diese karte spaß
-- Veröffentlicht durch Beschleunigen am 16:45 am 11. Feb. 2006
:noidea: wie sind denn die punkte so :noidea: (..) mfg tobi
-- Veröffentlicht durch Patrik am 15:53 am 11. Feb. 2006
habe nur die CoD2 "demo", aber im DX9-Modus auf High läuft meine Sapphire X1600Pro AGP (1024er Auflösung 2XAA) mit meinem "alten" AthlonXP2800+ CPU zwischen 25 und 50 FPS ! - Bin begeistert !!! Und mit dem neuen Catalyst 6.2 läuft nun Doom3 ganze 5 FPS schneller im Timedemo ! Und im Aquamark habe ich auch ganze 2002 Punkte mehr als mit dem 6.1 ! Und der Catalyst 6.2 ist erst der 3. Treiber für die X1600 ! Diese Karte ist einfach SUPI:punk:
-- Veröffentlicht durch kammerjaeger am 9:23 am 11. Feb. 2006
Dürfte schwer werden, da ich atm kein Voltmeter greifbar hab...
-- Veröffentlicht durch bud am 9:12 am 11. Feb. 2006
@kammerjaeger Wie bekomm ich sie raus, ohne umständlich das Bios auslesen zu müssen? am besten mit voltmeter nachmessen!! unter http://www.techpowerup.com/articles/overclocking/voltmods/133 (ist zwar die X1300 abgebildet. aber die Messpunkte sind gleich) gibt es ein Bild mit den Messpunkten - ist der grüne Pfeil auf dem Bild, und wenn du schon dabei bist dann mess bitte auch vmem, Danke!!
-- Veröffentlicht durch kammerjaeger am 0:10 am 11. Feb. 2006
Ups, Freudsche Fehlleistung! War irgendwie auf den Takt fixiert... Wie bekomm ich sie raus, ohne umständlich das Bios auslesen zu müssen? @ Mome Nein, zu wenig Zeit im Moment. War schon froh, daß ich zwischen Tür und Angel die Karte ein wenig auf OC testen konnte, das hatte Priorität, da in diesem Punkt die MSI eben nix taugte. ;) Die nächste freie Zeit wird erstmal in den Ausbau der 6600GT gesteckt. :lol: Edit: Ich hab nochmal nachgeschaut, warum bei der X1600Pro die Grafik bei CoD2 deutlich besser aussah als mit der 6600GT. Das Spiel hat mit der 6600GT die Texturen automatisch nur auf "High" gestellt, mit der X1600Pro jedoch auf "Extra". Stell ich bei der Radeon die Texturen auf High runter, ist sie noch schneller. :godlike: (Geändert von kammerjaeger um 0:17 am Feb. 11, 2006)
-- Veröffentlicht durch N omega G am 23:55 am 10. Feb. 2006
Zitat von bud um 21:16 am Feb. 10, 2006 @kammerjaeger 500MHz wie bei allen anderen auch danke für die antwort, aber ich meinte die spannung der gpu-vcore, bei meiner sapphire ist die default z.b 1,33 volt, würde mich interessieren wie hoch sie bei der Gigabyte-Karte ist??
| sollte nur minimal, wenn überhaupt, abweichen.
-- Veröffentlicht durch Mome am 23:15 am 10. Feb. 2006
das ist ja wohl echt mal endlich ein ordentliches Resultat! :thumb::ocinside: Hast du damit mal was gebencht?
-- Veröffentlicht durch bud am 21:16 am 10. Feb. 2006
@kammerjaeger 500MHz wie bei allen anderen auch danke für die antwort, aber ich meinte die spannung der gpu-vcore, bei meiner sapphire ist die default z.b 1,33 volt, würde mich interessieren wie hoch sie bei der Gigabyte-Karte ist??
-- Veröffentlicht durch kammerjaeger am 20:47 am 10. Feb. 2006
500MHz wie bei allen anderen auch. ;)
-- Veröffentlicht durch bud am 20:31 am 10. Feb. 2006
@kammerjaeger "Gigabyte X1600Pro im Test: Mit ATI-Tool geht die GPU fleißig bis 682MHz" kannst du bitte mal messen wie hoch die standart gpu- vcore ist???
-- Veröffentlicht durch kammerjaeger am 20:19 am 10. Feb. 2006
Ja, bin Händler. Zur MSI: Die ist recht leise. Aber die Gigabyte scheint doch die bessere Wahl zu sein... ;)
-- Veröffentlicht durch blaueslicht am 19:28 am 10. Feb. 2006
Oh, dass hört sich doch garnicht schlecht an. Danke Kammerjäger - die Karte wird bestellt...:thumb:
-- Veröffentlicht durch kammerjaeger am 17:55 am 10. Feb. 2006
@ blaueslicht So, Gigabyte X1600Pro im Test: Mit ATI-Tool geht die GPU fleißig bis 682MHz, der Speicher macht jedoch bei 415/830MHz Schluß. Der Passivkühler wurde durch einen langsamen 80er in der Seitenwand angepustet. :thumb:
-- Veröffentlicht durch blaueslicht am 17:53 am 10. Feb. 2006
Hi, ich habe mich jetzt entschieden, mir eine der beiden Karten zu kaufen. Kosten beide 111€ momentan. Ist die MSI eigentlich laut? Momentan tendiere ich aber zur Gigabyte nehmen, weil passiv. Geschwindigkeitsunterschiede wird es ja wohl nicht geben. Bist du eigentlich Händler, Kammjäger? CU Blaueslicht
-- Veröffentlicht durch kammerjaeger am 8:35 am 10. Feb. 2006
Sollte in 800x600 mit niedrigen bis mittleren Details laufen (solange Du >512MB Speicher hast). Zeit zum Testen hab ich jedoch z.Zt. wenig...
-- Veröffentlicht durch smoke81 am 3:05 am 10. Feb. 2006
Würde denn vielleicht mal jemand F.E.A.R. MP testen?
-- Veröffentlicht durch kammerjaeger am 1:51 am 10. Feb. 2006
Nur VGA. Aber Quali ist ok. Und für ein paar Spielchen reicht es leistungsmäßig auch noch, wenn man sich mit den Settings etwas zurückhält... ;)
-- Veröffentlicht durch smoke81 am 1:47 am 10. Feb. 2006
Mal kurze Zwischenfrage, welche Ausgänge hat das K8NF4G-SATA2 eigentlich (TV, VGA, DVI?) und wie ist die Qualität?
-- Veröffentlicht durch kammerjaeger am 21:36 am 9. Feb. 2006
Die Palit würde ich nicht nehmen, da man den Speicher schon merkt, weil die Karte eben auch bei höheren Auflösungen noch gut läuft. Die Connect3D ist nicht nur laut, sondern hat einen sehr niedrigen Speichertakt. Gigabyte und MSI gehören zu den günstigeren Karten und wären somit erste Wahl. Bei der MSI hatte ich jedoch wenig OC-Glück (Bios-Lock?), werde die Tage mal die Gigabyte testen...
-- Veröffentlicht durch blaueslicht am 21:18 am 9. Feb. 2006
:nabend: Danke Ihr beiden für eure Praxiserfahrungen und Bemühungen. Eure Ergebnisse sind sehr interessant und beruhigend, weil mir die Karte dann ausreicht und ich viel Geld sparen kann... :thumb: Mein PC sollte ja leistungsmäßig ausreichen, ausserdem würde ich gerne noch die CPU übertakten; mit K8 CPUs kenne ich mich aber leider noch nicht so aus. Also wenn da jemand Erfahrung hat, kann er mir vielleicht ein paar Tipps geben. Eine Frage habe ich noch. Welche 1600pro ist eigentlich die Beste? Die von Palit hat DDR3 Ram aber nur 128 MB, die Gigabyte 256 MB und ist passiv, Sapphire hat auch 256 MB und ist aktiv gekühlt. Dies sind ja nur Beispiele. Gibt es bei den 256MB DDR2 Karten vielleicht welche, die besser zu übertakten sind als andere, weil besserer Speicher auf ihnen ist? In der letzten ct sind X1300 Karten mit 6600ern verglichen worden und ich meine die X1300 von Sapphire hatte ein recht großes oc Potential. 512 MB lohnen sich wohl nicht, denke ich und die XT ist auch zu teuer... Schönen Abend noch. CU Blaueslicht
-- Veröffentlicht durch kammerjaeger am 19:16 am 9. Feb. 2006
Ich hab eben zum Spaß mal eine Karte bei CoD2 gestartet in 1280x1024 und DX9 wurde fest eingestellt. Ohne AA kam ich nie unter 34fps, mit 4xAA nie unter 27fps. Meist lag die Framerate bei ca. 42-56fps bzw. 33-45fps (wenn man z.B. in den Himmel schaut auch deutlich darüber). Von den 6fps aus dem Test bin ich also meilenweit weg und sogar deutlich über den gemessenen Werten einer 6600GT @1024x768... ;) (Sys siehe Sig) Ich werde bei Gelegenheit nochmal die gleichen Settings mit meinem anderen PC versuchen. Edit: So, ich hab mal PC2 mit CoD2 gequält. In den gleichen Settings wie bei PC1 kam ich auf eine minfps von 24fps ohne AA bzw. 17fps mit 4xAA, also deutlich unter den Werten der X1600Pro, und das bei eindeutig schlechterer Grafik/Texturqualität der 6600GT! Ich mußte die Auflösung auf 1024x768 ohne AA runterstellen, um konstant über 30fps zu bleiben. :gulp: Das hat mich in meinem (ohnehin schon angedachten) Vorhaben bestärkt, die erst kürzlich eingebaute 6600GT durch eine X1600Pro zu ersetzen! ;) Komisch, daß Nvidia-Karten nie lange in meinem Sys bleiben, die ATIs halten es irgendwie immer länger bei mir aus... :lol: (Geändert von kammerjaeger um 20:42 am Feb. 9, 2006)
-- Veröffentlicht durch Couchsurfer25 am 17:52 am 9. Feb. 2006
:moin: Also ich habe ne 1600pro drinne und ich habe COD2 mit 1024x768 max Details mit AA/AF oder halt auf 1280x1024 max Details OHNE AA/AF getestet Futtert die liebe Karte eigentlich verdammt gut... keine Ruckler feststellbar. Ich hatte vorher ne 6800GT drin und war eigentlich absoluter Nvidia Fan. Leider ist die Karte abgeraucht (ohne OC *grrrr*) und da ich nicht so viel Geld übrig hatte hab ich auf anraten meines PC-Fachverkäufers :) die 1600pro gekauft. Ich will mal so sagen ich merke kaum eine Geschwindigkeitsrückgang bei aktuellen Games (FEAR, Q4, COD2) was mich schon ein bisschen gewundert hat aufgrund der ganzen Fachzeitschriften Tests :noidea: Hinzu kommt das meine alte 6800GT irgendwie ne Phasenindifferentz in meinem Philips TFT verursacht hat... böse Streifen die sich langsam durch das Bild ziehen. Mit der neuen Karte ist das weg und irgendwie wirkt das Bild (sowohl beim Spielen als auch in Officefunktion) irgendwie schärfer... aber das ist nur ein subjektiver Eindruck! Kann jedem der eine Karte im Midrangesegment sucht die Karte nur ans Herz legen (trotz 128Bit Interface) ich vermisse meine 6800Gt auf jeden Fall nicht so sehr ;)
-- Veröffentlicht durch Kaffeeheld am 14:48 am 9. Feb. 2006
auf Seite 7 hier ist kammerjäger schon drauf eingegangen. Fazit das liegt nicht an der Karte, jedenfalls soll sie auch bei COD2 jetzte flüssig laufen :thumb:
-- Veröffentlicht durch Mome am 14:37 am 9. Feb. 2006
ich glaub auch nicht, dass die so lahm ist. Das lag garantiert an den Treibern. Zur Not kannste die Karte ja auch zurückschicken, wenn dir die Leitung absolut nicht gefällt.
-- Veröffentlicht durch blaueslicht am 14:21 am 9. Feb. 2006
Vielleicht ist das Problem ja schon mit neuen Treibern gelöst worden, aber solange Cod2 so langsam läuft, warte ich lieber auf die 7600gt. Hatte mal gehört, dass die Karte am 22.3. kommen soll, frag jetzt bitte nicht wo ich das gelesen habe... :noidea: Schade eigentlich, ich finde die X1600pro sehr interessant.
-- Veröffentlicht durch Kaffeeheld am 14:16 am 9. Feb. 2006
:blubb: hm das ja kommisch :noidea: werd nächste Woche die X1600pro auf AGP basis bekommen und mal schauen wie sie so bei COD2 abgeht :thumb: AOE3 und ganz wichtig wohl das hardware fressenste Game in moment X3 :thumb: (Geändert von Kaffeeheld um 14:18 am Feb. 9, 2006)
-- Veröffentlicht durch blaueslicht am 14:02 am 9. Feb. 2006
Du meinst die 6600gt. Die X1600pro hat den grünen Balken und daher nur 6fps. Leider.
-- Veröffentlicht durch Kaffeeheld am 13:48 am 9. Feb. 2006
@ blue woher hast das ?? hier nen test klick 1024x768 high quality über 20fps ;) (Geändert von Kaffeeheld um 13:49 am Feb. 9, 2006)
-- Veröffentlicht durch blaueslicht am 13:41 am 9. Feb. 2006
Hallo, bin momentan auf der Suche nach einer neuen Grafikkarte und verfolge alle Beiträge über die x1600pro mit großem Interesse. Wie läuft bei euch die x1600pro mit 256 MB eigentlich bei Call of Duty 2? Bei allen Benchmarks, die ich zu dem Spiel gesehen habe, stürzt die X1600pro immer auf 9fps oder ähnlich bei 1024x 1024 (no aa no af) ab, während andere Spiele eigentich relativ flüssig zu laufen scheinen. Könnt ihr bei diesem Spiel eure Eindrücke schildern? Die x1600pro ist momentan mein Favorit als Nachfolger für meine 9600pro, aber wenn sie bei Cod2 so abschmiert, schaue ich mir lieber noch andere Karten an, z.B. die 6800gs oder hoffentlich bald die X1700 oder die 7600gt. Ich bin nur Gelegenheitsspieler. CU Blaueslicht
-- Veröffentlicht durch nummer47 am 10:31 am 7. Feb. 2006
das freut mich zu hören. Eigentlich is das ja nix weiter als ne 6800le mit garantiereten 12 pipes. viel. geht ja sogar noch was mit dem rivatuner... oc geht bei dem kärtchen ja auch ziemlich gut. wie auch immer, da sie in der selben preisklasse wie die x1600 spielt denke ich das ich nen guten Griff gemacht habe. :thumb:
-- Veröffentlicht durch kammerjaeger am 1:29 am 7. Feb. 2006
Wenn Du wirklich auf AA/AF etc. verzichten kannst, dann war es wohl für Dich persönlich die richtige Entscheidung, denn bei mehr Qualität geht ihr die Puste aus. Aber ohne AA/AF reicht sie noch locker...
-- Veröffentlicht durch nummer47 am 0:32 am 7. Feb. 2006
Ich habe mir jetzt nach langem überlegen diese Karte hier geleistet. Wurde leider eher als geplant nötig da ich bei Ebay von so nem Arschloc* betrogen wurde... Egal. Nun wollte ich mich mal umhören ob die Entscheidung die richtige oder doch die falsche war. Spiele meist in 1280x1024 ohne aa/af usw. und? .. . (Geändert von nummer47 um 0:32 am Feb. 7, 2006)
-- Veröffentlicht durch kammerjaeger am 0:18 am 7. Feb. 2006
Man kann die Architektur der X1600 genausowenig mit anderen Karten vergleichen wie einen Wankelmotor mit einem Reihen- oder V-Motor. Wichtig ist in erster Linie, was dabei rauskommt. Und das ist gerade bei neueren Engines ggü. der 6600GT oder X700Pro/9800Pro sehr gut! Lediglich z.B. beim Massive Overdraw (AM3) sowie in der Multitexturing-Leistung hängt sie hinter einer 6600GT. Ansonsten hat sie besonders bei hohen Auflösungen und/oder Qualitätssettings klar die Nase vorn und bringt konstant hohe fps. Und obwohl sie im AM3 leicht hinter der 9800Pro liegt, ist sie in der Overall-Spieleperformance deutlich vor der 9800Pro. So ist die X1600 tatsächlich der Wankelmotor unter den Grafikkarten: Seidenweicher Lauf und guter Output trotz "bescheidener" Werte auf dem Papier.... :thumb: P.S.: Hatte früher mal einen RX7 Turbo. ;)
-- Veröffentlicht durch Patrik am 17:02 am 6. Feb. 2006
Mach mir Sorgen wegen meiner X1600Pro (Sapphire Lite Retail) Das neueste Everst 2006 V.2.50 zeigt mir an, dass diese Karte eine Busbreite von nur 64-bit mit Bandbreite 6480 MB/s und 12 Pipes hat. Und das neuste ATI-Tool0.25beta12 zeigt 128-bit und 4 aktive Pipes an. Kann es sein, dass die Karte nur 64 bit hat und intern(ringbus) mit 128 arbeitet. Ich dachte immer, die Karte hätte "echte" 128-bit und arbeitet intern irgendwie mit 256-bit???- oder ist die Karte einfach zu neu für diese o.g. Tools ?! Die Sache mit den Pipes weiß ich schon, 4X3=12 (Geforce 4TI hatte doch 4X2, nur da sprach man offiziell von nur 4Pipes, hatte doch dann damals schon 8, wenn man mit der X1600 vergleicht. Auf jeden Fall würd mich dass mit dem Speicher intersieren. Wenn die Karte wirklich nur 64-bit hätte, wäre sie unheimlich schnell,weil im Aquamark3 bekomm ich fast so viele Points wie mit der 9800Pro-256-bit.
-- Veröffentlicht durch kammerjaeger am 20:20 am 1. Feb. 2006
@ spraadhans Leider nicht sehr weit, könnte ein Bios-Lock sein. Mal schauen, ob ich noch eine zweite Karte davon teste... ;)
-- Veröffentlicht durch Patrik am 19:06 am 1. Feb. 2006
ne, ok,ist gut, die startexe bei fear, habs gerade eben gefunden
-- Veröffentlicht durch Patrik am 19:04 am 1. Feb. 2006
@kammerjaeger kannst du mir bitte sagen, welche datei bei fear umbenannt werden muss, dann läufts schneller bei gleicher quali???
-- Veröffentlicht durch spraadhans am 10:20 am 1. Feb. 2006
@ kammerjäger: wie hoch hast du deine x1600 bekommen?
-- Veröffentlicht durch bud am 9:39 am 1. Feb. 2006
@Patrik was heist vmod und speichermod ? heist daß, im bios die voltzahl erhöhen oder gibts die mods irgendwo?? im bios geht das nicht (zumindest bis jetzt nicht!!) unter "http://www.xtremesystems.org/forums/showthread.php?t=83562&highlight=x1600" der beitrag von "Lightman" steht im unteren drittel ca., ist zwar eine X1300, die dort abgebildet ist, aber man sieht die die meßpunkte und die widerstände die man mittels pencil-mod verringern kann, damit die spannung für vcore und mem-speicher steigen, nur die widerstandswerte die dort angegeben sind stimmen für die X1600pro nicht, da muß man selber messen und vorsichtig "pencil" auftragen und wieder messen usw..... das muß man sehr vorsichtig machen, den wenn die spannung zu hoch ist, was mittels "pencil" sehr leicht passieren kann, ist die karte sehr schnell kaputt!!!!!!!!!!!!!!
-- Veröffentlicht durch kammerjaeger am 23:04 am 31. Jan. 2006
Neue Treiber werden noch etwas bringen, aber ob das viel sein wird, steht in den Sternen, da niemand weiß, wie effektiv der Ringbus-Controller schon ausgenutzt wird. Bei Avivo wird sich noch Einiges tun.... P.S.: Bei Doom3 kannst Du noch einiges an Performance durch ein paar kleine ini-Änderungen rausholen, das bringt bis etwa 40%. Anleitungen dazu sollten hier oder im restlichen I-Net genug da sein. Somit sollte es auch in 1280x1024 mit 2xAA und 4xAF oder 8xAF flüssig laufen. Abstellen oder Reduzieren der Schatten bringt zusätzlich viel Performance. Bei FEAR nur die Datei umbenennen, das löst die "Handbremse". ;) (Geändert von kammerjaeger um 10:20 am Feb. 1, 2006)
-- Veröffentlicht durch N omega G am 22:11 am 31. Jan. 2006
Zitat von Patrik um 22:02 am Jan. 31, 2006 was heist vmod und speichermod ? heist daß, im bios die voltzahl erhöhen oder gibts die mods irgendwo?? würd mich mal interesieren auf core 550 und speicher 450 hab ich die SapphireX1600Pro schon ohne Probs bekommen. @Kammerjaeger hab jetzt mal doom3 getestet mit 1280X1024 und 4XAA, da ist die X1600Pro tatsächlich 6 Frames besser im Timedemo ( 21 Frames ) die 9800Pro nur 16 . ATI wird hoffentlich noch"Performance" Treiber bringen, schließlich gibts die X1600Pro AGP erst seit diesem Monat, oder was meint ihr?:)
| wunder brauchste nicht zu erwarten, ein paar frames könnten noch mehr werden, aber ich bezweifle mal große sprünge... stuzzy die 7800gs soll, wie es im moment aussieht, ~330€ kosten. und das für eine leistung einer 6800gt...
-- Veröffentlicht durch Patrik am 22:02 am 31. Jan. 2006
was heist vmod und speichermod ? heist daß, im bios die voltzahl erhöhen oder gibts die mods irgendwo?? würd mich mal interesieren auf core 550 und speicher 450 hab ich die SapphireX1600Pro schon ohne Probs bekommen. @Kammerjaeger hab jetzt mal doom3 getestet mit 1280X1024 und 4XAA, da ist die X1600Pro tatsächlich 6 Frames besser im Timedemo ( 21 Frames ) die 9800Pro nur 16 . ATI wird hoffentlich noch"Performance" Treiber bringen, schließlich gibts die X1600Pro AGP erst seit diesem Monat, oder was meint ihr?:)
-- Veröffentlicht durch kammerjaeger am 23:09 am 30. Jan. 2006
Zitat von Patrik um 16:54 am Jan. 30, 2006 Also, ich habe nochmal was getestet. Ich habe nochmal meine 9800Pro mit 256Bit eingabaut, catalyst 6.1 frisch aufgespielt und den timedemo mit doom3 gemacht. 1024X768, ohne AA/AF, High Qulity, 45 FPS das ganze nochmal mit den gleichen Settings im gleichen System mit X1600Pro, 40 FPS. Man merkt schon, dass die X1600Pro nur 128Bit Speicherinterface hat. OK, bei Fear hat die X1600Pro mehr Frames und schönere Effekte, aber mit der 9800Pro läuft Fear einfach flüssiger. Hoffe dass die treiber verbessert werden.;)
| Du wirst die Vorteile der X1600Pro erst bei AA/AF und/oder 1280x1024 merken. dann hat die 9800Pro nämlich keine Chance mehr. Wenn ich mir überlege, bei welchen Settings ich jetzt noch z.B. Q4 spielen kann. Da wurde es bei der 9800Pro doch schon recht ruckelig... ;)
-- Veröffentlicht durch Stuzzy am 20:02 am 30. Jan. 2006
Zitat von N omega G um 20:56 am Jan. 30, 2006
Zitat von yogibeere um 10:11 am Jan. 27, 2006 naja das letzte update ist es nicht es wird vermutlich noch eine 7800gs für agp auf den markt kommen , die ungefähr dieselbe leistung aufbringt wie eine 7800gt ist eben die 6800gs der 7er reihe :thumb: Gruß Yogibeere
| die wird etwa die leistung zwischen 6800gt und ultra haben. da die nur 16 pipes hat und takt wahrscheinlich: 350/500 @patrik das kann ich mir nur schwer vorstellen :noidea: das 128 bit speicherinterface merkt man nur seeehr selten bei manchen sachen. @stuzzy wird nicht sooo viel bringen. also fürn aufpreis von 30-50 würde sich das lohnen, mehr aber nicht!
| ich müsste sie neu kaufen: satte 150 euro... Dann kauf ich die net:thumb: und warte auf die 7800GS oder hole mir demnächst n PCI-E board plus graka
-- Veröffentlicht durch N omega G am 19:56 am 30. Jan. 2006
Zitat von yogibeere um 10:11 am Jan. 27, 2006 naja das letzte update ist es nicht es wird vermutlich noch eine 7800gs für agp auf den markt kommen , die ungefähr dieselbe leistung aufbringt wie eine 7800gt ist eben die 6800gs der 7er reihe :thumb: Gruß Yogibeere
| die wird etwa die leistung zwischen 6800gt und ultra haben. da die nur 16 pipes hat und takt wahrscheinlich: 350/500 @patrik das kann ich mir nur schwer vorstellen :noidea: das 128 bit speicherinterface merkt man nur seeehr selten bei manchen sachen. @stuzzy wird nicht sooo viel bringen. also fürn aufpreis von 30-50 würde sich das lohnen, mehr aber nicht!
-- Veröffentlicht durch bud am 18:56 am 30. Jan. 2006
"hast du mal probiert die X1600 zu OCen? was war dann möglich an Takt?" X1600pro AGP Saphire: standart: Core: 500 Mem: 405 übertaktet: Core: 577 Mem: 450 übertaktet vmod von standard 1.33 volt auf 1,45 volt: Core: 621 übertaktet vmod von standard 1.33 volt auf 1,50 volt: Core: 642 übertaktet speicher-mod von standard 2,07 volt auf 2,12 volt: Mem: 459 mehr als 2,12 volt bei speicher-mod bringt nichts! (Geändert von bud um 19:11 am Jan. 30, 2006)
-- Veröffentlicht durch Stuzzy am 18:11 am 30. Jan. 2006
Zitat von Stuzzy um 12:57 am Jan. 30, 2006 Ist die 1600Pro wohl ein grosser leistungsschritt verglichen mit meiner 6200 @ 8 Pipes und 420/730 ? 3Dmark 05 macht se knapp 3000 pkt, aber mir kommst mehr auf die spiele drauf an... kaufen oda net:noidea: PS: Natürlich AGP:punk: edit: Kaufen könnt ich ne Sapphire 1600Pro AGP für umgerechnet 153Euro. Edit2: Sapphire ATi RADEON X1600 PRO Spezifikationen 500 MHz Chiptakt 780 MHz Speichertakt 256 MB GDDR3 128-bit Speicher Interface 12 Pixel Pipelines AGP RAMDAC 2x400 MHz FullStream (Video-deblocking) - Real, divX, WMV9, MPEG-2, MPEG-4,VC-1, H.264 (Geändert von Stuzzy um 14:04 am Jan. 30, 2006)
| kann mir das jemand beantworten? Meine 6200er hat übrigens auch nur 128Bit
-- Veröffentlicht durch Mome am 17:04 am 30. Jan. 2006
schade hast du mal probiert die X1600 zu OCen? was war dann möglich an Takt?
-- Veröffentlicht durch Patrik am 16:54 am 30. Jan. 2006
Also, ich habe nochmal was getestet. Ich habe nochmal meine 9800Pro mit 256Bit eingabaut, catalyst 6.1 frisch aufgespielt und den timedemo mit doom3 gemacht. 1024X768, ohne AA/AF, High Qulity, 45 FPS das ganze nochmal mit den gleichen Settings im gleichen System mit X1600Pro, 40 FPS. Man merkt schon, dass die X1600Pro nur 128Bit Speicherinterface hat. OK, bei Fear hat die X1600Pro mehr Frames und schönere Effekte, aber mit der 9800Pro läuft Fear einfach flüssiger. Hoffe dass die treiber verbessert werden.;)
-- Veröffentlicht durch Stuzzy am 11:57 am 30. Jan. 2006
Ist die 1600Pro wohl ein grosser leistungsschritt verglichen mit meiner 6200 @ 8 Pipes und 420/730 ? 3Dmark 05 macht se knapp 3000 pkt, aber mir kommst mehr auf die spiele drauf an... kaufen oda net:noidea: PS: Natürlich AGP:punk: edit: Kaufen könnt ich ne Sapphire 1600Pro AGP für umgerechnet 153Euro. Edit2: Sapphire ATi RADEON X1600 PRO Spezifikationen 500 MHz Chiptakt 780 MHz Speichertakt 256 MB GDDR3 128-bit Speicher Interface 12 Pixel Pipelines AGP RAMDAC 2x400 MHz FullStream (Video-deblocking) - Real, divX, WMV9, MPEG-2, MPEG-4,VC-1, H.264 (Geändert von Stuzzy um 14:04 am Jan. 30, 2006)
-- Veröffentlicht durch wakko0816 am 20:44 am 29. Jan. 2006
ich muss mich patrik anschliessen. das preis-leistungs-verhältnis der x1600pro(agp)ist voll in ordnung. und bei mir der schritt von ner 9600xt auf x1600 schon sehr deutlich zu spüren. danke an kammerjäger für den tip :thumb: nur schade, dass ich die karte bis jetzt nicht unter linux mit den ati-treibern zum laufen gebracht habe. die R5xx reihe wird wohl noch nicht unterstützt. schade :( bis dahin muss halt der vesa-treiber herhalten.
-- Veröffentlicht durch kammerjaeger am 23:45 am 28. Jan. 2006
Na dann gratuliere ich. :thumb: So sollte das Sys bis zum nächsten größeren Umbau überleben können...
-- Veröffentlicht durch Patrik am 19:49 am 28. Jan. 2006
so, nun habe ich meine X1600Pro eingabaut, für das Geld ist diese ok !!! Zum Vergleich meiner 9800Pro kann ich nun Quake4 fast ohne Einbrüche mit Schatten spielen, und MostWanted sieht mit Schatten um Längen besser aus, nur ist die 9800Pro bei MostWanted ohne Schatten ein bisschen schneller. Mehr hab ich noch nich getestet. Werde aber 9800Pro verkaufen und die Sapphire X1600Pro behalten. Noch was zu Avivo, mit der X1600 geht das encoden mit dem Avivo encoder 5X schneller als mit der 9800Pro(wird ja nicht unterstützt), ich habs getestet. Ein DivX Movie 700MB in MPeg2, vorher 25 Minuten, jetzt 4min56s !!! Das ist einfach unglaublich !!!! Der Kammerjaeger hat auf jeden Fall recht ! Es gibt 2 Versionen des Avivo Programms, einmal eine freie für alle Systeme, dann eine, die aber nur mit X1000er Serie läuft. Beide Versinonen unterscheiden sich nur technisch. Bedienung,Optik,Funktionsumfang und Installation ist identisch. xxxxxxxxxxxxxxxxxxxx hoffe die 60 Euro Verlust zur 9800Pro haben sich gelohnt
-- Veröffentlicht durch yogibeere am 10:11 am 27. Jan. 2006
naja das letzte update ist es nicht es wird vermutlich noch eine 7800gs für agp auf den markt kommen , die ungefähr dieselbe leistung aufbringt wie eine 7800gt ist eben die 6800gs der 7er reihe :thumb: Gruß Yogibeere
-- Veröffentlicht durch Patrik am 9:57 am 27. Jan. 2006
ok danke, werd mir mal eine über geizhals bestellen, ist ja nich zu teuer. Für eine 256 Bit 9800Pro bekommt man bei ebay ja noch was, und dieser vermutlich letzte upgrade für den AGP Port ist dann auch nich zu kostspielig!
-- Veröffentlicht durch kammerjaeger am 2:10 am 27. Jan. 2006
Die Frage ist natürlich, in welchen Auflösungen und Settings Du spielen willst! Sie ist definitiv schneller bei neueren Engines als die 9800Pro, aber ob der Wechsel lohnt, hängt wirklich von Engine und Settings ab. ;)
-- Veröffentlicht durch Kaffeeheld am 1:16 am 27. Jan. 2006
also ein riesen sprung kannst du nicht erwarten, da du ja dir neh AGP holen tust, dann kauf dir lieber eine X800GTO ;)
-- Veröffentlicht durch Patrik am 0:46 am 27. Jan. 2006
Hi,Hi, also, habe eine 9800Pro von MSI mit 128MB 256-Bit. Habe auch vor, mir die 1600Pro für AGP zu holen. Wie wird damit COD2 im DX9 Modus spielbar sein, - und wird sie auch noch ein bissel Power haben für UT2007 ??. wenigsten für Multiplayer, wäre für mich wichtig als Clanmitglied !!! Also, ich muss mit meiner 9800Pro bei Spielen wie Fear,Quake 4,NFSMostWanted die Schatten ganz ausmachen um flüssig zu spielen. Dafür aber mit AA4X. Irgendwie gefällts mit ohne Schatten sogar besser, aber man hat halt das Gefühl, es fehlt was und ist unglücklich, oder ??? Die Aussagen von Kammerjaeger finde ich gut, bin auch kein NV Fan, hatte das auch früher und war eigentlich immer enttäuscht. Vorallem weil NV dann später die Technik von 3DFX geklaut hat und 3 DFX hat dann bei einer Gerichtsverhandlung verloren, und NV hat die Firma billig gekauft. - ATI hingegen hat alles aus eigener Kraft gekauft(wie S3), man müsste NV die Lizens für S3 wegziehen, dann würden die Texturen unter OpenGL bei NV Karten keine Details darstellen können. Ich war früher S3TC Fan. 3 DFX hatte ja die FXT1 Technik unter "GLIDE"-Schnittstelle. zb bei UT. Bitte um Antwort, v.a. von Kammerjaeger ok, bye:punk: (Geändert von Patrik um 0:55 am Jan. 27, 2006) (Geändert von Patrik um 0:57 am Jan. 27, 2006) (Geändert von Patrik um 0:59 am Jan. 27, 2006)
-- Veröffentlicht durch Mome am 15:21 am 25. Jan. 2006
Als ich gestern durch den Saturn getingelt bin, lag da schon so ne X1600Pro AGP von Sapphire. Natürlich zu den üblich bombastischen Preisen... (170Euro:lol::lol:)
-- Veröffentlicht durch Kaffeeheld am 13:40 am 25. Jan. 2006
Sapphire 1600pro 256 bzw. 512 AGP Graka Details hier Klick :thumb:
-- Veröffentlicht durch kammerjaeger am 14:47 am 22. Jan. 2006
Naja, super Karte ist eben relativ. Natürlich ist z.B. eine X1800XT besser, aber in ihrer Preisklasse ist die X1600Pro nunmal unschlagbar! ;)
-- Veröffentlicht durch poschy am 13:24 am 22. Jan. 2006
Zitat von kammerjaeger um 12:30 am Jan. 22, 2006 Wie gesagt: Ich spiele alles in 1024x768 4xAA/8xAF bis 1280x1024 2xAA/8xAF und Detail fast alles auf max.. Also nicht so schlecht... ;)
| hab mich leider noch nicht so wirklich mit der karte beschäftigt.. klingt aber schonmal recht vielversprechend! wenn du dann noch sagst dasses ne super karte ist glaubbich dir das einfach mal (= bis jetzt haben deine aussagen immer gestimmt.. also wirds wohl diesmal auch wieder stimmen ;)
-- Veröffentlicht durch N omega G am 12:58 am 22. Jan. 2006
Zitat von poschy um 12:24 am Jan. 22, 2006 na wenn ich wegen der geringen leistung nur n kleine auflösung fahren kann aber die karte ne gute bildquali hat..
| die sache ist ja die, dass du eine bessere bildquali bei gleicher performance hast ;) ist aber nur bei highend karten so entscheidend, denn wer will schon 400-600 euro ausgeben und dann nur ne zufriedenstellende bildqualität im vergleich zu haben.
-- Veröffentlicht durch kammerjaeger am 12:30 am 22. Jan. 2006
Wie gesagt: Ich spiele alles in 1024x768 4xAA/8xAF bis 1280x1024 2xAA/8xAF und Detail fast alles auf max.. Also nicht so schlecht... ;)
-- Veröffentlicht durch poschy am 12:24 am 22. Jan. 2006
na wenn ich wegen der geringen leistung nur n kleine auflösung fahren kann aber die karte ne gute bildquali hat..
-- Veröffentlicht durch kammerjaeger am 12:16 am 22. Jan. 2006
@ Verlangsamen Nur daß es eben mal wieder eine Software-Lösung ist und nicht wie bei ATI in die Hardware integriert! Ich wiederhole mich nur ungern, aber wie gesagt, man kann auch Doo3 auf einer Voodoo oder BF2 auf einer GF4TI zum Laufen bekommen, nur macht es eben deutlich weniger Spaß, als wenn man hardwareseitig die passenden Voraussetzungen gegeben hat! ;) @ poschy Wie meinst Du das mit "jeden einzelnen Pixel sehen"? (Geändert von kammerjaeger um 12:18 am Jan. 22, 2006)
-- Veröffentlicht durch poschy am 12:16 am 22. Jan. 2006
Zitat von kammerjaeger um 19:23 am Jan. 21, 2006 Und frag mal poschy, warum er sein 6600GT-SLI rausgeworfen hat... ;) Daher auch unwichtig!
| bloß kein 6600gt sli gespann.. finger weg! das einzigste was dran kuhl war, warn die augen (O_O) auf lanparty.. =P (wobei man mitlerweile selbst mit 2 * 6800gt n niemand ist!) fasse mal kurz meine sli erfahrungen zusammen: - Hoher Stromverbrauch - In spielen kaum merkbarer leistungsunterschied (~ 25%), wobei man ja 2 karten also auch 100% mehr erwarten sollte? - für benchmarkgeilheit perfekt! (die einzigste disziplin wo mal + 80-90% mehr erreicht werden!) aber mal ganz kurz zur besseren bildquali bei den neuen atis.. mag bei der high end klasse ja super sein. aber mal ganz erlich, was bringt mir im mid-range bereich ne gute bildquali wenn ich jeden einzelnen pixel sehe?
-- Veröffentlicht durch Beschleunigen am 11:39 am 22. Jan. 2006
hab' wg. der NV karte mal etwas zum thema HDV beschleunigung und deren unterstützung gefunden: http://www.golem.de/0601/42814.html :punk: (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 10:36 am 22. Jan. 2006
Hängt extrem von der verwendeten Engine ab. Bei einigen Titeln wirst Du keinen merklichen Unterschied feststellen können, bei anderen Titeln jedoch ganz klar die Vorteile spüren (Q4 etc.). Wie leise die AGP-Varianten sind, kann ich nicht sagen. Bei PCIe jedoch sind die Unterschiede z.T. extrem. Neben der passiven Gigabyte ist die MSI sehr angenehm, die Connect3D hingegen hat einen unangenehmen hochfrequenten Ton. Achte also auf den verbauten Kühler!
-- Veröffentlicht durch leunaM am 21:14 am 21. Jan. 2006
Wie sieht es eigentlich mit dem Unterschied zu einer 9800 Pro aus? Ist die x1600 pro da deutlich schneller? Ich habe im Moment eine 9800 Pro mit 128MB Ram (256 Bit) und interessiere mich für eine AGP Grafikkarte mit 256MB Ram für weniger als 150 Euro. Da stach mir die x1600 pro ins Auge. Deren Features sind mir eigentlich ziemlich egal, ich will halt eine Graka die etwas schneller ist (die Geschwindigkeit der 9800 Pro reicht mir eigentlich sogar im Moment - hat mir nur zu wenig Speicher) mit mehr RAM (für Bf2 und Everquest2, die verspeisen Grafikspeicher zum Frühstück wenn man die Texturdetails hochdreht). Großartig FPS brauch ich nicht. Ich will ne Karte die leise ist und wenig Strom saugt. Da es die x1600 pro ja jetzt für AGP gibt, käme die für mich in Betracht. Wieviel schneller ist die x1600 pro in etwa als eine 9800 pro? Wenn überhaupt?
-- Veröffentlicht durch Philly am 21:13 am 21. Jan. 2006
Äh ...Ups ich brauch einen ATI Chipsatz, um die X1600 z.B. im Crossfire Mode zu nutzen ? :noidea: des is ja doof :(
-- Veröffentlicht durch kammerjaeger am 19:23 am 21. Jan. 2006
Und frag mal poschy, warum er sein 6600GT-SLI rausgeworfen hat... ;) Daher auch unwichtig!
-- Veröffentlicht durch Falcon am 18:46 am 21. Jan. 2006
Bei ihm steht eh ein Neukauf an :)
-- Veröffentlicht durch Beschleunigen am 18:36 am 21. Jan. 2006
wer hat schon ein ATI mainboard? (..) mfg tobi
-- Veröffentlicht durch Falcon am 18:09 am 21. Jan. 2006
x1600pro/XT lassen sich auch vorzüglich übertakten. Crossfire kannst du auch machen mit x1600ern, brauchst nich mal ne master/slave karte sondern einfach zwei identische
-- Veröffentlicht durch Philly am 17:52 am 21. Jan. 2006
Also nochmal zum Zusammenfassen, nach eurer etwas "unwichtigen" Diskussion: Die X1600PRO ist etwas schneller als eine 6600GT. Bietet zudem den "Vorteil" von der besseren Bildqualität, bessere "Zukunftssicherheit" und den kleinen Vorteil Avivo. Die 6600GT kann im Vergleich dazu, übertaktet werden (weit?) und ist damit der X1600PRO ein wenig vorraus (Übertaktet!). Weiterhin ist es möglich zwei 6600GT's im SLI-Mode zu betreiben. Preislich tun sich diese beiden Karten nicht viel. Korrekt? Welche soll ich mir jetzt kaufen? Ich möchte definitiv übertakten! ...Welche Karte hat mehr Potenzial und somit mehr Speed? MfG
-- Veröffentlicht durch kammerjaeger am 15:01 am 21. Jan. 2006
Zu der X1600XT gibt es reichlich Tests. Und wenn die X1600Pro schon so schnell ist wie die 6600GT (bzw. sie in HQ sogar stehen läßt), dann dürfte klar sein, daß die X1600XT ihr davonrennt. Das belegen auch die Tests, wenn man von ein paar synthetischen Benchmarks absieht, bei denen sich die Multitexturing-Leistung im Vergleich zu realen Spielen zu stark bemerkbar macht. ;) Das Hauptproblem bei der XT ist eben nur der Preis. Der liegt schon zu nah an X800GTO, X800XL und 6800GS. Wer also nicht auf Avivo Wert legt, der ist mit den anderen Karten oft besser bedient... P.S.: Irgendwie kommt mir die Situation bekannt vor. Wenn ich mir die Benchmarks 6600 vs. X1600 so anschaue, dann haben wir wieder ein ähnliches Bild wie "damals" beim Vergleich FX5800/5900 vs. R9700/9800: Die Nvidia bricht bei AA/AF deutlich ein, die ATI nicht. Auch bei neueren Engines kann sich die X1600 klar absetzen, was bei der 9700/9800 aufgrund der besseren Shader-Performance genauso war. Wenn ich das mal zusammenfasse, dann wird die ATI auch einen besseren Wiederverkaufswert erzielen, da sie in 1-2 Jahren eher in der Lage sein wird, die meisten Spiele noch problemlos zu bewältigen (wenn auch nicht in 1600x1200...), während die 6600 dann schon deutlich an ihre Grenzen stoßen wird. Es wird also Zeit, daß Nvidia nicht nur die 7600 bringt, sondern diese auch zu attraktiven Preisen anbietet, sonst sieht es um Nvidia besonders in der wichtigen "Mittelklasse" und "Einsteigerklasse" schlecht aus! Die grottige 7300 wird da erst recht nix retten können. Hoffen wir, daß die 7600 preislich gut angesiedelt ist, denn Konkurrenz ist immer gut... (Geändert von kammerjaeger um 15:13 am Jan. 21, 2006)
-- Veröffentlicht durch Kauernhoefer Speedy am 14:41 am 21. Jan. 2006
Wenn ich euren Streit mal kurz unterbrechen dürfte :lol: Hat schon jemand eine X1600 XT getestet? Sie mit 600/1400 Standart getaktet, das sie schneller als die billigere "pro" Version ist, ist logisch. Wie siehts im direkten Vergleich mit der 6600GT aus?:noidea: Hauptsächlich gehts um die Spieleperformance in "normalen" TFT Auflösungen. Also 1024x768 u. 1280x1024. Videos werden nicht bearbeitet.
-- Veröffentlicht durch kammerjaeger am 11:26 am 21. Jan. 2006
Zitat von Beschleunigen um 10:56 am Jan. 21, 2006 das klientel, das nur 100euro für eine graka zur verfügung hat, wird wohl kaum das budget für HDV aufbringen. oder guckt man das dann auf dem 17" CRT, weil man kein geld für ein wohnzimmer LCD hat? apropos wohnzimmer: es wird auch HDV taugliche stationäre recorder bzw. settop-boxen geben ;)
| Die gibt es schon, denn wie gesagt nutzen sie die gleiche Technik! Und Du scheinst zu vergessen, daß der HTPC immer stärker wird. Wer braucht dann noch stationäre Recorder und Settop-Boxen, wenn alles mit dem PC gemacht wird? Und genau dafür sind Karten wie eine X1600Pro ideal. Damit kann man sein komplettes DVD/VCR-Equipment vergessen und hat eine stromsparende Karte, die auch noch leise zu kühlen ist (die Gigabyte sogar ab Werk für ca. 115,- passiv!) und auch noch für alle aktuellen Spiele ausreichend schnell ist. Dazu kann man dann einen stromsparenden Prozessor einsetzen (z.B. einen Sempron S.754 mit C&Q), da dank Avivo keine große CPU-Power gebraucht wird, und hat einen idealen, preiswerten und leisen HTPC! Und das spricht genau diejenigen an, die auch auf HDTV stehen! Du darfst nicht immer nur nach Dir gehen, denn Du bist nicht der typische Massenmarkt! Deshalb ist z.B. auch Deine Argumentation bzgl. supersampling bzw. mixed-mode AA absoluter Unsinn, denn die wenigsten User haben/wollen SLI! Für Dich mag es die optimale Lösung sein, aber Du mußt eben auch mal lernen, an den Otto-Normal-User zu denken. ;)
-- Veröffentlicht durch Beschleunigen am 10:56 am 21. Jan. 2006
Und was die Bildqualität angeht, da schau Dir mal z.B. das oder das an. Gegen adaptives AA sieht das transparente AA der NV ziemlich blaß aus.
| du vergisst dabei, wem du das gerade zu veranschaulichen versuchst. ich habe zwei karten und nutze eigentlich ausschliesslich supersampling bzw. mixed-mode AA. das glättet mal eben den kompletten kontent. ich brauche kein partiell-wirkendendes adaptives AA, weil ich keine füllraten/bandbreiten -probleme kenne. nochmal: ich hab' zwei karten. bei einzelkarten ist das natürlich der logische schritt, um gute optik mit der verfügbaren leistung zu erzielen. bei SLi ist das obsolet. da wirken die verfügbaren AA modi eher winzig.
Ach, auf einmal stellt sich also heraus, daß Du gar nicht weißt, wovon Du redest?
| genau! und mit meinen kameras kann ich eigentlich auch nicht umgehen. ich schaffe es aber, seit bestimmt 10-15 jahren alle zu blenden (früher noch analog, heute digital). ich hab' schonmal drauf hingewiesen, dass ich mit overlay-effekten auf DV material arbeite. nicht mit raub- oder DVD- kopien oder sceenern ausm netz, die ich auf meiner PSP abspielen möchte.
Wie wäre es z.B. mit dem Umwandeln von HD- und BlueRay-Discs in andere Formate, um sie zu anderen Playern kompatibel zu machen?
| stimmt - könnte leute geben, die sowas benötigen, aber das ist echt zukunftsmusik, die heute niemand überprüfen/anhören kann. das ist noch sehr viel weiter weg, als HDR und SM3 zusammen.
Oder eine Optimierung der Bildqualität einiger Formate "on-the-fly" beim Abspielen?
| meinst du jetzt das vermeiden von artefakten? das kann für noobs echt ein vorteil sein. also für leute, die mit minderwertigen encodern od. aufgrund von mangelndem wissens im umgang mit encodern, überhaupt erst artefakte in ihre videos einbauen.
Direkte Aufnahme von HD-tauglichem Material in fast jedes beliebige Format?
| wird sicher nur mit ATI hardware und AVIVO möglich sein, wenn es dann mal irgendwann soweit ist (mitte/ende 2006/für DVBt irrelevant). glaubst du doch selbst nicht, oder?
Dies sind nur ein paar mögliche Anwendungen, Avivo wird bald noch viel mehr können als es z.Zt. der Fall ist, und das auch noch schneller als bis jetzt!
| ..sagt die "wie verkaufe ich richtig" -broschüre. wie wäre es, wenn wir es einfach abwarten? bis es soweit ist, ist die x1800 schon wieder lange überholt. AFAIR sind ab kommenden dienstag schon die x1900 werte verfügbar. P.S. selbst auf matrox oder S3 hardware wird HDV kein problem sein, wenn es dann soweit ist. P.P.S. das klientel, das nur 100euro für eine graka zur verfügung hat, wird wohl kaum das budget für HDV aufbringen. oder guckt man das dann auf dem 17" CRT, weil man kein geld für ein wohnzimmer LCD hat? apropos wohnzimmer: es wird auch HDV taugliche stationäre recorder bzw. settop-boxen geben ;) have phun :punk: (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 10:31 am 21. Jan. 2006
Zitat von Beschleunigen um 9:43 am Jan. 21, 2006
P.S.: Was bringt mir eine Softwareumsetzung von Avivo auf einer Nvidia oder älteren ATI?
| keine ahnung. ich sage doch, dass ich nicht weiss, was der transcoder bringen soll bzw. wozu man etwas schon encodetes nochmal transcodieren sollte..
| Ach, auf einmal stellt sich also heraus, daß Du gar nicht weißt, wovon Du redest? Wie wäre es z.B. mit dem Umwandeln von HD- und BlueRay-Discs in andere Formate, um sie zu anderen Playern kompatibel zu machen? Oder eine Optimierung der Bildqualität einiger Formate "on-the-fly" beim Abspielen? Direkte Aufnahme von HD-tauglichem Material in fast jedes beliebige Format? Dies sind nur ein paar mögliche Anwendungen, Avivo wird bald noch viel mehr können als es z.Zt. der Fall ist, und das auch noch schneller als bis jetzt! Und was die Bildqualität angeht, da schau Dir mal z.B. das oder das an. Gegen adaptives AA sieht das transparente AA der NV ziemlich blaß aus. ;) Was jvcc sagt, stimmt. Natürlich kann man, wenn man genau hinschaut, Unterschiede mit HDR und SM3.0 sehen, aber diese sind nun wirklich mehr als verzichtbar. HDR bringt praktisch gar nix an wahrnehmbarem Vorteil und SM3.0 wird von vielen Usern sogar eher als störend empfunden bzw. wirkt wie extreme Überbelichtung, die man auch durch Änderungen in Helligkeit/Kontrast/Gamma-Werte mit ähnlichem Effekt erreichen kann. Daß man es wirklich nicht braucht, das bestätigen auch viele andere User, wie z.B. poschy, die beides kennen und trotz "Downgrade" nix vermissen oder nach dem Upgrade keine Vorteile spüren. Einzig und allein bei SplinterCell3 sieht man gravierende Unterschiede, aber das liegt nicht an SM3.0 vs. SM2.0, denn SC3 unterstützt nunmal (bei Release Nvidia zuliebe) kein SM2.0, sondern fährt direkt auf SM1.1 runter, wenn kein SM3.0 verfügbar ist. ;)
-- Veröffentlicht durch Beschleunigen am 9:43 am 21. Jan. 2006
P.S.: Was bringt mir eine Softwareumsetzung von Avivo auf einer Nvidia oder älteren ATI?
| keine ahnung. ich sage doch, dass ich nicht weiss, was der transcoder bringen soll bzw. wozu man etwas schon encodetes nochmal transcodieren sollte.. ich hab' eben aus spass ein 90minuten AVI (divx) mit dem teil zu mpeg2 transcodiert. hat 15-17 minuten @ 2.5GHz gedauert. nur wozu braucht man sowas?
aber momentan binn ich mit ATI total zufrieden und auch wenn ich beim 3D-mark 06 nur 21xx punkte erreiche so hab ich bis jetzt noch kein spiel gespielt bei dem ich auf irgendwas verzichten musste ^^
| es gibt etliches, auf das du verzichten musst. ich hab' mir gestern beispielsweise fable installiert. das kann ich schön spielen, auf maximalen einstellungen (die sind auf SM2 karten gar nicht wählbar). und natürlich mit 8xS AA, was wg. des supersampling-anteils auch alpha-texturen glättet. sieht sehr geil aus und spielt sich erste sahne. gleiches gilt auch für meinen favoriten AOE3. das game läuft seit dem letzten patch auch göttlich @max (supersampling AA + shader3 + max. schatten). das thema unterfilterung beim anisotropen filter sollte auf der G70 eigentlich seit forceware 78.03 obsolet sein (bei ca. 4% leistungsrückgang). generell kümmert mich das aber nicht, da sich texturflimmern auf meinen NV4x GPUs noch gut mit HQ im treiber abstellen lässt, sofern es überhaupt irgenwo sichtbar ist. den G70 lass ich aus und der geforce8 wird dann auch winkelunabhänigige anisotrope texturfilterung unterstützen. und zum thema high-dynamic range-rendering gibts ja schon genug artikel im 3DC zu lesen, als dass ich nochmal drauf hinweisen müsste, dass man es erleben muss. auf screenshots lässt sich eine iris-simulation nunmal leider nicht festhalten und blending ist ja auch nicht die einzige funktion einer HDR tauglichen HW. have phun :punk: (..) mfg tobi (Geändert von Beschleunigen um 9:48 am Jan. 21, 2006)
-- Veröffentlicht durch kammerjaeger am 23:21 am 20. Jan. 2006
Zitat von Beschleunigen um 18:39 am Jan. 20, 2006 @kammerjäger aha.. sehr interessant deine erklärung. :noidea: hab' mich ja etwas länger nicht mehr mit computer-verkäufern unterhalten. 3DC thread zum thema AVIVO have phun, alter mann :punk: ich hab' doch verständnis für deine situation. hast hier bestimmt viele kunden im forum und es kommt ja weniger drauf an, was man verkauft - hauptsache man verkauft überhaupt etwas. lieber 20 X1600PRO, als null bis zwei GTX'en. wahrscheinlich hält es auch die kosten niedrig.
| Na dann lies den Thread mal ohne die rosarote Nvidia-Brille! Wohl einer der wenigen User, die dort den Durchblick haben, ist deekey777, und auch der hat scheinbar erkannt, daß Avivo noch sehr ausbaufähig ist und momentan eher rudimentär genutzt wird. Aber wichtig sind eben die Anlagen, denn die nächsten 2-3 Monate werden einiges an Treiber-Gewinn bereithalten. Das war übrigens bei der ersten DX8-Karte von ATI nicht anders. Bei der 8500 hat man im ersten Jahr locker >50% mehr Shader-Performance nur durch Treiber herausgeholt. Das wird beim Ringbus-Controller ähnlich sein, der auch noch nicht optimal genutzt wird. Bei Avivo sind die Reserven sogar noch deutlich größer. Schließlich hat sich schon mit dem jetzigen Treiber der Wert im HQV ggü. dem Vorgänger fast verdreifacht (von den 38 Punkten bei Anandtech auf aktuell 107!). Das ist noch lange nicht das Ende der Fahnenstange... ;) Wenn Du das nicht einsehen willst, dann tust Du genau das, was Nvidia mit dem Kyro gemacht hat: Einen ernstzunehmenden Konkurrenten durch billige Propaganda schlecht machen, weil man den eigenen Untergang verhindern will. :lol: Leider hat Nvidia ggü. STMicro genügend Marktstärke gehabt, um ihr Ziel zu erreichen (und dabei auch Hercules als wichtigsten Kyro-Befürworter an den Rand des Ruins zu treiben, wovon sie sich nie erholt haben). Nur ist glücklicherweise ATI stark genug, nicht auch dieses Schicksal zu erleiden. Wäre doch schade, denn Konkurrenz belebt das Geschäft. :thumb: P.S.: Was bringt mir eine Softwareumsetzung von Avivo auf einer Nvidia oder älteren ATI? Das wäre so wie BF2 auf einer GF4TI oder Doom3 auf einer Voodoo zu spielen. Es funzt - nur macht es weder Spaß noch Sinn. Wenn Avivo durch passende Treiber erst voll zur Geltung kommen wird, dann wirst auch Du (hoffentlich) seinen Sinn verstehen... (Geändert von kammerjaeger um 23:39 am Jan. 20, 2006)
-- Veröffentlicht durch jvcc am 22:53 am 20. Jan. 2006
so nun mus ich hier auch mal meinen senf abgeben :lol: ich binn for einiger zeit fon ner GF4 Ti 4600 auf ne 9800pro umgestiegen ..... und mich hat der bildqalivorteil der ati so fon hocker gehauen das ich nun viel fon ati halte ( war forher auch NV fan ;) man höhrt ja auch offt fon den 7800GT ( GTX) das sie in games ne bescheidene bildquali haben und erst auf den höchsten settigs mit ATI´s normalsettings mithalten können ....... hab da mal wo nen test gelesen wo sie die grakas so eingestellt haben das ebide ne vergleichbahre bildquali hatten ..... und siehe da da war ATI aufeinmal "schneller" :lol: ebenso find ichs komisch das einige fon HDR schwärmen ..... (hab mir schon einige screenshots angesehen und ned wirklich "das is geil das muss ich haben" gesehen ) ...... und for lauter super optick die schei.... bildquali total übersehen :noidea: naja fieleicht probier ich ja irgendwann mal wieder ne NV aus ^^ aber momentan binn ich mit ATI total zufrieden :thumb: und auch wenn ich beim 3D-mark 06 nur 21xx punkte erreiche so hab ich bis jetzt noch kein spiel gespielt bei dem ich auf irgendwas verzichten musste ^^ meine meinung momentan ist das ATI die bessere bildqali hat und NV hald etwas schneller ist ^^ ( gut für leute die benchmarkprogramme "zocken" :lol:) m.f.g. JVC
-- Veröffentlicht durch Beschleunigen am 18:39 am 20. Jan. 2006
@kammerjäger aha.. sehr interessant deine erklärung. :noidea: hab' mich ja etwas länger nicht mehr mit computer-verkäufern unterhalten. 3DC thread zum thema AVIVO have phun, alter mann :punk: ich hab' doch verständnis für deine situation. hast hier bestimmt viele kunden im forum und es kommt ja weniger drauf an, was man verkauft - hauptsache man verkauft überhaupt etwas. lieber 20 X1600PRO, als null bis zwei GTX'en. wahrscheinlich hält es auch die kosten niedrig. (..) mfg tobi (Geändert von Beschleunigen um 18:51 am Jan. 20, 2006)
-- Veröffentlicht durch kammerjaeger am 18:30 am 20. Jan. 2006
Zitat von Beschleunigen um 9:32 am Jan. 20, 2006 AVIVO nutzt weder auf ATI, noch auf NV hardware, irgendwelche funktionen der grafikkarte.
| Dann solltest Du (und die Jungs von 3DCenter) Dich mal besser informieren! ATI hat hardwareseitig die gleichen Funktionen implementiert wie der Xileon (ein Video-Chip von ATI, der z.B. in den meisten HD-Großbildfernsehern steckt). Zusätzlich geht man davon aus, daß auch die Vertex-Einheiten mit genutzt werden. Aber sowas übersieht man in seinem Markenwahn wohl gerne, wenn es einem nicht in den Kram passt. ;) Wie gesagt: In Avivo und der Ringbus-Technologie steckt noch viel mehr Potenzial, das erst in kommenden Treibern voll zur Geltung kommt, denn man muß diese komplett neuen Techniken erstmal umsetzen lernen...
-- Veröffentlicht durch kammerjaeger am 16:18 am 20. Jan. 2006
Zitat von Beschleunigen um 9:36 am Jan. 20, 2006
Immer wieder nett zu beobachten, wie manche User in ihrer Welt der Kompensation und des Geltungsdrangs den Blick für die Realität verlieren.
| "manche" user haben vielleicht einfach weniger probleme, mit ihrem budget auszukommen.. ? oder gehen arbeiten ?
| Manche User setzen eben ihre Prioritäten anders, auch wenn sie es sich leisten könnten. Und ich hab Dir schon oft genug gesagt, daß ich eigentlich nur hinter mir ins Regal in meinem Laden greifen brauche, wenn ich mir ein "großes" Sys zusammenbauen will (was ich zu Testzwecken ja auch schon desöfteren getan haben...). Aber wozu? Nur beweist Du damit einmal mehr, daß Du weder lernfähig bist noch aufmerksam liest, sondern nur in Deiner Fanboy-Welt lebst. ;) @ Philly Wie N omega G schon gesagt hat, ist die MSI oder Gigabyte X1600Pro deutlich günstiger und die wohl beste Karte <120,-. Je nach Spiel und Settings kann die MSI RX800-TD128E schneller oder langsamer sein (wg. 128MB). In der Preisklasse darüber kämen dann eben Karten wie X800GTO (160,-), X800XL (170,-) oder 6800GS (170,-) in die engere Wahl.
-- Veröffentlicht durch N omega G am 11:16 am 20. Jan. 2006
die hier ist nicht schlecht. wieso 140? die kostet 104, hat gddr3, aber leider nur 128mb. ansonsten gibts ddr2 256mb für ~115.
-- Veröffentlicht durch Philly am 10:46 am 20. Jan. 2006
Also, wenn ihr mal kurz einer kindisches getue einstellen könntet... Sollte man sich eine X1600Pro kaufen (MSI, GeCube etc ) für 139€ anstatt eine X800 ( 12Pipes ) ? ... Ich suche nämlich eine neue Grafikkarte und wollte natürlich das schnellste fürs Geld haben. Oder doch ne G-Punkt? :noidea:
-- Veröffentlicht durch Beschleunigen am 9:36 am 20. Jan. 2006
Immer wieder nett zu beobachten, wie manche User in ihrer Welt der Kompensation und des Geltungsdrangs den Blick für die Realität verlieren.
| "manche" user haben vielleicht einfach weniger probleme, mit ihrem budget auszukommen.. ? oder gehen arbeiten ? (..) mfg tobi
-- Veröffentlicht durch Beschleunigen am 9:32 am 20. Jan. 2006
Was bringt mir eine donglefreie Version, wenn das eigentliche Ziel (nämlich die Unterstützung durch die GraKa...) gar nicht gegeben ist?
| ich glaube nicht, dass du weisst wovon du sprichst. vielleicht solltest du dir mal den AVIVO thread im 3Dcenter suchen oder es einfach selbst auf zwei unterschiedlichen grakas testen. AVIVO nutzt weder auf ATI, noch auf NV hardware, irgendwelche funktionen der grafikkarte. wie ich schon xmal erwähnte: elemantar nützliches (DVB umwandeln) kann die software nicht und alles andere ist nicht nur sinnfrei, es ist auch nicht von irgendeiner ATI hardware abhängig. es ist überall gleichschnell, es sieht gleich aus und es bietet auch überall die gleichen optionen - nämlich so gut wie keine. das war ein so sinnfreier gag, dass der thread im forum schon übelst abgerutscht ist, weil bereits alles testbare getestet, und alles vergleichbare, verglichen wurde. (..) mfg tobi (Geändert von Beschleunigen um 9:38 am Jan. 20, 2006)
-- Veröffentlicht durch kammerjaeger am 9:22 am 20. Jan. 2006
Was bringt mir eine donglefreie Version, wenn das eigentliche Ziel (nämlich die Unterstützung durch die GraKa...) gar nicht gegeben ist? Und dann wunderst Du Dich, daß Du entweder keine spürbare beschleunigung oder aber eine verminderte Quali hast? :bonk: Mit dem "kleinen" Sys spiele ich selbst Q4 & Co. in 1280x1024 2xAA/4AF mit fast max. Details! Versuch das mal mit einer Konsole... :lol: Immer wieder nett zu beobachten, wie manche User in ihrer Welt der Kompensation und des Geltungsdrangs den Blick für die Realität verlieren. ;)
-- Veröffentlicht durch Beschleunigen am 9:15 am 20. Jan. 2006
verlangsamen, könntest du dein Fanboy gebrabbel denn dann auch mal aufs 3dCenter beschränken?
| nein. @ati fans hier könnt ihr euch eine donglefreie version von AVIVO runterladen. die läuft wie gesagt auf jeder DX9 hardware, weil sie rein auf infrastruktur (CPU+RAM) setzt. klick
P.S.: Back to Topic! Hab nochmal die 6600GT mit den bei mir in der Sig angegebenen Taktraten gebencht: 1.457 Punkte (610/517/727 Punkte) Kommt also selbst mit OC nicht an die X1600Pro @Standard ran, sondern bleibt trotz 24% Übertaktung beim Speicher (bzw. 40% mehr als die X1600Pro hat) und 14% Übertaktung bei der GPU um rund 14% hinter der billigeren ATI...
| bissl naiv von so einem "kleinen" system überhaupt spielbare leistung zu erwarten. ein gamecube oder ne alte PS2 sollte sich zum zocken besser eignen. mit der xbox kannst du ja sicher nichts anfangen, weil NV hardware drinsteckt. die 360er baut zwar wieder auf ATI, übersteigt aber mit 400euro sicher das budget. das ist ja teurer, als dein kompletter PC. :lol::lol:
beschleunigen seit wann installierst du dir was von ati? ich hab ne meldung über avivo gelesen, nur eben einziger kritikpunkt ist, dass man da nicht viel einstellen kann. aber soweit ich weiß ist das teil noch gar nicht wirklich released und man kann auf erweiterungen gespannt sein. wenn es auch nv kann, wayne? umso besser. nur weil andere hardware es auch kann, redest du das programm schlecht?!
| nein. ich kläre nur über fakten auf. schlechtmachen? meinetwegen. wenn kammerjäger es als pro-grund für eine x1600 aufzählt, erzähle ich, dass das auf jeder karte nutzbar ist. sonst denkt noch der fleissige, interessierte "umcoder", dass man eine ATI karte braucht, um das teil nutzen zu können. (..) mfg tobi (Geändert von Beschleunigen um 9:25 am Jan. 20, 2006)
-- Veröffentlicht durch kammerjaeger am 0:22 am 20. Jan. 2006
:thumb: Sag ich doch. Ich hab auch nicht ohne Grund sowohl 6800GT als auch X800Pro aus dem Sys verbannt, denn brauchen tue ich weder deren Performance noch hab ich je einen sinnvollen Vorteil bei der 6800GT in SM3.0 oder HDR gesehen. ;) Aber manche scheinen eben ihren "Kleinen" mit einem Monster-Sys kompensieren zu müssen. Sind dann auch meist diejenigen, die unbedingt fette Autos fahren müssen. Ich hab lieber zwei kleine Spaßmobile, die ich je nach Wetterlage und Laune fahre, als ein behäbiges, parkplatzunfreundliches "Dickschiff". P.S.: Back to Topic! Hab nochmal die 6600GT mit den bei mir in der Sig angegebenen Taktraten gebencht: 1.457 Punkte (610/517/727 Punkte) Kommt also selbst mit OC nicht an die X1600Pro @Standard ran, sondern bleibt trotz 24% Übertaktung beim Speicher (bzw. 40% mehr als die X1600Pro hat) und 14% Übertaktung bei der GPU um rund 14% hinter der billigeren ATI... ;) (Geändert von kammerjaeger um 0:30 am Jan. 20, 2006)
-- Veröffentlicht durch poschy am 23:08 am 19. Jan. 2006
Zitat von eaking um 20:01 am Jan. 19, 2006 PS3.0 ist ein muss und jeder dershat kanns nur bestätigen:punk:
| naja.. hatte ne 6800gt, n 6600gt sli gespann .. und jezz (laptop bedingt) ne fx 5200 go .. muss ganz erlich sagen... vermissen tu ich nix =P kann aber auch dran liegen das ich endlich vernünftig geworden bin und son schnökel einfach nimmer brauche!
-- Veröffentlicht durch kammerjaeger am 22:52 am 19. Jan. 2006
Zitat: "Sowohl die 128-MB-DDR2- als auch die 256-MB-DDR2-Variante können per TurboCache-Technologie auch Teile des Arbeitsspeichers als Grafikspeicher nutzen." Was bringt das, wenn die Karte nichtmal in der Lage ist, halbwegs aktuelle Engines @1024x768 flüssig auf den Schirm zu bringen? Dann braucht sie auch kein TurboCache, denn die Speichermenge würde ihr nur bei größeren Auflösungen und Quali-Settings etwas bringen... :lol: Hat es nicht gereicht, nach der FX5200 und FX5600 auch noch einige FX5700 mit abgespeckten 64bit zu segnen (und dann sogar noch eine "brandneue" FX5500 64bit nachzuschieben :lol:)? Jetzt geht man sogar noch einen Schritt zurück und bringt wieder 32bit? Wenn das Entwicklung sein soll, dann entwickelt sich Nvidia prächtig... Selbst die abgespecktesten X1300 werden ihr um Meilen voraus sein und selbst die deutlich schnellere X1300Pro ist jetzt schon für gut 90,- zu haben. Bis die 7300 da ist, dürfte ihr die X1300Pro schon längst den Rang in der Klasse um 80,- abgelaufen haben. ;)
-- Veröffentlicht durch N omega G am 22:25 am 19. Jan. 2006
Zitat von eaking um 20:01 am Jan. 19, 2006 PS3.0 ist ein muss und jeder dershat kanns nur bestätigen:punk:
| ich habs und was bringt es mir? :noidea: splinter cell zocke ich nicht. far cry schon mit ner 9800er durchgezockt, nochmal zu langweillig. was glaubst du eigentlich was ps3 bringt? antworte einfach mal, ich wette du weißt nicht mal was ps3 ist. beschleunigen seit wann installierst du dir was von ati? ;) ich hab ne meldung über avivo gelesen, nur eben einziger kritikpunkt ist, dass man da nicht viel einstellen kann. aber soweit ich weiß ist das teil noch gar nicht wirklich released und man kann auf erweiterungen gespannt sein. wenn es auch nv kann, wayne? umso besser. nur weil andere hardware es auch kann, redest du das programm schlecht?! 7300 ist doch echt ein witz. die wird in 1-2 monaten aufn markt kommen und 100 euro kosten. schon jetzt kostet eine x1600pro 115 und ist welten schneller. 3dmark06 ist eh schwachsinn. weißt du noch wie du über den 3dmark05 abgelästert hast als du mit deiner super merga geilen octen fx nur 1500 punkte hattest. da hatte ich ja mit meiner billigen, grottigen 9800Pro doppelt so viel. wie vernarrt kann man nur in einen hersteller sein, der die kunden teilweise noch derbe verarscht und nur profitgeil(ati ist ja da auch nicht besser...) ist. brauchst echt ein anderes hobby als nv-anbeterei. edit: kommt ja noch besser, eine 7300 mit 32bit speicherinterface :lolaway: DAS ist richtige kundenverarsche... http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/januar/nvidia_geforce_7300_gs/ (Geändert von N omega G um 22:30 am Jan. 19, 2006)
-- Veröffentlicht durch kammerjaeger am 20:50 am 19. Jan. 2006
Zitat von Falcon um 20:05 am Jan. 19, 2006 verlangsamen, könntest du dein Fanboy gebrabbel denn dann auch mal aufs 3dCenter beschränken?
| :thumb: Zumal AVIVO "etwas" mehr kann als nur MPEG2: MPEG 1/2, VCD, S-VCD, DVD, MPEG 4 (DivX Compatible), WMV9, Portable Media Center, H.264 (AVI), MPEG-4 (Sony PSP Compatible Video) and H.264 (MP4 Apple iPod Compatible Video) ;) Und die Aussage, daß es nix mit der GraKa zu tun hat, kann nur von einem NV-Fanboy kommen, der sich seine Hardware schönreden will...
-- Veröffentlicht durch Falcon am 20:05 am 19. Jan. 2006
verlangsamen, könntest du dein Fanboy gebrabbel denn dann auch mal aufs 3dCenter beschränken?
-- Veröffentlicht durch eaking am 20:01 am 19. Jan. 2006
PS3.0 ist ein muss und jeder dershat kanns nur bestätigen:punk:
-- Veröffentlicht durch Beschleunigen am 19:37 am 19. Jan. 2006
Natürlich läuft ein Pseudo-AVIVO (wie schon gesagt) softwareseitig auch auf Nvidia, nur eben längst nicht so gut wie auf X1x00...
| den transcoder-schwachsinn haben wir schon vor einigen wochen im 3d-center durchgekaut. er läuft absolut software-seitig und hat mit der hardware absolut nichts zu kriegen. besser oder schlechter gibts bei diesem transcoder nicht. auf vergleichbaren systemen ist er gleichschnell und auch gleichmäßig grottig. man müsste schon gefallen daran finden, xvid od. divx in mpeg2 oder ähnliches zu wandeln, um das ding für irgendwas nutzen zu können. da ist er auch schön schnell, mehr aber auch nicht. das ergebnis ist weder wertig, noch hinreichend justierbar, was quantisierung, bitrate oder audio-optionen angeht, ist das teil unterste schublade. das ist marketing-müll für ati-fans, die sich möglichst schnell, ihre runtergeladenen screener auf DVD oder irgendwas brennen wollen und dazu wandeln müssen. runterrechnen von vorkomprimiertem bzw. bereits encodiertem material, od. das wandeln von divX in mpeg, machen nur anfänger und amateure. das könnte noch 100mal so schnell werden: wofür könnte man es schon brauchen. ich hab's. es ist schnell. versprochen! aber für was? das ist doch viel sinnloser, als jeder benchmark. auf fakten reduziert: -läuft auf jeder dx9 hardware, wenn man die software entdongelt -ist eine reine softwarelösung (CPU, RAM, nix graka) -transcodiert schön schnell, aber nicht hochwertig -patzt bei wirklich sinnigen anwendungen, wie etwa dem wandeln von pva oder mpeg2 streams, die über DVB empfangen wurden (abweichende GOP struktur) (..) mfg tobi (Geändert von Beschleunigen um 19:54 am Jan. 19, 2006)
-- Veröffentlicht durch kammerjaeger am 18:44 am 19. Jan. 2006
Zitat von Beschleunigen um 18:30 am Jan. 19, 2006 der grösste witz ist doch AVIVO. das läuft selbst bei mir blendend, obwohl ich überhaupt keine ATI hardware im rechner habe. schade dass man den transcoder für nix braucht. schön schnell isser aber. auf jeder graka.
| Den braucht man nicht? Vielleicht nicht Du! Aber Du bist es doch sonst, der den Leuten immer das aufschwatzen will, was wirklich fast keiner braucht (3-4 Monitore etc.). Natürlich läuft ein Pseudo-AVIVO (wie schon gesagt) softwareseitig auch auf Nvidia, nur eben längst nicht so gut wie auf X1x00... ;)
-- Veröffentlicht durch kammerjaeger am 18:40 am 19. Jan. 2006
Zitat von Beschleunigen um 18:26 am Jan. 19, 2006 dass die GT gegenüber der ati karte, 1.5 jahre älter (und nicht mehr verfügbar) ist..
| Wieviele brauchst Du? klick Und das ist eine der billigeren 6800GT, das Angebot ist reichlich...
Zitat von Beschleunigen um 18:26 am Jan. 19, 2006 ... ist das schon ein armutszeugnis für die meisten karten. besonders natürlich die karten herausgestellt, die du immer überall empfohlen hast.. die alten SM2 ati krücken.
| 1. vergleichst Du hier die ehemalige Top-Karte von Nvidia mit der aktuellen MidRange-Karte von ATI 2. kann man (außer bei 3DMark06-Benchmarkgeilheit) sehr gut auf SM3.0 verzichten, ich hab nicht ohne Grund die 6800GT aus einem meiner Systeme verbannt! (aber bitte jetzt keine neue Diskussion über Sinn/Unsinn von SM3.0!) 3. hat die X1x00 nunmal noch mehr zu bieten als kaum wahrnehmbare Grafik-Features, nämlich wirklich effektive Neuerungen wie AVIVO, was nicht einmal eine 7800 kann (von ein paar halbherzigen Software-Umsetzungen abgesehen, die längst nicht so effektiv arbeiten...)!
Zitat von Beschleunigen um 18:26 am Jan. 19, 2006 naja, jetzt isser ja draussen (der 3dm06) - der wird jetzt schon die schwemme an gebrauchten x8xx karten einläuten. der virtuelle schwanz wird diesen rückstand nicht lange verkraften.
| Nö, der typische ATI-User hat es nicht nötig, sich seinen virtuellen P.... mit Benchmarks zu verlängern. Das mag bei eingefleischten Nvidia-Freaks anders sein. Die werden jetzt ihre 6800-Karten gegen ein 7800-SLI eintauschen wollen... :lol:
-- Veröffentlicht durch Beschleunigen am 18:30 am 19. Jan. 2006
wegen der verfügbarkeit der neuen NV mittelklasse wäre ich nicht so pessimistisch. NV hat ja bei der G70 auch gezeigt, dass ankündigung und verfügbarkeit auf einen tag fallen können. is' halt nicht ATI, die papiertiger ankündigen, bevor das layout überhaupt funktioniert. der grösste witz ist doch AVIVO. das läuft selbst bei mir blendend, obwohl ich überhaupt keine ATI hardware im rechner habe. schade dass man den transcoder für nix braucht. schön schnell isser aber. auf jeder graka. (..) mfg tobi
-- Veröffentlicht durch Beschleunigen am 18:26 am 19. Jan. 2006
Ach so, jetzt ist es auf einmal egal, daß keine Karte damit flüssig läuft? Aber erst groß rumschreien.
| eben aus diesem grund. quad-sli ist mit aktuellen forcewares noch nicht möglich, so bleibt es überall unterhalb der flüssigkeitsgrenze. also zählt einzig die overall score.
Naja, wenn man bedenkt, daß dort bei CB z.B. die X1600XT auf einem Niveau mit der fast doppelt so teuren 6800GT liegt, finde ich die Werte der X1600 gar nicht so übel...
| naja, wenn man jetzt noch bedenkt, dass man mit zwei GTs schon die leistung einer GTX512 erreicht bzw. dass die GT gegenüber der ati karte, 1.5 jahre älter (und nicht mehr verfügbar) ist.. ist das schon ein armutszeugnis für die meisten karten. besonders natürlich die karten herausgestellt, die du immer überall empfohlen hast.. die alten SM2 ati krücken. naja, jetzt isser ja draussen (der 3dm06) - der wird jetzt schon die schwemme an gebrauchten x8xx karten einläuten. der virtuelle schwanz wird diesen rückstand nicht lange verkraften. (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 18:05 am 19. Jan. 2006
Ach so, jetzt ist es auf einmal egal, daß keine Karte damit flüssig läuft? Aber erst groß rumschreien. :bonk: Naja, wenn man bedenkt, daß dort bei CB z.B. die X1600XT auf einem Niveau mit der fast doppelt so teuren 6800GT liegt, finde ich die Werte der X1600 gar nicht so übel... :lol: Edit: Was die 7600 bringt und was sie kostet, soll sie erstmal zeigen! Die 7300 ist jedenfalls ein absoluter Reinfall und wird ihren Weg fast nur über Komplett-Systeme machen, denn mit ihren 64bit hilft ihr auch die relativ hohe Taktrate nicht mehr.... Und bis die 7600 am Markt verfügbar sein wird, bekommt man bestimmt auch schon abgespeckte 7800er für vergleichbares Geld, denen dann wohl deutlich der Vorzug zu geben wäre. ;) (Geändert von kammerjaeger um 18:10 am Jan. 19, 2006)
-- Veröffentlicht durch Beschleunigen am 17:34 am 19. Jan. 2006
ach was.. sch**** doch auf die einzeltests. die gesamtscore zählt klick. die karte ist einfach schrott. ich würde, wenn ich mir sowas günstiges kaufen wollen würde, auf einer 7600 von nvidia warten. dauert ja nicht mehr so lang. bei den einzeltests fällt mir positiv auf, dass sich die ergebnisse der GTX512 mit meinem SLi gespann decken. (..) mfg tobi (Geändert von Beschleunigen um 17:36 am Jan. 19, 2006)
-- Veröffentlicht durch kammerjaeger am 17:27 am 19. Jan. 2006
Das ist beim 06er ein sehr relativer Begriff denn auch die je nach Bench durchschnittlich nur 10-20fps einer 7800GTX 256MB sogar ohne AA/AF (siehe hier) darf man wohl kaum als "rund" bezeichnen... Insofern kannst Du Dir Deine Bemerkungen wirklich sparen. ;)
-- Veröffentlicht durch Beschleunigen am 16:57 am 19. Jan. 2006
So, aktuelle Ergänzung zum 3DMark06: X1600Pro 1.664 Punkte (628/658/833 Punkte, Sys siehe Sys1 aus Sig) 6600GT 1.345 Punkte (555/472/738 Punkte, Sys siehe Sys2 aus Sig, GraKa @Default 500/900MHz) Besonders "Deep Freeze" sah auf der X1600Pro deutlich runder aus!
| :lol::lol: glaub' nicht, dass damit im 06er 3D murks irgendwas rund aussieht. :lol::lol: (..) mfg tobi (Geändert von Beschleunigen um 17:08 am Jan. 19, 2006)
-- Veröffentlicht durch kammerjaeger am 1:50 am 19. Jan. 2006
So, aktuelle Ergänzung zum 3DMark06: X1600Pro 1.664 Punkte (628/658/833 Punkte, Sys siehe Sys1 aus Sig) 6600GT 1.345 Punkte (555/472/738 Punkte, Sys siehe Sys2 aus Sig, GraKa @Default 500/900MHz) Besonders "Deep Freeze" sah auf der X1600Pro deutlich runder aus! ;) (Geändert von kammerjaeger um 16:32 am Jan. 19, 2006)
-- Veröffentlicht durch Mome am 10:50 am 18. Jan. 2006
komisch irgendwie spricht immer mehr dafür, dass ich auch mal eine testen sollte :lol: Wie gesagt, der User bei HWLuxx hat mit seiner MSI 620/440 oder sowas um den dreh erreicht. Man bräuchte mehr Erfahrungsberichte!
-- Veröffentlicht durch kammerjaeger am 23:50 am 17. Jan. 2006
Sobald man mehr als ca. 15Mhz hoch geht, kommen Fehler. Das war bei der MSI bei Speicher und GPU so, bei der Connect3D beim Speicher ebenfalls. Nur deren GPU ging fleißig weiter, dafür lag eben der Speichertakt der Connect3D weit unter Klassenstandard.... Hab es auch schon von anderen Karten gehört. Evtl. haben div. Testseiten oder Zeitschriften bewußt Karten ohne Lock bekommen, wäre ja nicht das erste Mal. Aber warten wir mal ab, was die weiteren User-Berichte so bringen und wann ein evtl. vorliegener Lock geknackt wird. ;)
-- Veröffentlicht durch Mome am 23:07 am 17. Jan. 2006
das mit dem OC Lock fin ich aber komisch. Denn in einigen Reviews, können die Karten ja OCed werden (eig. allen). Wie äußert sich daher der Lock?
-- Veröffentlicht durch HomerIII am 19:33 am 17. Jan. 2006
Zitat von kammerjaeger um 20:00 am Jan. 16, 2006
Zitat von HomerIII um 14:22 am Jan. 16, 2006 wusstet ihr eingeltich das die prod. der x1600 eingestellt wurde ;) ich warte etz wahr. doch ncoh einen mon. auf die neue x1900 reihe, da wirds sicher auch widda kleie geben.
| Welche Drogen hast Du heute genommen? :lol:
| gestern hatte ich sa und hab nix getrunken odda geraucht :kidding: war irgendwo im xs gestanden ich such nochmal ;)
-- Veröffentlicht durch kammerjaeger am 19:18 am 17. Jan. 2006
So, nunmal ein kleiner Erfahrungsbericht und Vergleich zwischen der MSI X1600Pro und der Club3D 6600GT: Testsystem: AMD Athlon 64 Mobile 2800+ @2,16GHz (270MHz HTT) 2x512MB PC400 TMTc @216MHz 2,5-3-3-7 ASRock K8NF4G-SATA2 3DMark2001: X1600Pro: 18.368 6600GT: 18.787 3DMark03: X1600Pro: 7.081 6600GT: 8.339 3DMark05: X1600Pro: 3.804 6600GT: 3.518 Aquamark3: X1600Pro: 47.471 6600GT: 56.064 Somit also etwa Gleichstand beim 01er, fast 20% Vorsprung für die 6600GT im 03er und AM3, fast 10% Vorsprung für die X1600Pro im 05er. Die 6600GT glänzt durch die doppelt so hohe Multitexturing-Leistung, liegt dafür bei den Vertex-Shadern klar hinter der ATI. Insgesamt also ein leichter Punktsieg für die 6600GT in den synthetischen Benchmarks. Nun aber zu den Spielen: Getestet wurden Quake4, Riddick, SeriousSam2, CoD2 und Battlefield2, die Framerate wurde mit Fraps gemessen. Bis 1024x768 mit 2xAA/4xAF ergaben sich keine nennenswerten Unterschiede, beide Karten auf absolut gleichem Niveau. Je höher jedoch die Qualität ging, desto mehr verlagerte sich die Situation zugunsten der ATI. Selbst Riddick und Quake4, die sonst eigentlich prädestiniert sind für Nvidia-Benchmarks, liefen auf der ATI in 1280x1024 flüssiger als auf der Nvidia. Selbst der HQ-Modus war bei Quake4 auf der ATI absolut sauber spielbar, während die Nvidia hier doch schon spürbar ins Stocken gerät. Sichtbare Unterschiede in der Bildqualität konnten nicht festgestellt werden. Fazit: Wer auf synthetische Benchmarks pfeift und eine Karte deutlich <150,- sucht, der ist mit der ATI eindeutig besser bedient. Ausschlaggebend sind u.a. folgende Gründe: - günstigerer Preis - leiserer Kühler - niedrigerer Verbrauch (ca. 15W weniger) - bessere Video-Tauglichkeit (Avivo!) - besser geeignet für aktuelle und zukünftige Spiele (u.a. durch größere Speichermenge und bessere Vertex-Leistung), besonders für 17"/19"-TFTs - Treiber könnten noch einiges an Performance bringen, da die Ringbus-Architektur noch nicht voll ausgeschöpft wird Einziges Manko: Das Bios läßt kaum OC zu, bisher wurde der Lock wohl noch nicht geknackt. Persönliche Auswirkungen: Da die X1600Pro für meine Bedürfnisse mehr als ausreichend ist, wird sie meine X800Pro ablösen, auch wenn es ein "Downgrade" ist. Aber die Funktionalität und der Stromverbrauch sind mir wichtiger, solange ich alle Spiele noch flüssig bei guter Optik bewältigen kann. ;) (Geändert von kammerjaeger um 19:19 am Jan. 17, 2006)
-- Veröffentlicht durch AMDKILLER am 20:15 am 16. Jan. 2006
Die X16xx Karten haben soweit ich weis alle einen Bios Lock :noidea: Den noch keiner geknackt hat So isses z.b. bei meiner Sapphire:noidea:
-- Veröffentlicht durch kammerjaeger am 20:00 am 16. Jan. 2006
Zitat von HomerIII um 14:22 am Jan. 16, 2006 wusstet ihr eingeltich das die prod. der x1600 eingestellt wurde ;) ich warte etz wahr. doch ncoh einen mon. auf die neue x1900 reihe, da wirds sicher auch widda kleie geben.
| Welche Drogen hast Du heute genommen? :lol:
-- Veröffentlicht durch HomerIII am 14:22 am 16. Jan. 2006
jep das is zu 100% ein lock.......hm fuc*.... wusstet ihr eingeltich das die prod. der x1600 eingestellt wurde ;) ich warte etz wahr. doch ncoh einen mon. auf die neue x1900 reihe, da wirds sicher auch widda kleie geben. ps: hat hier jemand nen xp treier für ne s3 trio 32 64 :noidea:
-- Veröffentlicht durch kammerjaeger am 23:41 am 15. Jan. 2006
Kann gut sein. Ich hab mal mit ATI-Tool die Connect3D und die MSI laufen lassen. Beim Speicher waren jeweils nur max. 15-20MHz drin. Bei der GPU der MSI ebenfalls, obwohl der Kühler nicht der Schlechteste ist. Lediglich die Connect3D lief bis ca. 620MHz GPU (statt 500MHz). P.S.: Ergebnisse der MSI folgen in Kürze... ;)
-- Veröffentlicht durch HomerIII am 20:49 am 15. Jan. 2006
verdammt ich kann mich ned entscheiden...... bin aber eher für die palit noch was zum thema: irgendwo hab ich mla glesen das x1600er zum teil nen lock haben..... hatte noch keine zeit um mir das mal genau anzusehen.... weiß dazu jemand was?
-- Veröffentlicht durch Mome am 19:03 am 15. Jan. 2006
die ursprünglich standard X800, die mit den XLs zusammen gelauncht wurden, hatten meist GDDR1 Speicher verbaut, der dann natürlich kräftig gebremst hat. Einige hatten auchnoch schnellen Speicher drauf (GDDR3). Aber die ersten X800 dieser Art hatten definitv den R430 drauf! Die X800GTOs, die es jetzt gibt, die einen schnellen Speicher haben sind ja idr. umgelabelte Pros oder XTs. Die 128MB GTOs sind wiederumd idr. Baugleich mit den standart X800. Naja ich kann mich auch irren, aber soviel ich weis haben die X800 alle einen R430, bzw. ich habe noch nix anderes gehört/gesehen.
-- Veröffentlicht durch Rulinator am 17:27 am 15. Jan. 2006
wo ist denn die 128 mb gto einzuordnen? die für 150 €... :noidea:
-- Veröffentlicht durch BUG am 17:24 am 15. Jan. 2006
Zitat von HomerIII um 16:16 am Jan. 15, 2006 r423 is der x800xt chip wenn ich mich ned irre ;) hm naja egal donnoch welche :noidea:
| ..jup is eigentlich der XT Chip. Aber die X800 ist ja eigentlich nix anderes als eine X800GTO mit anderen namen (im Falle von MSI hat sie aber vermutlich etwas langsameren und weniger Speicher als die GTOs). Auf den PCIe X800GTO Karten sitzt ja nach Hersteller R423, R430 und R480. :) cu BUG
-- Veröffentlicht durch HomerIII am 16:49 am 15. Jan. 2006
haste mal das review odda so wo das steht? hab nix gefunden imma nur von 265mb karten
-- Veröffentlicht durch Mome am 16:32 am 15. Jan. 2006
@n omega die hat nur den Haken, dass sie nur 128MB hat. @Homer von der MSI X800 hört man nicht soviel gutes. Da soll wohl schon ne 6600GT schneller sein. Also müsste sie ungefähr auf Niveau einer X1600Pro leigen. Von daher wäre die Palit X1600Pro wohl schneller. und es müsste an für sich ein R430 drauf sein, wie auf eigentlich allen X800 ohne alles und XL. Modden konnte man die glaub ich nur bedingt, weis es aber nichtmehr so genau. (Geändert von Mome um 16:34 am Jan. 15, 2006)
-- Veröffentlicht durch HomerIII am 16:16 am 15. Jan. 2006
r423 is der x800xt chip wenn ich mich ned irre ;) hm naja egal donnoch welche :noidea:
-- Veröffentlicht durch BUG am 16:06 am 15. Jan. 2006
Zitat von HomerIII um 15:27 am Jan. 15, 2006 dei x800 sollte doch nen r430 chip haben der sich auf 16 pipes auf´machen lässt odda :noidea:
| ..jain, das klappt nur wenn die Fuses stimmen und das ist meist nicht der Fall! Desweiteren is vermutlich ein R423 auf der Karte, könnte aus kostengründen und/oder lieferengpässen auch ein R430 sein! cu BUG
-- Veröffentlicht durch HomerIII am 15:27 am 15. Jan. 2006
dei x800 sollte doch nen r430 chip haben der sich auf 16 pipes auf´machen lässt odda :noidea:
-- Veröffentlicht durch kammerjaeger am 15:15 am 15. Jan. 2006
Schwer zu sagen, denn das ist eine ähnliche Gewissensfrage wie 6600GT vs. 6800LE... Wenn Video interessant ist, dann natürlich die X1600Pro. Ansonsten fehlen eben noch direkte Vergleiche. ;)
-- Veröffentlicht durch HomerIII am 15:08 am 15. Jan. 2006
hm lieber die palit odda http://www.geizhals.net/deutschland/a134707.html :noidea:
-- Veröffentlicht durch N omega G am 2:00 am 15. Jan. 2006
hat die hier nen haken? :noidea: ok zwar 128mb, aber das würde auch ausreichen, dafür gddr3 und chiptakt 575mhz, speicher 500mhz
-- Veröffentlicht durch kammerjaeger am 0:06 am 14. Jan. 2006
Zitat von Rulinator um 22:24 am Jan. 13, 2006 ich weiß schon, dass die 128 bit hat, als frage kommt das aber deutlicher rüber, ne 6800 non kostet doch genauso viel, oder? die hat 256 bit, ist die genau so schnell oder schneller? ich halte nix von 128 bit... spiel mal nfs und mach nen burnout! :blubb:
| Die X1600XT finde ich auch zu teuer. Interessant ist in meinen Augen nur die X1600Pro, das sie sehr preiswert ist und als einzige Karte in dieser Klasse (<130,-) 256MB und ordentliche Performance bietet. Insbesondere bei Q4 etc. macht sich die Speichermenge doch bemerkbar. Da rennt sie auch einer preislich vergleichbaren 6800LE locker weg, obwohl die 6800LE 256bit hat. Selbst eine 6600GT ist schneller als die 6800LE, denn Speicherinterface alleine ist nicht alles im Leben... Hinzu kommt bei der X1600Pro auch noch der niedrige Verbrauch und die Video-Beschleunigung Avivo, was sie gerade für Video-Freaks, die auch mal zocken möchten, zur idealen Karte macht! Wer also preislich nicht in die Regionen einer X800Pro/X800GTO/6800GS vorstoßen will und/oder auf Video-Bearbeitung Wert legt, findet in der Karte den idealen Partner! Natürlich ist eine X1600XT besonders aufgrund des extrem hohen Speichertaktes noch schneller, aber die liegt preislich (genau wie die 6800) schon zu nah an schnelleren Karten wie X800Pro/X800GTO/6800GS dran. ;)
-- Veröffentlicht durch N omega G am 23:56 am 13. Jan. 2006
Zitat von BUG um 22:36 am Jan. 13, 2006 ..wozu bitte 256Bit bei der Karte? Die Karte hat 4 Pipes wozu sollte man da ein 256Bit Speicherinterface Brauchen? Hochgetakteter GDDR2 oder GDDR3 Speicher reicht bei der Karte völlig aus! Die X1600XT hat mit 128Bit und GDDR3 Speiche mehr Speicherbandbreite als eine 9800Pro mit 256Bit und DDR1 Speicher! cu BUG
| jetzt erschreck den ruli nicht mit 4 pipes, dann denkt er die ist so schnell wie ne 9600er:lol: die hat zwar nurn quad, kannst aber mit ner 12 pipe gpu vergleichen edit: amdkiller wir sprechen von einer pro, nicht xt ;) (Geändert von N omega G um 23:57 am Jan. 13, 2006)
-- Veröffentlicht durch AMDKILLER am 22:42 am 13. Jan. 2006
jo genau der Meinung bin ich auch das is zwar nich genauso aber ähnlich wie ne 6200 mit 512MB:lol:
-- Veröffentlicht durch BUG am 22:36 am 13. Jan. 2006
..wozu bitte 256Bit bei der Karte? Die Karte hat 4 Pipes wozu sollte man da ein 256Bit Speicherinterface Brauchen? Hochgetakteter GDDR2 oder GDDR3 Speicher reicht bei der Karte völlig aus! Die X1600XT hat mit 128Bit und GDDR3 Speiche mehr Speicherbandbreite als eine 9800Pro mit 256Bit und DDR1 Speicher! cu BUG
-- Veröffentlicht durch Rulinator am 22:24 am 13. Jan. 2006
ich weiß schon, dass die 128 bit hat, als frage kommt das aber deutlicher rüber, ne 6800 non kostet doch genauso viel, oder? die hat 256 bit, ist die genau so schnell oder schneller? ich halte nix von 128 bit... spiel mal nfs und mach nen burnout! :blubb:
-- Veröffentlicht durch AMDKILLER am 22:09 am 13. Jan. 2006
Sorry aber, Was für eine dumme Frage Wenn das Ding 256Bit hätte hätte es doch bereits jeder zweite Auserdem hättest du dir nur mal die 4Seiten durchlesen müssen und schon wärst du fündig geworden.:noidea:
-- Veröffentlicht durch Rulinator am 21:50 am 13. Jan. 2006
hat des dingen 128 bit? :gulp:
-- Veröffentlicht durch AMDKILLER am 21:46 am 13. Jan. 2006
640/880 :lol: Da kann ich nur lachen oder doch eher heulen mit dem Standart Kühler komm ich grad mal auf 611/711 Von daher :godlike: an diese MSI Karte
-- Veröffentlicht durch Mome am 14:43 am 13. Jan. 2006
Ein User bei HWLuxx konnte seine MSI X1600Pro auf 640/880 takten. Berichte du dann mal, wieweit du gekommen bist! Könntest du auch mal probieren, ob man mit Atitool oder dem X1xxx Overclocker die Spannungen erhöhen kann? Wär echt toll.
-- Veröffentlicht durch kammerjaeger am 1:34 am 13. Jan. 2006
So, das FarCry-Problem lag definitiv nicht an der Karte, sondern an irgendeinem Task. Läuft auch sehr ordentlich. Morgen sollen die X1600Pro von MSI und Gigabyte kommen, welche die Standard-Taktraten dieser Klasse erfüllen. Auch wenn die Gigabyte durch Passiv-Kühlung glänzt, werde ich die MSI mal genauer testen und dann Zahlen und fakten präsentieren. :thumb: Interessant wird insbesondere ein Vergleich zur etwas teureren 6600GT.
-- Veröffentlicht durch kammerjaeger am 9:14 am 11. Jan. 2006
Interessant wäre dabei jedoch der direkte Vergleich der Palit mit 128MB GDDR3 und 575/1.000MHz gegen eine "normale" X1600Pro, wie z.B. der MSI mit 256MB DDR2 und 500/800MHz. Ich glaube fast, daß die Karte aufgrund ihrer Architektur mit der sehr guten Shader-Leistung die hohe Speichermenge besser nutzen kann als z.B. X700- und 6600-Karten. Ich hab jedenfalls mal die Connect3D kurz angetestet (Ergebnisse folgen noch...), welche die mit Abstand langsamste X1600Pro ist mit nur 250MHz (bzw. 500MHz DDR) statt der sonst üblichen 390-400MHz Speichertakt. Und trotz der geringen Füllrate von ca. 1.900MTexels im Multitexturing (zum Vergleich: eine 6600GT hat gut 4.000) ließ sich Quake4 in 1024x768 und mittleren bis hohen Details erstaunlich flüssig spielen mit Fraps-Werten zwischen 47 und 62 fps, was gerade für ATI-Karten der untersten Preisklasse ein Traumwert sein dürfte. Ein kurzer Ausflug zu FarCry war jedoch (ATI-untypisch) eher ernüchternd. Ich muß noch analysieren, ob es ein Setting- oder Treiberproblem war oder evtl. ein Hintergrundtask, denn eigentlich sollte es gerade auf ATI-Karten besser laufen als Q4. Ich werde natürlich versuchen, schnellstmöglich auch die "normalen" X1600Pro zu testen. Jedenfalls lassen die Ungereimtheiten bei FarCry und z.B. die CoD2-Werte im Test bei vr-zone noch viel Hoffnung bzgl. neuer Treiber aufkommen, die Karte scheint noch einiges an ungenutztem Potenzial zu haben... ;)
-- Veröffentlicht durch N omega G am 6:32 am 11. Jan. 2006
Zitat von BUG um 1:48 am Jan. 11, 2006
Zitat von kammerjaeger um 23:04 am Jan. 6, 2006 Stimmt. Und wenn dann noch der Preis passt... :thumb: Aber auch mal sehen, was Gecube diesmal bringt, denn deren Kühler für die X1600Pro sind für eine 30W-Karte auch nicht gerade knapp bemessen. Nur leider macht der Hersteller auf der Seite keine Angaben zu den Speichertaktraten, und bei der 9550 Extreme stimmten die Werte auch nicht mit den realen Taktraten überein. Also lassen wir uns überraschen. :punk:
| ..die Karte scheint es jetzt in DE zu geben und der Preiß kann imho auch überzeugen. :megaeek: http://www.geizhals.at/deutschland/a179597.html http://www.vr-zone.com.sg/?i=3092&s=1 Edit: ..es scheint da aber wohl zwei Versionen zu geben, diese^^ hat etwas weniger Speichertakt (als die Golden Version) und vermutlich einen "normalen" Kühler. Der etwas erhöte CoreTakt und der DDR3 statt DDR2 Speicher ggü anderen Pro Karten bleibt aber vermutlich erhalten wenn man den Hersteller Angaben glaubt. :) cu BUG (Geändert von BUG um 1:58 am Jan. 11, 2006)
| echt nice. die ist schneller als die 6600gt, hat mehr features und ist deutlich billiger :thumb:
-- Veröffentlicht durch BUG am 1:48 am 11. Jan. 2006
Zitat von kammerjaeger um 23:04 am Jan. 6, 2006 Stimmt. Und wenn dann noch der Preis passt... :thumb: Aber auch mal sehen, was Gecube diesmal bringt, denn deren Kühler für die X1600Pro sind für eine 30W-Karte auch nicht gerade knapp bemessen. Nur leider macht der Hersteller auf der Seite keine Angaben zu den Speichertaktraten, und bei der 9550 Extreme stimmten die Werte auch nicht mit den realen Taktraten überein. Also lassen wir uns überraschen. :punk:
| ..die Karte scheint es jetzt in DE zu geben und der Preiß kann imho auch überzeugen. :megaeek: http://www.geizhals.at/deutschland/a179597.html http://www.vr-zone.com.sg/?i=3092&s=1 Edit: ..es scheint da aber wohl zwei Versionen zu geben, diese^^ hat etwas weniger Speichertakt (als die Golden Version) und vermutlich einen "normalen" Kühler. Der etwas erhöte CoreTakt und der DDR3 statt DDR2 Speicher ggü anderen Pro Karten bleibt aber vermutlich erhalten wenn man den Hersteller Angaben glaubt. :) cu BUG (Geändert von BUG um 1:58 am Jan. 11, 2006)
-- Veröffentlicht durch Mome am 17:27 am 8. Jan. 2006
kannst du über den Overclocker oder das Atitool nicht die Spannung einfach so erhöhen? Bei einem X1600Pro User ging das...
-- Veröffentlicht durch BUG am 15:38 am 8. Jan. 2006
k.a. ..die Karte is zu neu, mir is bisher für die X1600XT auch kein vMod bekannt und selber konnte ich auch noch keinen Blick draufwerfen. Ich kann maximal mit dem vMod einer X1600Pro dienen. Mit etwas Glück hat die das gleiche Layout wie deine Karte?! http://www.vr-zone.com.sg/?i=3092&s=9 cu BUG
-- Veröffentlicht durch AMDKILLER am 15:26 am 8. Jan. 2006
Hast Recht Mit ATI-Tool Bios sichern is nich mit ATIFlash oder Flashrom auch nich Schätze mal die ham das irgendwie gesichert Schiess los was muss ich mit meinem Fläschen Silberleitlack alles zukleistern. :godlike: :noidea:
-- Veröffentlicht durch BUG am 15:00 am 8. Jan. 2006
..soweit wie ich weis hat die X1600 dafür kein Bios support. Das geht imho nichmal richtig bei der X1800, da muß man das ATI Tool für nutzen. cu BUG
-- Veröffentlicht durch AMDKILLER am 14:56 am 8. Jan. 2006
Wieso soll das nich gehen mit dem VCore mod per Bios
-- Veröffentlicht durch BUG am 14:46 am 8. Jan. 2006
..das geht wohl bei der X1600 nich per Bios! Da mussu löten für mehr Vcore oder den Bleier ansetzen! :) ..letzteres ist aber imho nix auf dauer und man kann sich die Karte dabei auch schnell schrotten, ersteres sollte man nur machen wenn man weis auf welcher seite der Lötkolben heiß wird! ;) cu BUG
-- Veröffentlicht durch AMDKILLER am 12:41 am 8. Jan. 2006
Sagt mal wo krieg ich ein Bios für die Spphire X1600XT her Will die Core-Spannung erhöhen :thumb: Kann ich da auch mein altes sichern--> es bearbeiten --> wieder draufflashen:noidea: mfg AMDKILLER PS: Zur Leistungs orientierung: 3DMark 05: 5223(default) Punkte auf 1024x768 und die Shader auf 2.0 runter
-- Veröffentlicht durch Mome am 16:49 am 7. Jan. 2006
ich wollte auch auf ne billigere Karte zurück (von einer X1800XL) und hatte die wahl zwischen einer X1600Pro/XT und einer C3D X800GTO, die ich freischalten kann. Ich hab die "Vernunftentscheidung" getroffen und die C3D X800GTO genommen undfreigeschaltet. Nun sind die neuen aber wohl großteils nichtmehr freischaltbar, wenn man davon ausgeht, würde ich wahrscheinlich fast eher die X1600Pro/XT nehmen. Interessant wird ja wohl eher dann der überarbeitete X1600 alias X1700. @BUG ich dachte die X1600 hätte 4ROPS und 12TMUs?
-- Veröffentlicht durch Kaffeeheld am 14:40 am 7. Jan. 2006
nah ich weiß nicht x1600pro DDR2Speicher 128bit unterschied x1600xt DDR3speicher und ein höheren takt ca. 20%
-- Veröffentlicht durch Pilskiller666 am 11:24 am 7. Jan. 2006
In der Aktuellen PCGH ist nen test zur x1600Pro drinn. Für reines 1024x768 ist sie aber ok.
-- Veröffentlicht durch Gibtnix am 23:11 am 6. Jan. 2006
Zitat von BUG um 21:47 am Jan. 6, 2006 @Gibtnix ..also gegen OC bzw. eine X800Pro/X850Pro hat die X1600XT selten eine Chance, aber im default Takt (400 MHz) erreicht die GTO "nur" so um die ~4500 Punkte im 05er.
| cool, thx:thumb:
-- Veröffentlicht durch kammerjaeger am 23:04 am 6. Jan. 2006
Stimmt. Und wenn dann noch der Preis passt... :thumb: Aber auch mal sehen, was Gecube diesmal bringt, denn deren Kühler für die X1600Pro sind für eine 30W-Karte auch nicht gerade knapp bemessen. Nur leider macht der Hersteller auf der Seite keine Angaben zu den Speichertaktraten, und bei der 9550 Extreme stimmten die Werte auch nicht mit den realen Taktraten überein. Also lassen wir uns überraschen. :punk: Btw: Barebone- und HTPC-Freunde werden sich über rund 20W weniger Verbrauch ggü. einer 6600GT freuen, kombiniert mit besseren Multimedia-Features. :thumb:
-- Veröffentlicht durch BUG am 22:45 am 6. Jan. 2006
Zitat von kammerjaeger um 22:40 am Jan. 6, 2006 Danke, aber leider auch keine "Standard-X1600Pro", sondern fast an den Taktraten einer Xt dran.... Trotzdem recht aufschlußreich. Und die Probs mit CoD2 dürften wohl ein Treiber-Bug sein, der sich beheben läßt.
| ..das mit COD denk ich auch, aber die X1600Pro aus dem Link is ganz interessant, könnte sowas wie die GeCube 9550 Speedy Edition sein. ;) cu BUG
-- Veröffentlicht durch kammerjaeger am 22:40 am 6. Jan. 2006
Danke, aber leider auch keine "Standard-X1600Pro", sondern fast an den Taktraten einer Xt dran.... Trotzdem recht aufschlußreich. Und die Probs mit CoD2 dürften wohl ein Treiber-Bug sein, der sich beheben läßt.
-- Veröffentlicht durch BUG am 21:47 am 6. Jan. 2006
@Gibtnix ..also gegen OC bzw. eine X800Pro/X850Pro hat die X1600XT selten eine Chance, aber im default Takt (400 MHz) erreicht die GTO "nur" so um die ~4500 Punkte im 05er. @kammerjaeger http://www.vr-zone.com.sg/?i=3092&s=1 cu BUG
-- Veröffentlicht durch kammerjaeger am 18:39 am 6. Jan. 2006
@ BUG Dein Link ist leider auch nur die X1600XT. Scheinbar gibt es keinen Test der X1600Pro. :noidea:
-- Veröffentlicht durch Gibtnix am 18:14 am 6. Jan. 2006
Zitat von BUG um 17:32 am Jan. 6, 2006 ..das kommt auf den Benchmark an, aber "meist" sollte die GTO leicht bis ne ganze Ecke schneller sein. Bei extrem Pixelshaderlastigen sachen is die X1600XT wohl etwas schneller. Die X1600 kann nur bei Shadern ihre (halbstarken) "Muskeln" spielen lassen, ohne oder nur mit wenig aufwendigen Shadern fehlt es dem RV530 an Füllrate und Bandbreite ggü der X800GTO oder 6800GS. Der RV530 hat nur 4 Pipes! Edit: ..sieht man z.B. bei FEAR oder 3DMark05. Die X1600XT macht knapp ~5000 05Murkse, da tut sich ne X800GTO oder 6800GS ziemlich "schwer". Im 3DMark03 wendet sich das Blatt zugunsten X800GTO oder 6800GS. Wenn die Spiele demnächst so Shaderlastig werden wie uns der 3DMark05 weis machen will, dann wird die X1600XT in Zukunft wohl auf ähnlichem niveau wie die X800GTO oder 6800GS liegen. Mit AF und FSAA geht der X1600 aber irgendwann wohl auch Bandbreite und Füllrate aus mal sehen was der RingBus Controler da noch "reißen" kann. ;) cu BUG (Geändert von BUG um 17:40 am Jan. 6, 2006)
| das klingt ja schonmal gut:thumb: nur tut sich denn ne GTO so schwer de 5k im 05er zu knacken? Also auf 507/575 macht meine GTO ~5600 im 05er. Mit Standarttakt hab ichs nicht getestet. Bietet denn die X1600er Reihe auch so gute OC Möglichkeiten wie die GTOs mit? Für Leute die ihre GraKa übertakten ja sicher auch ein Aspekt und das OC-Pontenzial der GTOs ist denke ich schon sehr gut. meine läuft immerhin von 400/490 auf 507/575, andere gehen durchaus besser und auch bei mir ist das nicht das absolute Maximum...
-- Veröffentlicht durch BUG am 17:32 am 6. Jan. 2006
..das kommt auf den Benchmark an, aber "meist" sollte die GTO leicht bis ne ganze Ecke schneller sein. Bei extrem Pixelshaderlastigen sachen is die X1600XT wohl etwas schneller. Die X1600 kann nur bei Shadern ihre (halbstarken) "Muskeln" spielen lassen, ohne oder nur mit wenig aufwendigen Shadern fehlt es dem RV530 an Füllrate und Bandbreite ggü der X800GTO oder 6800GS. Der RV530 hat nur 4 Pipes! Edit: ..sieht man z.B. bei FEAR oder 3DMark05. Die X1600XT macht knapp ~5000 05Murkse, da tut sich ne X800GTO oder 6800GS ziemlich "schwer". Im 3DMark03 wendet sich das Blatt zugunsten X800GTO oder 6800GS. Wenn die Spiele demnächst so Shaderlastig werden wie uns der 3DMark05 weis machen will, dann wird die X1600XT in Zukunft wohl auf ähnlichem niveau wie die X800GTO oder 6800GS liegen. Mit AF und FSAA geht der X1600 aber irgendwann wohl auch Bandbreite und Füllrate aus mal sehen was der RingBus Controler da noch "reißen" kann. ;) cu BUG (Geändert von BUG um 17:40 am Jan. 6, 2006)
-- Veröffentlicht durch Gibtnix am 17:15 am 6. Jan. 2006
wie sieht das eigentlich die Performance der X1600 Pro/XT im Vergleich zur X800GTO aus? die GTO ist ja die gleiche Preisklasse, hat auch 12 Pipes, weniger Takt, aber dafür 256 Bit:noidea:
-- Veröffentlicht durch Redirion am 15:22 am 6. Jan. 2006
Ich möchte noch hinweisen, was für Benchmarks ihr hier vergleicht.. Fachzeitschriften und Internetseiten benchen unter ganz bestimmten Kriterien ! In der Regel sind alle Grafikeinstellungen beim Spiel ausgemaxt bzw. mindestens auf hoch! Variiert wird bei den Benches lediglich die Auflösung und eben die Qualitätsfeatures AA/AF sowie ab und zu mal eine verschiedene Pixelshader Version. Die höchsten Einstellungen bei den Spielen werden daher gewählt, damit man möglichst CPU-Unabhängig die Limits der Grafikkarte feststellen kann. Jedenfalls ist daher ein Benchmark von so aktuellen Spielen bei einer Karte im Preissegment <150€ nicht realitätsnah. Wenn Beschleunigen ihr da vorwirft eine "sehr müde" Karte zu sein, muss man immer noch bedenken, dass die Grafikkarte im Zusammenspiel mit einem System, was ohnehin nur aus dem Mid-range Bereich stammen dürfte, durchaus ihre Leistung bringt, wenn man nicht Einstellungen wählt, bei denen man im vornerein nur bei einer 250€-Karte gute Ergebnisse zu erwarten hat...
-- Veröffentlicht durch Beschleunigen am 15:09 am 6. Jan. 2006
c't hat auch die XT im test gehabt, nicht die Pro. die PRO wird dann wohl noch ein stückchen langsamer sein.. (..) mfg tobi
-- Veröffentlicht durch BUG am 15:04 am 6. Jan. 2006
@Tobi ..was kostet die 6800GS? --> 170,- Euro aufwärts! ..was kostet die X1600Pro? --> 120,- Euro aufwärts! ..vergleichen sollte man in gleichem Preissegment, und da tummelt sich bei nVidia derzeit nur die 6600DDR2 (ab 115,- Euro) und 6600GT (ab 145,- Euro) und beide Karten sind bei neueren Spielen der X1600Pro unterlegen! Edit: Die von dir genannte XT würde ich auch nicht kaufen und hier im Thread (siehe Überschrift) gehts um die Pro mit DDR2 Speicher (400 MHz bzw 800).Deweiteren weist du ja was ich von den CT Graka Tests halte --> nix! Die Benchen teilweise AI-OFF gegen nVidias Q Modus. :( cu BUG (Geändert von BUG um 15:10 am Jan. 6, 2006)
-- Veröffentlicht durch Beschleunigen am 14:56 am 6. Jan. 2006
ein 6800GS ist in diesem preissegment, ne ganze ecke brauchbarer. da muss man nichtmal auf AA/AF verzichten.. immerhin war der c't test ein vergleich in der selben preisklasse (X1600XT vs. 6800GS). der artikel heisst auch "Gegenspieler - NVidia kontert ATIs neue Mittelklasse mit dem GeForce 6800GS" der 68er ist überall relevant überlegen und in Doom3 bringt er es sogar auf 60fps, wo die ATIs bei 30 rumkaspern. steht alles in dem test. hat also nichts mit meiner nv affinität zu tun. (..) mfg tobi
-- Veröffentlicht durch poschy am 14:51 am 6. Jan. 2006
naja.. für 222€ gibts mitlerweile ne x850xt .. denke nicht das da nen crossfiregespann dran kommt?
-- Veröffentlicht durch BUG am 14:39 am 6. Jan. 2006
Zitat von kammerjaeger um 14:10 am Jan. 6, 2006 Afaik hat nur die X1300 4 Pipes und die X1600 tatsächlich 12 Pipes (3 Quads). klick
| ..nein, der RV530 hat nur 4 Pipes, dafür aber pro TMU 3 Shader Einheiten (ALUs). Sie ist quasi der kleine Bruder der demnächst erscheinenden X1900 (aka R580 --> 16 Pipes und 48 ALUs). Wärend in älteren Spielen sich die X1600 von der 6600GT geschlagen geben muß (z.B. UT2K4), kann sie sich in neueren Titeln recht deutlich absetzen (z.B. F.E.A.R.). http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/9/#abschnitt_fear ..die X1600 hat imho auch diesen RingBus Controler und sollte mit neueren Treibern noch an Speed zulegen können. Also die X1600 Pro hat imho ein recht vernünftiges Preis / Leistungs verhältnis (ab 120,- Euro)! :thumb: Interessant könnte auch ein CrossFire Gespann aus den beiden Karten sein. :) cu BUG
-- Veröffentlicht durch kammerjaeger am 14:10 am 6. Jan. 2006
@Redirion :thumb: Aber eine andere Antwort war von Tobi auch nicht zu erwarten, er schießt in solchen Dingen immer gerne über das Ziel hinaus! Daß sie nicht mit einer 300,- teuren Karten konkurrieren kann/will, sowas übersieht er gerne. Hier geht es um die optimale LowBudget-Karte mit brauchbarer Performance und niedrigem Verbrauch, nicht um das technisch Machbare... @ smoke81 Afaik hat nur die X1300 4 Pipes und die X1600 tatsächlich 12 Pipes (3 Quads). klick (Geändert von kammerjaeger um 14:13 am Jan. 6, 2006)
-- Veröffentlicht durch Redirion am 13:16 am 6. Jan. 2006
Zitat von Beschleunigen um 12:58 am Jan. 6, 2006 c't hat die karte in ausgabe 25/2005 S.86 getestet. sehr müdes teil (15-40fps in FC, FEAR, HL2LC und Doom3 je nach auflösung und aa stufe), ab 1280x960 mit AA nicht mehr zu gebrauchen. die 6800GT/GS und waren in allen tests, ein ganzes stück schneller und auch die X800GTO sah bei FEAR und HL2LC nicht viel besser als die X1600XT aus. (..) mfg tobi
| Es ist vermutlich davon auszugehen, dass jemand, der eine Grafikkarte aus dem <150€ Bereich sucht, einen Röhrenmonitor besitzt und Spiele in der Auflösung vo 1024x768 spielt und auf AA/AF verzichten kann. Demnach hast du ihm gerade bestätigt, dass die X1600Pro genau dafür ideal wäre, denn alle anderen von dir erwähnten Karten liegen in einem höheren Preissegment. Eine Alternative fällt mir auch nicht ein.. eine 6600GT sollte jedenfalls nicht mit einer X1600Pro mithalten können.
-- Veröffentlicht durch Beschleunigen am 12:58 am 6. Jan. 2006
c't hat die karte in ausgabe 25/2005 S.86 getestet. sehr müdes teil (15-40fps in FC, FEAR, HL2LC und Doom3 je nach auflösung und aa stufe), ab 1280x960 mit AA nicht mehr zu gebrauchen. die 6800GT/GS und waren in allen tests, ein ganzes stück schneller und auch die X800GTO sah bei FEAR und HL2LC nicht viel besser als die X1600XT aus. (..) mfg tobi
-- Veröffentlicht durch smoke81 am 12:51 am 6. Jan. 2006
Vorsicht! Die Karte hat eigentlich nur 4 Pipes, aber 3 ALUs pro Pipe... ;) Diese Technik wird dann auch bei der X1900 XT(X) verwendet, nur mit 16 Pipes und damit 48 ALUs... :thumb:
-- Veröffentlicht durch Gibtnix am 12:43 am 6. Jan. 2006
na also schneller als ne 6600GT muss ja auf alle Fälle sein; 12 Pipes und mehr Takt...:thumb: einen Test kenn ich aber nicht....
-- Veröffentlicht durch kammerjaeger am 23:32 am 5. Jan. 2006
Die neue X1600 Pro scheint eine schöne Alternative in der Klasse <150,- zu sein. Nur leider findet man im Netz keine Tests dazu (immer nur die X1600XT) und die Speichertaktraten schwanken von 500-800MHz, wobei die 500MHz-Karten gutes OC-Potenzial haben sollen.... Dank der 12Pipes und 256MB sollte sie vor einer 6600GT liegen, zumindest in der schneller getakteten Variante (780-800MHz). Von Gecube und Sapphire kommen auch langsam die AGP-Versionen in den Handel. Wer hat die Karten schon getestet oder kennt einen Test im Netz?
|