Beitragsrückblick für (die neuesten Beiträge zuerst) |
Beschleunigen |
Erstellt: 14:22 am 30. Juli 2005 |
ich hatte exakt sowas als antwort erwartet. schönen tag noch. (..) mfg tobi |
BUG |
Erstellt: 12:10 am 30. Juli 2005 |
Zitat von Beschleunigen um 10:34 am Juli 30, 2005 in FC ist meine nicht zu langsam. das kann ich mit HDR wunderbar spielen. ich komme zwar nicht auf die 50-90fps, die ich ohne HDR habe, aber mit 33-50fps rennt das schon ganz ordendlich. mit 2 karten sind's dann 60-70fps konstant.
| ..also mir ist es zu langsam, ich habe versucht FarCry nochmal durchzuspielen, es geht einfach nicht ohne das es teilweise stark ruckelt. Gerade in den OutDoor Maps fallen die FPS durch HDR stark ab was ein genaues zielen und treffen teilweise unmöglich macht. In den innen Levels ist es meist zufriedenstellend, allerdings wird da einiges so extrem overbright, das man erneut probleme bekommt den Gegner zu sehen und auch zu treffen. Ich will HDR nicht schlecht reden, aber imho ist es nur ne nette Spielerei, mich hat es die meiste Zeit aus Performance gründen gestört und wenn die Leistung gerade so gereicht hat fehlt immernoch das FSAA oder ich wurde ständig "geblendet", gut man kann das "HDR Level" noch weiter senken, nur irgendwann sieht man es eh kaum noch weshalb man auch gleich drauf verzichten könnte.
fake HDR ist also das argument "für" ATI, ja ? schonmal drüber nachgedacht, dass jede karte faken kann -> wenn die füllrate für fp16 HDR nicht reichen sollte.. ?
| ..nein, das habe ich so nicht gesagt und auch nicht gemeint, ich werde FakeHDR wohl auch auf meinem NV40 nutzen da es schnell und in Verbidnung mit FSAA nutzbar ist. Für echtes ist mir meine Karte einfach zu langsam, mehr wollte ich damit nicht sagen. womit testest du denn die SM3 performance? nur neugier, um es mal "nachzutesten"
| ..im großen und ganzen ist SM3.0 auch nur ein auf FP32 gepushtes PS2.0 mit ein paar extras (z.B. Dynamic Branching) und Branching ist auf der GF6 zu langsam als das man es sinnvoll nutzen könnte. Die Karte verbraucht zuviele Takte zum verwerfen diverser Shader Codes so das sie den Shader in der gleichen Zeit auch komplett berechnen könnte. Die ATI Karten sind ja auch nich auf PS2.0 begrenzt, sie können wenn der Puplisher oder der Programierer es vorsieht auch PS2.0b und 3DC ist sicherlich auch ein nettes Feature wovon die X800/X850 Serie zu lebzeiten noch was von haben wird. Programme zum nachtesten gibt es imho nicht so richtig, liegt wohl daran, dass SM3.0 doch nich so oft gebraucht wird. Es beleiben aktuell nur ein paar Spiele die SM3.0 & 2.0 unterstützen (mir Fällt gerade nur FarCry ein) und in denen sieht man das ATI mehr als nur mithalten kann. cu BUG (Geändert von BUG um 12:12 am Juli 30, 2005) |
Beschleunigen |
Erstellt: 10:34 am 30. Juli 2005 |
in FC ist meine nicht zu langsam. das kann ich mit HDR wunderbar spielen. ich komme zwar nicht auf die 50-90fps, die ich ohne HDR habe, aber mit 33-50fps rennt das schon ganz ordendlich. mit 2 karten sind's dann 60-70fps konstant.
Meinermeinung nach ist der NV40 für SM3.0 zu langsam und wenn es nur als SpeedUpdate ggü SM2.0 eingesetzt wird ändert das auch nix im vergleich zu ATI.
| fake HDR ist also das argument "für" ATI, ja ? schonmal drüber nachgedacht, dass jede karte faken kann -> wenn die füllrate für fp16 HDR nicht reichen sollte.. ? womit testest du denn die SM3 performance? nur neugier, um es mal "nachzutesten" (..) mfg tobi (Geändert von Beschleunigen um 10:36 am Juli 30, 2005) (Geändert von Beschleunigen um 10:37 am Juli 30, 2005) |
BUG |
Erstellt: 1:59 am 30. Juli 2005 |
Zitat von Beschleunigen um 11:09 am Juli 29, 2005 das hat mit HDR rein gar nichts zu tun, auch wenn's auf standbildern vielleicht so aussieht. blooming ist kein HDR. blending auch nicht. den faked HDR modus kannst du auf jeder karte nutzen. auch mit AA. allerdings braucht richtiges HDR, ROPs für FB-Blending, die ATI nicht hat.
| ..das Probelm der GF6 ist aber, dass echtes HDR meist auch zu langsam ist (siehe FarCry), die GF6 schwächelt mal wieder an der Leistungsgrenze ihres Featuresets (wie auch schon die FX). Die ATI FarCry Techdemo zeigt auch wunderschönes FAKE HDR, es ist schnell sieht fast genauso aus wie echtes und man kann AA nutzen. In HL2 wird es auch einen schnellen Fake HDR Modus geben und ich bin mir ziemlich sicher, dass ich lieber schnelles Fake HDR möchtes als echtes und langsames HDR ohne FSAA. Brauchbares & echtes HDR ist leider erst mit NV40 + SLI oder mit einer 7800GTX möglich. Beides habe ich nicht, ich bleib vorerst eh bei AGP, mein System ist noch UpToDate.
ich finde nicht, dass man shader3 ablehen sollte, da jede engine von allen games, die ins haus stehen, auf SM3 zugreifen. da kann ATI dann nur mit dem Fallback-modus arbeiten --> das ist bestimmt richtig schnell --> LOL
| ..vieleicht nicht ablehen, aber es noch lange kein "must have" Feature. Die Zeit wird es Zeigen aber ich glaub nich daran, dass die aktuellen ATI Karten in den nächsten 2 Jahren ernsthafte Probleme haben werden mit der GF6 mithalten zu können. Meinermeinung nach ist der NV40 für SM3.0 zu langsam und wenn es nur als SpeedUpdate ggü SM2.0 eingesetzt wird ändert das auch nix im vergleich zu ATI. Es könnte X800 / X850 Käufern aber durchaus mal das gleiche Schicksal ereilen wie den jetzigen Geforce 4 Besitzern (BF2 verlangt nach PixelShader 1.4). Allerdings ist es dann eh höchste Zeit für ne neue Karte.
also zumindest bug, sollte es besser wissen - der treibt sich ja wenigstens zeitweise im 3DC rum. aus der kristall-kugel: in 6 monaten wird jeder ATI käufer von heute wieder aufrüstpläne ausarbeiten.
| ..ich kann beide Karten (X800 und 6800GT) recht gut vergleichen (hatte heute mal wieder ne X800 im Rechner) und mir mein eigenes Urteil bilden. ps.: ..alles was Pixelshader 2.0 berechnen kann, ist WGF konform, also alles ab FX5200 oder Radeon 9500 und aufwärts. cu BUG (Geändert von BUG um 2:06 am Juli 30, 2005) |
BlackHawk |
Erstellt: 13:48 am 29. Juli 2005 |
das stimmt soweit ja eigentlich auch alles, da gebe ich dir keine widerworte für pcie gibt es zur 6800er (oder höher) serie keine (in bezug auf features / leistung) gleichwertige alternativen (höchstens preislich), dennoch kann ich es verstehen wenn man sich für eine ati karte entscheidet (oder eben auch nicht). aber gerade im agp sektor (wodrum es hier ja geht) sieht die sache anders aus! in bezug auf die 6800er serie und den nforce3 gibt es nur probleme und eine allg. schlechtere performance im vergleich zu ati (wenn man eine vergleichbare ati karte sein eigen nennt). ich habe es ja leider selbst mit zwei 6800er karten (6800nu/gt) erfahren dürfen, und das war mitunter nicht mehr witzig (ich sage nur schlechte übertaktbarkeit und hänger bei 3d anwendungen [selbst unübertaktet]) und genau für diesen bereich / fall halte ich es dann wirklich für sinnvoll, entgegen der technologischen vorteile einer nvidia karte, über den kauf einer ati karte nachzudenken und dies ggf. auch durchzuführen. qualitative unterschiede konnte ich bisher keine nachvollziehen, die leistung ist mitunter deutlich besser (vorallem mit aa + af) und endlich läuft alles so wie es soll - ohne probleme. es ist also einzig und allein eine frage dessen, wie / womit man persönlich am meisten provitiert und was einem am besten gefällt. ich verzichte gerne auf gewisse features wenn die karte dafür ohne probleme (schneller) läuft das sich meine denkweise mitunter im falle des umrüstens auf pcie wieder ändern wird, stellt für mich kein problem dar, man muss nur offen für alles alles sein von daher: jedem das seine und seinem system / befinden individuell angepasst. damit sollte jeder gut leben können mfg BlackHawk (Geändert von BlackHawk um 13:51 am Juli 29, 2005) |
Beschleunigen |
Erstellt: 12:39 am 29. Juli 2005 |
stimmt. allerdings ist openGL nicht so fixiert auf features, wie es directX ist. wo directX neue hardware braucht, reicht unter openGL meist eine (oder ein paar) neue extension(s). wenn die systemleistung reicht, sollte aber _xS gut unter openGL funzen. geht hoch bis 8xS (..) mfg tobi |
Judgi |
Erstellt: 12:28 am 29. Juli 2005 |
also eins muss ich ja sagen verbindet uns doch... das Raumschiff auf deinem Desktop... ich hab da auch eins hmm Supersampling kann die ja nur in Direct3D ?? !! mein CS:S läuft aber in Open GL... öööhhhmm (Geändert von Judgi um 12:32 am Juli 29, 2005) |
Beschleunigen |
Erstellt: 12:22 am 29. Juli 2005 |
Und was die Lüfter nennen ist in Wirklichkeit genauso laut wie der Fön meiner Freundin - nur in Stereo !! ist nun also doch wieder ne Ati geworden - schön leise und kühl - mitm Silencer unhörbar ( in meinem Sys jedenfalls ) und für mich kann die alles was ich brauche zu meiner vollen Zufriedenheit
| das ist doch widersinng. wenn du eh einen silencer kaufst, ist der silencer auf der NV karte auch nicht lauter, als jetzt bei deiner ATI. meine erfahrung mit den stock-coolern sind nicht negativ, obwohl mein A64 ziemlich leise ist (wakü) und ich jede zusätzliche geräuschquelle akustisch orten kann. die Ultra war recht laut, das stimmt. allerdings ist der lüfter regelbar, so dass man ihn (sofern überhaupt nötig) noch per software (nach)drosseln kann, die forceware macht das idR automatisch. sollte die karte nicht über einen regelbaren lüfter verfügen, hat man die falsche karte gekauft. das ref. layout sieht eine steuerung vor. bei der GF7 sogar in 10 stufen, von denen das ref. bios ATM nur 7 nutzt. ansonsten gibt's aber auch noch passive und wassergekühlte lösungen. die gigabyte 68GT mit ref.kühler ist unter windows leiser, als jeder chipsatz-lüfter. der beste austausch KK für GF6 karten ist übrigens der zalman vf700cu. nicht wg. evtl. höherer kühlleistung, sondern weil er so konzipiert ist, dass er den für die spannungsversorgung notwendigen teill der karte, mit-anpustet. eine GF6800U ist übrigens nicht als silent-karte konzipiert (werkseitig ist sie enthusiast level)
Das mit dem Golf is ja n klasse Beispiel Kannst du auch mal deine Meinung auf Fakten aufbauen oder bricht dann alles zusammen? Wenn du mal Benchmark ergebnisse oder tests postest fang ich vielleicht doch noch vor dem nächsten Leben an dir zu glauben.
| mir ist ziemlich schnuppe, was du glaubst und was nicht. was willst du eigentlich immer mit benchmarks? ich stehe voll nicht auf benchmarks, weil die so schön nichtssagend sind. aber bitteschön: Aquamark3 auf meinem NV40 Aquamark3 auf GeForce 6600GTe 3D Mark 2005 auf meiner NV40 3D Mark 2003 auf GeForce 6600GTe 3D Mark 2003 auf meiner NV40 FarCry @1280x1024 HDR "7" ~ 33-50 fps wie man also sehen kann, ist die leistung nicht "besser" oder "schlechter", als mit den ATI karten. nur ist halt das featureset "besser", so dass man sicher auch noch ohne spagate mit kommenden spielen klar kommt. in spielen, die stencil shadows oder FB-Blending HDR nutzen, ist sowieso jede NV karte "besser", als ATI karten.. was heisst eigentlich "besser" ? "besser" sagt gar nichts aus. schneller, ist ebenfalls kein eindeutiger begriff. flüssig muss es sein- stimmt. das hat man aber schon im bereich von 30-60fps. mehr führt auf TFTs übrigens zu tearing. jedes kommende spiel, a la fear, morrowind, unreal oder stalker wird die GF6 und GF7 features nutzen. darum bastelt sich ATI ja grad dem SM3 support für den R5xx. sicher läuft das dann auch auf ATIs X800 --> dann aber mit leistungsdefizen, abstrichen und emulation der features über die pixel-shader. bencht doch mal auf ATI karten den 3D Mark 2005 mit voller präzision, postprocessing und max AA und AF (im optionsmenu einzustellen), falls das mit ATI überhaupt möglich ist. ATI karten unterstützen auch kein WGF, was man für das kommende windows benötigt und AFAIK keinen HDCP handshake. 300€ ausgeben ist eine tolle sache, aber wer das jedes jahr macht, hat echt den schuss nicht gehört, oder ATI gekauft.. ich kann nur jedem raten, sich mal mit der technik auseinander-zu-setzen. ich bin nämlich nicht der, der einem blinden das sehen erklären kann -> da werd ich bestenfalls agressiv bei. besonders wenn man mir einreden will, dass man mit dem featureset von vor 2 jahren, noch ein oder zwei jahre hinkommt -> das ist blödsinn. es gibt auch etliche features und funktionen auf einer GeForce zu entdecken, die den rahmen ATIs zu sprengen vermögen, aber dazu müsste man schon so eine karte kaufen und sie auch zu nutzen versuchen. ich würde einfach mal (wenn es mich interessiert) im 3Dcenter forum rumlesen. und noch einmal in fett: es ist keine diskussionsbasis, die karten in frameschlachten zu vergleichen. 80 zu 83 oder 50 zu 52fps sind nicht diskussionswürdig HDR hat jedenfalls nichts mit SM3 zu tun und ATI kann nur faken. die können auch nur mit 24bittiger präzision rendern (NV hat 32bittige, weshalb auch die FX59 so schlecht performte), NV kann SuperSampling AA, mixed Modi und MSAA dass man die leistung nahezu verdoppeln kann, weil die karten SLI fähig sind, zählt sicher zu euren argumenten von dem "brauch ich nicht" zettel, oder ?? und jetzt vergleicht den faktor 1.8 bei NV nicht mit dem faktor 1.1 von ATIs crossfire, was sogar spezielle karten benötigt und das immer nur das schwächste glied der kette doppelt. davon kann die karte trotzdem kein FP-blending oder SM3.0. ATM ist crossfire nur ein papier-tiger. crossfire ist in meiner fantasie ein launch von irgendwas, weil der neue chip nicht fertig wird. guckt euch mal die leistungsdaten einer GF7 an. das geht ja ATM durchs ganze i-net und sollte nicht schwer zu finden sein - beeindruckend oder? und dann les't euch die tests und previews durch, in denen erklärt wird, warum sich der umstieg von GF6 auf GF7 nur in bestimmten fällen lohnt.. zieht dann 1 und 1 zusammen -> dann ist die GF6 sicher keine schlechte wahl. (..) mfg tobi (Geändert von Beschleunigen um 13:35 am Juli 29, 2005) (Geändert von Beschleunigen um 15:44 am Juli 29, 2005) |
Judgi |
Erstellt: 12:00 am 29. Juli 2005 |
welche Software unterstützt denn nun inzwischen eigentlich schon Shader 3.0 ... ? und welche zukünftig ?? achja und Vergleich mit dem Golf... naja das ältere Modell ist ausgereift...ohne zicken und Ausfälle alà C-Klasse Benz ...nicht umsonst wollten die meisten Taxifahrer ihre E-Klasse behalten, weshalb selbige immernoch verdammt hoch im Kurs steht ( war halt das bessere/zuverlässigere Auto -auch wenns älter war ! ) Wenn ich dann so an die Massenausfälle bei der 6800er Serie denke...mei o mei...nichts als Ärger - und dabei wollt ich vorm halben Jahr erst ne Gainward 6800GT kaufen ( da hast du das mit dem ATI-ärgern auch schon mal erwähnt @ beschleunigen^^ ) ... und was macht Gainward inzwischen ...??? - puh hab ich ja noch Schwein gehabt keine genommen zu haben - was ? Und was die Lüfter nennen ist in Wirklichkeit genauso laut wie der Fön meiner Freundin - nur in Stereo !! ist nun also doch wieder ne Ati geworden - schön leise und kühl - mitm Silencer unhörbar ( in meinem Sys jedenfalls ) und für mich kann die alles was ich brauche zu meiner vollen Zufriedenheit naja und bald soll ja crossfire kommen...ma sehen was das wird ... vieleicht was für Dich @ Beschleunigen: bis zu 5 Monitore gleichzeitig ^^ - na ? greets... (Geändert von Judgi um 12:16 am Juli 29, 2005) |
MiCrO |
Erstellt: 11:38 am 29. Juli 2005 |
Er steht halt nicht auf ati liegt glaub ich nicht an den karten oder vielleicht hat er mal ne schlecht davon erwischt. Ich glaub jedenfalls nicht das ich mich darüber in nem halben jahr ärgern werde und wenn es dann in 1-2 jahren genug spiele gibt die das nutzen gibts bestimmt schon neue karten die den ganzen kram auch beherschen. |
× |