Shader 3.0 und 2.0
- OCinside.de PC Forum
-- Grafikkarten OC
--- Shader 3.0 und 2.0
|
Ein Ausdruck des Beitrags mit 56 Antworten ergibt bei 3 Antworten pro Seite ca. 19 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 94.80 Gramm Papier.
-- Veröffentlicht durch Stuzzy am 18:33 am 5. Okt. 2005
wenn wir schon beim thema HL2 sind: benutzt das SM3 oder SM2 oder sogar SM1? denn wenn es SM3 nutzen würde dann wäre meine theorie, das meine graka bei SM3 games probleme macht futsch:noidea: denn es lüppt:)
-- Veröffentlicht durch Kaffeeheld am 15:23 am 5. Okt. 2005
ok ok 3 1/2 fache
-- Veröffentlicht durch N omega G am 14:44 am 5. Okt. 2005
naja 4fach ist übertrieben...;)
-- Veröffentlicht durch Kaffeeheld am 13:54 am 5. Okt. 2005
wunderschönen Guten Tag an all ;)
-- Veröffentlicht durch Beschleunigen am 10:14 am 5. Okt. 2005
was an steam kacke ist? alles! ich bin mit der halflife2 dvd zu meinem bruder gefahren (wohnt 10km entfernt, ist 12 jahre jünger als ich und hat keinen i-net anschluss) - muss ich mehr sagen? ich stimme da vollends mit vegata und notebook überein - würde ich es wollen, liefe es bei mir ohne steam und auch ohne i-net (anleitung gebe ich aber keine - ist mir zu heiss - es geht aber). (..) mfg tobi (Geändert von Beschleunigen um 10:17 am Okt. 5, 2005)
-- Veröffentlicht durch Notebook am 20:41 am 4. Okt. 2005 Kein Wunder, dass das viele zum Cracken etc. reizt - sind ja nicht nur alles ach so böse Raubkopierer, sondern auch Leute, die keine Lust auf solches Gebocke haben.
-- Veröffentlicht durch Vegeta2 am 19:10 am 4. Okt. 2005
oder was ist wenn das i net nicht geht und man will gegen bots spielen
-- Veröffentlicht durch Notebook am 19:00 am 4. Okt. 2005
Steam ist eine Bevormundung des Spielers.
-- Veröffentlicht durch kammerjaeger am 18:53 am 4. Okt. 2005
Was ist so schlimm an Steam? Auf fast jedem anderen Spieleserver wirst Du auch gezwungen, die aktuellen Versionen/Patches etc. zu nutzen und Dein Spiel dahingehend durchgecheckt. Dafür kannst Du Dir bei Steam aber auch sicher sein, daß man ständig mögliche Verbesserungen einbaut und daß alle unter gleichen Bedingungen kämpfen... ;)
-- Veröffentlicht durch Beschleunigen am 15:08 am 4. Okt. 2005
natürlich. darum wird der FX käufer auch dahingehend beschnitten, dass er nichtmal DX9 im options-menu auswählen kann. wenn es für die honks von valve so teuer war, den renderpfad zu entwickeln, warum haben sie ihn dann nicht dringelassen? angeblich war doch alles soweit takko. -> ich mag das spiel übrigens nicht, auch wenn ich weiss, wie man steam loswird, ist es für die meisten doch eine zumutung.. unabhängig von der graka unterstützung. (..) mfg tobi
-- Veröffentlicht durch kammerjaeger am 13:59 am 4. Okt. 2005
War mir ja fast klar, daß sowas kommt. Aber man hat den NV3x-Pfad deshalb gecancelt, weil auch damit die Performance auf den meisten FX-Karten absolut mies war (lediglich mit den absoluten Top-Modellen wurden annehmbare Frameraten erreicht). Deshalb ist man einheitlich auf DX8 gegangen.
Na logisch, daß Wasser mit DX8 schlecht aussieht. Ist z.B. bei FarCry mit GF4TI auch nicht anders.... ;) Aber man kann doch Valve nicht dafür verantwortlich machen, daß ATI sich nicht an die DX9-Vorgaben hält und die FX nur 16/32bit kann statt der vorgegebenen 24bit. :blubb: Valve hat viel dafür getan, Nvidia-Karten flüssig zum laufen zu bringen. Wenn ein paar findige Leute außerhalb der Specs und ohne Bezahlung einen besseren Weg finden, dann ist das ja auch prima. Man sollte nur nicht Valve noch mehr Programmierungskosten dafür abverlangen, daß Nvidia seine eigenen Bröltchen backt. ;) Schaut man sich im Gegenzug aber mal Doom3 an, wo man mit ein paar kleinen Änderungen der ini-Datei auf ATI-Karten 30-40% mehr Leistung rausholen kann, ohne optisch wahrnehmbare Einbußen zu haben, dann weiß man, daß sich John Carmack seinen Abschied bei id von Nvidia hat versilbern lassen, indem er eine ATI-Handbremse eingebaut hat, die unsinnig ist und nur seinem Geldbeutel diente... Im Vergleich dazu sind die für Nvidia notwendigen Änderungen mit Shader-Replacements für HL2 gigantisch und haben mit der ursprünglichen Engine wenig zu tun.
-- Veröffentlicht durch Beschleunigen am 12:50 am 4. Okt. 2005
komisch nur, dass man den angeblich schon fertigen NV3x renderpfad wieder zugunsten eines allgemeinen DX8 pfades gekippt hat. den vergleichsshot hab' ich leider nicht mehr auf der HP, aber es sah genauso aus. hatte aber crappy water und 1 fps mehr auf dem counter. wie man das HDR in HL² aktiviert, würde mich auchmal interessieren. das sollte, sofern es über pixelshader emuliert wird, ja auf jeder DX9 karte funktionieren. die ATIs haben eigentlich kein technisches alleinstellungsmerkmal, das explizit für diese funktion herhalten könnte. gründe für "ati only" wären: -es liefe auf der NV karte auf den FP16 ROPs doppelt so schnell, weil nur mit 8bit gerechnet wird. -es geht nicht, weil ATI einfach die technisch bessere karte hat. -es geht, aber nicht über die ROPs, sondern nur über die shader. was auf NV karten endlos langsam wäre.. sry.. mir fällt nichts technisches ein, was das "8bit-bandbreiten-schonende-hdr" zum ati-only feature machen würde, daher der geschriebene schrott. (..) mfg tobi (Geändert von Beschleunigen um 13:24 am Okt. 4, 2005)
-- Veröffentlicht durch kammerjaeger am 8:49 am 4. Okt. 2005
Daß sich dieses Märchen immer noch so hartnäckig hält. :blubb: Valve hat nicht ohne Grund viel Entwicklungszeit (und somit Kosten) in die Optimierung für die FX-Reihe gesteckt, nachdem man gemerkt hat, wie stark die Shader-Schwäche diese Karten ausbremst. Von "sponsored by ATI" kann ja wohl kaum eine Rede sein, nur weil die FX so schlecht abschnitt... ;)
-- Veröffentlicht durch Beomaster am 7:48 am 4. Okt. 2005 wie stellt man denn das HDR ein? ich hab das schon versucht, aber irgendwie hat das nich so richtig hingehaun...
-- Veröffentlicht durch Lucifer am 1:56 am 4. Okt. 2005
Naja HDR kommt erst inner Bewegung richtig gut rüber... als ichs hatte wollt ichs nichtmehr missen. Wobei (3tes Bild) das Level fast unspielbar war wenn man net die Taschenlampe anhatte... War halt nur grob eingebaut aber trotzdem schon beeindruckend...
-- Veröffentlicht durch Beschleunigen am 14:21 am 30. Sep. 2005
super-sampling haut schon ohne HDR genug rein - wäre allerdings einen versuch wert. einiges kann man sicher über die auflösung kompensieren.
-- Veröffentlicht durch BUG am 13:50 am 30. Sep. 2005
cu BUG
-- Veröffentlicht durch Vegeta2 am 12:32 am 30. Sep. 2005
naja hab das ati tray tool net mehr zum download gefunden xD
-- Veröffentlicht durch Judgi am 11:02 am 30. Sep. 2005
Also ich bin ja ein Fan von Glatten Kanten ohne Treppenstufen...von daher bevorzuge ich das erste Bild mit 4xAA - zumal ich auch die hell/dunkel-Übergänge im 2ten Bild zu übertrieben finde.
-- Veröffentlicht durch Beschleunigen am 10:25 am 30. Sep. 2005 ich konnte mir in farcry immer aussuchen, ob ich es so: ohne HDR 80fps, aber mit 4xMSAA oder so: mit HDR 65fps, und ohne MSAA spielen wollte. gefallen hat mir beides. 80frames mit 4xAA oder die knapp über die hälfte mit HDR ohne AA.. dass es weniger sein muss, ist logisch, da wg. der doppelten bitzahl natürlich auch die bandbreiten-anforderung steigt. dass HDR nicht mit AA funktioniert, resultiert übrigens nicht aus design-defiziten, sondern daraus, dass keine bandbreite mehr zur verfügung steht. zumindest in der grottigen HDR implementierung bei FC. kann man halten, wie man will. ein mündiger bürger kann sogar selbst entscheiden, was ihm besser gefällt. mir speziell natürlich die HDR variante ;) zu langsam isses jedenfalls nicht. das overbrighting wäre in vergleichbarer optik auch mit shader2 zu realisieren, allerdings nicht das elementar wichtige tonemapping für die iris-simulation. zum thema shader und dessen programmierung kann man in der noch bis zum 4.10. aktuellen c't ein nettes beispiel respektive einen nachvollziehbaren artikel finden. wer das dann nachgemacht oder kapiert hat, wird schnell die vorzüge von shader3 zu verstehen wissen. siehe c't 20/2005 s. 200-211 (..) mfg tobi (Geändert von Beschleunigen um 10:39 am Sep. 30, 2005)
-- Veröffentlicht durch Live1982 am 9:40 am 30. Sep. 2005
Hast du evtl. bei der Installation "hide OpenGL Page" aktiviert? Installier es am besten nochmal neu, dann müsste es gehen :thumb:
-- Veröffentlicht durch BUG am 0:37 am 30. Sep. 2005
Bei FarCry kann man maximal HDR zu schallten was bedingt durch die Implementierung nur auf der aktuellen nVidia Hardware möglich ist. Wirklich spielbar mit HDR wirds aber imho erst mit zwei 6800GT SLI oder einer 7800GT(x). "Einer" 6800GT/Ultra geht bei FarCry mit HDR viel zu schnell die Puste aus. Weiterer "Nachteil" vom HDR bei FarCry ist, dass man kein MultiSampling FSAA nutzen kann (gibt sonnst nur Bildfehler). :( cu BUG (Geändert von BUG um 0:40 am Sep. 30, 2005)
-- Veröffentlicht durch Vegeta2 am 0:33 am 30. Sep. 2005
auf diesen bild sieht man mein problem, open gl geht net einzustellen o.O'''
-- Veröffentlicht durch wipeout am 0:10 am 30. Sep. 2005
also ich glaub der cmputerbase mehr wie irgendwelchen leuten die meinen was zu wissen
-- Veröffentlicht durch DexterDX1 am 23:47 am 29. Sep. 2005
Es lässt sich aber auch behaupten: Wer mit einem tollen Qualitäts-CRT zockt, sieht "mehr" als mit einem 08/15-Office-LCD. Oder auch: Malus und Pyrus sollte man nur untereinander vergleichen, nicht miteinander, wobei es hier ausnahmsweise um Qualitätsmerkmale (krüppelig alt, tolle Qualität) geht, nicht um Objekte (CRT, LCD).
-- Veröffentlicht durch Notebook am 23:42 am 29. Sep. 2005 Dann muß das halt jeder für sich entscheiden. Jedenfalls sieht Far Cry für mich und auch andere mit SM 3.0 einfach schöner aus.
-- Veröffentlicht durch kammerjaeger am 23:37 am 29. Sep. 2005
Ich glaub, daß ich auf meinem TFT sehr wohl in der Lage bin, Unterschiede zu sehen. Und auch ich hab schon eine 6xxx mit FarCry gesehen. Wie gesagt wirkt es nur etwas überbelichtet, wirklich spürbar schöner finde ich es nicht. ;)
-- Veröffentlicht durch Notebook am 23:16 am 29. Sep. 2005
Ja dann pack dir doch mal zuerst z.B. eine X800 in den Rechner, teste Far Cry an, und anschließend eine Geforce 6xxx mit SM 3.0 .
-- Veröffentlicht durch Vegeta2 am 0:46 am 29. Sep. 2005
ja eigentlich unter 3d o.O'''
-- Veröffentlicht durch Judgi am 23:50 am 28. Sep. 2005
Da haste wohl Recht - Kammerjäger ;)
-- Veröffentlicht durch kammerjaeger am 21:57 am 28. Sep. 2005
Komisch, daß auch die Bilder dort eine andere Sprache sprechen... ;) Oder meinst Du im Vergleich zu einer DX8-Karte??? Shader3.0 mag in einigen Situationen zwar ganz nette Effekte erzielen, ob man das als schön erachtet, ist teilweise Geschmacksache. Ich finde, daß es oftmals einfach nur überbelichtet wirkt. Wenn einem das gefällt, dann kann man einen vergleichbaren Effekt i.d.R. auch über Settings wie Farbwerte, Gamma, Helligkeit + Kontrast erzielen. FarCry sieht mit jeder DX9-Karte gut aus, SM3.0 ist in meinen Augen eindeutig verzichtbar! Btw.: Ich kann ohnehin nicht verstehen, warum sich teilweise über nicht wahrnehmbare Details in Spielen gestritten wird, als wären es echte Quantensprünge, ohne die man keinerlei Spielspaß haben könnte... :blubb: Ich spiele Computer/Konsolenspiele schon, seit Pelota (Tennis-Variante) als erstes Konsolenspiel den Fernseher eroberte und man am C64 noch mit Datasette gearbeitet hat. Früher sahen PC-Spiele bei weitem nicht so gut aus wie heute, aber Spaß haben sie dennoch gemacht. Wer sich daher an kleinsten Details aufhängt, der hat scheinbar nicht begriffen, daß es nicht um den Oscar für Special-Effects geht, sondern daß doch eigentlich der Spielspaß im Vordergrund stehen sollte. Gut zu sehen ist dies u.a. an CoD2, wovon ih heute die Demo durchgespielt hab. Die Texturen z.B. sind weit hinter heutigen technischen Möglichkeiten zurückgeblieben. Trotzdem kommt da ein Titel auf uns zu, der eindeutig seinen Platz in den Top10 finden wird, auch ohne SM3.0 & Co. Warum also soll man sich über Details streiten, die absolut belanglos sind? Habt Ihr wirklich nichts Besseres zu tun??? :blubb: Freut Euch lieber, wenn ein Spiel Spaß macht und dabei auch noch annehmbar gut aussieht und nicht nur auf absoluter High-End-Hardware läuft. Den Rest sollte man denen überlassen, die eigentlich nur über Spiele reden wollen, statt sie zu spielen. Denn ich z.B. stelle mich im Spiel nicht hin und sehe mir an, wie sauber ein Texturfilter arbeitet, während mir der Gegner einen Kopfschuß verpasst.... :lol:
-- Veröffentlicht durch Notebook am 21:16 am 28. Sep. 2005
CB erzählt da Quark. Wer Far Cry mal mit SM 3.0 gesehen hat, weiß, dass es definitiv besser aussieht. @Vegeta2: Keine Auswahlmöglichkeit für OpenGL?:noidea: Kann nicht sein, müßte direkt unter Direct 3D sein...
-- Veröffentlicht durch Vegeta2 am 18:51 am 28. Sep. 2005
helpt mal einer :D oda sagt ma wie ich open gl einstellen kann bei original treibern ^^ weil bei den omega driver hackt mein windows immer so doll :((((((
-- Veröffentlicht durch wipeout am 1:59 am 28. Sep. 2005
auf computerbase war auch mal was wegen sm2.0 und sm3.0
-- Veröffentlicht durch Vegeta2 am 0:19 am 28. Sep. 2005
schonmal das cry tec direct x 10 movie gesehn?
-- Veröffentlicht durch Notebook am 22:56 am 27. Sep. 2005
Also Far Cry sieht mit SM 3.0 wirklich hammergeil aus...
-- Veröffentlicht durch BDKMPSS am 20:27 am 22. Sep. 2005
was wollen nur alle immer mit HDR?
-- Veröffentlicht durch AssassinWarlord am 19:57 am 22. Sep. 2005 wuste ichs doch, das eine S3 graka des hatt, aber ich wuste nicht mehr genau welche :biglol:
-- Veröffentlicht durch kammerjaeger am 8:42 am 22. Sep. 2005
Der Nachfolger vom DeltaChrome soll es haben, der jetzt bald in den Handel kommt. ;)
-- Veröffentlicht durch AssassinWarlord am 7:04 am 22. Sep. 2005 wer sagt den das nVidia die einzigsten sind, die echtes HDR haben? was ist mit der 3dLabs WildCat Realizm Serie? :noidea: ob die S3 DeltaChrome auch HDR hatt, weis ich nicht mehr so genau :noidea:
-- Veröffentlicht durch BUG am 0:39 am 22. Sep. 2005
Was mich aber mal interesieren würd, ob bei dem HL2 HDR Bench alle Karten den gleichen HDR Modus haben, oder ob der NV40 / G70 ihren "eigenen" HDR Modus nutzen mussten. Aber vermutlich wurden alle Karten im "ATI-HDR" Modus gebencht da ja sonnst kein FSAA möglich wäre was ja beim Bench angeblich auf 2x stand + 8xAF. cu BUG (Geändert von BUG um 0:40 am Sep. 22, 2005)
-- Veröffentlicht durch kammerjaeger am 0:34 am 22. Sep. 2005
:blubb: Ach ja? X850XT für 275,- Insofern finde ich die >13% Performance-Plus dem Preis mehr als angemessen! Zum Rest sag ich jetzt mal nix, denn die Diskussion wurde auch hier schon zu Genüge geführt, da kann demirug so lange schiffen gehen wie er will.... ;)
-- Veröffentlicht durch skynet am 0:20 am 22. Sep. 2005
dir ist aber auch aufgefallen das die eine karte 220€ kostet, und die andere 450€? :noidea: und NV pdeudo-hdr... ah-ja... NV hat als einziger karten die ECHTES HDR haben, und vorm R520 wird sich das auch net ändern! :kidding: p.s. falls du fragen dazu hast, lasse es dir von demirug erklären, der lacht dich erstmal aus und pinkelt dir ins gesicht! :lolaway:
-- Veröffentlicht durch kammerjaeger am 0:09 am 22. Sep. 2005
:progen: Wer hätte das gedacht, daß das "emulierte" und FSAA-fähige "ATI-HDR" weniger einbricht als die 6800GT? :lol: Bingo! Ein Schlag ins Gesicht all derer, die das "Pseudo-HDR" bei der 6xxx immer in den Himmel gelobt haben... ;)
-- Veröffentlicht durch BUG am 23:52 am 21. Sep. 2005
Es war auch nich mein Ziel HDR genau zu erklären, wer da näheres drüber wissen möchte, brauch sich nur im 3D Center umsehen, auf copy & paste habe ich gerade keine Lust zumale das Thema recht umfang reich ist/sein kann. ;) Edit: http://www.bit-tech.net/content_images/lost_coast_benchmark/hdr_cube_map_bloom.jpg ..sieht doch ganz nett aus für ich nenn es mal "ATI-HDR". ;) http://www.bit-tech.net/gaming/2005/09/21/lost_coast_benchmark/2.html cu BUG (Geändert von BUG um 0:01 am Sep. 22, 2005)
-- Veröffentlicht durch Stuzzy am 23:07 am 21. Sep. 2005 THX:)
-- Veröffentlicht durch AssassinWarlord am 23:03 am 21. Sep. 2005
so, bilder stehen wieder :D
-- Veröffentlicht durch skynet am 21:50 am 21. Sep. 2005
ATI kann nichtmal annähernd echtes HDR! was ATI macht, ist einfach eine emulation über die pixelshader! aus dem grund ist es bei ATI ja auch so grottig langsam und ungenau! :) wenn, dann sollte man es schon halbwegs genau erklären. ;)
-- Veröffentlicht durch Stuzzy am 21:32 am 21. Sep. 2005
kann die mal so machen, dass man auch was erkennt? ich hab nur son käschen mit nem roten X drin:noidea:
-- Veröffentlicht durch Charon am 21:30 am 21. Sep. 2005
:thumb::thumb: wenigstens einer mit ahnung
-- Veröffentlicht durch BUG am 21:11 am 21. Sep. 2005
..naja, also die größte Neuerung ggü PS2.0x ist Dynamisches Branching (Spünge innerhalb eines Shaders). Allerdings sind die heutigen PS3.0 Karten für sowas noch zu lagsam, beim G70 könnte es sich ggf schon lohnen, bei der 6800U und kleiner eher nich, die Karten werden dadurch meist sogar leicht langsamer. :)
-- Veröffentlicht durch faulpelz am 21:09 am 21. Sep. 2005 naja ich finde diese effekte was übertrieben besonders die letzten beiden bilder ist finde ich etwas überzogen
-- Veröffentlicht durch Stuzzy am 20:57 am 21. Sep. 2005 pic gehen nicht:(
-- Veröffentlicht durch AssassinWarlord am 20:07 am 21. Sep. 2005
doch dcoh...mit Pixelshader v.3.0 hast du einen Hardware HDR berechnung, und noch ein paar gleinigkeiten ;) so hast du z.B. in FarCry ab der version 1.3 und mit ner GeForce ab 6xxxer reihe (also die PS3 unterstützen) so übelste geile blendeffekte wenn du in die sonne schaust, oder in eine helle lampe :)
-- Veröffentlicht durch Live1982 am 20:02 am 21. Sep. 2005 Optisch gibts keine Unterschiede... glaub ich! :noidea:
-- Veröffentlicht durch Clawhammer754 am 19:50 am 21. Sep. 2005
Moin,
|
OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de