Ein Ausdruck des Beitrags mit 9 Antworten ergibt bei 3 Antworten pro Seite ca. 3 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 14.97 Gramm Papier.
-- Veröffentlicht durch Fire1981 am 9:50 am 25. Jan. 2008
So leider bin ich bisher nur dazu gekommen 3DMark zu benchen und da hab ich mit freigeschalteten Shadern und erhöhtem Bus die gleiche Punktzahl erreicht, wie mit Default Settings. Es scheint also irgendwie nicht hinzuhauen, aber evtl zieht es ja in Games (was ich aber zu 99% ausschließe), denn in nem anderen Forum schreibt ein User, dass sich seine FPS bei COH von 56,6 auf 61,0 erhöht haben mit den gleichen Settings, bloß eben mit der Erhöhung der Shader und des Busses. Das komische bei der Sache ist halt nur das GPU-Z und Everest die erhöhten Shader und Busbreite auslesen. Schalte ich jedoch weitere HW Units hinzu, welche die Busbreite auf 384 Bit erhöhen würden, so ändert sich die Busbreite zwar in GPU-Z jedoch nicht in Everest, wo sie auf den "alten" 256 Bit bleibt. Naja einen Versuch wars mal wert, hätte ja sein können, dass es hinhaut *g* @ spraadhans ist in nem Dell XPS M1730 verbaut (Geändert von Fire1981 um 9:56 am Jan. 25, 2008)
-- Veröffentlicht durch spraadhans am 9:05 am 25. Jan. 2008
2x 8700m gt im sli sollen langsamer sein als eine 8600gts? in welchem NB wurde denn diese lösung verbaut? (Geändert von spraadhans um 9:05 am Jan. 25, 2008)
-- Veröffentlicht durch Ino am 18:14 am 23. Jan. 2008
jetzt lassen wir ihn erstmal ein benchmark machen und sehen dann weiter ;)
-- Veröffentlicht durch rage82 am 16:35 am 23. Jan. 2008
andere Frage, wenn die sich tatsächlich aktivieren lassen, meinst du die kühlung kommt mit dem mehrauffwand klar? 64 shader mehr die hitze erzeugen wären ja schon enorm. bei den zusätzlich aktivierten 64bit/SI, war es nicht so, das es immer nur ein paar speicherchips pro SI-Block gab, sodaß bei den zusätzlich aktivierten 64bit auch speicherchips auf der platine sein müssten um es zu nutzen? kann mich auch irren, aber dachte das wäre so.
-- Veröffentlicht durch Fire1981 am 9:40 am 23. Jan. 2008
Zitat von Redirion um 9:28 am Jan. 23, 2008
Zitat von kammerjaeger um 9:18 am Jan. 23, 2008 Afaik hatte man zunächst geplant, die Karte 8800M GS zu nennen, ihr dann aber doch lieber den Namen 8700M GT gegeben[...]
| Das meine ich auch. Ebenso sollte ja zunächst im Desktopbereich die 8800GT eigentlich 8700GTS heißen. Dann wurde aber doch durch starken Kokurrenzdruck die Shaderzahl erhöht und dann der Name wieder geändert. Mit deinem "tollen" 8700M GT SLI - Gespann hast du nichts weiter als ein Gespann aus zwei Karten, die einzeln nichtmal an eine Desktop 8600GTS herankommen. Vermutlich dazu noch schön 17" mit HD Auflösung, womit du dann quasi sowieso gewzungen bist aktuelle Spiele im Fenstermodus zu spielen, damit du mit geringerer Auflösung und ohne Interpolation spielen kannst. Das Geld hättest du wesentlich sinnvoller in einen Desktoprechner anlegen können.
| LOL, also du hast ja echt mal null Ahnung, aber dann solche Sprüche ablassen. FYI, ich kann alle aktuellen Spiele (Bioshock, COD4, COH) in nativer Auflösung zocken (bis auf Crysis, aber das läuft auch mit 1280*1024 auf High und bei 1650*1080 auf Medium und das trotz des Fehlens der M Karten-Unterstützung bei Crysis, sowie sehr schlechter SLI-Support) mit guten Frameraten und ohne größere Einrüche. Bei 3DMark erreiche ich auch über 11k Points, also von daher steck dir dein Gelabber an den Hut und gib mir hier keine Ratschläge wie ich mein Geld anlegen soll, denn nach dieser Meinung habe ich nicht gefragt und es hat mehr als genug Gründe warum ich ein lesitungsstarkes Notebook brauche... @ kammerjaeger Das ist mir beswusst, zaubern kann man die natürlich nicht (schade eigentlich *g*), aber das ist die Frage, ob die überhaupt vorhanden sind oder obs tatsächlich nur Augenwischerei ist. Um das herauszufinden werde ich heute mittag mal Benchen mit ner einzelnen Karte und den erhöhten Shadern, sowie Busbreite. (Geändert von Fire1981 um 9:46 am Jan. 23, 2008)
-- Veröffentlicht durch Redirion am 9:28 am 23. Jan. 2008
Zitat von kammerjaeger um 9:18 am Jan. 23, 2008 Afaik hatte man zunächst geplant, die Karte 8800M GS zu nennen, ihr dann aber doch lieber den Namen 8700M GT gegeben[...]
| Das meine ich auch. Ebenso sollte ja zunächst im Desktopbereich die 8800GT eigentlich 8700GTS heißen. Dann wurde aber doch durch starken Kokurrenzdruck die Shaderzahl erhöht und dann der Name wieder geändert. Mit deinem "tollen" 8700M GT SLI - Gespann hast du nichts weiter als ein Gespann aus zwei Karten, die einzeln nichtmal an eine Desktop 8600GTS herankommen. Vermutlich dazu noch schön 17" mit HD Auflösung, womit du dann quasi sowieso gewzungen bist aktuelle Spiele im Fenstermodus zu spielen, damit du mit geringerer Auflösung und ohne Interpolation spielen kannst. Das Geld hättest du wesentlich sinnvoller in einen Desktoprechner anlegen können.
-- Veröffentlicht durch kammerjaeger am 9:18 am 23. Jan. 2008
Afaik hatte man zunächst geplant, die Karte 8800M GS zu nennen, ihr dann aber doch lieber den Namen 8700M GT gegeben, da eben nur 128bit Speicherinterface vorhanden sind. Und was physikalisch nicht vorhanden ist, kann man auch durch Treiber-Mods oder Bios-Flash nicht herbeizaubern. Gerade im Notebook-Bereich sind die Preise für gute Grafikchips so hoch, daß man sich das Geld nicht entgehen lassen würde, wenn tatsächlich 256bit machbar wären. Lasse mich da aber gerne eines Besseren belehren....
-- Veröffentlicht durch Henro am 9:16 am 23. Jan. 2008
also bevor du dich mit biosflashen usw. rumärgerst würde ich erstmal probieren ob die veränderungen tatsächlich was bringen oder nur dazu dienen tolle werte anzuzeigen die gar nicht stimmen. ergo bench doch erstmal vorher/nachher aus ob die karte schneller wird oder nicht dann siehste ja schnell ob es was bringt oder nicht. Im NV Treiber kann man ja SLI deaktivieren so dass nur der primäre chip laufen sollte oder ?
-- Veröffentlicht durch Fire1981 am 8:54 am 23. Jan. 2008
Hallo Leute, in nem anderen Forum bzw. auf einigen anderen Seiten wurde ja bereits gemutmaßt und festgestellt, dass die 8700M GT (SLI) bei nvidia die interne Bezeichnung 8800M GS (SLI) hat. Nun stellt sich die Frage, ob es wie bei der alten 6xxxer Reihe von nvidia möglich ist deaktivierte Shader wieder freizuschalten und die 8700M GT damit wirklich auf das Level der ominösen 8800M GS zu bringen. Ich habe schon ein bischen mit nvstrap gespielt und bemerkt, dass die Karte nach aktivieren einiger HWUnitsMasks folgende Werte anzeigt: Default sieht es so aus: in nvstrap sieht es folgendermaßen aus: HwUnitsMask 02 und 03 aktivieren jeweils 16 Shader HwUnitsMask 18 und 19 aktivieren jeweils 64Bit Speicherinterface Leider werden ja nvstrap die Settings nur für die primäre Karte übernommen, so dass die 2. Karte immer noch auf Default Settings läuft. Daher stellt sich mir die Frage, ob es durch ein Bios Flash möglich ist beide Karten auf das exakt gleiche Level zu bringen und ob es überhaupt was bringt die HWUnits zu enablen oder ob es bloß Augenwisscherei ist mit den neuen Werten und diese gar nicht zum Tragen kommen. Die Theorie sieht wie folgt aus: "Mit nvflash im "DOS Modus" beide Grafikkartenbios Images extrahieren. (Nibitor sieht nur eine Karte). Nvflash command Nvflash -a (list all video cards on the system) Nvflash -i x (set the card that is being read or flashed , x= 0 or 1) Nvflash -b Save the vbios from a video card vbios extraction command: nvflash -i 0 -b vbios0.rom nvflash -i 1 -b vbios1.rom Vbois version: (gpu0 vbios version= 60.84.62.00.06) (gpu1 vbios version= 60.84.62.00.07) Vbios flash command: Nvflash -i 0 vbios0.rom nvflash -i 1 vbios1.rom Wie bekommt man in das gesavt extrahierte Bios die Hardwaremask Freischaltung ? Dazu in den "Patch Script Folder" im Rivatuner Programmverzeichniss, oder über Start, Programme, RivaTuner. Jetzt mit einem Doppelklick das Script NV40BIOSHwUnitsMaskEliminator.rts im Ordner "NVIDIA". Nun über "Continue" euer zuvor mit NiBiTor bearbeites BIOS. Das Script fragt jetzt die Pixel- und Vertexschader Konfiguration im NVStrap Treiber ab, und ändert diese induviduell im BIOS." Wie ihr vllt gesehen habt haben die Karten unterschiedliche Biose (gpu0 vbios version= 60.84.62.00.06 und gpu1 vbios version= 60.84.62.00.07), an was das allerdings liegt kann mir nicht mal Dell ordentlich erklären, jedoch ist das 8700M GT SLI System von Dell in Prinzip eine Karte (ähnlich wie die 7950 GX2) auf der eben 2 Chips sitzen. Wie ihr seht Fragen über Fragen: Verdoppelung des Speicherinterfaces, aber wo hängts bei der Umsetzung ? Weil beide Karten so sein müssen (also auch identisches Bios)? Treiber/Treiberversion? Vielleicht gehts auch gar nicht. Da hier doch ziemlich viele schlaue und findige Leute sind, möchte ich das Ganze mal in die Runde werfen, denn alleine werd ich da wohl nicht großartig weiterkommen... EDIT: Wenn man SLI deaktiviert kommt man im Riva Tuner an die zweite Karte, aber leider ist es nach wie vor so, dass bei der 2. Karte NVStrap nicht verfügbar ist, hier fehlt schlichtweg der TAB. Ob eine Poweruser Änderung etwas bringt habe ich noch nicht probiert bzw. weiß auch momentan nicht wo genau ich da was reinsetzen sollte/muss. (Geändert von Fire1981 um 9:01 am Jan. 23, 2008)
|