Benutzername:   Noch nicht registriert?
Passwort:   Passwort vergessen?
iB Code Einmal klicken um den Tag zu öffnen, nochmal klicken zum Schliessen

Top Smilies
Beitrag

HTML ist on für dieses Forum

IkonCode ist on für dieses Forum

SMILIES LEGENDE ansehen

Beitragsoptionen

Möchten Sie Ihre Signatur hinzufügen?
Wollen Sie per Email über Antworten informiert werden?
Wollen Sie Emoticons in Ihrem Beitrag aktivieren?
 

Beitragsrückblick für (die neuesten Beiträge zuerst)
GhettoRapper Erstellt: 23:53 am 7. Sep. 2003
das will ich ja sagen das der kühler der graka klein ist.
und keine 6 PCI plätzte wegnehmen soll.:thumb:
gamerx15 Erstellt: 21:22 am 7. Sep. 2003
1. verträgt der grafikchip diese temperatur ja auch
2. sind grafikkartenkühler viiiiiiiieeeeel winziger als cpu kühler!

und 2000mhz chiptakt :blubb:   :wusch:
GhettoRapper Erstellt: 21:16 am 7. Sep. 2003
gute frage.:thumb:

ich stell mir das so vor:
da die graka (ne normale) 128 BIT hat (am speicher) sind ja 4 mal so viel wie bei der cpu.
und deshalb 4 X 400 = 1600
ok ich glaub es ist falsch was ich geschrieben hab.

aber die graka hat ja im PC VIIIIIIIEEELLLLl mehr pemp. als die cpu.
ca. 80 °-90°
und stell dir vor wie es aussehen würde wenn die 2000 MHz haben würde. :lol::lol::lol::lol::lol::lol::lol::lol:


wärmer als die sonne:lol:
BUG Erstellt: 20:44 am 7. Sep. 2003
...als machbar is das sicher, und der AGP Bus ist mit sicherheit für sowas nicht zu langsam. Aber die GPU is für Programme die eigentlich Aufgabe für eine CPU is ziemlich ineffizient, also sie brauch viel mehr passes für eine rechenoperation als z.B. der CPU. Dem GPU fehlt es an Cache unsw. und wenn du mal bei deiner CPU den Cache deaktiverst wirst du sehen, das das System ganz schön langsam werden kann trotz ~3000 MHz. Irgendwie konnte sich noch kein Programierer durchringen ein Programm für nen GPU zu schreiben. im 3DCenter Forum gab´s mal ein paar Ansätze für die RC5 Berechnung (sowas wie Seti, nur anders) im Graka Chip.

cu
BUG

(Geändert von BUG um 20:44 am Sep. 7, 2003)
spocky1701 Erstellt: 20:37 am 7. Sep. 2003
Das eine GPU anders aufgebaut ist als eine normale CPU ist schon klar!
Aber letztlich rechnen alle nur mit Zahlen.
Ich denke schlimmstensfalls müsste das BIOS vielleicht "geringfügig" modifiziert werden :biglol:

Und die Anbindung ist IMHO auch nicht soooooo das Problem!
Immerhin geht bei AGP4x ganz schön was über den BUS !
Weniger Antworten Mehr Antworten
Hejatz Erstellt: 20:23 am 7. Sep. 2003
die GPU ist völlig anderst aufgebaut um ganz andere aufgaben zu erfüllen. es ist nicht möglich die GPU mit refchnen zu lassen.
auch technisch wär es sinnlos weil die datenübertragung zwischen CPU udn AGP auch wesentlich zu langsam ist.
spocky1701 Erstellt: 19:12 am 7. Sep. 2003
Hallo zusammen ...

Wie schon gesagt, ist meine Frage/Idee eher rein theoretisch
Aber die Idee kam mir mal und ich bin halt neugierig.

Moderne Grafikkarten sind ja richtig flott. 300-400MHz sind da nix besonderes.
Wenn ich mir überlege, dass ich vor 1 1/2 Jahren noch nen PII hatte, der so viel MHz hatte, wie meine übertaktete Radeon (400MHz)...
Die vielen MHz werden ja für aufwenige Grafikberechnungen gebraucht. Doch im normalen Windowsbetrieb, bei Grafikbearbeitung oder Videoencoding wird nur die CPU belastet, die GPU wird im 2D-Betrieb doch sicher sogut wie gar nicht belastet.

Und jetzt kommts...
Könnte man es nicht realisieren, wie auch immer, ist aber sicher IRGENDWIE möglich, die Power der GPU mit zu nutzen...
Also so ne Art 2te CPU.
Dass beim Videoencoding zB die CPU NUR das Video übernimmt, und die Grafikkarte dann praktisch den Audiostream übernimmt, oder auch MP3 hören oder surfen ermöglicht.

Ok, das encoden würde nicht doppelt so schnell gehen, aber man hätte immerhin 10-20% mehr Rechenleistung zur Verfügung!

Die GPU ist ja irgendwie auch nur ne CPU die auf Grafik spezialisiert ist, oder?
Für nichtgrafikanwendungen wäre sie zwar sicher nicht so leistungsfähig wie ne gleichgetaktete CPU, aber es würde dochj sicher gehen, oder???


Erklärt mich bitte nicht für verrückt :lol:
Ist nur ne Idee... Vielleicht kennt sich ja jemand besser aus...

PS: Sorry... Sehe gerade, dass ich mich bei der Überschrift verschrieben habe

(Geändert von spocky1701 um 19:13 am Sep. 7, 2003)
×