ATI vs. NV part2

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- ATI vs. NV part2
https://www.forum-inside.de/topic.cgi?forum=3&topic=3780

Ein Ausdruck des Beitrags mit 33 Antworten ergibt bei 3 Antworten pro Seite ca. 11 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 54.89 Gramm Papier.


-- Veröffentlicht durch Beschleunigen am 12:43 am 17. März 2004

jepp - die problematik mit dem overscan modus kenne ich auch..

aber das ist ja heutzutage schnee von gestern.. FREUDE (dass der Overscan-mode endlich implementiert ist.. schade für den author des tv-tools.. :lol:)

per tool lässt sich das meines wissens nicht nachrüsten, weil man die spiele in der nativen span auflösung (z.b.2560x1024 oder 2048x768pixel) gestartet werdem müssen.

da diesen modus nur matrox und NV karten bieten (ATI arbeitet mit 2x 1280x1024 statt mit richtigen 2560x1024 pixeln), wird das auf ATI nix.

es ist übrigens damit zu rechnen, dass die dual-funktion in einigen noch erscheinenden titeln unterstützt werden wird..  

momentan kann man als aktuellen titel nur X2 und diverse flugsimulatoren ins rennen schicken, aber selbst bei rennspielen macht es (die richtige bildschirmeinteilung vorausgesetzt) sinn..

bei dem bild weiter unten, sieht man wie sinnig es sogar in battlefield
sein könnte: http://www.de.tomshardware.com/graphic/20040311/index.html

greets
to!


-- Veröffentlicht durch moskito99 am 11:27 am 17. März 2004

gibt es vielleicht auch extra tools fuer sowas?

fuer meinen tv-out habe ich damals zb auch nie die nvidia treiber benutzt (vor allem wegen overscan) sondern das tv-tool...da ging einfach mehr und besser..


-- Veröffentlicht durch Beschleunigen am 11:00 am 17. März 2004

genau das ist ja bei ATI der kritikpunkt. weil dualhead treiberseitig wie mit 2 grafikkarten gehandelt wird, hast du in der mitte die naht. quasi den wichtigen punkt in shootern.

mit einem richtigen span-modus auf die 2560er auflösung, könntest du die software entsprechend anpassen.

bei X2 auf meiner NV karte ist der "wichtige punkt" in der mitte von monitor 1 ---> da wo er hingehört. auf monitor 2 erscheinen zusatzangaben, wie die karte, die aussenansichten, das infofenster und so weiter..

richtiges Horizontal-Spanning halt..

greets
to!

(Geändert von Beschleunigen um 11:06 am März 17, 2004)


-- Veröffentlicht durch moskito99 am 10:51 am 17. März 2004

ich finde 2 total sinnlos bei spielen, weil der wichtigste punkt in der mitte ist....dort wo die monitore sich treffen...

2 monitore machen sinn bei grafik oder arbeiten am pc...photoshop zb...oder wenn man in flash und director arbeitet...

sinnvoll bei spielen finde ich wenn überhaupt nur 3 monitore...einer zum fxieren in der mitte...und fuer den blick zur seite rechts und links einen...mich wuerde beim zocken einfach die mittelsaeule im zentrum des gesamtbildes stören..

(Geändert von moskito99 um 10:52 am März 17, 2004)


-- Veröffentlicht durch Beschleunigen am 9:50 am 17. März 2004

wer das braucht ???

jeder, der gern flugsimulatoren spielt - geht aber eigentlich auch aus dem test hervor..

wenn du beide anschluesse deiner graka nicht nutzen willst, dann ist das wohl eher dein ding.

an den preisen für bildschirme sollte es nicht liegen. nahezu jeder kann sich bei aldi 2 CRTs leisten..

wer mit TFTs arbeitet und somit i.d.R. auf 1280x1024 pixel begrenzt ist, braucht es, weil sich damit die arbeitsfläche verdoppelt..

wer's sonst noch braucht? frag doch mal deinen hersteller, denn immerhin ist es auf seinem mist gewachsen - er hat ja 2 ausgänge auf
das board gelötet..

blödsinnige diskussion ohne argumente.. :noidea:

greetings
tobi

ps. ich finde X2 mit jedem tag besser - langweiliger start, aber es wird echt besser..


-- Veröffentlicht durch sakic am 15:49 am 16. März 2004

oh man wer braucht denn e graka wo man mit 3 monitoren zocken kann ?  er braucht sowas die meisten user haben einen monitor und sie wollen schnelle grakas haben so mit ist der test für mich fürn arsch !!


-- Veröffentlicht durch BUG am 13:48 am 16. März 2004

..die 9600 Karten sind auch oftmals "grün". ;)

cu
BUG


(Geändert von BUG um 15:58 am März 16, 2004)


-- Veröffentlicht durch THCCryjack am 11:33 am 16. März 2004


Zitat von Beschleunigen am 15:42 am März 15, 2004

dass es die workstation ausführungen auch mit 2xDVI gab, wusste ich ja - nur ist der preis dabei unattraktiv. auf tweak pc habe ich grad gelesen, dass auf der cebit wohl von saphire eine normale ausführung der 9800 mit 2x DVI vorgestellt wird.. die ist dann auch erschwinglich.


greets
tobi






Ja hab ich auch gesehen... ne Ati mit grünem PCB...:crazy:


-- Veröffentlicht durch Eisenblut am 18:51 am 15. März 2004


Zitat von Beschleunigen am 15:42 am März 15, 2004
das sind alles subjektive aussagen..

ich kann z.b. nicht sagen, dass die shutter-brille sinnlos war..

ich erinnere mich, dass wir damals 2 davon hatten und jeder, der einen guten monitor mit min.120 Hz hatte, hatte auch spass mit dem ding..



Ich habe selber damals mit der Elsa Brille rumgespielt, habe aber immer leichte Kopfschmerzen bekommen, trotz aller Justiererei. Spassig war es auf jeden Fall.


T&L kann man diskuttieren.. klar.. damals musste ein neuer marketing trächtiger begriff her..


Als es eingeführt wurde, war es sicherlich ein sinnvoller Schritt. Ist halt mittlerweile von einer leistungsfähigeren, da flexibleren Lösung verdängt worden.


dass es die workstation ausführungen auch mit 2xDVI gab, wusste ich ja - nur ist der preis dabei unattraktiv. auf tweak pc habe ich grad gelesen, dass auf der cebit wohl von saphire eine normale ausführung der 9800 mit 2x DVI vorgestellt wird.. die ist dann auch erschwinglich.


Wer sich zwei professionelle TFT für 3.000,- bis 4.000,-€ kauft, der wird auch den Aufpreis auf eine Fire GL-X1 (460,-€) können. Zudem die Karten erheblich preiswerter sind als die großen nVidias (1400,-€).


-- Veröffentlicht durch Beschleunigen am 15:42 am 15. März 2004

das sind alles subjektive aussagen..

ich kann z.b. nicht sagen, dass die shutter-brille sinnlos war..

ich erinnere mich, dass wir damals 2 davon hatten und jeder, der einen guten monitor mit min.120 Hz hatte, hatte auch spass mit dem ding..

T&L kann man diskuttieren.. klar.. damals musste ein neuer marketing trächtiger begriff her..

dass es die workstation ausführungen auch mit 2xDVI gab, wusste ich ja - nur ist der preis dabei unattraktiv. auf tweak pc habe ich grad gelesen, dass auf der cebit wohl von saphire eine normale ausführung der 9800 mit 2x DVI vorgestellt wird.. die ist dann auch erschwinglich.

abschliessend.
es ist wohl nicht zu erwarten, dass jemand, der die funktion nicht hat, sagen wird, dass er sie braucht oder dass er sie sinnvoll findet.

ich finde es einfach gut - und gut ist.

mein kumpel auf seinen veloursitzen, wird wohl auch eher sagen, dass meine lederausstattung nur nachteile hat (von wegen warm im sommer etc.) - und klimanalage hast du auch? igitt - davon krieg ich nasenbluten, erkältung und mein verbrauch erhöht sich auch. warum ich das sage ? na, weil ich keine klimaanlage habe - darum ist ja leder so ein fluch im sommer.

greets
tobi


-- Veröffentlicht durch Eisenblut am 15:05 am 15. März 2004

Bei mir ist es eher umgekehrt, die GF4 hatte schon ein gutes Bild, aber die ATI war noch etwas besser. Mal sehen, wenn jetzt der Ersatz der ATI kommt, wie es dann aussieht.


-- Veröffentlicht durch skynet am 8:34 am 15. März 2004

also ich kann ja über beide urteilen ;)

und ich muss sagen das mich meine 9800pro schon ziemlich angeilt was speed angeht, leider ist die bildqualität etwas matschig wie ich finde, die 4200er dagegen hatte nen absolut klares und sauberes bild... und bevor ihr anfangt zuschrein... die FX karten haben nen genausomatschiges bild wie die R3xx karten :kidding:

aber ist halt schon fein wenn man NFSU mit vollen details in 1280*960 @ 6x AA / 16x AF zocken kann ohne ruckeln :thumb:

aber dennoch fehlt mir manchmal das scharfe bild von meiner 4200er :(

aber zurücktauschen auf NV25 würde ich definitiv net, die vorteile überwiegen zuviel, aber mal sehn was NV40 / R420 sagen, der schnellere bekomtm den zuschlag :devil:


-- Veröffentlicht durch BUG am 4:41 am 15. März 2004

..T&L ist auch sinnlos und wurde schon längst durch den VertexShader ersetzt mit dem man auch was "anstellen" kann. ;)

cu
BUG


-- Veröffentlicht durch DJ am 2:38 am 15. März 2004

jo weil nvidia besser ist kein hardware beschiss und 3d brille support um noch ein sinnloses feature mehr auf der nvidia seite, zum sinnlos feature das unkten damals auch alle ueber t&l. :)


-- Veröffentlicht durch faulpelz am 21:15 am 14. März 2004

und sinlos dazu!!!:lol:


-- Veröffentlicht durch darkcrawler am 5:43 am 14. März 2004

langweilig:snore:


-- Veröffentlicht durch Eisenblut am 2:17 am 14. März 2004


Zitat von Beschleunigen am 16:00 am März 13, 2004

wie schon gesagt wurde, der clone-betrieb mit 2 bildschirmen ist sinnlos - aber trotzdem haben ATI karten 2 VGA ausgänge.. :noidea:



Ist nicht sinnlos. Wenn du jemals mit Kunden zu tun gehabt hättest, denen du bestimmte Sachen auf einem Schirm zeigen willst, wüsstest du, wofür man das braucht.


schade also, dass man die 2 ausgänge bei ATI nicht so konfigurieren kann, wie man es sich wünschen würde (was ja nicht nur im oben genannten THG artikel nachzulesen ist), oder wie man es von matrox und Nvidia kennt.


Ich habe beide Hersteller im Dual View verwendet und war mit beiden zufrieden. Im professionellen Bereich wird meist mit einem großen Hauptschirm und einem kleineren Zusatzmonitor gearbeitet, deshalb ist die Option verschiedene Auflösungen fahren zu können wichtiger als Spanning.


ist also billiger rotz! für leute, die nur zocken und die nicht die arbeitsfläche unter windoof auf 2560x1024 oder 1280x2048 erweitern wollen/können oder müssen.


Das ist ziemlich dumm. Billiger Rotz, tststs.



man sollte nicht vergessen, dass 2 TFTs für "nicht-anfänger-anprüche"
mal schnell 1200 -2000 euro kosten. wer sich also so etwas auf den tisch stellt, der möchte es auch grenzenlos konfigurieren und nutzen können. schade wenn einem dann die graka einen strich durch die rechnung macht.



Und genau da wird eh' mit Dual View und nicht mit Spanning gearbeitet. Ich wüsste keinen Einsatzzweck ausser der fehlenden Option von Spielen, wo man mit Dual View nicht hervorragend klar käme.


wem's nur um die frames geht, die er sich in benchmarks auf seinem 200 euro aldi, vobis oder yakumo 19" CRT anguckt, der ist bei ATI richtig aufgehoben. im standard-takt gibt's schon den ein oder anderen benchmark, wo die ATIs die FX ablatten können.

zum beispiel im 3 oder 4 jahre alten 3Dmark2001 oder bei tombraider AOD --> bei AM3 siehts dann leider wieder schlechter für ATI aus - aber das wisst ihr ja alles schon.

demnach ist ATIs zielgruppe auch ausschliesslich die der spieler mit begrenztem budget. es gab bis vor wenigen wochen keine ATI karte, die mit 2xDVI-I daherkommt - für profis mit digitalen bildschirmen also unbrauchbar.



Schlicht falsch, die Workstationmodelle von ATI gibt es schon länger mit 2xDVI.Und ich finde es auch ganz wunderbar, dass du auf der einen Seite den besseren nVidia-Support für Spiele mit Spanning herausstellst und dann ATI als reine Spielekarte abtun willst.

Dieser Text wurde auf einem System mit einem 22"CRT und einem 15"TFT geschrieben. Ich sollte also wissen, worüber ich schreibe. Und ich habe beide Firmen schon lange im Einsatz mit DV gehabt, bei nVidia die GF4, bei ATi die Radeon 9800. Bei beiden Anbietern gab es gute und schlechte Punkte und ich würde es mir sehr wünschen, dass der NV40 ein besserer Wurf wird als der NV30, denn für mich gibt immer noch einen guten Grund zu nVidia zurückzukehren. Sie sind bei 2D deutlich (mindestens 30%!!!) und merkbar schneller, aber das testet ja keiner. Übrigens ist Matrox bei 2D noch langsamer als ATI, aber das nur am Rande. Und unter OpenGL kommt ATI immer noch nicht an nVidia ran, dies ist aber für mich nicht so entscheidend.


-- Veröffentlicht durch TwP am 0:37 am 14. März 2004

lol.


-- Veröffentlicht durch Postguru am 23:54 am 13. März 2004

ja das liebe lesenkönnen  ..   man muss alles lesen ... den die Karten  von NVidia und ATi sind bei Dualview extrem heiss geworden so das sogar  Blidfehler zusehen waren .. nur die NVidiakarte hatte sich dann einfach mit einem Knall verabschiedet ...  


-- Veröffentlicht durch TwP am 20:24 am 13. März 2004

jo, seh ich auch so, 2 tfts bzw. 2 monitore ueberhaupt, braucht man sowieso nur im professionellen bereicht, alles andere is eh spielerei


-- Veröffentlicht durch david am 19:56 am 13. März 2004

:thumb: ATI rocks!
Wer sich zwei TFTs deswegen kauft kann sein Geld dann gleich auch für Nvidia rausschmeißen!

David

(Geändert von david um 19:56 am März 13, 2004)


-- Veröffentlicht durch BUG am 16:16 am 13. März 2004

..das mit dem "stretchen" is doch nix neues. Ich habe nem Kumpel schon auf der GF4TI 4400 GTA auf zwei TFT´s gezockt. Bis auf das die beiden inneren Monitorkannten etwas stören ist es ganz witzig aber brauchen tut man es imho nicht. Für den Desktop oder CAD Software Zweischirmbetrieb ist stretching imho auch überflüssig. Da werden zu 99% immer nur beide Monitore getrennt voneinander benutzt was auf ATI Karten auch funktioniert.

Einziger Plußpunkt für NV ist imho der Treiber für die Dualview Optionen, der ist wesentlich ausgereifter und Anwenderfreundlicher als der von ATI. Deshalb steckt beim Kumpel im Server seit längerer Zeit auch ne Geforce FX5200 die an zwei IIyama 19" TFT´s angeschlossen ist. :) Die Asus GF4 TI war einfach viel zu laut und hatte ne schleche SQ.

Der ATI Treiber (bzw die Hydravisionssoftware) vergisst gelegentlich diverse Einstellungen was ziemlich nervig sein kann. :( Hab es aber auf ATI Karten schon länger nicht mehr ausprobiert, k.a. ob sich da inzwichen was verbessert hat?!


:thumb: :godlike: :)

cu
BUG

(Geändert von BUG um 16:22 am März 13, 2004)


-- Veröffentlicht durch Beschleunigen am 16:00 am 13. März 2004

ganz sicher ist das kein argument. ein zocker soll sich das kaufen, was er braucht. Hierbei gehts um funktionalität. denn immerhin bieten sowohl ATI als auch NV 2 monitor-anschlüsse..

und da hier sind auch ältere leute unterwegs, die mit dem PC arbeiten und sich anhand der mehrschirmfunktionen eine graka kaufen, werden sich diese leute sicher über die news und die anleitung auf THG freuen.

wie schon gesagt wurde, der clone-betrieb mit 2 bildschirmen ist sinnlos - aber trotzdem haben ATI karten 2 VGA ausgänge.. :noidea:

schade also, dass man die 2 ausgänge bei ATI nicht so konfigurieren kann, wie man es sich wünschen würde (was ja nicht nur im oben genannten THG artikel nachzulesen ist), oder wie man es von matrox und Nvidia kennt. ist also billiger rotz! für leute, die nur zocken und die nicht die arbeitsfläche unter windoof auf 2560x1024 oder 1280x2048 erweitern wollen/können oder müssen.

man sollte nicht vergessen, dass 2 TFTs für "nicht-anfänger-anprüche"
mal schnell 1200 -2000 euro kosten. wer sich also so etwas auf den tisch stellt, der möchte es auch grenzenlos konfigurieren und nutzen können. schade wenn einem dann die graka einen strich durch die rechnung macht.

wem's nur um die frames geht, die er sich in benchmarks auf seinem 200 euro aldi, vobis oder yakumo 19" CRT anguckt, der ist bei ATI richtig aufgehoben. im standard-takt gibt's schon den ein oder anderen benchmark, wo die ATIs die FX ablatten können.

zum beispiel im 3 oder 4 jahre alten 3Dmark2001 oder bei tombraider AOD --> bei AM3 siehts dann leider wieder schlechter für ATI aus - aber das wisst ihr ja alles schon.

demnach ist ATIs zielgruppe auch ausschliesslich die der spieler mit begrenztem budget. es gab bis vor wenigen wochen keine ATI karte, die mit 2xDVI-I daherkommt - für profis mit digitalen bildschirmen also unbrauchbar.

aber ist doch auch latte. ich freue mich einfach, dass man es jetzt auch zum zocken nutzen kann.

aus die maus



(Geändert von Beschleunigen um 16:07 am März 13, 2004)


-- Veröffentlicht durch slash am 15:31 am 13. März 2004

Also wenn das ein Argument sein soll, sich eine NV- Karte in den Rechner zu stecken, dann müssen die echt verzweifelt sein.:lol::blubb:
Sollen sich halt die paar X2- und MS Flightsimulator- Spieler eine NV- Karte in den Rechner setzen und glücklich sein.
Der Rest spielt schön weiter Ego- Shooter, Autorennen, etc..., wo ein zweiter Monitor nicht nur absolut überflüssig, sonder wohl auch extrem störend wäre.

Gruß
slash


-- Veröffentlicht durch Beschleunigen am 14:44 am 13. März 2004

der microsoft flugsimulator ist ausgesprochen neu - X2 auch -

mit den beiden titeln funzt es nicht nur, es macht auch sinn.


-- Veröffentlicht durch N omega G am 14:16 am 13. März 2004

ältere spiele kann man so zocken, aber bei den aktuellen muss man wohl die auflösung runtersetzen oder mit ruckeln spielen... lohnt sich net find ich :lol:


-- Veröffentlicht durch Beschleunigen am 12:18 am 13. März 2004

bei mir geht's - it's not a trick - it's watercooled :godlike:

nee, mal im ernst. wenn die graka durchknallt wegen überhitzung, liegts wohl an der kühlung.

und für die kühlung ist NV nicht zuständig. das ist sache der hersteller der karte oder der nutzer. sofern das mit dem original-kühler passiert, kann man die karte ja umtauschen:blubb:

soweit ich mich erinnere ist "eine" kaputtgegangen. nicht "die"

bei "die" wäre nur ein board im test gewesen. bei "eine" - gab's wohl mehrere im Test.

greets

to, dem das mit den 2 schirmen richtig gut gefällt.:thumb:

ps. für alle, die es interessiert:  ab treiber 56.55 (beta) ist ein performance-modus für den 2. schirm im treiber integriert. in den WHQL treibern wird der 2. schirm im "kompatiblitäts-modus" betrieben, was sich nicht ändern lässt.


(Geändert von Beschleunigen um 12:41 am März 13, 2004)


-- Veröffentlicht durch savuti am 12:14 am 13. März 2004

Hab ihr mal den Bericht zu Ende gelsesen? Zum Schluß verabschiedet sich die nVidia Karte mit einem lauten Knall und nen bischen Rauch...

Wenn das ein Grund ist NV Karten zu kaufen? Ich weis ja net... ;)

Gruß
savuti


-- Veröffentlicht durch Beschleunigen am 11:51 am 13. März 2004



ich spiele im klon modus schon seit ca 3 jahren auf ati, bei mir hat das immer funktioniert

btw. welcher mensch kann schon auf 2 monitore gleichzeitig gugg, außer frauen? kann ich 349804540393 monitore hinstellen, interressiert mich trotzdem nur einer


:noidea: du bist ein bissl begriffstutzig, oder ?

es geht eben nicht um das gleiche bild auf beiden monitoren.

dass du den klon modus nutzen kannst, ist ja toll - aber mehr kannst du bei ATI auch nicht. weil du keinen span modus hast, wirst du nie das bild auf 2560x1024 pixel erweitern können. tja, wayne.. ATI muss halt irgendwas einsparen.. und dualview war schon immer auf matrox und NV karten besser (<-- weil vollständig nutzbar: clone,spanH,spanV,dualView etc.)

der SPAN-H Mode ist nötig, um das bild über beide monitore zu verteilen.  

klonen ist nur für die TV funktion sinnvoll. SPAN braucht man zum erweitern.

oh hilfe!

wie erklärt man einem blinden das sehen ? bsp. auf monitor eins, das was man kennt, wenn man eh nur einen monitor nutzen kann - und auf monitor 2 z.b. die karte und das chatfenster oder das inventar oder erweiterte anzeigen oder oder oder ---> oder wie bei X2 auf monitor 2 die verschiedenen aussenansichten.

(Geändert von Beschleunigen um 11:54 am März 13, 2004)


(Geändert von Beschleunigen um 11:57 am März 13, 2004)


-- Veröffentlicht durch TwP am 11:27 am 13. März 2004

nur weil ich die und die hardware hab muss ich mich doch net gleich hinter den konzern stellen :P


-- Veröffentlicht durch ThePlake am 11:17 am 13. März 2004

Zustimm @ tWp !

Seh ich genauso !


-- Veröffentlicht durch TwP am 11:03 am 13. März 2004

HAHAHAHAHAHAHAH FOERLFORLFORLFORLFOR


sau guter witz :)

wenn du thg ne weile zugeguggt haettest, wuesstest du, das sie auf intels, genauso wie nvidias seite sind!

ich spiele im klon modus schon seit ca 3 jahren auf ati, bei mir hat das immer funktioniert

btw. welcher mensch kann schon auf 2 monitore gleichzeitig gugg, außer frauen? kann ich 349804540393 monitore hinstellen, interressiert mich trotzdem nur einer

btw²: AUßERDEM baut nvidia IMMER so features ein, die in der zukunft kein spiel unterstuetzt, gugg mal n bissle die nvidia history an, dann wird dir da einiges auffallen
UND warum wagst dus eigentlich n ati vs nv thread aufzumachen? schlecht geschlafen?

(Geändert von TwP um 11:08 am März 13, 2004)


-- Veröffentlicht durch Beschleunigen am 10:43 am 13. März 2004

MAHLZEIT!

wir kennen alle zur genüge das gerangel "ATI vs. NV"

ATI ist besser - NV ist besser - dieses Heckmeck halt..

ich habe auf TomsHardware ein schlagendes Argument für
Nvidia gefunden.

guckst du hier: http://www.de.tomshardware.com/graphic/20040311/dual-display-gaming-02.html

in dem Artikel gehts um das Spielen mit 2 oder 3 Bildschirmen.
sämtliche karten bieten ja heute 2 monitor anschlüsse,  Matrox sogar 3.

schade dass ATI die Funktion nur so bedingt anbietet (klon oder dual), dass man mit einer ATI karte, nur auf einem monitor spielen kann.

X2 macht auf 2 Bildschirmen jedenfalls richtig (mehr) spass. Es ist zu hoffen, dass auch bald BF1942 oder ähnliche shooter angepasst werden.

kurz: das argument ist, wer mehr als einen monitor hat (oder wer so wie ich, 2 TFTs einsetzt), sollte sich das X2 demo mal im span-modus reinziehen.. HAMMER!

ATI user gucken leider in die Röhre..  

greets

tobi


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de