G4-MDD: Signalqualität aus dem ADC-Anschluß ?

Dieses Thema im Forum "Hardware" wurde erstellt von pixelpete, 11. November 2004.

  1. pixelpete

    pixelpete New Member

    Also, der G4-MDD hat ja 2 Grafikausgänge.
    Der digitale DVI-I ist beereits belegt mit einem DVI-I-Monitor.
    Am ADC-Ausgang soll nun ein zweiter DVI-I-Monitor angeschlossen werden.

    Dafür gibts ja zwei Möglichkeiten:
    1. Adapter ADC->RGB und dann den RGB(D-sub 15)-Monitoreingang nutzen oder
    2. Adapter ADC->DVI-I und dann den DVI-I Monitoreingang nutzen.

    Was ist zu empfehlen? Welche dieser Verbindung liefert das bessere Videosignal am Monitor ab? Da es sich um zwei TFT-Eizos handelt, könnten selbst leichte Unterschiede sichtbar werden.

    Weitere Frage: Sind die beiden Mac-Ausgänge DVI-I und ADC eigentlich qualitativ gleichwertig ? Und ist es damit völlig egal, ob der "Haupt"-Monitor am DVI- oder ADC-Anschluß der Grafikkarte hängt?

    Ich mache prof. Bildbearbeitung. Bevor ich mir die Adapter und Kabel für beide Varianten besorge und selbst ausprobiere, hätte ich gern einen entsprechenden Tipp.

    Es dankt
    pixelpete
     
  2. Go610

    Go610 New Member

    Der ADC-Anschluss ist nichts als ein verkappter DVI-Anschluss. Signalqualität dementsprechend gut.
    Allerdings erkenne ich (an einem Eizo-TFT getestet) keinen Unterschied ob ein Flachbildschirm an DVI oder VGA angeschlossen ist. (OK, dir als Grafiker will ich aber in diesem Punkt nicht widersprechen ;) )

    (ich hab hier an meinem MDD über einen ADC-VGA-Adapter und den mitgelieferten DVI-VGA zwei alte Eizo-CRTs dran)
     
  3. pixelpete

    pixelpete New Member

    Wenn qualitativ kein Unterschied zwischen DVI und ADC besteht und auch kein Unterschied zwischen den VGA und DV-I Monitoreingängen, dann ist die Entscheidung wahrlich schwer.......... seufz
    Trotzdem - man dankt.

    pixelpete
     
  4. Schaumberger

    Schaumberger Wurschthaut, alte

    Also entschuldigung, aber ich habe an meinem G4 Dp 1,25 MDD ebenfalls zwei Eizos (L768) hängen, das eine an einer ATI 7000 per DVI, das andere an der org. ATI (9000?) per DVI-auf-VGA Adapter (der DVI Stecker ist anscheinend kaputt?) und sehe sehrwohl einen Unterschied in der Bilddarstellung. Der VGA-angeschlossene erkennt das Eingangssignal automatisch als analog und rechnet es um. Ergebnis ist leider eine recht unscharfe Schriftdarstellung. Die Farben der beiden sind allerdings absolut identisch.
    Meine Meinung
    VGA:bäh–DVI:Supi!!!:)
     
  5. wm54

    wm54 New Member

    ist ja auch logisch. bei dvi wird das digitale signale des computers direkt an den monitor geschickt. dieser baut anhand des digitalen signales sein bild auf.

    bei dvi > vga wird
    1) graphikkarte wandelt digital nach analog
    2) monitor empfängt analog und wandelt nach digital
    -> 2 (unnötige) wandlungen und somit verluste
     
  6. pixelpete

    pixelpete New Member

    So einfach ist es nun ja leider hier nicht. Sonst hätte ich nicht das Forum bemüht.

    Also, wenn zwei unnötige Wandlungen geschehen, ist mir auch einsichtig, dass Verluste entstehen. Aber geschehen sie denn, die zwei Wandlungen, auch in dem von mir geschilderten Fall? Bitte mal genau lesen (oder sollte ich genauer formulieren) ;-):

    Es bieten sich doch mindestens zwei unterschiedliche Varianten, den ADC-Ausgang zu nutzen:
    Am ADC-Ausgang der Karte wird entweder ein
    1. ADC->VGA Wandler (Dr. Bott-Adapter, schon bei mir vorhanden) oder ein
    2. ADC->DVI-I Wandler (auch Dr. Bott-Adapter, müsste ich noch kaufen) hängen

    und dann mit dem passenden (!!!!) Monitoreingang verbunden: Entweder mit dem
    1. VGA-Monitoreingang oder
    2. DVI-I-Monitoreingang

    Bei Variante 1. oder 2. finden doch nie zwei Wandlungen des Signals statt, sondern doch höchstens nur eine, oder? Wobei bei der Variante 2 sich die Frage erhebt, ob überhaupt eine Wandlung mit Verlust stattfindet. Die Beantwortung dieser Frage hängt doch ab von den Fragen:

    Welcher Qualität hat das ADC-Signal? (Hiervon hängt auch ab, ob man den Eizo-Hauptmonitor besser am DVI-Kartenausgang anschließt oder ob das egal ist). Ist das Kartensignal am ADC-Ausgang mit dem DVI-I-Ausgang vergleichbar? Ist es digital oder analog? Worin besteht der Unterschied? Ist doch wohl auch digital, oder? Wenn es digital ist, dann findet in der Variante 2. gar keine Wandlung in den analogen Kram statt. Oder irrt hier der Laie??

    Wär schön, wenns eine Entscheidung gäbe...

    pixelpete
     
  7. Schaumberger

    Schaumberger Wurschthaut, alte

    Also bei Version (1) findet sehr wohl eine 2-fache Wandlung der Signale statt. Auch wenn der TFT einen VGA Eingang hatt, muss er die VGA (Analog) signale immer erst "umrechnen" um sich davon ein Bild zu machen :)rolleyes: ).
    Über den ADC bin ich nicht wirklich informiert, doch glaube ich das der von den Signalen her bis auf die Zusätzliche Stromzufuhr beim ADC mit DVI identisch sein müsste, es würde mich also wundern wenn da was umgerechnet wird.
    Allerdings wennDu den VGA-Adapter schon mal hast, steck ihn doch einfach mal dran und kuck dir das Ergebnis an, dann siehst du schon obs taugt...
     
  8. kaffee-micha

    kaffee-micha Kaffeetante © robdus

    Hallo pixelpete .
    Stimmt, bei Variante 2 ADC auf DVI findet keine Wandlung statt. Bei Variante 1 ADC auf VGA merkt die Grafikkarte, dass es sich um einen analogen Monitor-Eingang handelt und wandelt das Signal entsprechend um. Im Display wird das Signal dann wieder in ein digitales Format zurückgewandelt.
    Die Qualität des ADC-Signals ist die gleiche wie bei DVI. Beide sid digital. Der Unterschied besteht darin, dass der Stecker zusätzliche Kontakte hat, über die ein ADC-Monitor mit Strom und USB versorgt wird. Doch die 2-fache Wandlung findet statt, siehe oben.
    micha
     
  9. pixelpete

    pixelpete New Member


    Es taugt schon was - denn so arbeite ich gerade damit. Wollte aber ohne try and error rauskriegen, ob es noch besser werden kann.

    Nach allem scheint mir der empfehlenswerte Weg die Variante 2 zu sein, weil ohne (?) Umwandlung, also:
    ADC-Kartenausgang->DVI-I Wandler (Dr. Bott-Adapter, werd ich mir besorgen)->DVI-Monitoreingang

    Dank Euch allen
    pixelpete
     
  10. wm54

    wm54 New Member

    yep, so ist es.
     
  11. mac_the_mighty

    mac_the_mighty New Member

    Ja, nimm DVI, meine Vorredner haben das ja bereits ausführlich begründet. Die Wandlung von ADC (=Strom+DVI+USW) auf DVI ist logischerweise verlustfrei, weil das Monitor-Signal identisch bleibt. Es werden nur die "Specials" von ADC entsorgt. Damit solltest Du ein qualitativ mit dem DVI-Ausgang Deiner Grafikkarte identisches Bild bekommen.
     

Diese Seite empfehlen