Kommt der Cell aus Böblingen?

Dieses Thema im Forum "Hardware" wurde erstellt von MacRonalds, 7. Juli 2006.

  1. MacRonalds

    MacRonalds New Member

    "Ein Team des deutschen IBM-Entwicklungszentrums in Böblingen bei Stuttgart war maßgeblich an der Entstehung des Herzens des Cell-Chips beteiligt, der ..."

    http://www.faz.net/s/Rub4C34FD0B1A7...B9B1E802752767E56A~ATpl~Ecommon~Scontent.html

    weitere Infos zum Cell:

    Die "Cell Broadband Engine Architecture" - eine Architektur speziell für verteiltes Processing und Multimedia-Anwendungen. Die Architektur umfasst einen Kontroll-Prozessor, der auf der IBM Power Architektur beruht und durch zusätzlich Komponenten erweitert wird.
    http://de.wikipedia.org/wiki/Cell

    Zwar beruht der Cell Prozessor in seinem Innersten auf Altbekanntem: nämlich auf dem von IBM entwickelten, in Apples G5 eingesetzten 64-Bit-PowerPC; doch steuert diese CPU bis zu 16 (!) selbständige Prozessor-Einheiten, die sogenannten Synergistic Processing Units (SPU / auch: Synergistic Processing Elements, SPE). Und jeder dieser simultan arbeitenden Kerne des Cell Chips will nur das Eine: Daten fressen ohne Ende!

    "Der jetzt gezeigte Prototyp des Multi-Core-Prozessors ist mit acht Kernen bestückt, in denen 234 Millionen Transistoren untergebracht sind. Der Cell Chip ist in 90 Nanometer-Technologie gefertigt und verfügt über einen 512 KB Level-2-Cache für die CPU und achtmal 256 KB in den SPUs, das sind insgesamt 2,5 MByte Speicher.
    Dabei verbindet ein DMA-Flow-Controller die Synergistic Processing Units direkt mit ihrem jeweiligen Speicher (local Store). Die SPU-Caches des Cell Chips sind also nicht hierarchisch organisiert.
    Ein 128-Bit-Registerfile ermöglicht jeder SPU 128 gleichzeitige Transaktionen zwischen Prozessor und Speicher."
    "In besonderen Supercomputern, die sogar mit mehreren Cell Chips arbeiten, sind bis zu 16 Terraflops denkbar ... das ist immerhin die halbe Rechenleistung des japanischen "Earth-Simulators", des bis vor wenigen Wochen leistungsstärksten Rechners der Welt.
    Durch die parallele Verarbeitung der Daten eignet sich der Cell-Chip-Prozessor besonders für umfangreiches Bildmaterial, insbesondere die realistische Darstellung dreidimensionaler Szenen wird enorm gewinnen."
    http://www.computerbase.de/news/hardware/prozessoren/ibm/2005/februar/cell_zehnmal_cpus/

    In einem Interview:
    "Die Software jeder Dekade war geprägt durch die jeweils dominante Hardware: Also früher von den Mainframes, dann von den Servern und Clients. In Zukunft werden Applikationen auf Prozessoren zugreifen, die große Bandbreiten, Multiprocessing und hohe Geschwindigkeit bieten."

    http://www.blachford.info/computer/Cell/Cell0_v2.html

    Wenn der Cell, der zurZeit in Produktion gegangen ist, sich auf dme MArkt befindet und erste Rechner damit ausgestattet sind, kann man konkrete Vergleiche laufen lassen. Insbesondere die schon jetzt laufende Weiterentwicklung zum Cell 2 hört sich mehr als interessant an.
    Jobs hat geäußert, dass " we like to have Options" und das wäre so eine.
    Sie ist dank der Universal Binaries direkt einsetzbar, keine Softwareumstellung nötig und somit einfach eine Alternative. So kann der Cell auch als Erweiterungskarte für den G5 (Quad) erscheinen, so dass man die Zeiten fürs Rendern stark minimieren kann. Man darf gespannt sein.
    Vielleicht gibt es auch einen MacMedia, der auf Multimedia-Belange ausgerichtet ist, und dann mit 1-x Cell Prozessoren ein wahres Rechenmonster ergibt.
     
  2. MacRonalds

    MacRonalds New Member

    Interessant finde ich, wie flexibel die PPC Architektur ist.

    Microsoft erteilt Auftrag an IBM, und innerhalb kurzer Zeit flanscht IBM an den G5 einen weiteren Kern (der Xenon ist ein Triple Core) dran, und optimiert ihn für Multimedia.
    Schade, dass Apple den G5 bzw. dessen Weiterentwicklung nicht wollte.
    Da schaut man Motorola bzw Freescale jahrelang beim Basteln zu, und als man von IBM den G5 auf dem Silbertablett serviert bekommt, verschmäht man ihn und setzt auf x86 Prozessoren.
    Hoffentlich ist das nicht nur in den ersten beiden Jahren interessant, bis die ersten Grenzen auftauchen.... (u.a. die Cache-Größe ist nicht beliebig erweiterbar um den geringeren Durchsatz des FSB auszugleichen)
     

Diese Seite empfehlen