Wann immer eine neue Spielekonsole, eine High-End-Grafikkarte oder ein KI-Supercomputer angekündigt wird, werfen Vermarkter gerne mit einem bestimmten Akronym um sich: TFLOPS (Tera-Floating Point Operations Per Second). Uns wird gesagt: „Konsole A hat 10 TFLOPS, während Konsole B nur 8 TFLOPS hat“, was impliziert, dass die eine objektiv überlegen ist.
Aber was misst ein TFLOP eigentlich? Und wie wurde eine Metrik, die ursprünglich nur für militärische Supercomputer reserviert war, zum De-facto-Standard für den Vergleich von 500-Euro-Spielekonsolen und sündhaft teuren KI-Trainingsclustern?
Machen wir eine chronologische Reise durch das „Flop-Rennen“, um zu verstehen, wie die Rechenleistung in den letzten Jahrzehnten exponentiell in die Höhe geschossen ist.
Die Anatomie eines FLOP
Bevor wir mit der Zeitachse beginnen, müssen wir die Einheit definieren. FLOPS steht für Floating Point Operations Per Second (Gleitkommaoperationen pro Sekunde).
Eine "Gleitkommazahl" ist einfach eine Zahl mit einem Dezimalpunkt, der je nach Größe der Zahl "gleiten" kann – unerlässlich für die Berechnung präziser Geometrien in 3D-Spielen oder der hochgradig nuancierten Gewichtungen in einem neuronalen Netzwerk der Künstlichen Intelligenz.
Wenn Ihr Grafikprozessor (GPU) das Licht rendert, das in einem Videospiel von einem glänzenden Auto abprallt, berechnet er Millionen von Gleitkomma-Mathematikproblemen gleichzeitig.
- MegaFLOPS (MFLOPS): Millionen Operationen pro Sekunde.
- GigaFLOPS (GFLOPS): Milliarden Operationen pro Sekunde.
- TeraFLOPS (TFLOPS): Billionen (in den USA: Trillions) Operationen pro Sekunde.
Sehen wir uns nun an, wie schnell wir den Meilenstein der „Billion“ erreicht haben.
1999: Die Supercomputer-Warnung (Die Y2K-Ära)
Im Jahr 1999 bauten die Vereinigten Staaten „ASCI Red“, einen riesigen Supercomputer, der Tausende von Quadratmetern Grundfläche einnahm. Es war der erste Computer, der die 1-TFLOPS-Marke durchbrach und in der Spitze 1,3 TFLOPS erreichte. Der Bau kostete knapp 55 Millionen US-Dollar und verbrauchte 850 Kilowatt Strom (die massiven Klimaanlagen, die zur Kühlung erforderlich waren, nicht mitgerechnet).
Zur exakt gleichen Zeit spielten normale Verbraucher auf der Sega Dreamcast. Ihr Grafikchip produzierte respektable 1,4 GigaFLOPS (0,0014 TFLOPS). Die Lücke zwischen einem Consumer-Gerät und einem nationalen Supercomputer war ein astronomischer Faktor von 1.000.
2000: Der „Emotion Engine“-Hype
Sony brachte die PlayStation 2 auf den Markt. Die Marketingkampagne war legendär und machte wilde Behauptungen über ihren maßgeschneiderten „Emotion Engine“-Prozessor. Die PS2 erreichte ein theoretisches Maximum von etwa 6,2 GFLOPS. Obwohl dies ein massiver Sprung gegenüber der PS1 und dem Nintendo 64 war, befanden wir uns immer noch fest in der GigaFLOP-Ära. Wir waren meilenweit von einem einzigen TFLOP entfernt.
2006: Die HD-Revolution
Die PlayStation 3 und die Xbox 360 läuteten die Ära des High-Definition-Gaming (720p/1080p) ein. Um all diese zusätzlichen Pixel auf den Bildschirm zu zaubern, musste die Rechenleistung aggressiv skaliert werden. Die GPU der Xbox 360 verarbeitete grob geschätzt 240 GFLOPS (0,24 TFLOPS).
Zu diesem Zeitpunkt bemerkten Forscher etwas Faszinierendes: GPUs waren außergewöhnlich gut darin, hochgradig repetitive Mathematik parallel auszuführen. Universitäten begannen, ganze Arrays von Spielekonsolen zu kaufen und versuchten, sie zusammenzuschalten, um billige Supercomputer zu bauen.
2013: Die TeraFLOP-Barriere im Wohnzimmer durchbrochen
Mit der Markteinführung der PlayStation 4 und der Xbox One kam der ASCI Red-Supercomputer von 1999 endgültig im Wohnzimmer an.
Die Standard-PS4 verfügte über eine AMD-GPU, die 1,84 TFLOPS lieferte. Denken Sie einmal darüber nach: Eine schicke Plastikbox für 399 Euro unter Ihrem Fernseher war nun rechentechnisch leistungsfähiger als der raumgroße militärische Supercomputer für 55 Millionen Dollar von vor nur 14 Jahren – und verbrauchte dabei nur einen Bruchteil des Stroms.
2017: Der Aufstieg von Deep Learning (Der Krypto- und KI-Boom)
Nvidia veröffentlichte die GTX 1080 Ti für PC-Gamer und entfesselte massive 11,3 TFLOPS Rechenleistung.
Aber in dieser Ära ging es nicht mehr nur um Gaming. Schürfer von Kryptowährungen erkannten, dass die Berechnung kryptografischer Hashes auf exakt denselben parallelen Gleitkommaoperationen beruhte. Später erkannten KI-Forscher, dass das Training komplexer neuronaler Netze (wie die frühen Versionen von ChatGPT- und Midjourney-Architekturen) massive Matrixmultiplikationen erforderte – eine Aufgabe, bei der GPUs brillieren. Der „Flop“ wurde zur Währung der Zukunft.
2020: Die aktuelle Konsolengeneration
Der anhaltende Kampf zwischen der PlayStation 5 und der Xbox Series X rückte TFLOPS in den Mittelpunkt des Marketings.
- Die PS5 leistet 10,28 TFLOPS.
- Die Xbox Series X leistet 12,15 TFLOPS.
Während die Xbox auf dem Papier einen leichten Vorteil hat, lernten die Verbraucher schnell, dass TFLOPS nicht die ganze Geschichte sind. Speicherbandbreite, SSD-Lese-/Schreibgeschwindigkeiten und die Architektureffizienz beeinflussen die tatsächliche Spieleleistung stark. FLOPS zu zählen ist wie die Pferdestärken eines Automotors zu zählen – es verrät Ihnen nicht, wie gut das Auto tatsächlich durch eine Kurve fährt.
2024: Die Ära der KI-Superbeschleuniger
Heute vergleichen wir keine Konsolen mehr; wir vergleichen KI-Server-Racks. Nvidias Flaggschiff, die H100 Tensor Core GPU, die speziell für KI-Training entwickelt wurde, kann erstaunliche 3.958 TFLOPS (fast 4 PetaFLOPS) an FP8-Rechenleistung liefern.
Wenn wir den Sprung vergleichen:
- 1999 Supercomputer: 1 TFLOP (55 Mio. USD)
- 2024 KI-GPU: ~3.900 TFLOPS (ca. 35.000 USD pro Chip)
Fazit: Werden wir jemals aufhören, mehr FLOPS zu brauchen?
Fürs Gaming könnten wir irgendwann an eine Wahrnehmungsgrenze stoßen, an der das Hinzufügen weiterer TFLOPS keine spürbaren visuellen Verbesserungen mehr bringt (das Gesetz des abnehmenden Ertrags). Wir können bereits 4K mit 60 Bildern pro Sekunde inklusive Raytracing rendern.
Aber für Künstliche Intelligenz ist keine Grenze in Sicht. Das Training noch größerer Large Language Models (LLMs) erfordert eine unersättliche Menge an Gleitkommaoperationen. Das Rennen in Richtung Exascale – eine Trillion Berechnungen pro Sekunde – hat bereits begonnen.
Wenn Sie das nächste Mal eine Technikankündigung sehen, in der beiläufig "50 TFLOPS" erwähnt werden, denken Sie an den 55 Millionen Dollar teuren und raumgroßen ASCI Red zurück und schätzen Sie das exponentielle Wunderwerk des modernen Siliziums.
