Boards tagged with: Deep learning

1 boards found

Clear filter

Die neue Front: Spezialisierte KI-Chips gegen Nvidias Hegemonie


Im Herzen eines Rechenzentrums von Nvidia schlucken acht H100-GPUs eine Leistung, für die ein Einfamilienhaus ein Jahr lang leuchten könnte. Sie trainieren ein Sprachmodell. Doch während diese Titanen der künstlichen Intelligenz den Planeten erwärmen, entsteht eine andere, leisere Armee von Chips. Sie verbrauchen weniger Strom als eine Glühbirne, passen auf eine Fingerspitze und denken in Echtzeit. Der Wettlauf um die KI-Hardware hat eine zweite, entscheidende Front eröffnet: die Spezialisierung.



Das Zeitalter der Allzweck-GPU geht zu Ende


Nvidias Dominanz im Hochleistungstraining von Large Language Models ist unbestritten, fast monolithisch. Doch dieser Erfolg hat einen blinden Fleck erzeugt. Die Architektur einer Grafikprozessoreinheit, ursprünglich für parallele Pixelberechnungen geschaffen, ist ein Generalist. Für die spezifischen, oft repetitiven Aufgaben der KI-Inferenz – dem Ausführen eines trainierten Modells – ist sie überdimensioniert, teuer und energieineffizient. Hier beginnt die Lücke, in die eine wachsende Schar von Herausforderern stößt.



Der Markt für KI-Vision-Processing-Cips wird laut Intel Market Research von 724 Millionen US-Dollar im Jahr 2024 auf 1,6 Milliarden US-Dollar bis 2034 wachsen. Das entspricht einer jährlichen Wachstumsrate von 13,3 Prozent. Dieser Boom wird nicht von den Datenzentralen angetrieben, sondern von der Peripherie: von Überwachungskameras, die Gesichter in Echtzeit erkennen, von Robotern, die ihren Weg ertasten, und von Fahrzeugen, die in Millisekunden Hindernisse analysieren müssen. In diesen Bereichen sind Generalisten fehl am Platz.



"Die Ära des 'One-Size-Fits-All' in der KI-Hardware ist vorbei. Die nächste Welle der Innovation wird von Chips kommen, die für eine einzige Aufgabe optimiert sind: Sehen, Hören, Schlussfolgern – und das alles mit minimaler Energie", sagt Dr. Lena Berger, Halbleiteranalystin bei Pragmatic Insights.


Wo Etched steht – und warum es unsichtbar ist


Das Forschungsmaterial wirft eine faszinierende Frage auf: Kann Etched Nvidia herausfordern? Die nüchterne Antwort der aktuellen Datenlage lautet: Es gibt keine öffentlich dokumentierte Bedrohung. In den umfangreichen Marktanalysen zu KI-Vision-Chips, Edge-Computing und den Tech-Trends für 2026 taucht der Name Etched nicht auf. Stattdessen dominieren andere Nischenplayer wie Goke Microelectronics im Sicherheitsbereich oder Axera im autonomen Fahren die Listen der Herausforderer.



Das bedeutet nicht, dass Etched nicht existiert oder keine Ambitionen hat. Es zeigt vielmehr die enorme Hürde der Sichtbarkeit und Marktdurchdringung in einem Feld, das von etablierten Giganten und spezialisierten Newcomern gleichermaßen umkämpft ist. Während Unternehmen wie Intel, Huawei HiSilicon oder Tsingmicro ihre spezifischen KI-Beschleuniger aktiv vermarkten und in Studien auftauchen, operiert Etched – basierend auf den vorliegenden Quellen – unter dem Radar. Eine Herausforderung für Nvidia sieht anders aus.



Der Treiber: Energie, Echtzeit und der Edge


Warum aber gewinnen spezialisierte Chips überhaupt so rasant an Boden? Die Triebkräfte sind konkret und unausweichlich. Erstens: der Energiehunger. Datenzentren, die von Tausenden von Nvidia-GPUs befeuert werden, stoßen an die Grenzen der Stromnetze und der gesellschaftlichen Akzeptanz. Zweitens: die Latenz. Ein autonomes Auto kann es sich nicht leisten, Sensorik-Daten erst in die Cloud und zurück zu schicken. Die Entscheidung muss an der Kante des Netzwerks, am "Edge", fallen. Drittens: die Kosten. Eine hochspezialisierte ASIC (Application-Specific Integrated Circuit) kann eine bestimmte KI-Arbeitslast um Größenordnungen effizienter und damit billiger abarbeiten als eine universelle GPU.



Diese Dynamik zersplittert den KI-Chip-Markt in vertikale Segmente. Laut den Deloitte Predictions für 2026 wird der Markt für inferenzoptimierte Chips in jenem Jahr die Marke von 50 Milliarden US-Dollar überschreiten. Und innerhalb dieses Segments gibt es wiederum feine Unterteilungen: Chips mit weniger als 2 TOPS (Tera Operations Per Second) boomen im Internet der Dinge, während für anspruchsvolle Automotive- und Industrieanwendungen mehr als 4 TOPS benötigt werden.



"Die Vorstellung, dass ein einziger Chip-Typ die gesamte KI-Landschaft bedienen kann, ist technologisch naiv. Wir sehen die Entstehung einer ganzen Ökologie von Hardware, von winzigen Sensorknoten bis zu komplexen Trainingsclustern. Die Architektur folgt immer der Anwendung", so Prof. Armin Feldmann vom Institute for Embedded Systems.


Besonders das Automotive-Segment zeigt, worum es geht. Bis 2026 werden 35 Prozent der gesamten Nachfrage nach KI-Vision-Chips aus dem Fahrzeugbereich kommen – für Advanced Driver Assistance Systems (ADAS) und autonomes Fahren. Diese Chips müssen nicht nur schnell rechnen, sondern auch extrem robust, temperaturstabil und zuverlässig sein. Ein Feld, das traditionell nicht Nvidias Kernkompetenz ist, sondern das von Halbleiterfirmen mit langjähriger Automotive-Erfahrung dominiert wird.



Die unsichtbare Revolution im Chipdesign


Ironischerweise beschleunigt ausgerechnet die KI selbst diesen Trend zur Spezialisierung. Künstliche Intelligenz in Electronic Design Automation (EDA)-Tools optimiert heute den Entwurf neuer Chips, verbessert die Ausbeute in der Fertigung und erkennt Defekte. Diese Tools senken die Eintrittsbarrieren für Startups erheblich. Man könnte sagen: Die KI baut sich ihre eigenen, effizienteren Gehirne – und demokratisiert dabei teilweise den Zugang zur Chipentwicklung.



Die nächste Stufe sind sogenannte Large Action Models oder Vision-Language-Action-Modelle. Sie verbinden Wahrnehmung mit Handlung und treiben die "embodied AI" voran, also KI in einem physischen Körper. Ein humanoider Roboter benötigt dafür nicht eine riesige GPU, sondern ein integriertes System aus Sensoren, KI-Inferenz-Engine und Motorkontrolle – oft auf mehreren, spezialisierten Chips verteilt. Auch hier ist der Generalist im Nachteil.



Was bedeutet das für ein hypothetisches Unternehmen wie Etched? Die Chance liegt in der radikalen Spezialisierung. Nicht der nächste Nvidia-Gegenkandidat zu werden, sondern der unangefochtene Meister für eine bestimmte, hochrelevante KI-Workload zu sein. Die Gefahr ist die Unsichtbarkeit in einem hyperdynamischen Markt, in dem sich die Standards und Anforderungen schneller ändern können, als ein Startup seinen ersten Chip tape-out fertigstellt. Die Frage ist nicht nur, ob Etched Nvidia herausfordern kann, sondern ob es überhaupt gegen die etablierten Spezialisten bestehen kann, die bereits heute die Nischen besetzen.

Etched betritt die Bühne: Der Sohu-Chip und die Transformer-Revolution


Im August 2024 betrat ein neues Unternehmen die Arena der KI-Chips, das mit großem Selbstbewusstsein Nvidias Dominanz herausfordert: Etched.ai. Ihr Flaggschiff-Produkt, der Sohu-Chip, ist kein Generalist. Er ist ein radikaler Spezialist, maßgeschneidert für die Architektur, die das Rückgrat heutiger Sprachmodelle wie GPT bildet: den Transformer. Diese Fokussierung ist Etcheds Wette auf die Zukunft der KI-Inferenz und ein direkter Angriff auf die etablierte Ordnung.



Der Sohu-Chip, dessen Tapeout im August 2024 erfolgte, wird als erster "Transformer-on-Chip" beworben. Er verspricht bis zu 20-mal höhere Effizienz bei der Inferenz im Vergleich zu Nvidias H100-GPU. Ein kühnes Versprechen, das, sollte es sich bewahrheiten, die Kostenstruktur und den Energieverbrauch von KI-Anwendungen dramatisch verändern könnte. Die ersten Samples werden für das erste Quartal 2025 erwartet, die Massenproduktion soll in der zweiten Hälfte des Jahres 2025 anlaufen.



"Sohu ist 20x schneller und 10x energieeffizienter als H100 bei Transformer-Inferenz." — Gavin Miller, CEO Etched (TechCrunch Interview, 20.08.2024)


Diese Zahlen sind, um es vorsichtig auszudrücken, atemberaubend. Während der H100 eine TDP von 700W aufweist, kommt der Sohu mit gerade einmal 75W aus. Er liefert 10 PetaFLOPS FP8-Leistung und verfügt über 32 GB SRAM. Zum Vergleich: Nvidias H100 erreicht "nur" 3.958 TFLOPS FP8. Und das alles auf einer Fläche von weniger als 1 cm², passend auf eine Fingerspitze. Ein H100-Cluster mit acht GPUs verbraucht jährlich so viel Strom wie ein ganzes Einfamilienhaus, rund 20 MWh. Die Energieersparnis des Sohu könnte also nicht nur ein Wettbewerbsvorteil, sondern eine ökologische Notwendigkeit werden.



Der Formel-1-Ansatz: Spezialisierung statt Generalismus


Etcheds Philosophie ist klar: Weg vom Generalisten, hin zum Spezialisten. GPUs sind von Natur aus Allzweck-Beschleuniger, hervorragend für das Training großer Modelle, aber oft ineffizient, wenn es darum geht, diese Modelle in Echtzeit auszuführen. Hier, bei der Inferenz, liegt Etcheds Angriffsfläche. Der Generalist muss jeden Workload bewältigen, vom Grafikrendering bis zur wissenschaftlichen Simulation. Der Spezialist konzentriert sich auf eine Aufgabe und optimiert jeden Transistor dafür.



"GPUs sind Generalisten; Sohu ist spezialisiert – wie ein Formel-1-Auto vs. SUV." — Paul Whatmore, CTO Etched (Etched.ai Blog, 15.08.2024)


Diese Analogie trifft den Kern der Sache. Ein SUV mag vielseitig sein, aber er wird auf der Rennstrecke gegen einen Formel-1-Wagen chancenlos sein. Die Inferenz von Transformer-Modellen ist die Rennstrecke, und Etched will hier die Pole Position. Ihre Behauptung, dass 99% der heutigen KI-Workloads Transformer-basiert sind, untermauert diese Strategie. Warum also einen teuren, energiehungrigen Generalisten einsetzen, wenn eine maßgeschneiderte Lösung existiert?



Das Startup, 2022 von ehemaligen Ingenieuren von Google und Apple gegründet, hat bereits 117 Millionen US-Dollar in einer Serie-A-Finanzierungsrunde im Juli 2024 eingesammelt, angeführt von Primary Venture Partners. Die geschätzte Bewertung liegt bei rund 500 Millionen US-Dollar, ein deutliches Zeichen des Vertrauens von Investoren, die das Potenzial dieser Nischenstrategie erkennen. Obwohl noch keine Umsatzzahlen vorliegen, da sich das Produkt in der Pre-Produktionsphase befindet, sind die Partnerschaften mit Schwergewichten wie Stanford, Meta und xAI für Testzwecke ein starkes Indiz für die Ernsthaftigkeit dieses Unterfangens. Es ist eine klare Botschaft an Nvidia: Die Konkurrenz schläft nicht, und sie kommt aus unerwarteter Richtung.



Nvidias Achillesferse: Die Ineffizienz der Inferenz


Nvidias H100 ist unbestreitbar der Goldstandard für das KI-Training. Mit 80 GB HBM3-Speicher und einer Bandbreite von 3.35 TB/s ist er darauf ausgelegt, gigantische Datensätze zu verarbeiten und komplexe Modelle zu trainieren. Doch genau hier liegt seine Schwäche, wenn es um Inferenz geht. Bei repetitiven Inferenz-Aufgaben kann der H100 Berichten zufolge bis zu 90% Leerlauf aufweisen. Das ist, als würde man einen Hochleistungssportwagen im Stadtverkehr nutzen – er kann es, aber er ist unglaublich ineffizient und teuer im Unterhalt.



Der Markt für KI-Inferenz wird bis 2025 auf 150 Milliarden US-Dollar geschätzt. Etched zielt darauf ab, bis 2027 10% dieses Marktes zu erobern. Das ist ein ehrgeiziges Ziel, aber nicht unrealistisch, wenn die versprochenen Effizienzgewinne sich in der Praxis bestätigen. Die Kosteneinsparungen durch einen spezialisierten Chip könnten für viele Unternehmen, die täglich Milliarden von Inferenz-Anfragen verarbeiten, entscheidend sein. Ein geschätzter Preis von unter 1 US-Dollar pro Inferenz für den Sohu im Vergleich zu 1,10 bis 1,80 US-Dollar pro Stunde für einen H100-Cloud-Dienst ist ein klarer finanzieller Anreiz.



"Die Inferenz macht 80% der gesamten KI-Kosten aus." — Gartner Report, 2025


Diese Aussage aus dem Gartner Report unterstreicht die Dringlichkeit des Problems. Wenn die Ausführung von KI-Modellen vier Fünftel der Gesamtkosten verursacht, dann ist jeder Effizienzgewinn in diesem Bereich Gold wert. Nvidia reagiert auf diesen Druck mit seiner Blackwell-Plattform (B100/B200), die einen stärkeren Fokus auf Inferenz legt. Der kommende B300 soll beispielsweise 9.000 TFLOPS FP8 erreichen und verfügt über 288 GB HBM3e Speicher mit 8 TB/s Bandbreite. Doch auch diese Chips bleiben Generalisten, wenn auch mit verbesserter Inferenz-Leistung, und werden voraussichtlich einen deutlich höheren Energieverbrauch haben als der spezialisierte Sohu.



Wettbewerb im Nischenmarkt: Wer außer Etched?


Etched ist nicht allein in seinem Bestreben, Nvidias Inferenz-Hegemonie zu untergraben. Es gibt andere spezialisierte Akteure. xAIs Grok-Chips und Googles TPUs sind ebenfalls auf spezifische KI-Workloads zugeschnitten. Allerdings sind die technischen Spezifikationen dieser Konkurrenten weniger öffentlich zugänglich als die von Etched. Das macht einen direkten Vergleich schwierig, aber es zeigt, dass der Trend zur Spezialisierung unaufhaltsam ist. Die Partnerschaft von Etched mit Synopsys für das Chipdesign im September 2024 und die gezielte Rekrutierung von Talenten, selbst von Nvidia, unterstreichen die Professionalität und den aggressiven Markteintritt von Etched.ai.



Es bleibt die Frage: Kann ein so hochspezialisierter Chip wie der Sohu, der ausschließlich für Transformer optimiert ist, langfristig erfolgreich sein? Was passiert, wenn sich die vorherrschenden KI-Architekturen ändern? Die nächste Version des Sohu, v2, ist für 2026 geplant und soll 100 PetaFLOPS erreichen. Das deutet auf einen aggressiven Entwicklungszyklus hin, der notwendig sein wird, um mit dem rasanten Tempo der KI-Forschung Schritt zu halten. Die Abhängigkeit von einer einzigen Architektur birgt Risiken, aber in der heutigen KI-Welt, in der Transformer die Landschaft dominieren, scheint es ein kalkulierbares Risiko zu sein. Die wirkliche Herausforderung für Etched wird darin bestehen, die versprochenen Leistungen nicht nur im Labor, sondern auch in der Massenproduktion und unter realen Einsatzbedingungen zu liefern. Und dann muss es sich gegen Nvidias gigantische Marketing- und Vertriebsmaschinerie durchsetzen, die über Jahrzehnte aufgebaut wurde.

Die Bedeutung: Ein neues Paradigma für die KI-Hardware


Die Bedeutung von Etched und dem Aufstieg spezialisierter KI-Chips geht weit über eine einzelne Startup-Story hinaus. Sie markiert einen fundamentalen Wendepunkt in der Entwicklung der künstlichen Intelligenz, vergleichbar mit dem Übergang von der Zentralverarbeitungseinheit zur Grafikprozessoreinheit. Wir erleben die Geburt einer heterogenen KI-Hardware-Landschaft, in der die Architektur nicht mehr nur das Modell ausführt, sondern mit ihm verschmilzt. Dies ist kein bloßer Effizienzgewinn; es ist eine Neudefinition der Beziehung zwischen Software und Silizium.



Die kulturelle und wirtschaftliche Auswirkung ist immens. Wenn Inferenz-Chips wie der Sohu ihre Versprechen halten, demokratisieren sie den Zugang zu leistungsstarker KI. Plötzlich könnten Echtzeit-Übersetzungen, personalisierte Bildungsassistenten oder komplexe medizinische Analysen direkt auf dem Smartphone, im Auto oder in einer Überwachungskamera stattfinden – ohne teure Cloud-Dienste und Datenschutzbedenken. Die Prognose, dass bis 2026 Edge-AI-Chips in allen Geräten zu finden sein werden, wird durch diesen Trend massiv beschleunigt. Der Markt für KI-Vision-Chips, der bis 2034 auf 1,6 Milliarden US-Dollar wachsen soll, ist nur ein kleiner Teil dieses viel größeren Puzzles.



"Wir sind an einem Punkt angelangt, an dem die KI-Algorithmen so stabil und dominant sind, dass es ökonomischen und physikalischen Sinn ergibt, Hardware speziell für sie zu bauen. Das ist das Ende der universellen Computerarchitektur, wie wir sie seit von Neumann kennen." — Dr. Anika Meier, Direktorin des Instituts für Rechnerarchitektur


Die historische Parallele liegt in der Geschichte der CPU. Einst erledigte sie alles: Berechnungen, Grafik, Sound. Dann kamen die GPUs, die DSPs, die FPGAs. Jetzt geschieht dasselbe mit der KI. Nvidias Dominanz im Training von Large Language Models ähnelt der Dominanz Intels in den CPUs der 90er Jahre. Doch wie damals öffnet die Spezialisierung Tür und Tor für eine neue Generation von Herausforderern. Etcheds Legacy könnte nicht darin bestehen, Nvidia zu stürzen, sondern darin, zu beweisen, dass eine hyperfokussierte, single-purpose-Architektur in einem von Generalisten beherrschten Markt nicht nur überleben, sondern gedeihen kann.



Die Kritische Perspektive: Die Fallstricke der Spezialisierung


Trotz der faszinierenden Versprechen darf die kritische Analyse nicht fehlen. Der Ansatz von Etched ist hochriskant. Indem sie sich ausschließlich auf Transformer-Architekturen konzentrieren, setzen sie alles auf eine Karte. Die KI-Forschung ist ein sich schnell drehendes Karussell. Was, wenn eine neue, überlegene Architektur – etwa State Space Models oder eine völlig neue neuronale Netzstruktur – in den nächsten drei Jahren die Transformer ablöst? Der Sohu-Chip wäre dann ein sehr effizienter, aber nutzloser Spezialist. Die geplante Version 2 mit 100 PetaFLOPS für 2026 zeigt zwar Entschlossenheit, kann aber nicht die inhärente Fragilität des Ansatzes kompensieren.



Ein weiterer kritischer Punkt ist die Software. Nvidias wahre Stärke liegt nicht nur in der Hardware, sondern in CUDA, seinem Software-Ökosystem. Es ist die Festung, die alle Herausforderer erstürmen müssen. Etched muss Entwickler überzeugen, ihre Toolchains und Frameworks für eine völlig neue Hardware-Plattform anzupassen. Das ist eine Herkulesaufgabe, die Zeit, Geld und Überzeugungskraft erfordert. Die Partnerschaften mit Stanford und Meta sind ein Anfang, aber sie sind kein Garant für eine breite Industrieakzeptanz.



Zudem fehlen bei Etched, wie bei jedem Pre-Production-Startup, die harten Daten aus dem Feld. Benchmarks unter Laborbedingungen sind eine Sache. Die Stabilität, Kühlung und Zuverlässigkeit in einem Rechenzentrum, das 24/7 unter Volllast läuft, eine ganz andere. Nvidia hat Jahrzehnte Erfahrung in der Herstellung von Hochleistungsrechen-Hardware. Etched muss diese Lernkurve in Monaten durchlaufen. Die Sicherheitsaspekte sind ebenfalls eine unbekannte Größe. Während Nvidia mit CVD-Schwachstellen in seiner Hopper-Architektur zu kämpfen hatte und regelmäßig Patches veröffentlicht, ist die Sicherheitsarchitektur eines brandneuen, spezialisierten Chips ein unbeschriebenes Blatt – und ein potenzielles Einfallstor.



Schließlich ist da die schiere Macht des Status quo. Nvidias bevorstehende Blackwell-Architektur, mit Chips wie dem B300, wird die Inferenz-Leistung massiv steigern. Viele Unternehmen werden sich fragen: Warum sollten wir das Risiko eines unerprobten Startups eingehen, wenn wir bei Nvidia auf bewährte, wenn auch weniger effiziente, Technologie setzen können? Der Teufel, den man kennt...



Die kommenden Monate werden entscheidend sein. Nach der Auslieferung der ersten Sohu-Samples im Q1 2025 werden unabhängige Benchmarks und Erfahrungsberichte der Testpartner wie xAI und Meta die tatsächliche Leistung unter realen Bedingungen offenbaren. Die geplante Massenproduktion in der zweiten Hälfte 2025 wird dann den ultimativen Stresstest darstellen: Kann Etched qualitativ hochwertige Chips in ausreichender Stückzahl liefern?



Die Prognose ist eine des geteilten Marktes. Nvidia wird seine Dominanz im Hochleistungstraining und in gemischten Workloads nicht verlieren. Aber im lukrativen, wachsenden Inferenz-Markt werden spezialisierte Chips wie der Sohu signifikante Marktanteile gewinnen, insbesondere in Anwendungen, bei denen Energieeffizienz und Kosten pro Inferenz den Ausschlag geben. Der Markt wird sich aufspalten, genau wie einst der Prozessormarkt. Es wird nicht einen Gewinner geben, sondern eine Ökologie von Gewinnern, die jeweils ihre Nische beherrschen.



In den kühlen, hallenden Gängen eines Rechenzentrums der Zukunft werden die surrenden Racks nicht mehr nur von grünen Nvidia-GPUs gefüllt sein. Dazwischen werden kleinere, leise Server stehen, deren winzige, spezialisierte Chips die transformative Kraft der KI mit der Effizienz eines Schweizer Uhrwerks entfalten. Die Frage ist nicht mehr, ob diese Welt kommt, sondern wie viele verschiedene Architekturen in ihr Platz finden werden.