Der Wandel in Rechenzentren: KI-Chips und Beschleuniger auf dem Vormarsch - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – KI-Chips und Beschleuniger gewinnen in Rechenzentren zunehmend an Bedeutung und gehen über die traditionelle GPU-Dominanz hinaus.



Rechenzentren sind das Rückgrat des Internets. Ob Netflix oder Google, alle großen Unternehmen nutzen sie, um digitale Dienste bereitzustellen. Doch mit dem zunehmenden Fokus auf fortschrittliche KI-Workloads benötigen die klassischen, CPU-zentrierten Server eine Ergänzung durch spezialisierte Chips, auch bekannt als Co-Prozessoren.

Diese Co-Prozessoren erweitern die Rechenkapazität der Server, um Aufgaben wie KI-Training, Inferenz, Datenbankbeschleunigung und Netzwerkfunktionen zu bewältigen. In den letzten Jahren haben sich GPUs, vor allem von Nvidia, als bevorzugte Lösung etabliert. Laut einem Bericht der Futurum Group machten GPUs im letzten Jahr 74 % der Co-Prozessoren in Rechenzentren aus, die KI-Anwendungsfälle unterstützen.

Die Dominanz von GPUs wird voraussichtlich weiter zunehmen, mit jährlichen Umsatzsteigerungen von 30 % und einem erwarteten Marktvolumen von 102 Milliarden US-Dollar bis 2028. Allerdings gehen mit GPUs hohe Kosten einher. Nvidias Flaggschiff, der GB200 „Superchip“, kostet bis zu 70.000 US-Dollar, und Server mit mehreren dieser Chips können bis zu 2 Millionen US-Dollar kosten.

Für viele Unternehmen, die auf kleinere oder spezifische KI-Workloads abzielen, sind solche Investitionen zu hoch. Hier kommen spezialisierte KI-Prozessoren und Beschleuniger ins Spiel, die sich durch geringere Kosten und eine höhere Effizienz auszeichnen.

Was sind KI-Prozessoren und Beschleuniger?
Diese speziellen Chips unterstützen AI-Workloads und umfassen drei wesentliche Architekturen: Anwendungsspezifische integrierte Schaltungen (ASICs), Field-Programmable Gate Arrays (FPGAs) und Neural Processing Units (NPUs). ASICs und FPGAs existieren seit geraumer Zeit, wobei ASICs für spezifische Aufgaben maßgeschneidert sind und FPGAs flexibel programmiert werden können. NPUs hingegen sind auf KI-Workloads wie neuronale Netzwerke und Inferenz spezialisiert.

Experten sehen in AI-Beschleunigern eine vielversprechende Alternative zu GPUs. Sie bieten oft bessere Preis-Leistungs-Verhältnisse und eine höhere Energieeffizienz, da sie gezielt für bestimmte Aufgaben entwickelt wurden.

Beispiel aus der Praxis: Tractable und Graphcore
Ein interessantes Beispiel ist Tractable, ein Unternehmen, das KI zur Schadensanalyse in Versicherungsfällen einsetzt. Durch die Verwendung von Graphcores Intelligent Processing Unit (IPU) erzielte das Unternehmen eine fünffache Leistungssteigerung im Vergleich zu den zuvor eingesetzten GPUs.

Auch IBM setzt auf eine Hybridstrategie mit GPUs und AI-Beschleunigern wie Intels Gaudi 3, um unterschiedliche Workloads effizient zu bewältigen. IBM sieht in AI-Beschleunigern besonders für die Inferenz und kleinere Trainingsjobs eine vielversprechende Lösung.

Die Zukunft der AI-Beschleuniger
Neben Nvidia und Intel investieren auch Cloud-Anbieter wie Google, AWS und Microsoft in spezialisierte AI-Beschleuniger. Startups wie Groq, Graphcore und Cerebras Systems entwickeln ebenfalls dedizierte Produkte, die in bestimmten Anwendungsbereichen GPUs herausfordern.

Insgesamt wird der Markt für AI-Hardware, einschließlich Chips, Beschleunigern und GPUs, voraussichtlich um 30 % pro Jahr wachsen und bis 2028 ein Volumen von 138 Milliarden US-Dollar erreichen.

Der Wandel in Rechenzentren: KI-Chips und Beschleuniger auf dem Vormarsch
Der Wandel in Rechenzentren: KI-Chips und Beschleuniger auf dem Vormarsch (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.