MÜNCHEN (IT BOLTWISE) – Unternehmen müssen sich auf eine Zeit erheblicher Preisschwankungen bei GPUs einstellen, die für Künstliche Intelligenz (KI) unerlässlich sind. Diese Entwicklung erfordert neue Ansätze im Kostenmanagement.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Grafikprozessoren (GPUs) sind das Herzstück der KI-Revolution und treiben die großen Sprachmodelle (LLMs) an, die in Chatbots und anderen KI-Anwendungen zum Einsatz kommen. Da die Preise für diese Chips in den kommenden Jahren stark schwanken könnten, müssen viele Unternehmen erstmals lernen, wie sie variable Kosten für ein kritisches Produkt managen können.
Einige Branchen sind bereits mit schwankenden Kosten vertraut. Unternehmen in energieintensiven Sektoren wie dem Bergbau managen schon lange variable Energiekosten und balancieren verschiedene Energiequellen aus, um die richtige Kombination aus Verfügbarkeit und Preis zu erzielen. Logistikunternehmen handhaben dies ebenfalls, wenn es um die derzeit stark schwankenden Versandkosten geht, die durch Störungen in Kanälen wie dem Suez- oder Panamakanal verursacht werden.
Volatilität voraus: Das Compute-Kosten-Dilemma
Die Volatilität der Computekosten unterscheidet sich jedoch, da sie auch Branchen betreffen wird, die bisher keine Erfahrung mit dieser Art von Kostenmanagement haben. Unternehmen in der Finanz- und Pharmaindustrie, die nicht im Energiesektor oder Transportwesen tätig sind, gehören zu denjenigen, die besonders stark von KI profitieren könnten. Sie müssen jedoch schnell lernen, wie man mit diesen Schwankungen umgeht.
NVIDIA ist der führende Anbieter von GPUs, was auch der Grund ist, warum der Unternehmenswert in diesem Jahr stark gestiegen ist. Die Chips von NVIDIA sind so begehrt, dass einige Firmen sie per gepanzertem Wagen liefern lassen. Die Kosten für GPUs werden weiterhin erheblich schwanken und sind schwer vorhersehbar, da sie durch Angebot und Nachfrage beeinflusst werden.
Treiber der GPU-Kostenvolatilität
Die Nachfrage wird fast sicher zunehmen, da Unternehmen weiterhin rasch KI-Anwendungen entwickeln. Das Investmentunternehmen Mizuho hat prognostiziert, dass sich der Gesamtmarkt für GPUs in den nächsten fünf Jahren verzehnfachen könnte und mehr als 400 Milliarden US-Dollar erreichen wird, da Unternehmen ihre KI-Anwendungen ausweiten.
Das Angebot hingegen hängt von schwer vorhersehbaren Faktoren ab. Dazu gehört die Produktionskapazität, die teuer und schwer zu skalieren ist, sowie geopolitische Überlegungen – viele GPUs werden in Taiwan produziert, dessen Unabhängigkeit durch China bedroht ist.
Schon jetzt ist die Versorgung knapp, und einige Unternehmen warten Berichten zufolge bis zu sechs Monate auf die leistungsstarken H100-Chips von NVIDIA. Da Unternehmen zunehmend von GPUs für KI-Anwendungen abhängig werden, müssen sie sich mit dem Management dieser variablen Kosten vertraut machen.
Strategien für das Management von GPU-Kosten
Um die Kosten zu stabilisieren, könnten mehr Unternehmen in Erwägung ziehen, eigene GPU-Server zu betreiben, anstatt diese von Cloud-Anbietern zu mieten. Dies bedeutet zwar zusätzliche Verwaltungskosten, bietet aber mehr Kontrolle und kann langfristig zu niedrigeren Kosten führen. Unternehmen könnten auch GPUs auf Vorrat kaufen, um sicherzustellen, dass sie in Zukunft Zugriff auf die benötigte Rechenleistung haben und ihre Wettbewerber nicht.
Nicht alle GPUs sind gleich, daher sollten Unternehmen darauf achten, den richtigen GPU-Typ für ihre spezifischen Anforderungen zu wählen. Die leistungsfähigsten GPUs werden hauptsächlich von den wenigen Organisationen benötigt, die riesige Sprachmodelle wie OpenAIs GPT oder Metas LLama trainieren. Die meisten Unternehmen werden weniger anspruchsvolle Aufgaben wie Inferenz durchführen, bei denen es darum geht, Daten gegen ein bestehendes Modell laufen zu lassen. Hier wäre eine größere Anzahl weniger leistungsstarker GPUs die kosteneffizientere Wahl.
Auch der Standort der Server spielt eine Rolle. GPUs sind sehr energiehungrig, und ein großer Teil ihrer Betriebskosten entfällt auf den Stromverbrauch. Der Betrieb von GPU-Servern in Regionen mit günstigem Strom, wie etwa Norwegen, kann die Kosten erheblich senken im Vergleich zu Regionen wie dem Osten der USA, wo die Strompreise höher sind.
IT-Verantwortliche sollten zudem die Balance zwischen Kosten und Qualität der KI-Anwendungen genau abwägen, um die bestmögliche Lösung zu finden. Weniger rechenintensive Modelle könnten in Szenarien zum Einsatz kommen, bei denen eine hohe Genauigkeit nicht zwingend erforderlich ist.
Die Herausforderung der Bedarfsprognose
Die schnelle Entwicklung im Bereich des KI-Computings erschwert es Unternehmen, ihren eigenen GPU-Bedarf exakt vorherzusagen. Neue Sprachmodelle mit effizienteren Architekturen wie das „Mixture-of-Experts“-Design von Mistral, bei dem nur Teile eines Modells für verschiedene Aufgaben genutzt werden, könnten die Nachfrage beeinflussen. Gleichzeitig arbeiten Chiphersteller wie NVIDIA und TitanML an Techniken, um die Inferenz effizienter zu gestalten.
Auch neue Anwendungen und Anwendungsfälle tragen dazu bei, die Vorhersage der GPU-Nachfrage schwierig zu gestalten. Selbst vergleichsweise einfache Use Cases wie RAG-Chatbots könnten durch Änderungen in ihrer Entwicklung die GPU-Nachfrage beeinflussen. Für die meisten Unternehmen ist die Bedarfsprognose Neuland und schwer zu meistern.
Jetzt GPU-Kostenplanung starten
Die rasante Entwicklung der KI zeigt keine Anzeichen einer Verlangsamung. Laut einer Prognose von Bank of America Global Research und IDC wird der weltweite Umsatz mit KI-Software, -Hardware und -Dienstleistungen bis 2026 jährlich um 19 % steigen und 900 Milliarden US-Dollar erreichen. Während dies großartige Neuigkeiten für Chiphersteller wie NVIDIA sind, bedeutet es für viele Unternehmen, dass sie eine völlig neue Disziplin des Kostenmanagements erlernen müssen. Der Startschuss sollte jetzt fallen.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.