Meta plant zehnmal mehr Rechenleistung für Llama 4 als für Llama 3 - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Meta plant, zehnmal mehr Rechenleistung für das Training von Llama 4 zu investieren als für Llama 3. Dies unterstreicht die wachsenden Anforderungen an KI-Modelle und die Notwendigkeit, in neue Infrastrukturen zu investieren.



Meta, das Unternehmen hinter einem der größten Open-Source-Sprachmodelle, Llama, sieht in der steigenden Rechenleistung einen entscheidenden Faktor für zukünftige KI-Entwicklungen. Mark Zuckerberg erklärte auf der jüngsten Telefonkonferenz zu den Quartalsergebnissen, dass Llama 4 im Vergleich zu Llama 3 eine zehnmal höhere Rechenkapazität benötigen wird. „Die Menge an Rechenleistung, die erforderlich ist, um Llama 4 zu trainieren, wird voraussichtlich fast zehnmal so hoch sein wie bei Llama 3, und zukünftige Modelle werden darüber hinaus wachsen“, so Zuckerberg.

Zuckerberg betonte auch die Bedeutung der rechtzeitigen Investition in Rechenkapazitäten. „Es ist schwierig, vorherzusagen, wie sich dies in mehreren Generationen entwickeln wird. Aber an diesem Punkt würde ich lieber das Risiko eingehen, Kapazitäten aufzubauen, bevor sie benötigt werden, anstatt zu spät zu handeln, angesichts der langen Vorlaufzeiten für neue Inferenzprojekte“, fügte er hinzu.

Im April veröffentlichte Meta Llama 3 mit 8 Milliarden Parametern, gefolgt von einer verbesserten Version namens Llama 3.1 405B mit 405 Milliarden Parametern. Letzteres ist Metas größtes Open-Source-Modell bisher.

Auch Metas CFO Susan Li äußerte sich zu den Investitionen in zukünftige KI-Modelle. Sie erklärte, dass das Unternehmen an verschiedenen Rechenzentrumsprojekten arbeite, um die Kapazitäten für das Training zukünftiger Modelle auszubauen. Diese Investitionen werden voraussichtlich die Kapitalausgaben im Jahr 2025 erhöhen.

Das Training großer Sprachmodelle ist ein kostspieliges Unterfangen. Im zweiten Quartal 2024 stiegen die Kapitalausgaben von Meta um fast 33 % auf 8,5 Milliarden US-Dollar, im Vergleich zu 6,4 Milliarden US-Dollar im Vorjahr. Der Anstieg war auf Investitionen in Server, Rechenzentren und Netzwerk-Infrastruktur zurückzuführen.

Laut einem Bericht von The Information gibt OpenAI 3 Milliarden US-Dollar für das Training von Modellen und weitere 4 Milliarden US-Dollar für das Mieten von Servern bei Microsoft zu einem ermäßigten Preis aus.

Li erklärte, dass die Erweiterung der Trainingskapazität für generative KI notwendig sei, um die Grundlagenmodelle voranzutreiben. Sie betonte die Flexibilität, die diese Infrastruktur biete, um Kapazitäten je nach Bedarf für GenAI-Inferenz oder die Kernaufgaben der Rangfolge und Empfehlung nutzen zu können.

Während der Konferenz sprach Meta auch über die Nutzung seines verbraucherorientierten Meta AI. Indien sei der größte Markt für den Chatbot, jedoch wird nicht erwartet, dass GenAI-Produkte in naher Zukunft signifikant zum Umsatz beitragen.

Meta plant zehnmal mehr Rechenleistung für Llama 4 als für Llama 3
Meta plant zehnmal mehr Rechenleistung für Llama 4 als für Llama 3 (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.