MÜNCHEN (IT BOLTWISE) – Meta plant, zehnmal mehr Rechenleistung für das Training von Llama 4 zu investieren als für Llama 3. Dies unterstreicht die wachsenden Anforderungen an KI-Modelle und die Notwendigkeit, in neue Infrastrukturen zu investieren.
- Die besten Bücher rund um KI & Robotik
präsentiert von Amazon!
- Unsere täglichen KI-News von IT Boltwise® bei LinkedIn abonnieren!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facy oder Insta als Fan markieren und abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
Meta, das Unternehmen hinter einem der größten Open-Source-Sprachmodelle, Llama, sieht in der steigenden Rechenleistung einen entscheidenden Faktor für zukünftige KI-Entwicklungen. Mark Zuckerberg erklärte auf der jüngsten Telefonkonferenz zu den Quartalsergebnissen, dass Llama 4 im Vergleich zu Llama 3 eine zehnmal höhere Rechenkapazität benötigen wird. „Die Menge an Rechenleistung, die erforderlich ist, um Llama 4 zu trainieren, wird voraussichtlich fast zehnmal so hoch sein wie bei Llama 3, und zukünftige Modelle werden darüber hinaus wachsen“, so Zuckerberg.
Zuckerberg betonte auch die Bedeutung der rechtzeitigen Investition in Rechenkapazitäten. „Es ist schwierig, vorherzusagen, wie sich dies in mehreren Generationen entwickeln wird. Aber an diesem Punkt würde ich lieber das Risiko eingehen, Kapazitäten aufzubauen, bevor sie benötigt werden, anstatt zu spät zu handeln, angesichts der langen Vorlaufzeiten für neue Inferenzprojekte“, fügte er hinzu.
Im April veröffentlichte Meta Llama 3 mit 8 Milliarden Parametern, gefolgt von einer verbesserten Version namens Llama 3.1 405B mit 405 Milliarden Parametern. Letzteres ist Metas größtes Open-Source-Modell bisher.
Auch Metas CFO Susan Li äußerte sich zu den Investitionen in zukünftige KI-Modelle. Sie erklärte, dass das Unternehmen an verschiedenen Rechenzentrumsprojekten arbeite, um die Kapazitäten für das Training zukünftiger Modelle auszubauen. Diese Investitionen werden voraussichtlich die Kapitalausgaben im Jahr 2025 erhöhen.
Das Training großer Sprachmodelle ist ein kostspieliges Unterfangen. Im zweiten Quartal 2024 stiegen die Kapitalausgaben von Meta um fast 33 % auf 8,5 Milliarden US-Dollar, im Vergleich zu 6,4 Milliarden US-Dollar im Vorjahr. Der Anstieg war auf Investitionen in Server, Rechenzentren und Netzwerk-Infrastruktur zurückzuführen.
Laut einem Bericht von The Information gibt OpenAI 3 Milliarden US-Dollar für das Training von Modellen und weitere 4 Milliarden US-Dollar für das Mieten von Servern bei Microsoft zu einem ermäßigten Preis aus.
Li erklärte, dass die Erweiterung der Trainingskapazität für generative KI notwendig sei, um die Grundlagenmodelle voranzutreiben. Sie betonte die Flexibilität, die diese Infrastruktur biete, um Kapazitäten je nach Bedarf für GenAI-Inferenz oder die Kernaufgaben der Rangfolge und Empfehlung nutzen zu können.
Während der Konferenz sprach Meta auch über die Nutzung seines verbraucherorientierten Meta AI. Indien sei der größte Markt für den Chatbot, jedoch wird nicht erwartet, dass GenAI-Produkte in naher Zukunft signifikant zum Umsatz beitragen.
Amazon-Trendangebote der letzten 24 Stunden mit bis zu 78% Rabatt (Sponsored)
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Meta plant zehnmal mehr Rechenleistung für Llama 4 als für Llama 3" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.