TopBlogs.de das Original - Blogverzeichnis | Blog Top Liste

MÜNCHEN (IT BOLTWISE) – Die jüngsten MLPerf 4.0 Benchmarks zeigen beeindruckende Fortschritte bei NVIDIA und Intel im Bereich der KI-Inferenzleistung.



Die MLCommons hat heute ihre MLPerf 4.0 Benchmarks für Inferenz veröffentlicht, welche erneut das unermüdliche Tempo der Verbesserungen in Software und Hardware aufzeigen. Da generative KI weiterentwickelt wird und zunehmend Anwendung findet, besteht ein klarer Bedarf an herstellerunabhängigen Leistungsbenchmarks, die MLCommons mit dem MLPerf-Set an Benchmarks bietet. Die neuen MLPerf 4.0 Inferenzergebnisse sind das erste Update der Inferenzbenchmarks seit der Veröffentlichung der MLPerf 3.1 Ergebnisse im September 2023.

In den letzten sechs Monaten hat sich viel in der Welt der KI getan, und große Hardware-Anbieter wie NVIDIA und Intel waren damit beschäftigt, sowohl Hardware als auch Software weiter zu optimieren, um die Inferenz zu verbessern. Die MLPerf 4.0 Inferenzergebnisse zeigen deutliche Verbesserungen bei den Technologien von NVIDIA und Intel.

Der MLPerf Inferenz-Benchmark hat sich ebenfalls verändert. Im MLPerf 3.1 Benchmark wurden große Sprachmodelle (LLMs) mit dem GPT-J 6B (Milliarden) Parametermodell zur Textzusammenfassung einbezogen. Mit dem neuen MLPerf 4.0 Benchmark wird das beliebte Llama 2 70 Milliarden Parameter offene Modell für Fragen und Antworten (Q&A) sowie zum ersten Mal ein Benchmark für generative KI-Bildgenerierung mit Stable Diffusion einbezogen. “MLPerf ist wirklich so etwas wie der Branchenstandard-Benchmark, um die Geschwindigkeit, Effizienz und Genauigkeit für KI zu verbessern”, sagte David Kanter, Gründer und Geschäftsführer von MLCommons, in einem Pressebriefing.

Mit MLCommons ist ein weiteres Ziel, die gesamte Branche zu vereinen. Die Benchmark-Ergebnisse werden alle anhand ähnlicher Datensätze und Konfigurationsparameter über verschiedene Hardware- und Softwareplattformen hinweg durchgeführt. Die Ergebnisse werden allen Einreichern eines bestimmten Tests zur Verfügung gestellt, so dass Fragen von einem anderen Einreicher geklärt werden können.

Letztendlich geht es bei dem standardisierten Ansatz zur Messung der KI-Leistung darum, Unternehmen zu ermöglichen, informierte Entscheidungen zu treffen.

NVIDIA dominiert einmal mehr die MLPerf-Benchmarks mit einer Reihe beeindruckender Ergebnisse. Obwohl zu erwarten ist, dass neue Hardware eine bessere Leistung erbringt, konnte NVIDIA auch eine bessere Leistung aus seiner bestehenden Hardware herausholen. Mit NVIDIAs TensorRT-LLM Open-Source-Inferenztechnologie konnte NVIDIA die Inferenzleistung für Textzusammenfassung mit dem GPT-J LLM auf seiner H100 Hopper GPU fast verdreifachen.

Intel beteiligt sich ebenfalls sehr aktiv an den MLPerf 4.0 Benchmarks mit sowohl seiner Habana AI-Beschleunigertechnologie als auch den Xeon CPU-Technologien.

Mit Gaudi liegen die tatsächlichen Leistungsergebnisse von Intel hinter der NVIDIA H100, obwohl das Unternehmen eine bessere Preis-Leistungs-Relation beansprucht. Besonders interessant sind die beeindruckenden Gewinne, die mit dem 5. Gen Intel Xeon Prozessor für Inferenz erzielt werden.

NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks
NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks (Foto: DALL-E, IT BOLTWISE)
Folgen Sie aktuelle Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks".
Stichwörter AI Artificial Intelligence Benchmark Inferenz KI Künstliche Intelligenz Performance
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
Telegram
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple
#Werbung
Bitcoin
Startups
AI Devs
Briefing

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Du möchtest über ähnliche News und Beiträge wie "NVIDIA und Intel verdreifachen bzw. verdoppeln KI-Inferenzleistung in neuesten MLPerf-Benchmarks" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.

608 Leser gerade online auf IT BOLTWISE®