PEKING / MÜNCHEN (IT BOLTWISE) – Alibaba hat mit der Einführung von Qwen2.5-Max ein neues Kapitel in der Entwicklung von KI-Modellen aufgeschlagen. Dieses Modell, das auf einer beeindruckenden Menge von über 20 Billionen Trainingstoken basiert, setzt neue Maßstäbe in der Branche.
- Unsere KI-News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren und abonnieren!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
Das chinesische Technologieunternehmen Alibaba hat mit Qwen2.5-Max ein neues Sprachmodell vorgestellt, das durch seine beeindruckende Datenbasis und herausragende Ergebnisse in Benchmark-Tests die Aufmerksamkeit der KI-Community auf sich zieht. Dieses Modell, das als Mixture-of-Expert-Modell (MoE) konzipiert ist, basiert auf über 20 Billionen Trainingstoken, was es zu einem der umfangreichsten seiner Art macht. Diese enorme Datenmenge soll maßgeblich zur Leistungsfähigkeit des Modells beitragen und stellt einen neuen Rekord für ein Foundation-Modell dar.
In verschiedenen Benchmark-Vergleichen mit führenden KI-Modellen wie Deepseek-V3, GPT-4o und Claude 3.5 Sonnet zeigt Qwen2.5-Max in einigen Tests überlegene Ergebnisse und in anderen eine starke Performance. Besonders bei den Benchmarks Arena-Hard und LiveBench konnte das Modell Spitzenleistungen erzielen. Diese Erfolge sind das Ergebnis eines umfangreichen Pretrainings und der Anwendung bewährter Techniken wie Supervised Fine-Tuning (SFT) und Reinforcement Learning from Human Feedback (RLHF).
Interessierte Nutzer können ab sofort über die Alibaba Cloud per API auf Qwen2.5-Max zugreifen. Darüber hinaus steht das Modell auch in Alibabas Chatbot Qwen Chat zur Verfügung, der ChatGPT-ähnliche Funktionen bietet. Diese Verfügbarkeit über eine API ermöglicht es Entwicklern, die Leistungsfähigkeit von Qwen2.5-Max in ihre eigenen Anwendungen zu integrieren und von den niedrigen Preisen und der OpenAI-kompatiblen Schnittstelle zu profitieren.
Die Herkunft der enormen Datenmenge, die für das Training von Qwen2.5-Max verwendet wurde, bleibt unklar. Es wird jedoch vermutet, dass synthetische Daten, also von anderen Sprachmodellen produzierte Texte, eine wesentliche Rolle spielen. Trotz des großen Investments in Trainingsressourcen konnte Qwen2.5-Max im Vergleich zur Konkurrenz nur einen mäßigen Vorsprung erzielen. Dies deutet darauf hin, dass der Weg zu besseren Sprachmodellen möglicherweise in der Vergrößerung der sogenannten Test-Time Compute liegt.
Die Max-Reihe von Alibaba wird voraussichtlich nur per API verfügbar bleiben und nicht als Open-Source freigegeben werden. Dies unterscheidet sie von anderen Modellen der Qwen2.5-Serie. Mit der Einführung von Qwen2.5-Max unterstreicht Alibaba seine Ambitionen, im Bereich der KI-Entwicklung eine führende Rolle einzunehmen, auch wenn das Modell der Zensur der chinesischen Regierung unterliegt.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "Alibabas Qwen2.5-Max: Ein neuer Meilenstein in der KI-Entwicklung".
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Alibabas Qwen2.5-Max: Ein neuer Meilenstein in der KI-Entwicklung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.