MÜNCHEN (IT BOLTWISE) – AI21 Labs stellt ein innovatives KI-Modell vor, das mehr Kontext verarbeiten kann als die meisten seiner Art. Das Modell, genannt Jamba, verspricht eine effizientere und leistungsfähigere Handhabung von Daten.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Die KI-Industrie neigt zunehmend zu generativen KI-Modellen, die längere Kontexte verarbeiten können. Jedoch sind Modelle mit großen Kontextfenstern oft rechenintensiv. Or Dagan, Produktleiter bei AI21 Labs, argumentiert, dass dies nicht notwendigerweise der Fall sein muss. Sein Unternehmen stellt ein generatives Modell vor, das das Gegenteil beweisen soll.
Kontextfenster, die Eingabedaten wie Text berücksichtigen, bevor weitere Ausgaben generiert werden, sind entscheidend für die Leistungsfähigkeit der Modelle. Modelle mit kurzen Kontextfenstern neigen dazu, Inhalte auch aus jüngsten Gesprächen zu „vergessen“, während Modelle mit erweiterten Kontexten diesen Nachteil vermeiden und zusätzlich den Datenfluss besser erfassen können.
Das von AI21 Labs entwickelte Jamba kann viele der gleichen Aufgaben wie die Modelle von OpenAI, ChatGPT und Googles Gemini bewältigen. Jamba wurde mit einer Mischung aus öffentlichen und proprietären Daten trainiert und kann Texte in Englisch, Französisch, Spanisch und Portugiesisch verfassen.
Jamba kann bis zu 140.000 Token verarbeiten, während es auf einer einzelnen GPU mit mindestens 80GB Speicher läuft, vergleichbar mit einer hochwertigen Nvidia A100. Das entspricht etwa 105.000 Wörtern oder 210 Seiten – die Länge eines ansehnlichen Romans.
Im Vergleich dazu hat Metas Llama 2, ein Modell mit einem eher kleinen Kontextfenster von 32.000 Token, lediglich einen Bedarf an einer GPU mit ungefähr 12GB Speicher. Kontextfenster werden üblicherweise in Token gemessen, die Stücke rohen Texts und anderer Daten sind.
Auf den ersten Blick scheint Jamba unspektakulär. Es gibt zahlreiche frei verfügbare, herunterladbare generative KI-Modelle, von Databricks‘ kürzlich veröffentlichtem DBRX bis hin zum bereits erwähnten Llama 2.
Das Besondere an Jamba liegt jedoch in seiner Architektur. Es verwendet eine Kombination aus zwei Modellarchitekturen: Transformers und State Space Models (SSMs).
Transformers, die Architektur der Wahl für komplexe Denkaufgaben, sind bekannt für ihr „Aufmerksamkeitsmechanismus“. Bei jedem Stück Eingabedaten (z.B. einem Satz) bewerten Transformer die Relevanz jeder anderen Eingabe (anderer Sätze) und ziehen diese zur Generierung der Ausgabe (eines neuen Satzes) heran.
SSMs hingegen vereinen mehrere Qualitäten älterer KI-Modelltypen, wie rekurrente neuronale Netzwerke und Faltungsnetzwerke, um eine architektonisch effizientere Struktur zur Verarbeitung langer Datenfolgen zu schaffen.
Jamba verwendet tatsächlich Mamba als Teil des Kernmodells – und Dagan behauptet, dass es die Durchsatzrate bei langen Kontexten im Vergleich zu transformer-basierten Modellen ähnlicher Größe verdreifacht.
„Während es einige erste akademische Beispiele für SSM-Modelle gibt, ist dies das erste kommerzielle Modell in Produktionsqualität“, sagte Dagan in einem Interview mit TechCrunch. „Diese Architektur bietet nicht nur für weitere Forschung durch die Community großes Potenzial, sondern eröffnet auch enorme Effizienz- und Durchsatzmöglichkeiten.“
Obwohl Jamba unter der Apache 2.0-Lizenz veröffentlicht wurde, einer Open-Source-Lizenz mit relativ wenigen Nutzungseinschränkungen, betont Dagan, dass es sich um eine Forschungsfreigabe handelt, die nicht für den kommerziellen Einsatz vorgesehen ist. Das Modell verfügt über keine Sicherheitsvorkehrungen zur Verhinderung der Generierung toxischer Texte oder zur Bekämpfung möglicher Voreingenommenheiten; eine feinabgestimmte, vermeintlich „sichere“ Version wird in den kommenden Wochen verfügbar gemacht.
Dagan ist jedoch der Meinung, dass Jamba bereits in diesem frühen Stadium das Versprechen der SSM-Architektur demonstriert.
„Der Mehrwert dieses Modells liegt sowohl in seiner Größe als auch in seiner innovativen Architektur, die eine einfache Integration auf einer einzigen GPU ermöglicht“, sagte er. „Wir glauben, dass die Leistung weiter verbessert wird, sobald Mamba zusätzliche Anpassungen erhält.“
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.