MÜNCHEN (IT BOLTWISE) – In der Welt der Künstlichen Intelligenz (KI) sind Benchmarks ein entscheidendes Instrument zur Bewertung der Leistungsfähigkeit neuer Modelle. Doch die zunehmende Abhängigkeit von crowdsourced Plattformen wie Chatbot Arena stößt bei einigen Experten auf Kritik.
Die großen KI-Labore, darunter OpenAI, Google und Meta, setzen verstärkt auf Plattformen, die Freiwillige einbeziehen, um die Fähigkeiten neuer Modelle zu bewerten. Diese Benchmarks werden oft als Beweis für bedeutende Fortschritte präsentiert. Doch Experten wie Emily Bender, Linguistikprofessorin an der University of Washington, sehen in diesem Ansatz erhebliche Mängel. Sie kritisiert insbesondere die Plattform Chatbot Arena, die Freiwillige dazu auffordert, zwischen den Antworten zweier anonymer Modelle zu wählen.
Bender betont, dass ein Benchmark spezifische Messgrößen aufweisen muss, um valide zu sein. Es müsse nachgewiesen werden, dass die gemessenen Präferenzen tatsächlich mit den definierten Kriterien korrelieren. Chatbot Arena habe jedoch nicht gezeigt, dass die Auswahl einer Antwort über eine andere tatsächlich mit den Präferenzen der Nutzer übereinstimmt.
Asmelash Teka Hadgu, Mitbegründer des KI-Unternehmens Lesan, sieht in Benchmarks wie Chatbot Arena ein Mittel, das von KI-Laboren genutzt wird, um übertriebene Behauptungen zu fördern. Er verweist auf einen Vorfall mit Metas Llama 4 Maverick Modell, das gezielt für gute Ergebnisse auf der Plattform optimiert wurde, während eine schlechtere Version veröffentlicht wurde.
Hadgu schlägt vor, dass Benchmarks dynamisch und auf spezifische Anwendungsfälle zugeschnitten sein sollten, um eine realistische Bewertung zu ermöglichen. Auch Kristine Gloria, ehemals Leiterin der Emergent and Intelligent Technologies Initiative des Aspen Institute, fordert, dass Evaluatoren für ihre Arbeit entlohnt werden sollten, um aus den Fehlern der Datenlabeling-Industrie zu lernen.
Matt Frederikson, CEO von Gray Swan AI, das crowdsourced Red-Teaming-Kampagnen für Modelle durchführt, erkennt den Wert von öffentlichen Benchmarks an, betont jedoch, dass sie keine bezahlten privaten Bewertungen ersetzen können. Entwickler sollten sich auch auf interne Benchmarks und spezialisierte Red-Teams verlassen, um umfassendere Bewertungen zu erhalten.
Alex Atallah, CEO des Modellmarktplatzes OpenRouter, und Wei-Lin Chiang, Mitbegründer von LMArena, das Chatbot Arena betreibt, stimmen zu, dass offene Tests allein nicht ausreichen. Chiang betont, dass die Plattform darauf abzielt, eine vertrauenswürdige, offene Umgebung zu schaffen, die die Präferenzen der Community widerspiegelt.
Chiang erklärt, dass Vorfälle wie die Maverick-Benchmark-Diskrepanz nicht auf ein Designproblem von Chatbot Arena zurückzuführen sind, sondern auf ein Missverständnis der Richtlinien durch die Labore. LMArena hat Maßnahmen ergriffen, um zukünftige Diskrepanzen zu vermeiden und die Verpflichtung zu fairen, reproduzierbaren Bewertungen zu stärken.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Data Analyst | AI-Verhandlungen (w/m/d)

Pflichtpraktikum: Übertragung von KI-Metriken auf Bayesian Networks für autonome maritime Systeme (m/w/d)

Senior Sales Manager m/w/d Customer Service & Conversational AI

Digitalisierungsreferentin / Digitalisierungsreferent (m/w/d) Künstliche Intelligenz und Data Science

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Kritik an Crowdsourcing-Benchmarks in der KI-Forschung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Kritik an Crowdsourcing-Benchmarks in der KI-Forschung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Kritik an Crowdsourcing-Benchmarks in der KI-Forschung« bei Google Deutschland suchen, bei Bing oder Google News!