SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – Die Herausforderungen der Künstlichen Intelligenz (KI) sind vielfältig, und eine der größten ist das Verständnis ihrer inneren Mechanismen. Dario Amodei, CEO von Anthropic, hat kürzlich in einem Essay die dringende Notwendigkeit betont, die Black Box der KI-Modelle zu öffnen und bis 2027 die meisten Probleme dieser Modelle zuverlässig zu erkennen.

Die Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, doch das Verständnis ihrer inneren Abläufe bleibt eine der größten Herausforderungen. Dario Amodei, CEO von Anthropic, hat in einem kürzlich veröffentlichten Essay die dringende Notwendigkeit betont, die Black Box der KI-Modelle zu öffnen. Sein Ziel ist es, bis 2027 die meisten Probleme dieser Modelle zuverlässig zu erkennen.

Amodei räumt ein, dass dies eine gewaltige Aufgabe ist. In seinem Essay mit dem Titel „The Urgency of Interpretability“ hebt er hervor, dass Anthropic bereits erste Durchbrüche erzielt hat, um nachzuvollziehen, wie Modelle zu ihren Antworten gelangen. Dennoch betont er, dass noch viel mehr Forschung nötig ist, um diese Systeme zu entschlüsseln, da sie immer leistungsfähiger werden.

Die Bedeutung der Interpretierbarkeit von KI-Modellen kann nicht hoch genug eingeschätzt werden. Amodei äußerte seine Besorgnis darüber, solche Systeme ohne ein besseres Verständnis ihrer Funktionsweise einzusetzen. Diese Systeme werden zentral für Wirtschaft, Technologie und nationale Sicherheit sein und so viel Autonomie besitzen, dass es für die Menschheit im Grunde inakzeptabel ist, völlig unwissend darüber zu sein, wie sie funktionieren.

Anthropic gehört zu den Vorreitern im Bereich der mechanistischen Interpretierbarkeit, einem Forschungsfeld, das darauf abzielt, die Black Box der KI-Modelle zu öffnen und zu verstehen, warum sie die Entscheidungen treffen, die sie treffen. Trotz der rasanten Leistungsverbesserungen der KI-Modelle in der Technologiebranche haben wir immer noch relativ wenig Ahnung, wie diese Systeme Entscheidungen treffen.

Ein Beispiel dafür ist OpenAI, das kürzlich neue KI-Modelle für das logische Denken, o3 und o4-mini, eingeführt hat, die bei einigen Aufgaben besser abschneiden, aber auch häufiger Halluzinationen aufweisen als andere Modelle. Das Unternehmen weiß nicht, warum das passiert.

Amodei beschreibt in seinem Essay, dass es gefährlich sein könnte, eine allgemeine Künstliche Intelligenz (AGI) zu erreichen, ohne zu verstehen, wie diese Modelle funktionieren. In einem früheren Essay behauptete Amodei, dass die Technologiebranche einen solchen Meilenstein bis 2026 oder 2027 erreichen könnte, aber er glaubt, dass wir noch weit davon entfernt sind, diese KI-Modelle vollständig zu verstehen.

Langfristig möchte Anthropic im Wesentlichen „Gehirnscans“ oder „MRIs“ von hochmodernen KI-Modellen durchführen. Diese Untersuchungen würden helfen, eine Vielzahl von Problemen in KI-Modellen zu identifizieren, einschließlich ihrer Neigung zu lügen, Macht zu suchen oder anderer Schwächen. Dies könnte fünf bis zehn Jahre dauern, aber diese Maßnahmen werden notwendig sein, um die zukünftigen KI-Modelle von Anthropic zu testen und einzusetzen.

Anthropic hat einige Forschungsdurchbrüche erzielt, die es dem Unternehmen ermöglicht haben, besser zu verstehen, wie seine KI-Modelle funktionieren. Zum Beispiel hat das Unternehmen kürzlich Wege gefunden, die Denkmuster eines KI-Modells durch sogenannte Schaltkreise nachzuvollziehen. Anthropic hat einen Schaltkreis identifiziert, der KI-Modellen hilft zu verstehen, welche US-Städte in welchen US-Bundesstaaten liegen. Das Unternehmen hat bisher nur wenige dieser Schaltkreise gefunden, schätzt jedoch, dass es Millionen davon in KI-Modellen gibt.

Amodei ruft die Regierungen auf, „leichte“ Regulierungen zu erlassen, um die Forschung zur Interpretierbarkeit zu fördern, wie etwa Anforderungen an Unternehmen, ihre Sicherheits- und Schutzpraktiken offenzulegen. In seinem Essay sagt Amodei auch, dass die USA Exportkontrollen für Chips nach China verhängen sollten, um die Wahrscheinlichkeit eines unkontrollierten globalen KI-Wettlaufs zu verringern.

Anthropic hat sich immer durch seinen Fokus auf Sicherheit von OpenAI und Google unterschieden. Während andere Technologieunternehmen gegen das umstrittene kalifornische KI-Sicherheitsgesetz SB 1047 opponierten, zeigte Anthropic eine moderate Unterstützung und gab Empfehlungen für das Gesetz, das Sicherheitsberichtsstandards für Entwickler von fortschrittlichen KI-Modellen festgelegt hätte.

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen
Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
60 Bewertungen
Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
129 Bewertungen
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
71 Bewertungen
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
43 Bewertungen
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen".
Stichwörter AI Artificial Intelligence Featured Forschung Interpretierbarkeit KI Künstliche Intelligenz Modelle Sicherheit Wirtschaft
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen« bei Google Deutschland suchen, bei Bing oder Google News!

    526 Leser gerade online auf IT BOLTWISE®
    KI-Jobs