SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – Die Herausforderungen der Künstlichen Intelligenz (KI) sind vielfältig, und eine der größten ist das Verständnis ihrer inneren Mechanismen. Dario Amodei, CEO von Anthropic, hat kürzlich in einem Essay die dringende Notwendigkeit betont, die Black Box der KI-Modelle zu öffnen und bis 2027 die meisten Probleme dieser Modelle zuverlässig zu erkennen.
Die Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, doch das Verständnis ihrer inneren Abläufe bleibt eine der größten Herausforderungen. Dario Amodei, CEO von Anthropic, hat in einem kürzlich veröffentlichten Essay die dringende Notwendigkeit betont, die Black Box der KI-Modelle zu öffnen. Sein Ziel ist es, bis 2027 die meisten Probleme dieser Modelle zuverlässig zu erkennen.
Amodei räumt ein, dass dies eine gewaltige Aufgabe ist. In seinem Essay mit dem Titel „The Urgency of Interpretability“ hebt er hervor, dass Anthropic bereits erste Durchbrüche erzielt hat, um nachzuvollziehen, wie Modelle zu ihren Antworten gelangen. Dennoch betont er, dass noch viel mehr Forschung nötig ist, um diese Systeme zu entschlüsseln, da sie immer leistungsfähiger werden.
Die Bedeutung der Interpretierbarkeit von KI-Modellen kann nicht hoch genug eingeschätzt werden. Amodei äußerte seine Besorgnis darüber, solche Systeme ohne ein besseres Verständnis ihrer Funktionsweise einzusetzen. Diese Systeme werden zentral für Wirtschaft, Technologie und nationale Sicherheit sein und so viel Autonomie besitzen, dass es für die Menschheit im Grunde inakzeptabel ist, völlig unwissend darüber zu sein, wie sie funktionieren.
Anthropic gehört zu den Vorreitern im Bereich der mechanistischen Interpretierbarkeit, einem Forschungsfeld, das darauf abzielt, die Black Box der KI-Modelle zu öffnen und zu verstehen, warum sie die Entscheidungen treffen, die sie treffen. Trotz der rasanten Leistungsverbesserungen der KI-Modelle in der Technologiebranche haben wir immer noch relativ wenig Ahnung, wie diese Systeme Entscheidungen treffen.
Ein Beispiel dafür ist OpenAI, das kürzlich neue KI-Modelle für das logische Denken, o3 und o4-mini, eingeführt hat, die bei einigen Aufgaben besser abschneiden, aber auch häufiger Halluzinationen aufweisen als andere Modelle. Das Unternehmen weiß nicht, warum das passiert.
Amodei beschreibt in seinem Essay, dass es gefährlich sein könnte, eine allgemeine Künstliche Intelligenz (AGI) zu erreichen, ohne zu verstehen, wie diese Modelle funktionieren. In einem früheren Essay behauptete Amodei, dass die Technologiebranche einen solchen Meilenstein bis 2026 oder 2027 erreichen könnte, aber er glaubt, dass wir noch weit davon entfernt sind, diese KI-Modelle vollständig zu verstehen.
Langfristig möchte Anthropic im Wesentlichen „Gehirnscans“ oder „MRIs“ von hochmodernen KI-Modellen durchführen. Diese Untersuchungen würden helfen, eine Vielzahl von Problemen in KI-Modellen zu identifizieren, einschließlich ihrer Neigung zu lügen, Macht zu suchen oder anderer Schwächen. Dies könnte fünf bis zehn Jahre dauern, aber diese Maßnahmen werden notwendig sein, um die zukünftigen KI-Modelle von Anthropic zu testen und einzusetzen.
Anthropic hat einige Forschungsdurchbrüche erzielt, die es dem Unternehmen ermöglicht haben, besser zu verstehen, wie seine KI-Modelle funktionieren. Zum Beispiel hat das Unternehmen kürzlich Wege gefunden, die Denkmuster eines KI-Modells durch sogenannte Schaltkreise nachzuvollziehen. Anthropic hat einen Schaltkreis identifiziert, der KI-Modellen hilft zu verstehen, welche US-Städte in welchen US-Bundesstaaten liegen. Das Unternehmen hat bisher nur wenige dieser Schaltkreise gefunden, schätzt jedoch, dass es Millionen davon in KI-Modellen gibt.
Amodei ruft die Regierungen auf, „leichte“ Regulierungen zu erlassen, um die Forschung zur Interpretierbarkeit zu fördern, wie etwa Anforderungen an Unternehmen, ihre Sicherheits- und Schutzpraktiken offenzulegen. In seinem Essay sagt Amodei auch, dass die USA Exportkontrollen für Chips nach China verhängen sollten, um die Wahrscheinlichkeit eines unkontrollierten globalen KI-Wettlaufs zu verringern.
Anthropic hat sich immer durch seinen Fokus auf Sicherheit von OpenAI und Google unterschieden. Während andere Technologieunternehmen gegen das umstrittene kalifornische KI-Sicherheitsgesetz SB 1047 opponierten, zeigte Anthropic eine moderate Unterstützung und gab Empfehlungen für das Gesetz, das Sicherheitsberichtsstandards für Entwickler von fortschrittlichen KI-Modellen festgelegt hätte.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Junior Produktmanager (m/w/d) Automation & KI / Energie

Senior Solution Customer Success Manager (f/m/d) for SAP Business AI

IT-Mitarbeiterin / IT-Mitarbeiter (w/m/d) im Bereich KI

Pflicht-Praktikum im Bereich "Data, AI and Digital Compliance" ab Juni 2025

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Anthropic strebt bis 2027 nach mehr Transparenz in KI-Modellen« bei Google Deutschland suchen, bei Bing oder Google News!