MÜNCHEN (IT BOLTWISE) – Ein kürzlich aufgetretenes Datenleck bei Anthropic, einem führenden Unternehmen im Bereich der Großsprachmodelle und Chatbots, wirft erneut ein Schlaglicht auf die Herausforderungen menschlicher Fehler im digitalen Zeitalter.
Anthropic, ein aufstrebendes Startup im Bereich der Künstlichen Intelligenz und Entwickler der Claude-Sprachmodelle, hat bestätigt, dass es aufgrund eines Fehlers eines Auftragnehmers zu einem Datenleck gekommen ist. Das Unternehmen erfuhr am 22. Januar 2024 von dem Vorfall, bei dem ein Auftragnehmer versehentlich eine Datei mit nicht-sensiblen Kundeninformationen an eine unberechtigte dritte Partei sandte. Die Datei enthielt eine „Teilmenge“ von Kundennamen sowie offene Kreditbilanzen bis zum Ende des Jahres 2023.
Ein Sprecher von Anthropic betonte, dass es sich um einen isolierten Vorfall aufgrund menschlichen Versagens handelte und nicht um einen Einbruch von außen in die Systeme von Anthropic. Betroffene Kunden wurden umgehend informiert und erhielten die notwendige Unterstützung.
Die durchgesickerten Daten umfassten hauptsächlich Namen, wie sie in Anthropics Systemen geführt werden, sowie Informationen über Forderungen bis zum 31. Dezember 2023. Wichtig ist, dass die freigegebenen Informationen keine sensiblen persönlichen Daten, Bank- oder Zahlungsinformationen oder proprietäre Prompts oder Outputs beinhalteten. Anthropics interne Untersuchung hat bislang keine böswilligen Absichten im Zusammenhang mit dieser Datenfreigabe festgestellt.
Fehler durch Auftragnehmer: Eine häufige Ursache für Datenlecks
Das versehentliche Senden sensibler Daten an unbefugte Dritte ist heutzutage eine der vorherrschenden Arten von Datenlecks. Menschliches Versagen bleibt eine beständige Herausforderung, selbst für Unternehmen mit robusten Cybersicherheitsmaßnahmen. Dieser Vorfall bei Anthropic dient als Erinnerung an die Bedeutung von ständiger Wachsamkeit und Sicherheitsbewusstsein.
Trotz des isolierten Charakters des Vorfalls fordert Anthropic seine Kunden auf, besondere Vorsicht walten zu lassen. Kunden sollten insbesondere bei der Entgegennahme von Kommunikationen, die scheinbar von Anthropic stammen, vorsichtig sein. Dazu gehören Aufforderungen zur Zahlung, Änderungen von Zahlungsanweisungen, E-Mails mit verdächtigen Links, Anfragen nach Anmeldeinformationen oder Passwörtern oder andere ungewöhnliche Anfragen. Ein proaktives Vorgehen gegen potenzielle Phishing-Versuche und unbefugten Zugriff ist in der heutigen digitalen Umgebung entscheidend.
Anthropic drückte sein Bedauern über das Datenleck und die damit verbundenen Implikationen für seine Kunden aus. Das Unternehmen versichert seinen Kunden, dass das Support-Team bereitsteht, um Unterstützung zu leisten und jegliche Bedenken im Zusammenhang mit diesem Vorfall anzusprechen.
Das Datenleck ist bemerkenswert, da Datenverletzungen auf einem Allzeithoch sind, wobei 95% auf menschliche Fehler zurückzuführen sind. Die Nachricht scheint einige der schlimmsten Befürchtungen von Unternehmen zu bestätigen, die beginnen, LLMs von Drittanbietern wie Claude mit ihren proprietären Daten zu verwenden. Berichte und Veranstaltungen von VentureBeat haben gezeigt, dass viele technische Entscheidungsträger in großen und kleinen Unternehmen starke Bedenken haben, dass Firmendaten durch LLMs kompromittiert werden könnten, wie es im letzten Frühjahr bei Samsung der Fall war, das ChatGPT vollständig verbot, nachdem Mitarbeiter sensible Unternehmensdaten durchsickern ließen.
Schlechtes Timing, da Regulierungsbehörden AI-Partnerschaften genauer unter die Lupe nehmen Anthropic, ein Rivale von OpenAI, erlebt seit seiner Gründung im Jahr 2021 einen kometenhaften Aufstieg. Das Einhorn wird derzeit auf 18,4 Milliarden US-Dollar geschätzt und hat letztes Jahr in drei Finanzierungsrunden 750 Millionen US-Dollar eingesammelt. Es soll bis zu 2 Milliarden US-Dollar von Google und weitere 4 Milliarden US-Dollar von Amazon erhalten. Außerdem ist das Unternehmen Berichten zufolge in Gesprächen, um eine weitere Finanzierungsrunde in Höhe von 750 Millionen US-Dollar unter der Leitung des führenden Technologie-VC-Unternehmens Menlo Ventures abzuschließen.
Die Beziehungen des Unternehmens zu AWS und Google haben jedoch Bedenken bei der FTC geweckt. Diese Woche erließ die Agentur 6(b)-Anordnungen an Amazon, Microsoft, OpenAI, Anthropic und Alphabet, in denen detaillierte Informationen über ihre milliardenschweren Beziehungen angefordert wurden.
Zu den speziell hervorgehobenen Investitionen und Partnerschaften gehören:
- Die erweiterte Partnerschaft zwischen Microsoft und OpenAI, die am 23. Januar 2023 bekannt gegeben wurde;
- Die strategische Zusammenarbeit zwischen Amazon und Anthropic, die am 25. September 2023 angekündigt wurde;
- Die erweiterte AI-Partnerschaft zwischen Google und Anthropic, die am 8. November 2023 bekannt gegeben wurde.
Unter anderem werden die Unternehmen aufgefordert, Vereinbarungen und Begründungen für die Zusammenarbeit und deren Auswirkungen, Analysen der Wettbewerbswirkungen und Informationen über etwaige andere Regierungsstellen, die Informationen anfordern oder Untersuchungen durchführen, bereitzustellen.
Dies würde auch etwaige Untersuchungen der Europäischen Union und des Vereinigten Königreichs einschließen, die beide die AI-Investitionen von Microsoft untersuchen. Die Wettbewerbsbehörde des Vereinigten Königreichs eröffnete im Dezember eine Überprüfung, und der Exekutivausschuss der EU erklärte, dass die Partnerschaft eine Untersuchung im Rahmen der Vorschriften für Fusionen und Übernahmen auslösen könnte.
„Wir prüfen, ob diese Verbindungen es dominanten Unternehmen ermöglichen, unangemessenen Einfluss auszuüben oder bevorzugten Zugang zu erhalten, auf eine Weise, die den fairen Wettbewerb untergraben könnte“, sagte Lina Khan, Vorsitzende der FTC, am Donnerstag auf einem AI-Forum.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.