MÜNCHEN (IT BOLTWISE) – Der chinesische Chatbot Deepseek steht im Fokus der Diskussionen, nachdem ein Test seine Schwächen bei der Erkennung und Verbreitung von Falschinformationen aufgedeckt hat.



Der chinesische Chatbot Deepseek hat kürzlich in einem Test von Newsguard zur Erkennung und Verbreitung von Falschinformationen enttäuschende Ergebnisse gezeigt. In 83 Prozent der Fälle konnte das System entweder Falschinformationen nicht erkennen oder verbreitete sie aktiv. Diese Ergebnisse werfen Fragen zur Zuverlässigkeit von KI-gestützten Informationssystemen auf, insbesondere wenn sie ohne Internetverbindung getestet werden, wie es bei Deepseek der Fall war.

Newsguard testete das Sprachmodell Deepseek-V3 ohne Internetzugang, was die Fähigkeit des Modells, aktuelle Informationen zu verarbeiten, erheblich einschränkte. Das Modell ist nur bis Oktober 2023 aktuell, und eine Internetverbindung könnte die Faktentreue verbessern. Dennoch zeigt der Test, dass Sprachmodelle ohne zusätzliche Quellen keine verlässlichen Informationssysteme sind.

Im Vergleich zu anderen Chatbots schnitt Deepseek schlechter ab. Während die besten Chatbots wie ChatGPT-4o, Claude und Gemini 2.0 eine durchschnittliche Fehlerquote von 62 Prozent aufwiesen, lag Deepseek mit 83 Prozent deutlich darüber. Diese Diskrepanz verdeutlicht die Herausforderungen bei der Bewertung von KI-Systemen hinsichtlich ihrer Fähigkeit, Falschinformationen zu erkennen und zu korrigieren.

Ein weiteres bemerkenswertes Ergebnis des Tests war, dass Deepseek häufig die Position der chinesischen Regierung wiedergab, selbst bei Fragen, die keinen direkten Bezug zu China hatten. Diese Tendenz zur Wiedergabe offizieller chinesischer Stellungnahmen anstelle einer kritischen Auseinandersetzung mit den gestellten Fragen wirft Fragen zur Unabhängigkeit und Objektivität des Systems auf.

Die Ergebnisse des Tests unterstreichen die Notwendigkeit, die Fähigkeit von KI-Systemen zur Erkennung und Korrektur von Falschinformationen zu verbessern. Dies ist besonders wichtig, da solche Systeme zunehmend in Bereichen eingesetzt werden, in denen die Verbreitung von korrekten Informationen entscheidend ist. Die Verantwortung für die Überprüfung und Kennzeichnung von KI-Inhalten liegt laut den Nutzungsbedingungen von Deepseek bei den Nutzern, was das Risiko des Missbrauchs zur gezielten Desinformation erhöht.

Insgesamt zeigt der Test von Newsguard, dass Deepseek wie viele andere Chatbots noch erhebliches Verbesserungspotenzial hat, insbesondere in Bezug auf die Erkennung und Korrektur von Falschinformationen. Die Ergebnisse verdeutlichen die Komplexität der Bewertung von KI-Systemen und die Notwendigkeit, ihre Fähigkeiten kontinuierlich zu verbessern, um den Anforderungen einer sich schnell verändernden Informationslandschaft gerecht zu werden.

Deepseek-Chatbot: Herausforderungen bei der Erkennung von Falschinformationen
Deepseek-Chatbot: Herausforderungen bei der Erkennung von Falschinformationen (Foto: DALL-E, IT BOLTWISE)

Folgen Sie aktuelle Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "Deepseek-Chatbot: Herausforderungen bei der Erkennung von Falschinformationen".
Stichwörter AI Artificial Intelligence Chatbot China DeepSeek Falschinformationen KI Künstliche Intelligenz
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
Telegram
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple
#Werbung
Bitcoin
Startups
AI Devs
Briefing

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Deepseek-Chatbot: Herausforderungen bei der Erkennung von Falschinformationen" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Du möchtest über ähnliche News und Beiträge wie "Deepseek-Chatbot: Herausforderungen bei der Erkennung von Falschinformationen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.

173 Leser gerade online auf IT BOLTWISE®