MÜNCHEN (IT BOLTWISE) – Eine neue Studie hat aufgedeckt, dass selbst fortschrittliche KI-Modelle wie ChatGPT menschliche Entscheidungsfehler nachahmen können. Dies wirft Fragen zur Zuverlässigkeit von KI in entscheidungskritischen Situationen auf.

Die jüngste Forschung zeigt, dass Künstliche Intelligenz, insbesondere Modelle wie ChatGPT, nicht nur in der Lage sind, komplexe mathematische und logische Probleme zu lösen, sondern auch menschliche kognitive Verzerrungen nachahmen können. Diese Entdeckung ist von Bedeutung, da KI zunehmend in Bereichen eingesetzt wird, in denen Entscheidungen von großer Tragweite getroffen werden müssen, wie etwa in der Personalbeschaffung oder bei Kreditentscheidungen.

Die Studie, die in der Fachzeitschrift Manufacturing & Service Operations Management veröffentlicht wurde, untersuchte 18 verschiedene Bias-Tests, um zu verstehen, wie KI-Modelle wie GPT-3.5 und GPT-4 in Entscheidungsprozessen agieren. Dabei zeigte sich, dass diese Modelle in fast der Hälfte der Tests menschliche Entscheidungsfehler wie Überkonfidenz oder Ambiguitätsaversion aufwiesen. Interessanterweise waren neuere Versionen analytisch präziser, zeigten jedoch auch stärkere Verzerrungen in urteilbasierten Aufgaben.

Diese Ergebnisse werfen die Frage auf, ob KI tatsächlich in der Lage ist, bessere Entscheidungen als Menschen zu treffen. Die Forscher betonen, dass, obwohl KI in objektiven Aufgaben brilliert, sie bei subjektiven Entscheidungen oft in dieselben kognitiven Fallen tappt wie Menschen. Dies könnte bedeuten, dass KI nicht nur menschliche Fehler nicht eliminiert, sondern sie automatisiert.

In der Praxis bedeutet dies, dass Unternehmen und Regierungen, die KI in Entscheidungsprozessen einsetzen, diese Systeme genauso überwachen sollten wie menschliche Entscheidungsträger. Die Forscher empfehlen regelmäßige Audits von KI-gestützten Entscheidungen und die Verfeinerung von KI-Systemen, um Verzerrungen zu reduzieren. Dies ist besonders wichtig, da die Einflussnahme von KI auf wichtige Entscheidungen in Wirtschaft und Regierung weiter zunimmt.

Die Studie hebt hervor, dass KI-Modelle wie ChatGPT dazu neigen, Risiken zu vermeiden, sich selbst zu überschätzen und Informationen zu bevorzugen, die bestehende Annahmen stützen. Diese menschlichen Eigenschaften in KI-Systemen könnten dazu führen, dass bestehende Entscheidungsprobleme nicht gelöst, sondern verstärkt werden.

Mit der Weiterentwicklung von KI-Technologien wird es entscheidend sein, sicherzustellen, dass diese Systeme nicht nur menschliche Fehler replizieren, sondern tatsächlich zur Verbesserung der Entscheidungsfindung beitragen. Die Forscher betonen die Notwendigkeit, KI-Modelle regelmäßig zu evaluieren und anzupassen, um Überraschungen zu vermeiden und die bestmöglichen Ergebnisse zu erzielen.


☕︎ Unterstützen Sie IT BOLTWISE® mit nur 1,99 Euro pro Monat:

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!

Angebot
EIlik - Ein Desktop-Begleitroboter mit emotionaler Intelligenz, Multi-Roboter-Interaktionen, Desktop-Robotik-Partner
1.958 Bewertungen
EIlik - Ein Desktop-Begleitroboter mit emotionaler Intelligenz, Multi-Roboter-Interaktionen, Desktop-Robotik-Partner
  • NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.

KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen
KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
54 Bewertungen
Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
126 Bewertungen
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
69 Bewertungen
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
41 Bewertungen
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen".
Stichwörter AI Artificial Intelligence Bias ChatGPT Entscheidungsfindung KI Kognitive Verzerrungen Künstliche Intelligenz
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen« bei Google Deutschland suchen, bei Bing oder Google News!

    230 Leser gerade online auf IT BOLTWISE®