MÜNCHEN (IT BOLTWISE) – Kann Künstliche Intelligenz die medizinische Ausbildung bereichern und die Kommunikation zwischen Ärzten und Patienten verbessern? Eine Studie zeigt das Potenzial von ChatGPT auf, trotz Einschränkungen in der Diagnostik.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Bei Symptomen wie einer laufenden Nase und Husten denken viele Menschen an eine Erkältung. Ein Arztbesuch scheint unnötig, daher suchen sie nach zusätzlichen Informationen bei Google oder WebMD. Doch mit den Fortschritten der Künstlichen Intelligenz (KI) könnten einige versucht sein, von „Dr. Google“ zu „Dr. ChatGPT“ zu wechseln. Aber kann der KI-gesteuerte Chatbot von OpenAI tatsächlich verlässliche medizinische Ratschläge geben?
Forscher der Western University stellten sich dieser Frage und untersuchten, ob ChatGPT ein verlässlicher Ratgeber im Gesundheitswesen und in der medizinischen Ausbildung werden kann. Die von Professor Dr. Amrit Kirpalani von der Schulich School of Medicine & Dentistry geleitete Studie, die kürzlich in PLOS One veröffentlicht wurde, ergab, dass ChatGPT nur in 49 % der Fälle die richtige Diagnose stellte.
Während die Forscher feststellten, dass ChatGPT noch nicht bereit ist, als zuverlässiges Diagnosetool für komplexe Fälle eingesetzt zu werden, zeigte die Studie, dass es in der Lage ist, komplexe medizinische Themen auf verständliche Weise zu vermitteln. Dies könnte für Ausbilder und Gesundheitsdienstleister nützlich sein, um medizinische Informationen in einem leicht verdaulichen Format zu präsentieren.
„Für mich ist die wichtigste Erkenntnis, dass ChatGPT seine Antworten auf sehr einfache und verständliche Weise liefert“, sagte Kirpalani. „Das ist wichtig, denn man sieht das Potenzial, es als großartiges Werkzeug einzusetzen, um Menschen beim Lernen und Verstehen medizinischer Fälle zu helfen.“
In der Studie wurde ChatGPT gebeten, 150 Fälle durch Medscape Clinical Challenges zu diagnostizieren, die darauf ausgelegt sind, die diagnostischen Fähigkeiten von Fachkräften im Gesundheitswesen zu testen. Medscape ist eine öffentliche Plattform mit vielen komplexen Fällen, bei denen Klinikern die Möglichkeit gegeben wird, die richtige Antwort zu wählen. Das Forschungsteam, zu dem auch die Medizinstudenten Ali Hadi, Edward Tran und Branavan Nagarajan gehörten, erstellte Aufforderungen, in denen ChatGPT gebeten wurde, die richtige Diagnose in einem Multiple-Choice-Format auszuwählen und eine Begründung zu liefern.
Der Chatbot erhielt Informationen wie die Krankengeschichte der Patienten, Ergebnisse der körperlichen Untersuchung sowie Labor- oder Bildgebungsergebnisse. Die Forscher stellten fest, dass ChatGPT Schwierigkeiten hatte, Testergebnisse zu interpretieren und manchmal wichtige Informationen, die für die Diagnose relevant waren, übersah. Der Chatbot war jedoch hilfreich bei der Bereitstellung der nächsten diagnostischen Schritte und machte medizinische Informationen zugänglicher.
### Weitere Forschung für verantwortungsvollen Einsatz von KI erforderlich
Die Studie macht deutlich, dass weitere Forschung und Fortschritte erforderlich sind, bevor KI als ein weiteres Werkzeug zur Unterstützung medizinischer Diagnosen eingesetzt werden kann. Mit der Weiterentwicklung neuer KI-Modelle betont Kirpalani die Bedeutung der KI-Kompetenz.
„KI-Kompetenz ist wichtig für Patienten, für Anbieter, für Ausbilder und für Studierende, weil wir verstehen müssen, wie wir KI verantwortungsvoll einsetzen können und wie sie im Gesundheitswesen und in der medizinischen Ausbildung angewendet und genutzt werden kann“, erklärt Kirpalani.
Unabhängig von der Genauigkeit dieser Online-Ressourcen unterstreicht Kirpalani die Notwendigkeit, Antworten aus dem Internet mit zuverlässigen, begutachteten Quellen zu überprüfen.
„Ich würde sagen, wir sind vielleicht schon an dem Punkt, an dem wir Anleitung zum Prompt-Engineering brauchen – also dazu, wie eine Anweisung strukturiert werden kann, die von einem generativen KI-Modell interpretiert und verstanden werden kann“, sagte Kirpalani.
„Es wird viel Aufsicht erforderlich sein, wie [diese Art von KI-Technologie] genutzt wird, um die Patientensicherheit zu gewährleisten und sicherzustellen, dass sie durchdacht eingeführt wird.“
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.