Neue Forschungsergebnisse zeigen, dass ChatGPT als Tool für urologische Fragen nicht zuverlässig ist

Blog

HeimHeim / Blog / Neue Forschungsergebnisse zeigen, dass ChatGPT als Tool für urologische Fragen nicht zuverlässig ist

Aug 10, 2023

Neue Forschungsergebnisse zeigen, dass ChatGPT als Tool für urologische Fragen nicht zuverlässig ist

Obwohl neue Studien weiterhin die Erfolge künstlicher Intelligenz bei der Interpretation medizinischer Daten und der Bereitstellung von Ratschlägen anpreisen, scheint es ihr in mindestens einer medizinischen Kategorie zu mangeln, die für wichtig ist

Obwohl neue Studien weiterhin die Erfolge der künstlichen Intelligenz bei der Interpretation medizinischer Daten und der Bereitstellung von Ratschlägen anpreisen, scheint es ihr in mindestens einer medizinischen Kategorie zu mangeln, die für ältere Erwachsene wichtig ist: der Urologie.

Wenn Patienten einem Arzt häufig Fragen zu Harnwegskomplikationen stellten, blieb der beliebte Chatbot ChatGPT weit hinter den klinischen Standards zurück und in vielen Fällen waren die von ihm bereitgestellten Informationen überhaupt nicht korrekt.

Dies sei das erste Mal, dass ChatGPT speziell für die Urologie evaluiert wurde, behaupten die Forscher.

Aber das Potenzial von KI, ungenaue oder voreingenommene Gesundheitsinformationen bereitzustellen, ist ein großes Problem, seit der Einsatz der Technologie Anfang dieses Jahres explosionsartig zugenommen hat.

Vielleicht sind die Patienten aus diesem Grund auch weiterhin besorgt über den klinischen Einsatz von KI.

Zu den häufigsten Erkrankungen älterer Erwachsener, die zu Harnwegskomplikationen führen, gehören eine vergrößerte Prostata (Symptome treten bei etwa der Hälfte der Männer ab 75 Jahren auf) und Demenz. Auch Harnwegsinfektionen selbst können bei Senioren zu weiteren Komplikationen wie Delirium oder Herzrhythmusstörungen führen.

In der urologischen Studie, die an der Urologieabteilung der University of Florida in Gainesville durchgeführt wurde, lieferte ChatGPT nicht nur oft ungenaue Informationen, wie etwa falsche Behandlungsempfehlungen, sondern tat dies auch mit „Zuversicht“, so die Forscher.

Andere Ergebnisse waren ebenso vernichtend: Der Chatbot bot Antworten, die die Forscher nur in 60 % der Fälle als „angemessen“ erachteten.

„ChatGPT interpretiert klinische Pflegerichtlinien falsch, ignoriert wichtige Kontextinformationen, verbirgt ihre Quellen und liefert unangemessene Referenzen“, schlussfolgerten die Forscher.