OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 26.03.2026, 19:06

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Large language model uncertainty proxies: discrimination and calibration for medical diagnosis and treatment

2024·41 Zitationen·Journal of the American Medical Informatics AssociationOpen Access
Volltext beim Verlag öffnen

41

Zitationen

8

Autoren

2024

Jahr

Abstract

SC is the most effective method for estimating LLM uncertainty of the proxies evaluated. SC by sentence embedding can effectively estimate uncertainty if the user has a set of reference cases with which to re-calibrate their results, while SC by GPT annotation is the more effective method if the user does not have reference cases and requires accurate raw calibration. Our results confirm LLMs are consistently over-confident when verbalizing their confidence (CE).

Ähnliche Arbeiten