OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 26.03.2026, 05:20

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Multi-model assurance analysis showing large language models are highly vulnerable to adversarial hallucination attacks during clinical decision support

2025·37 Zitationen·Communications MedicineOpen Access
Volltext beim Verlag öffnen

37

Zitationen

11

Autoren

2025

Jahr

Abstract

LLMs are highly susceptible to adversarial hallucination attacks, frequently generating false clinical details that pose risks when used without safeguards. While prompt engineering reduces errors, it does not eliminate them.

Ähnliche Arbeiten