Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Evaluating the Impact of Explainable Artificial Intelligence (XAI) Techniques on Trust, Transparency, and Decision-Making Accuracy in High-Stakes Machine Learning Applications
2026·0 Zitationen·SSRN Electronic JournalOpen Access
Volltext beim Verlag öffnen0
Zitationen
4
Autoren
2026
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.777 Zit.
Generative Adversarial Nets
2023 · 19.896 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.328 Zit.
"Why Should I Trust You?"
2016 · 14.594 Zit.
Generative adversarial networks
2020 · 13.208 Zit.
Autoren
Institutionen
Themen
Explainable Artificial Intelligence (XAI)Artificial Intelligence in Healthcare and EducationAdversarial Robustness in Machine Learning