• Neu
Calvaresi / Najjar / Omicini | Explainable, Trustworthy, and Responsible AI and Multi-Agent Systems | Buch | 978-3-032-01398-9 | www.sack.de

Buch, Englisch, 244 Seiten, Format (B × H): 155 mm x 235 mm, Gewicht: 394 g

Reihe: Lecture Notes in Artificial Intelligence

Calvaresi / Najjar / Omicini

Explainable, Trustworthy, and Responsible AI and Multi-Agent Systems

7th International Workshop, EXTRAAMAS 2025, Detroit, MI, USA, May 19-20, 2025, Revised Selected Papers
Erscheinungsjahr 2025
ISBN: 978-3-032-01398-9
Verlag: Springer-Verlag GmbH

7th International Workshop, EXTRAAMAS 2025, Detroit, MI, USA, May 19-20, 2025, Revised Selected Papers

Buch, Englisch, 244 Seiten, Format (B × H): 155 mm x 235 mm, Gewicht: 394 g

Reihe: Lecture Notes in Artificial Intelligence

ISBN: 978-3-032-01398-9
Verlag: Springer-Verlag GmbH


This book constitutes the refereed post-conference proceedings of the 7th International Workshop on Explainable and Transparent AI and Multi-Agent Systems, EXTRAAMAS 2025, held in Detroit, MI, USA, during May 19-20, 2025.

The 12 full papers and 1 short paper included in this book were carefully reviewed and selected from 23 submissions. They were organized in topical sections as follows: AI interpretation & social dimensions; LLMs & generative AI in XAI; agent architectures & inter-agent explainability; and human-XAI interaction, quality & ethics.

Calvaresi / Najjar / Omicini Explainable, Trustworthy, and Responsible AI and Multi-Agent Systems jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


AI Interpretation & Social Dimensions.- Enhancing Surrogate Decision Trees for Reinforcement Learning with Feature Importance Matrices.- Exploiting Constraint Reasoning to Build Graphical Explanations for Mixed-Integer Linear Programming.- Explaining Autonomous Vehicles with Intention-aware Policy Graphs.- Social Explainable AI: What Is It and How to Make It Happen with CIU?- LLMs & Generative AI in XAI.- Evaluating Prompt Engineering Techniques for Accuracy and Confidence Elicitation in Medical LLMs.- LLM-based Evaluation Methodology of Explanation Strategies.- LLM-based Evaluation Methodology of Explanation Strategies.- Agent Architectures & Inter-Agent Explainability.- Ladder of Intentions: Unifying Agent Architectures for Explainability and Transferability.- Engineering Inter-Agent Explainability in BDI Agents.- Human-XAI Interaction, Quality & Ethics.- Beyond Satisfaction: From Placebic to Actionable Explanations For Enhanced Understandability.- Building a Decolonized AI Ethics and Governance Framework.- Balancing Ethical Persuasion and Explanation Transparency in XAI.- Designing for Effective Human-XAI Inter-action.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.