Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps

Oren Barkan, Edan Hauon, Avi Caciularu, Ori Katz, Itzik Malkiel, Omri Armstrong, Noam Koenigstein

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

28 ציטוטים ‏(Scopus)

תקציר

Transformer-based language models significantly advanced the state-of-the-art in many linguistic tasks. As this revolution continues, the ability to explain model predictions has become a major area of interest for the NLP community. In this work, we present Gradient Self-Attention Maps (Grad-SAM) - a novel gradient-based method that analyzes self-attention units and identifies the input elements that explain the model's prediction the best. Extensive evaluations on various benchmarks show that Grad-SAM obtains significant improvements over state-of-the-art alternatives.

שפה מקוריתאנגלית
כותר פרסום המארחCIKM 2021 - Proceedings of the 30th ACM International Conference on Information and Knowledge Management
עמודים2882-2887
מספר עמודים6
מסת"ב (אלקטרוני)9781450384469
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 30 אוק׳ 2021
פורסם באופן חיצוניכן
אירוע30th ACM International Conference on Information and Knowledge Management, CIKM 2021 - Virtual, Online, אוסטרליה
משך הזמן: 1 נוב׳ 20215 נוב׳ 2021

סדרות פרסומים

שםInternational Conference on Information and Knowledge Management, Proceedings
ISSN (מודפס)2155-0751

כנס

כנס30th ACM International Conference on Information and Knowledge Management, CIKM 2021
מדינה/אזוראוסטרליה
עירVirtual, Online
תקופה1/11/215/11/21

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי