Generality and explainability in recommender systems - TEL - Thèses en ligne Accéder directement au contenu
Thèse Année : 2023

Generality and explainability in recommender systems

Généricité et explicabilité dans les systèmes de recommandation

Résumé

This thesis focuses on explainable recommendations, often referred to within the context of eXplainable Artificial Intelligence(XAI), which are recommendations made by a system that also provides information to justify why such recommendationshave been generated. More specifically, the problem of explainable recommendations involves generating accuraterecommendations and generating explanations to justify such recommendations.We start by addressing the prevalent ambiguity in terms commonly used in AI, such as ''interpretability'' and ''explainability''.To disambiguate the frequently used yet ill-defined terms, we introduce Interpret/Explain Schema (IES). The IES helpsclarify these terms and forms the foundation of a novel, general framework for generating explanations in AI. This frameworkseamlessly incorporates existing approaches for generating explanations: model-intrinsic and post-hoc explanations.Within the model-intrinsic explanation setting, we introduce two models that instantiate IES: Attribute-Aware ArgumentativeRecommender (A 3R) and Context-Aware Feature Attribution Through Argumentation (CA-FATA). Both of them conductfeature attribution through argumentation. A 3R views item features as arguments that determine recommendations, whileCA-FATA extends this approach to consider user contexts. Both models demonstrate competitive performance againstexisting models, offering transparent and adaptable explanations. In the post-hoc explanation setting, the Shap-EnhancedCounterfactual Explanation (SECE) is introduced, validating feature attribution via counterfactual reasoning. This approachcan be applied universally to any recommender model. The thesis also encompasses a primary user study exploring theinfluence of contextual information on explanations within recommender systems (RSs). This user-centric questionnairehelps to emphasize the goals of promoting transparency, effectiveness, persuasiveness, and trust in RSs.Overall, this research not only disambiguates key terms in the field but also offers innovative methodologies for explainablerecommendations. The instantiations of IES demonstrate its applicability and contribute a vital understanding of explanationgeneration in RSs and thus in AI, offering new pathways for transparent and trustworthy RSs.
Cette thèse se concentre sur le domaine des recommandations explicables, souvent mentionnées dans le contexte de l'intelligence artificielle explicable (XAI). Ce sont des recommandations faites par un système qui fournit également des informations pour justifier pourquoi ces recommandations ont été générées. Plus spécifiquement, le problème des recommandations explicables implique de générer des recommandations précises et de créer des explications pour justifier ces recommandations.Nous commençons par aborder l'ambiguïté répandue dans les termes couramment utilisés en Intelligence Artificielle (IA),tels que ''interprétabilité'' et ''explicabilité''. Pour lever cette ambiguïté sur des termes souvent utilisés mais mal définis,nous introduisons le Schéma Interpréter/Expliquer (IES). L'IES aide à clarifier ces termes et constitue la base d'un cadregénéral et innovant pour générer des explications en IA. Ce cadre intègre de manière transparente les approches existantespour générer des explications: les explications intrinsèques au modèle et les explications post-hoc. Dans le cadre desexplications intrinsèques au modèle, nous introduisons deux modèles qui instancient l'IES: Attribute-Aware ArgumentativeRecommender (A 3R) et Context-Aware Feature Attribution Through Argumentation (CA-FATA). Les deux conduisentl'attribution de caractéristiques par argumentation. A 3R considère les caractéristiques des éléments recommandablescomme des arguments qui déterminent les recommandations, tandis que CA-FATA étend cette approche pour prendreen compte les contextes des utilisateurs. Les deux modèles montrent une performance compétitive face aux modèlesexistants, offrant des explications transparentes et adaptables. Dans le cadre des explications post-hoc, Shap-EnhancedCounterfactual Explanation (SECE) est introduite, validant l'attribution de caractéristiques par raisonnement contrefactuel.Cette approche peut être universellement appliquée à n'importe quel modèle de recommandation. La thèse comprendégalement une étude utilisateur primaire sous la forme d'un questionnaire explorant l'influence des informations contextuelles sur les explications au sein des systèmes de recommandation (RSs). Ce questionnaire centré sur l'utilisateuraide à souligner les objectifs de promotion de la transparence, de l'efficacité, de la persuasion et de la confiance dans les RSs.Dans l'ensemble, cette recherche non seulement lève l'ambiguïté sur les termes clés du domaine, mais propose égalementdes méthodologies innovantes pour les recommandations explicables. Les instanciations de l'IES démontrent son applicabilité et contribuent à une compréhension essentielle de la génération d'explication dans les RSs et donc en IA, offrant denouvelles voies pour des RSs transparents et dignes de confiance.
Fichier principal
Vignette du fichier
2023UPSLD036.pdf (4.16 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-04405491 , version 1 (19-01-2024)

Identifiants

  • HAL Id : tel-04405491 , version 1

Citer

Jinfeng Zhong. Generality and explainability in recommender systems. Other [cs.OH]. Université Paris sciences et lettres, 2023. English. ⟨NNT : 2023UPSLD036⟩. ⟨tel-04405491⟩
87 Consultations
90 Téléchargements

Partager

Gmail Facebook X LinkedIn More