{"id":781,"date":"2021-12-05T10:22:23","date_gmt":"2021-12-05T09:22:23","guid":{"rendered":"https:\/\/cmi-2i2a.univ-avignon.fr\/?p=781"},"modified":"2021-12-16T16:14:52","modified_gmt":"2021-12-16T15:14:52","slug":"explainable-artificial-intelligence-xai","status":"publish","type":"post","link":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/2021\/12\/05\/explainable-artificial-intelligence-xai\/","title":{"rendered":"Explainable Artificial Intelligence (XAI)"},"content":{"rendered":"\n<p>Au cours de ces derni\u00e8res ann\u00e9es, l\u2019intelligence artificielle a vu son utilisation\u00a0cro\u00eetre\u00a0de fa\u00e7on exponentielle. Si celle-ci est pr\u00e9sente dans de nombreux domaines,\u00a0 c\u2019est un aspect particulier de l\u2019Intelligence Artificielle qui va nous int\u00e9resser ici\u00a0: l\u2019\u00a0XAI\u00a0(explainable\u00a0AI).\u00a0Ce principe d\u00e9signe la capacit\u00e9 d&rsquo;une IA ne pas s\u2019int\u00e9resser uniquement \u00e0 l\u2019acuit\u00e9 des d\u00e9cisions qu\u2019elle propose mais \u00e9galement aux raisons qui ont amen\u00e9 cette d\u00e9cision.\u00a0Cela dans le but de donner \u00e0 l\u2019utilisateur les moyens de comprendre et d\u2019analyser les r\u00e9sultats.\u00a0Ce domaine pr\u00e9sente, en majorit\u00e9, deux grandes dimensions :\u00a0l\u2019interpr\u00e9tabilit\u00e9\u00a0et l\u2019explicabilit\u00e9.<\/p>\n\n\n\n<p>l\u2019explicabilit\u00e9\u00a0donne des informations sur le \u00ab\u00a0raisonnement\u00a0\u00bb de l\u2019algorithme de Machine\u00a0Learning\u00a0et sur les donn\u00e9es qu&rsquo;il a utilis\u00e9es.\u00a0Ces informations sont destin\u00e9es prioritairement aux experts de l\u2019IA, car elle n\u00e9cessitent une compr\u00e9hension des \u00e9l\u00e9ments techniques du mod\u00e8le et de l\u2019analyse des donn\u00e9es.<\/p>\n\n\n\n<p>L\u2019interpr\u00e9tabilit\u00e9 pour sa part a pour r\u00f4le de fournir l&rsquo;informations dans un format compr\u00e9hensible par tous. Il s\u2019agit souvent de \u00ab\u00a0traduire\u00a0\u00bb les explications en \u00e9l\u00e9ments \u00ab\u00a0interpr\u00e9tables\u00a0\u00bb par une personne travaillant dans le domaine consid\u00e9r\u00e9 mais sans connaissances sp\u00e9cifiques en IA.<\/p>\n\n\n\n<p>Notons que ces deux termes sont souvent associ\u00e9s, mais qu\u2019il est important de bien savoir dissoci\u00e9s les Notons que la fronti\u00e8re entre ces deux cat\u00e9gories n\u2019est pas tr\u00e8s pr\u00e9cise et leurs d\u00e9nominations sont m\u00eame parfois invers\u00e9es. Il est important cependant de garder \u00e0 l\u2019esprit les diff\u00e9rences en termes de cible vis\u00e9e\u00a0: expert de l\u2019IA ou non.<\/p>\n\n\n\n<p><strong>Pourquoi avons-nous besoin de l\u2019interpr\u00e9tabilit\u00e9\u00a0et de l\u2019explicabilit\u00e9?<\/strong> Ces \u00e9l\u00e9ments permettent en premier de renforcer, ou d\u2019instaurer, la confiance des utilisateurs envers l\u2019IA, en montrant sur quels \u00e9l\u00e9ments sont prises les d\u00e9cisions et en d\u00e9mystifiant les erreurs des syst\u00e8mes.\u00a0Mais ces \u00e9l\u00e9ments permettent aussi de r\u00e9pondre aux questions de conformit\u00e9 r\u00e9glementaire\u00a0: diff\u00e9rents textes r\u00e9glementaires sont en effet rentr\u00e9s en vigueur, en Europe et en France notamment, qui imposent des r\u00e8gles sur le traitement des donn\u00e9es, pour des raisons \u00e9thiques le plus souvent (respect des informations personnelles, lutte contre les discriminations, etc.). Ceux-ci incluent parfois directement la n\u00e9cessit\u00e9 de pouvoir expliquer sur quels \u00e9l\u00e9ments sont bas\u00e9s les d\u00e9cisions. Dans tous les cas, pour pouvoir d\u00e9montrer le respect, ou non, de ces textes, une approche de type XAI est indispensable.<\/p>\n\n\n\n<p>On distingue trois \u00e9tapes dans l\u2019explicabilit\u00e9&nbsp;de l\u2019IA :<\/p>\n\n\n\n<p>En premier lieu, <strong><u>l\u2019explication de la pr\u00e9-mod\u00e9lisation<\/u><\/strong>.\u00a0Celle-ci permet de comprendre et de d\u00e9crire les donn\u00e9es utilis\u00e9es pour d\u00e9velopper le mod\u00e8le.<\/p>\n\n\n\n<p>On a ensuite <strong><u>la mod\u00e9lisation explicable <\/u><\/strong>qui permet de d\u00e9velopper des mod\u00e8les dits intrins\u00e8ques simples.<\/p>\n\n\n\n<p>Enfin, la <strong><u>post-mod\u00e9lisation<\/u><\/strong> permet d\u2019extraire des explications afin de d\u00e9crire les mod\u00e8les presque d\u00e9velopp\u00e9s.<\/p>\n\n\n\n<p>\u00c0\u00a0titre d\u2019exemple, on peut citer les Local\u00a0Interpretable\u00a0Model-Agnostic\u00a0Explanations, autrement\u00a0dit les LIME.\u00a0Ces derniers, expliquent une d\u00e9cision donn\u00e9e (aspect \u00ab\u00a0local\u00a0\u00bb) en mod\u00e9lisant autour de cette donn\u00e9e les d\u00e9cisions du syst\u00e8me IA \u00e9tudi\u00e9 par un mod\u00e8le simple et intrins\u00e8quement interpr\u00e9table. Cela permet \u00ab\u00a0d\u2019expliquer\u00a0\u00bb le comportement du syst\u00e8me autour de l\u2019instance (la donn\u00e9e) d\u2019int\u00e9r\u00eat.<\/p>\n\n\n\n<p>Pour finir, il faut \u00e9voquer SHAP\u00a0(shapley\u00a0additive\u00a0explanations)\u00a0qui est une approche issue de la th\u00e9orie des jeux. Cette approche est \u00e9galement \u00ab\u00a0model agnostic\u00a0\u00bb\u00a0: elle permet d\u2019expliciter les sorties de n\u2019importe quel mod\u00e8le d\u2019apprentissage automatique.\u00a0Cette approche est bas\u00e9e sur\u00a0les valeurs de Shapley. Pour une instance pr\u00e9cise qui a amen\u00e9 une d\u00e9cision donn\u00e9e, les valeurs de Shappley calculent l\u2019importance de chaque \u00ab\u00a0feature\u00a0\u00bb (les caract\u00e9ristiques de l\u2019entr\u00e9e) dans la d\u00e9cision. Pr\u00e9c\u00e9demment cit\u00e9, les valeurs de\u00a0Shapley\u00a0proviennent donc de la th\u00e9orie des jeux de coalition.\u00a0Et cette m\u00e9thode a pour but d\u2019expliquer certaines pr\u00e9dictions individuelles.\u00a0Finalement,\u00a0Shapley\u00a0pr\u00e9sente plusieurs propri\u00e9t\u00e9s int\u00e9ressantes\u00a0telles\u00a0que l\u2019efficacit\u00e9 ou la sym\u00e9trie.<\/p>\n\n\n\n<p>Article r\u00e9dig\u00e9 suite \u00e0 une conf\u00e9rence d\u00e9couverte recherche en L1 au CERI.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Au cours de ces derni\u00e8res ann\u00e9es, l\u2019intelligence artificielle a vu son utilisation\u00a0cro\u00eetre\u00a0de fa\u00e7on exponentielle. Si celle-ci est pr\u00e9sente dans de nombreux domaines,\u00a0 c\u2019est un aspect particulier de l\u2019Intelligence Artificielle qui va nous int\u00e9resser ici\u00a0: l\u2019\u00a0XAI\u00a0(explainable\u00a0AI).\u00a0Ce principe d\u00e9signe la capacit\u00e9 d&rsquo;une IA ne pas s\u2019int\u00e9resser uniquement \u00e0 l\u2019acuit\u00e9 des d\u00e9cisions qu\u2019elle propose mais \u00e9galement aux raisons qui ont amen\u00e9 cette d\u00e9cision.\u00a0Cela dans le but de donner \u00e0 l\u2019utilisateur les moyens de comprendre et d\u2019analyser les r\u00e9sultats.\u00a0Ce domaine pr\u00e9sente, en majorit\u00e9, deux&#8230;<\/p>\n<p class=\"read-more\"><a class=\"btn btn-default\" href=\"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/2021\/12\/05\/explainable-artificial-intelligence-xai\/\">Lire la suite<span class=\"screen-reader-text\"> Lire la suite<\/span><\/a><\/p>\n","protected":false},"author":35,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[],"coauthors":[],"class_list":["post-781","post","type-post","status-publish","format-standard","hentry","category-conference-decouverte"],"_links":{"self":[{"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/posts\/781","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/users\/35"}],"replies":[{"embeddable":true,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/comments?post=781"}],"version-history":[{"count":9,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/posts\/781\/revisions"}],"predecessor-version":[{"id":1209,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/posts\/781\/revisions\/1209"}],"wp:attachment":[{"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/media?parent=781"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/categories?post=781"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/tags?post=781"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/cmi-2i2a.univ-avignon.fr\/index.php\/wp-json\/wp\/v2\/coauthors?post=781"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}