Panorama des outils de visualisation pour l'explicabilité en apprentissage profond pour le traitement automatique de la langue
Abstract
The advent of Artificial Intelligence (AI), and more specifically of deep learning models, has been accompanied by impressive results in the field of Natural Language Processing (ALP). Behind the performance of neural networks lie many issues, such as interpretability. In this state of the art article, we present an overview of visualization tools specific to the explicability of deep learning methods in NLP, which aim to overcome the black box character of these approaches.
L'avènement de l'Intelligence Artificielle (IA) et plus spécifiquement des modèles d'apprentissage profond, a été accompagné de résultats impressionnants dans le domaine du Traitement Automatique de la Langue (TAL). Derrière les performances des réseaux de neurones se cachent de nombreuses problématiques, comme l'interprétabilité. Dans cet article d'état de l'art, nous dressons un panorama des outils de visualisation spécifiques à l'explicabilité des méthodes d'apprentissage profond en TAL qui visent à pallier le caractère boîte noire de ces approches.
Origin | Explicit agreement for this submission |
---|