ISCA - International Speech
Communication Association


ISCApad Archive  »  2023  »  ISCApad #301  »  Journals  »  Revue TAL Numero spécial: Explicabilité des modèles de traitement automatique des langues

ISCApad #301

Thursday, July 06, 2023 by Chris Wellekens

7-11 Revue TAL Numero spécial: Explicabilité des modèles de traitement automatique des langues
  
La revue TAL (Traitement Automatique des Langues) vous invite à soumettre une contribution au numéro spécial 64(3) sur le thème *Explicabilité des modèles de traitement automatique des langues*.

https://tal-64-3.sciencesconf.org/

Soumission des articles : 15 octobre 2023


LA REVUE TAL

L’ATALA publie depuis 1960 la revue internationale Traitement Automatique des Langues (anciennement La Traduction Automatique puis TA Informations), avec le concours du CNRS. Cette revue paraît trois fois par an.
La revue a une politique open-access : la soumission, la publication et l'accès aux articles publiés sont gratuits. Les articles publiés seront disponibles sur le site de l'ATALA et sur l'ACL Anthology.
Les articles sont écrits en français ou en anglais. Les soumissions en anglais ne sont acceptées que si l’un des co-auteurs n’est pas francophone.

RÉDACTEURS EN CHEF INVITÉS

Guillaume Wisniewski, Université Paris Cité, LLF
Marianna Apidianaki, University of Pennsylvania

APPEL À CONTRIBUTIONS

La capacité des modèles neuronaux à construire, sans supervision explicite, des représentations de la langue a contribué aux progrès spectaculaires réalisés, ces dernières années, par les systèmes de traitement de la langue et de la parole. Si ces représentations permettent de développer des systèmes pour de nombreuses langues et de nombreux domaines, leur utilisation, notamment par l'intermédiaire des modèles pré-entrainés comme BERT, se fait au détriment de l'interprétabilité des décisions : il n'est généralement pas possible de savoir pourquoi un système prend telle ou telle décision et les raisons derrière les bonnes performances des modèles de l'état de l'art restent, en grande partie, inconnues. Afin de répondre à ces questions, de plus en plus de travaux s’intéressent au problème de l’explicabilité des systèmes de TAL et explorent plusieurs questions liées : 
- à l’interprétation des modèles (model analysis & interpretability) qui ont pour objectif d’identifier les informations encodées dans les représentations neuronales [1] ;
- au développement de méthodes  capables de décrire et de justifier les étapes du raisonnement (model explicability) qui a permis aux modèles d’aboutir à une réponse, par exemple avec des chaînes de pensées (Chain-of-Thought) [2] ou des représentations structurées [4] ;
- à l'évaluation des méthodes d'explication et leur véracité (faithfulness), c’est-à-dire si les explications proposées reflètent le processus de raisonnement derrière les prédictions du modèle [3] ; 
- au développement de systèmes « surs », capables de s’auto-justifier (model accountability).

Ce numéro thématique de la revue TAL a pour objectif de faire le point à la fois sur les méthodes d'analyse et d'explication des systèmes de TAL, mais aussi sur l'état de nos connaissances par rapport aux capacités langagières des modèles neuronaux et les limites de ceux-ci.

Les articles sollicités concernent les thématiques suivantes, sans y être limités pour autant :
- les méthodes permettant d'expliquer les décisions des réseaux de neurones (identification des éléments saillants, explication sous forme de texte libre, ...) et notamment celles, comme les méthodes d’analyse contre-factuelle, permettant d’établir des relations de causalité entre une prédiction et une entrée (ou une partie de celle-ci) ;
- les méthodes dites de “probing” permettant d'identifier les connaissances linguistiques et les connaissances du monde capturées par les représentations neuronales ;
- les méthodes permettant de distinguer les informations qui sont uniquement capturées par les réseaux de neurones, de celles qui sont véritablement utilisées par les modèles pour proposer une réponse (corrélation versus causalité) ;
- les méthodes utilisées pour analyser les modèles neuronaux dans des domaines connexes (linguistique expérimentale, vision par ordinateur, psychologie, etc) ;
- l'identification des biais des modèles de langue neuronaux ;
- l’utilisation de méthodes de prompting pour générer des explications avec du texte ou des représentations structurées ;
- l'étude sur des langages artificiels ou des exemples linguistiquement motivés ;
- l'évaluation des méthodes d'explication et, notamment, la définition de critères d’évaluation comme la véracité (faithfulness) ou la plausibilité (plausibility) et l’estimation de ces critères.

FORMAT

La longueur des articles doit être de 20 à 25 pages.

La revue TAL a un processus de relecture en double-aveugle. Merci d’anonymiser votre article, le nom du fichier, et de veiller à éviter les auto-références.

Les feuilles de style sont disponibles en ligne sur le site de la revue (http://www.atala.org/content/instructions-aux-auteurs-feuilles-de-style-0).

Les chercheurs ayant l’intention de soumettre une contribution sont invités à déposer leur article en cliquant sur le menu « Soumission d’un article » (format PDF). Pour cela, si ce n’est déjà fait, s’inscrire sur le site http://www.sciencesconf.org (en haut à gauche, « créer un compte »), puis revenir sur la page https://tal-64-3.sciencesconf.org, se connecter et effectuer le dépôt.

DATES IMPORTANTES

Soumission des articles : 15 octobre 2023
Notification aux auteurs après première relecture : décembre 2023
Notification aux auteurs après seconde relecture : février 2024
Publication : Avril 2024

RÉRÉRENCES

[1] Interpretability and Analysis in Neural NLP (Belinkov et al., ACL 2020) 
[2] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (Wei et al., NeurIPS 2022)
[3] Towards Faithful Model Explanation in NLP: A Survey (Lyu et al., arxiv 2023)
[4] Causal Reasoning of Entities and Events in Procedural Texts (Zhang et al., EACL Findings 2023)


Back  Top


 Organisation  Events   Membership   Help 
 > Board  > Interspeech  > Join - renew  > Sitemap
 > Legal documents  > Workshops  > Membership directory  > Contact
 > Logos      > FAQ
       > Privacy policy

© Copyright 2024 - ISCA International Speech Communication Association - All right reserved.

Powered by ISCA