Skip to content

TS-Relax : Interprétation des représentations apprises pour les séries temporelles

Les modèles d’apprentissage de représentations sont de plus en plus utilisés, mais leur opacité peut être problématique dans des domaines tels que la santé ou la justice. Des modèles d’IA explicables et de confiance sont nécessaires. Ce travail présente l’adaptation aux séries temporelles, d’une méthode d’interprétation de représentation initialement conçue pour les images. Nous proposons un protocole quantitatif pour évaluer la pertinence de cette adaptation. Les résultats préliminaires encourageants nous amènent à envisager des perspectives de recherches sur la spécifité de l’interprétabilité des modèles d’apprentissage de représentations sur les séries temporelles.

Aziz Jedidi, Thomas Blanchard, Antoine Bonnefoy, TS-Relax : Interprétation des représentations apprises pour les séries temporelles. In Proc. of The Conférence sur l’Apprentissage Automatique, July 2023.

Click here to access the paper.

Releated Posts

Investigating a Feature Unlearning Bias Mitigation Technique for Cancer-type Bias in AutoPet Dataset

We proposed a feature unlearning technique to reduce cancer-type bias, which improved segmentation accuracy while promoting fairness across sub-groups, even with limited data.
Read More

Muppet: A Modular and Constructive Decomposition for Perturbation-based Explanation Methods

The topic of explainable AI has recently received attention driven by a growing awareness of the need for transparent and accountable AI. In this paper, we propose a novel methodology to decompose any state-of-the-art perturbation-based explainability approach into four blocks. In addition, we provide Muppet: an open-source Python library for explainable AI.
Read More