Un modèle d’intelligence artificielle performant est un modèle mathématique prenant en compte un très grand nombre de corrélations entre ses différentes entrées (features). La complexité des corrélations  apprisent par un modèle d'intelligence artificielle fait qu’on lui attribue souvent le qualificatif de boîte noire car les prédictions faites sont difficilement explicable ou interprétable.

L’explicabilité et interprétabilité  d’un modèle constituent un enjeu majeur dans l’utilisation de l’IA dans les processus  de prise de décision automatisée.  Ne pas pouvoir apporter une explication à une décision surtout si elle est mal comprise est une cause de perte de confiance de l’utilisateur du modèle d’IA. Au delà de la perte de confiance, depuis 2018 la RGPD demande à ce que toute prise de décision importante automatisée puisse être expliquée. C’est ainsi que par souci d’interprétabilité dans certains domaine d’application, la priorité est donnée par les data scientists à l’utilisation des modèles d’IA dont les résultats sont relativement simple à interpréter.

La confiance est clé pour l'intelligence artificielle

L’interprétation d’un modèle  d’IA qui répond à la question “comment” un algorithme prend une décision est donc nécessaire d’abord pour le data scientist qui crée le modèle car il doit être capable de comprendre les corrélations que son modèle a trouvé pour plusieurs raisons :
- pour pouvoir communiquer sur les décisions prises par son modèle,
- pour améliorer son modèle
- mais aussi pour vérifier avec les experts métiers que les décisions prises par le modèle restent cohérentes.

Plusieurs outils d’interprétation de modèle ont été et continuent d’être développés

Nous pouvons citer entre autre les méthodes basé sur les valeurs de Shapley [1] où l’on estime la contribution de la valeur d’une variable sur la prédiction d’un individu, ou encore les méthodes de type LIME [2] qui explique la prédiction d’un individu par un modèle linéaire simple avec les individus qui lui sont semblables.

Pouvoir interpréter un modèle requiert donc d’avoir des connaissances ou du moins des notions en mathématiques.

La décision prise par une IA est parfois contre intuitive

Pour ce faire, l’interprétation devient insuffisante dans les domaines d’applications où l’utilisateur final est un profane du monde de l’IA. Il faudra donc pouvoir répondre  à la question “pourquoi” le modèle d’IA a pris cette décision. La plupart du temps  quand l’utilisateur final se pose la question de savoir pourquoi l’algorithme  a pris une telle décision, c’est que la décision prise par l’algorithme va à l’encontre de son intuition. Il faut être capable d’apporter une réponse intuitive donc compréhensible par un profane du monde de l’IA.

L’utilisation de l’IA dans les métiers de l’expertise comptable ne déroge pas à la règle.

Les affectations des lignes de facture dans les comptes comptables effectuées par un modèle d’IA peuvent souvent surprendre les experts comptables car la subtilité permettant d’affecter un compte ou un autre est vraiment fine.

Par exemple une ligne de facture d’achat d’un boulanger indiquant “Sac de farine de blé de 10 Kg” classée en achats de marchandises peut paraître contre intuitif pour un expert comptable qui s’attend à voir cette ligne de facture classée en achats de matières premières. Une interprétation du modèle d’IA permettra par exemple de comprendre que pour cette ligne de facture, la marge avec l’hyperplan séparateur est plus grande avec la classe achats de marchandises qu’avec la classe achats de matières premières, mais cette interprétation compréhensible par le data scientist reste encore flou pour une personne qui n’a pas de notions sur les hyperplans séparateurs. On cherchera à expliquer cette prédiction en disant par exemple que “pour ce boulanger dans 90% des cas où il a acheté un sac de farine de blé de  10 Kg chez ce fournisseur, cet achat était classé en achats de marchandises”. Ce qui devient plus simple à comprendre pour l’expert comptable. L’expert comptable qui connaît son client sait que pour la transformation (achats matières première) son client (ce boulanger) achète plutôt des sacs de 50 Kg.  

L’interprétation d’un modèle reste importante mais pas suffisante dans un contexte d’utilisation grand public de l’IA comme c'est le cas avec Conciliator Expert. ll n'est pas possible d'expliquer aux milliers d'utilisateurs finaux chaque proposition d'affectation comptable. Il est donc  nécessaire de développer des outils permettant une explication des prédictions.

Un outil d'aide à la compréhension

Dhatim travaille donc sur le développement d’un outil dédié permettant d’expliquer les classifications des lignes dans les comptes comptables. Un outil se basant directement sur les données d'entraînement et non sur les modèles d’IA comme c’est le cas pour les méthodes LIME ou le SHAP.

Un exemple de résultat de cet outil est donné sur la figure ci-dessous pour une ligne de facture avec pour désignation “BANANE POCHE 1.5K ROCHAMBEAU”.

Le compte attendu par l’expert comptable étant le compte d’achat matières premières alors que le compte prédit est celui de l’achat de marchandise. Ceci s’explique par le fait que:

  1. dans 84% des cas les achats effectués par ce client chez ce fournisseur pour cette activité sont des achats de marchandises
  2. dans plus de 65% des cas les lignes de facture contenant banane ou poche sont des achats de marchandise et non de matières premières
  3. la description de la ligne complète n’a jamais été vue par le modèle

La surface formée pour les différents comptes apporte une information intuitive qui peut expliquer une prédiction.

Nous travaillons sur ce sujet avec des clients "testeurs", le sujet reste vaste mais la confiance dans l'intelligence artificielle est à ce prix.


[1] Lundberg, Scott M., Gabriel G. Erion, et Su-In Lee. « Consistent Individualized Feature Attribution for Tree Ensembles ». arXiv:1802.03888 [cs, stat], 6 mars 2019. http://arxiv.org/abs/1802.03888.


[2] Ribeiro, Marco Tulio, Sameer Singh, et Carlos Guestrin. « “Why Should I Trust You?“: Explaining the Predictions of Any Classifier ». In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining - KDD ’16, 1135‑44. San Francisco, California, USA: ACM Press, 2016. https://doi.org/10.1145/2939672.2939778.