L'inexplicable IA

L’utilité grandissante de l’IA contraste avec son manque d’explicabilité, problème concerne principalement les modèles créés avec l'apprentissage profond. Voici 3 réflexions sur ses causes et son impact sur le service public.

#1 Une IA ne se construit pas, elle se cultive

Contrairement à une maison ou un logiciel, un modèle d’IA n’est pas entièrement conçu à l’avance, étape par étape. On ne le « programme » pas dans le détail : on définit un cadre initial, puis on le nourrit de données pour qu’il se façonne de lui-même.

Par conséquent, un modèle d’IA ne se construit pas — il se cultive. Un peu comme une colonie de bactéries à qui l’on fournit les bonnes conditions pour se développer.

Prenons l’exemple d’un LLM : après avoir absorbé et trituré une large portion du contenu d’Internet pendant des mois, le modèle final est performant. Notre « colonie » a bien prospéré. Notre modèle donne de bons résultats mais sa logique est tellement dense et opaque qu’on ne comprend pas exactement comment il les obtient.

Ce problème concerne typiquement les modèles produits par l’apprentissage profond. Les modèles produits par l’apprentissage machine classique sont souvent plus compréhensibles.

#2 On ne peut pas comprendre une forêt en examinant chacune de ses feuilles

Les petits noms des modèles de langage ou de vision (8B, 400B, …) peuvent nous laisser indifférents et pourtant, ce chiffre indique le nombre de paramètres, souvent en milliards (B) qu’ils utilisent.

Imaginons un LLM avec 600B (600 milliards) de paramètres :

  • Prenons un A4. Si on met 150 paramètres de chaque côté, on aura besoin de 2 milliards d’A4.
    • A 80 gr du m², nos 2 milliards de feuilles, font un poids total de ~10 000 tonnes.
      • Si un A4 fait 0,1 mm d’épaisseur, on aurait une pile de papier de 200 km de haut.

        A,cette échelle, la compréhension du modèle ne peut pas passer par l'analyse brute de ces composants. Nous manquons de capacité de traitement pour les rendre intelligibles. Paradoxalement, c’est peut-être en s’appuyant sur l’IA elle-même — en la sollicitant comme outil de traduction de sa propre logique interne — que nous pourrons espérer une forme d’explicabilité.

        #3 In dubio pro civis

        Dans le doute, favoriser le citoyen

        Les administrations publiques sont confrontées à un dilemme :

        D’un côté, l’IA représente une opportunité prometteuse pour améliorer l’efficacité des services publics et réaliser des économies.

        De l’autre, la réglementation (CRPA R311-3-1-2), impose un haut niveau de transparence dès lors qu’un algorithme influence les droits ou les libertés des citoyens. Cette exigence de transparence entre difficilement en résonance avec la faible explicabilité de certains modèles d’IA, en particulier ceux reposant sur l’apprentissage profond.

        Une piste de conciliation serait la suivante : autoriser l’usage de l’IA dans l’administration à condition que toute décision défavorable aux citoyens soit systématiquement revue et validée par un agent humain..

        Cette supervision humaine garantirait les droits des citoyens tout en permettant à l’IA de contribuer à l’efficacité administrative.

        L'inexplicable IA

        3 2025
        No Pages Found