Ethique & IA : Comment Prevision.io facilite l’audit des intelligences artificielles

Avec la mise en place prochaine de la réglementation sur la protection des données, la question des usages et de la finalité des données collectées par les entreprises est placée au centre des débats.



Parmi ces usages, la construction des intelligences artificielles apparait clairement comme un produit dérivé des données. Il est probable et souhaitable que les regards se tournent progressivement vers ces algorithmes auto-apprenants.

L’intérêt grandissant pour l’IA, jusque-la confinée aux milieux de la recherche et de la science-fiction, irrigue désormais la place publique. La diversité des avis et des réflexions permettent de mieux appréhender les enjeux sociétaux derrière la mise en place progressive des algorithmes dans nos processus de décisions.

Loyauté et vigilance

Très récemment la __CNIL__ a proposé une intéressante grille de lecture des IA selon deux principes fondamentaux : la loyauté et la vigilance.

La loyauté recouvre les enjeux de finalité et d’éthique dans le cadre d’une prise de décision par un algorithme:

  • L’objectif initial imposé à l’IA répond-t’il à une problèmatique qui respecte le droit ?
  • Les critères de décisions proposés sont-il neutres, et sans biais ?

La loyauté est avant tout une affaire humaine en cela que nous sommes responsables du bien fondé des buts que nous souhaitons que l’IA poursuive, et également qu’il nous incombe de lui fournir des données saines à apprendre.

La vigilance quand à elle, concerne les réserves qu’il faut observer face aux décisions prises par les algorithmes. Avec la mise en service des plateformes d’IA , il va de notre responsabilité de mettre en place également les moyens d’audit des algorithmes qui y sont produits. Pour cela, nous proposons et avons mis en place une approche simple pour éclairer les décisions de ces boites noires que sont devenus les algorithmes d’aujourd’hui.

Algorithme & Comportement

Pour autant, cette situation à laquelle nous sommes confrontés, celle d’intelligences devenues opaques à l’analyse de leur mécanique interne, est loin de nous être étrangère.

En matière de psychologie notamment, l’introspection est rarement la méthodologie la plus appropriée, et c’est plutôt par l’analyse des comportements que nous parvenons de façon détournée à comprendre et expliquer nos processus intellectuels. De même en matière d’IA, il est préférable d’examiner l’algorithme à l’oeuvre plutôt que d’en comprendre chaque rouage.

Comme le comportementalisme qui étudie nos processus intellectuels uniquement à l’aune de nos comportements observables et de nos interactions avec le milieu, il est possible d’en apprendre tout autant sur la nature des algorithmes par leur observation extérieure, sans devoir les disséquer ou les expliquer de l’intérieur.

Ainsi il n’est pas nécessaire d’expliquer l’algorithme seul, mais plutôt de l’appréhender par le prisme de ses décisions, en interaction avec le contexte qui le stimule. Pour obtenir cette compréhension en situation, nous décrivons les éléments qui nous semblent nécessaires à toute décision: la crédibilité, la confiance et l’explication.

Crédibilité & Confiance

A chaque décision, nous cherchons avant tout à mesurer la fiabilité de l’algorithme. Deux questions naturelles permettent d’approcher la mesure de cette fiabilité:

“Avez vous déjà rencontré une situation similaire par le passé ?”

La réponse à cette question revient à estimer si les données d’apprentissage contiennent des exemples proches du contexte proposé. Cela permet d’établir si nous avons affaire à une situation connue ou au contraire nouvelle pour l’algorithme. De même qu’une décision humaine est d’autant plus crédible qu’elle est portée par un expert, nous estimons à priori la crédibilité de l’algorithme à chaque contexte donné.

“Quelle marge d’erreur estimez-vous dans votre décision ?”

En plus d’être crédible, il convient d’être confiant. Pour cela nous mesurons à quel point les décisions similaires fournies lors de l’apprentissage étaient diverses, contradictoires. Techniquement il s’agit d’associer à chaque décision un intervalle de confiance dont l’amplitude dépendra du risque que nous sommes prêts à assumer.

Explication

Rassuré par les éléments de crédibilité et de confiance, naturellement vient la question de l’interprétabilité. Alors que le consensus actuel autour des algorithmes place l’espoir dans l’explication de l’algorithme au complet, nous pensons plutôt qu’une explication n’est pas pertinente en soi, mais seulement dans un contexte donné.

Nous convenons alors, non pas d’expliquer l’algorithme dans son ensemble, mais d’interpreter l’algorithme à chaque mise en situation:

“Quelles raisons vous ont poussé à prendre cette décision particulière ?”

D’une façon pratique, il s’agit de fournir une restitution locale de la connaissance acquise par l’algorithme dans cette situation. Une approximation simple du fonctionnement de l’algorithme permet alors de résumer les inducteurs majeurs de cette décision et de les confronter à notre propre intuition.

Et Prevision.io dans tout ça?

Dans la plateforme prevision.io , nous proposons simplement l’ensemble des éléments d’audit décrits :

  • Lorsqu’un algorithme est mis à disposition par notre plateforme, un algorithme-jumeau est entrainé à mesurer les erreurs commises par le premier. Le couple fournit pour chaque décision une mesure objective de la marge d’erreur et également une mesure de la singularité de la situation.
  • Pour chaque décision, est fournit également un algorithme simple et interprétable qui rend compte localement des critères objectifs qui ont mené à cette décision. Cet algorithme résume l’influence positive ou négative de chaque critère ayant contribué à la décision.

Ces éléments sont produits automatiquement par notre plateforme prevision.io et facilitent grandement l’intégration des algorithmes dans la chaine de décision, en rendant transparents pour l’homme les risques et les choix associés à chaque prévision

Vous pouvez voir une démonstration de notre outil d'explication des algorithmes sur la page suivante

Our Latest
News