EN OUVRANT LA BOÎTE NOIRE DE L’IA, NALANTIS CRÉE UNE EXPLICABILITÉ ET UNE TRANSPARENCE TOTALES
On désigne par boîte noire tout système d’intelligence artificielle dont les entrées et les opérations ne sont pas visibles pour l’utilisateur ou toute autre partie intéressée. Une boîte noire, au sens général, est un système impénétrable.
La modélisation de l’apprentissage profond repose généralement sur le développement d’une boîte noire : l’algorithme saisit des millions de points de données comme entrées et met en corrélation des caractéristiques de données spécifiques pour produire un résultat. Ce processus est largement auto-géré et généralement difficile à interpréter pour les data scientists, programmeurs et utilisateurs.
Lorsque le fonctionnement de logiciels impliqués dans des opérations ou processus importants au sein d’une organisation ne peut être facilement visualisé ou compris, des erreurs peuvent passer inaperçues jusqu’à ce qu’elles causent des problèmes tellement sérieux que des investigations s’imposent. Par ailleurs, les dommages engendrés peuvent s'avérer coûteux et impossibles à réparer.
En IA, un biais algorithmique peut par exemple trouver sa source dans des préjugés conscients ou inconscients des développeurs ou des erreurs non détectées. Quoi qu’il en soit, il faussera les résultats, au point parfois d’offenser les personnes qui en sont victimes. Un biais algorithmique peut provenir de données de formation lorsque les détails de la base de données ne sont pas reconnus. Dans un cas, l’IA utilisé dans une application de recrutement s’est appuyée sur des données historiques pour sélectionner des experts informatiques. Cependant, comme la plupart des informaticiens étaient historiquement de sexe masculin, l’algorithme a privilégié les postulants masculins.
Lorsqu’une telle situation est engendrée par la boîte noire de l’IA, elle peut persister suffisamment longtemps pour nuire à la réputation de l’entreprise, voire entraîner des actions en justice pour discrimination. Les mêmes problèmes peuvent tout aussi bien affecter d'autres groupes de population, avec les mêmes répercussions. Pour éviter de tels préjudices, il est important que les développeurs d'IA intègrent la transparence dans leurs algorithmes et que les organisations assument la responsabilité de leurs effets.
« BOÎTE NOIRE » = AUCUN MOYEN DE DÉTERMINER COMMENT L’ALGORITHME A ENGENDRÉ VOTRE DÉCISION.
UNE IA DIGNE DE CONFIANCE #NOBLACKBOX
L’intelligence artificielle existe depuis plus de 50 ans mais ces dernières années, des chercheurs, des entreprises et des institutions l’ont fait progresser à pas de géant. Des étapes importantes ont ainsi été franchies et nous avons assisté à d’énormes changements en matière de linguistique computationnelle, de traitement du langage naturel, de modélisation sémantique et bien évidemment d’apprentissage machine. L’essor de l’apprentissage profond a donné un coup d’accélérateur à l'avènement de l’IA. Nous nous attendons du reste à des avancées encore plus fulgurantes au cours de la prochaine décennie. Nous avons investi dans ces techniques et les avons combinées pour offrir une approche unique de la compréhension du langage naturel au profit des entreprises.
Les valeurs de Nalantis ont pour pilier sa foi inébranlable dans la transparence de l’IA... Une IA digne de confiance. Placer la confiance au cœur du processus permet de développer de meilleurs frameworks d’IA et d’éviter ainsi les erreurs ou les biais algorithmiques.
La mise en œuvre d’une IA axée sur la transparence et l’explicabilité aide les entreprises et les autorités publiques à mieux cerner l’utilisation de leurs données et la prise de décisions. La difficulté à cet égard réside dans la complexité croissance de l’apprentissage automatique et dans la popularité des réseaux neuronaux d'apprentissage profond, qui peuvent se comporter comme des boîtes noires sans fournir d’explications sur la façon dont leurs résultats ont été calculés.
L’approche NoBlackbox de Nalantis (Semantic ConceptNet Modeling) permet à la communauté des développeurs d’exploiter les API pour la représentation sémantique du langage et du texte non structuré et crée une explicabilité et une transparence totales.
EN OUVRANT LA BOÎTE NOIRE DE L’IA, NALANTIS CRÉE UNE EXPLICABILITÉ ET UNE TRANSPARENCE TOTALES
LES CARACTÉRISTIQUES LES PLUS PRISÉES PAR LES ANALYSTES LORS DU DÉVELOPPEMENT DE SOLUTIONS IA
Quel degré d’importance revêtent les caractéristiques suivantes lors du développement d’un produit d’IA pour assurer son succès commercial ?
5 = le plus important
1 = le moins important
Source: Building AI-Driven Enterprises in a Disrupted Environment — 2020 FICO & Corinium
L’APPROCHE NOBLACKBOX, PAR OPPOSITION À L’IA BLACKBOX, INSTAURE DE LA TRANSPARENCE DANS LA PARTIE DU PROCESSUS D’INTELLIGENCE ARTIFICIELLE DÉDIÉE À L’INTERPRÉTATION DES DONNÉES PAR LES ALGORITHMES.
Source: Ditto
En d’autres termes, deux problèmes majeurs pour l’entreprise trouvent une solution :
La responsabilité – nous savons comment se prend une décision automatisée et pouvons suivre, le cas échéant, le cheminement du raisonnement.
La vérifiabilité – nous pouvons examiner des processus, les tester et les affiner avec davantage de précision, et aussi prévoir et empêcher des échecs ou lacunes dans le futur.
Les problèmes éthiques relatifs à la boîte noire en IA mettent à mal la confiance des utilisateurs dans la prise de décision ou les algorithmes. Au moment où l’IA se tourne vers l’avenir, les experts invitent les développeurs à adopter une approche « boîte blanche » pour plus de transparence.
ABONNEZ-VOUS À NOTRE NEWSLETTER.
Inscrivez-vous avec votre adresse e-mail pour tout savoir sur notre actualité et recevoir nos mises à jour.