L’application de l’intelligence artificielle peut reconnaître les visages, se traduire entre le mandarin et le swahili et vaincre les meilleurs joueurs humains du monde à ce genre de jeux comme le go, les échecs et le poker. Ce qu’il ne peut vraiment pas toujours faire, c’est clarifier tout seul. L’IA est un logiciel informatique qui peut acquérir des connaissances à partir d’informations ou d’expérience pour faire des estimations. Votre programmeur informatique personnel précise les informations à partir desquelles le programme doit apprendre et fournit des articles, une paire d’instructions, appelées algorithme, sur la manière dont l’application doit faire cela, mais n’influence pas ce qu’il doit vraiment découvrir. C’est exactement ce qui offre à l’IA une grande partie de sa force: elle peut apprendre des connexions au sein de l’info qui seront plus compliquées ou nuancées que celles qu’un homme trouverait. Mais cette difficulté signifie que la raison pour laquelle le logiciel parvient à une conclusion certaine est souvent principalement opaque, même pour ses concepteurs uniques. Pour les créateurs d’applications souhaitant commercialiser des méthodes d’IA, cette absence de qualité pourrait être préjudiciable à l’entreprise. Il est difficile pour les êtres humains de croire en un processus qu’ils ne peuvent pas comprendre – et sans confiance, les entreprises ne rapporteront pas de gros dollars pour l’application de l’IA. Cela est également vrai dans des domaines tels que les services médicaux, les fonds et les forces de police, dans lesquels les effets de la mauvaise recommandation professionnelle seront plus importants que, disons, à l’époque où Netflix a imaginé que vous pourriez prendre plaisir à voir The Hangover Portion III. Le contrôle pousse également les organisations automobiles à demander une IA plus explicable. Aux États-Unis, les directives juridiques des régimes d’assurance exigent que les entreprises soient en mesure de clarifier pourquoi elles ont refusé une protection individuelle ou leur ont engagé un supérieur supérieur par rapport à ce qu’elles ont fait à leur voisin. Dans les pays européens, le règlement général sur la sécurité des données, qui était entré en vigueur dans le rapport pourrait, offre aux citoyens de l’UE un «droit à l’examen de votre être humain» pour toute détermination algorithmique les concernant. Dans le cas où le prêteur rejette le programme de prêt, il ne peut pas simplement vous dire que votre ordinateur a dit non à un travailleur d’une institution bancaire afin d’évaluer la méthode utilisée par l’équipement ou d’effectuer une autre évaluation. David Kenny, qui était jusqu’à la fin de ce mois civil, était vice-président directeur d’Overseas Business Equipment Corp. pour les services professionnels cognitifs, déclare que lorsque IBM a interrogé 5000 organisations sur l’utilisation de l’IA, 82% ont déclaré qu’elles souhaitaient le faire, mais deux- des tiers des entreprises ont déclaré que ces personnes hésitaient à aller de l’avant, avec une explication insuffisante comme étant le plus grand obstacle à la reconnaissance. Au total, 60% des dirigeants craignent maintenant que le fonctionnement interne de l’IA soit trop énigmatique, contre 29% en 2016. «Ils disent:« Si je fais une sélection importante autour de la souscription de la menace ou de la sécurité alimentaire de base, j’aimerais beaucoup plus d’explication. », Déclare Kenny, qui est désormais le principal officier de police de gestion de Nielsen Holdings Plc. En réaction, les distributeurs de programmes logiciels et les intégrateurs de méthodes informatiques ont commencé à vanter une capacité remarquable à donner aux acheteurs un aperçu de la façon dont les programmes d’IA se sentent. Avec le séminaire sur les informations neuronales et la finalisation des faits à Montréal au début du mois de décembre, l’espace de vente d’IBM a annoncé que son application basée sur le cloud, créée par l’homme, fournissait une «explicabilité». L’application d’IBM peut indiquer à un acheteur les 3 à 5 variables que les critères de cet algorithme ont pesés le plus intensément pour faire un choix. Il pourrait suivre la lignée d’informations, indiquant aux clients dans quels bits d’informations utilisées par l’algorithme proviennent. Cela peut être important pour détecter les préjugés, affirme Kenny. IBM propose désormais des ressources qui aideront les entreprises à supprimer les domaines de carrière info qui peuvent être discriminatoires comme la concurrence, ainsi que d’autres informations qui pourraient être directement liées à ces facteurs, comme les règles postales. Quantum Black color, une organisation qui demande aux entreprises d’aider les solutions de mise en page à examiner les informations, a annoncé son travail en vue de créer une IA explicable sur la convention, et il y a eu de nombreuses présentations éducatives sur le sujet. Accenture Plc a commencé à commercialiser et à commercialiser des «outils d’équité» qui aideront les entreprises à détecter et à corriger les biais au sein de leurs algorithmes d’IA, tout comme ses concurrents Deloitte LLC et KPMG LLC. Les moteurs de recherche, qui font partie d’Alphabet Inc., ont commencé à donner des méthodes à ceux qui utilisent son appareil pour comprendre des ensembles de règles afin de mieux comprendre leurs procédures de prise de décision. En juin, Microsoft Corp. a obtenu Bonsai, une nouvelle entreprise de Ca qui s’était engagée à développer une IA explicable. Kyndi, une nouvelle entreprise d’intelligence artificielle de San Mateo, en Californie, a même déposé la marque «Explainable AI» pour aider à promouvoir son logiciel d’apprentissage d’appareil.