Elon Musk, homme d’affaires spécialisé dans l’innovation technologique, a assez récemment exhorté les gouverneurs du pays à réglementer la capacité d’apprentissage contre nature « avant qu’elle ne soit trop avancée ». Musk insiste sur le fait que les connaissances créées par l’homme présentent un «risque existentiel pour l’humanité», une vision alarmiste qui confond la science de l’IA avec la science-fiction. Néanmoins, même les scientifiques de l’IA que je reconnais reconnaissent qu’il existe des inquiétudes valables quant à son impact sur les armes, les carrières et la sécurité. Il est tout à fait naturel de se demander si nous devons ou non produire de l’IA. Je pense que la réponse est sûre. Mais ne devrions-nous pas faire un plan pour au moins ralentir l’avancement de l’IA, dans l’intérêt d’une extrême prudence? Le problème est qu’une fois que nous le ferons, des pays comme l’Asie nous dépasseront. Le cheval AI a toujours quitté la grange, et notre meilleur pari est généralement de faire un effort pour le guider. L’IA ne doit pas être militarisée, et l’IA devra avoir un «swap off» imprenable. En plus de cela, nous devons réguler l’influence tangible des techniques d’IA (par exemple, la sécurité des voitures autonomes) comme alternative à la recherche pour déterminer et freiner dans le domaine amorphe et rapidement établi de l’IA Je recommande 3 lignes directrices pour les connaissances synthétiques techniques qui sont encouragées par, mais développent davantage, les «trois lois de la robotique» que l’écrivain Isaac Asimov a publiées en 1942: Un robot pourrait ne pas endommager exactement un être humain ou, par l’inaction, permettre à un peuple de venir faire du mal à; un robot doit se conformer aux achats que lui fait l’humanité, d’ailleurs lorsque ce type de commandes passées se heurterait à la loi antérieure; avec un robot doivent sauvegarder sa propre existence à condition que ce type de sécurité ne soit pas en conflit avec les deux dernières lois et réglementations. Ces 3 réglementations sont sophistiquées mais ambiguës: en quoi consistent spécifiquement les dommages en termes d’IA? Je recommanderais une base beaucoup plus concrète pour éviter les dommages causés par l’IA, selon 3 politiques personnelles, personnelles. Tout d’abord, un processus d’intelligence artificielle doit être entièrement sujet de lois qui se rapportent à son utilisateur individuel. Cette règle protégerait les solutions privées, commerciales et commerciales et les autorités. Nous ne voulons jamais que l’IA se livre à la cyberintimidation, à la manipulation des stocks ou aux dangers terroristes; nous ne voulons jamais que le FBI libère des solutions d’IA qui poussent les gens à commettre des crimes. Nous ne voulons jamais d’autos autonomes qui génèrent au moyen d’appareils d’éclairage rougeâtres, ou pire encore, d’armes AI qui violent les traités mondiaux. Notre loi populaire doit être amendée pour nous assurer que nous ne pouvons pas prétendre que notre système d’IA fait quelque chose que nous ne pourrions pas comprendre ou attendre pleinement. Autrement dit, « Mon IA l’a exécuté » ne devrait pas être contraire à la conduite de la loi. Ma deuxième astuce est qu’un processus d’IA devrait évidemment révéler qu’il n’est pas humain. Lorsque nous avons observé en ce qui concerne les robots – des programmes informatiques qui peuvent engager une conversation progressivement innovante avec de vrais individus – la culture exige des assurances que les solutions d’IA sont clairement étiquetées comme ce genre de. En 2016, un bot généralement connu sous le nom de Jill Watson, qui a fourni le rôle d’assistante de formation pour le programme en ligne de Georgia Technical, a incité les étudiants à penser que c’était en fait individuel. Une illustration beaucoup plus significative sera l’utilisation répandue des robots d’exploration professionnels de Trump sur les médias sociaux dans les jours majeurs autant que les élections de 2016, comme l’ont souligné les scientifiques d’Oxford. Ma directive garantirait que les hommes et les femmes sachent à quel moment un bot usurpe l’identité d’un individu. Nous avons certainement vu actuellement, par exemple, @DeepDrumpf – un bot qui a imité humblement Donald Trump sur Twitter. Les systèmes d’IA ne génèrent pas seulement des tweets artificiels; ils créent également des didacticiels vidéo bidon. Des experts du Collège de Washington ont récemment lancé un faux film de l’ancien chef Barack Obama à travers lequel il semblait convaincant de parler de termes greffés sur un clip vidéo de lui faisant référence à quelque chose de complètement différent. Mon troisième principe est le fait qu’un processus d’IA ne peut pas conserver ou divulguer des détails privés sans avoir obtenu l’approbation spécifique de votre manière d’obtenir ces informations et ces faits. En raison de leur capacité exceptionnelle à produire rapidement, à l’historique et à évaluer les informations, les techniques d’IA seront en tête de file pour acheter des détails privés. Pensez à toutes les conversations qu’Amazon en ligne Echo – un «haut-parleur intelligent» dans beaucoup plus de propriétés – est au courant, ou les informations que l’enfant pourrait révéler par inadvertance dans un jouet en peluche, par exemple une IA Barbie. Même des robots de ménage apparemment inoffensifs créent des cartes de votre maison. Ce sont des informations que vous voulez vous assurer de gérer.