Décomposer le rapport bénéfice et risque de l’IA

De SIRI aux véhicules personnels, l’intellect artificiel (IA) progresse rapidement. Alors que la science-fiction dépeint souvent l’IA comme des robots dotés de fonctionnalités similaires à celles des humains, l’IA peut tout englober, seo des algorithmes de recherche de Google au Watson d’IBM en passant par les armes autonomes. L’intellect artificiel est aujourd’hui correctement appelé IA étroite (ou IA faible), en ce sens qu’il doit être créé pour effectuer un processus de filtrage (par exemple, uniquement la réputation de traitement du visage ou uniquement des recherches sur le Web ou uniquement la conduite d’un véhicule). Néanmoins, l’objectif à long terme de nombreux chercheurs est de créer une IA commune (AGI ou IA solide). Bien que l’IA mince puisse surpasser les êtres humains quel que soit son travail spécifique, comme jouer aux échecs ou résoudre des équations, l’AGI surpasserait les humains dans à peu près n’importe quelle tâche mentale. Dans l’expression proche, l’objectif consistant à maintenir l’influence de l’IA sur la culture à un avantage encourage les enquêtes dans de nombreux endroits, de l’économie et de la réglementation aux domaines technologiques tels que la vérification, la crédibilité, la sécurité et le contrôle. Bien que cela puisse être un peu plus qu’une petite nuisance en cas de collision ou de piratage de votre ordinateur portable, il peut être d’autant plus crucial qu’une méthode d’IA fasse ce que vous voulez qu’elle accomplisse si elle gère votre voiture, votre avion, votre stimulateur cardiaque, votre programme d’achat et de vente automatique ou votre réseau électrique. Un autre problème d’expression brève est d’arrêter une course désastreuse aux armes mortelles autonomes. Finalement, une question importante est de savoir ce qui se passera si la recherche d’une IA forte réussit et si un programme d’IA deviendra bien meilleur que les humains, quelles que soient les tâches intellectuelles. Comme l’a révélé I.J. Bien en 1965, concevoir de meilleures méthodes d’IA est en soi un travail mental. Une telle méthode peut potentiellement passer par un auto-développement récursif, déclenchant une explosion d’intelligence laissant derrière l’intellect humain une puissance considérable. En inventant des technologies révolutionnaires, ce type de superintelligence peut nous aider à éradiquer la guerre, la condition et la pauvreté, de sorte que le développement d’une IA forte pourrait être la plus grande occasion dans le milieu humain. Certains professionnels ont signalé un problème, bien que cela puisse également fonctionner comme la finale, à moins que nous ne trouvions comment aligner les objectifs de l’IA avec les nôtres juste avant qu’elle ne devienne superintelligente. Il y en a plusieurs qui se demandent si une IA forte sera jamais accomplie, mais d’autres qui exigent que le développement d’une IA superintelligente soit certainement avantageux. Chez FLI, nous identifions ces deux opportunités, mais reconnaissons en outre l’opportunité d’une méthode de connaissance synthétique de causer intentionnellement ou accidentellement un excellent préjudice. Nous savons que la recherche de nos jours peut nous aider à mieux planifier et prévenir ce type d’effets probablement négatifs sur la route, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des scientifiques reconnaissent que l’IA superintelligente n’est pas susceptible de manifester des émotions individuelles telles que l’amour ou la détestation, et qu’il n’y a aucun but que l’IA devienne intentionnellement bienveillante ou malveillante. Au lieu de cela, quand il s’agit de la façon dont l’IA peut être un danger, les experts ressentent probablement deux situations: L’IA est conçue pour faire quelque chose d’écrasant: les outils autonomes sont des systèmes d’intelligence synthétique conçus pour détruire. À la disposition d’un mauvais individu, ces armes pourraient sans effort entraîner des pertes massives. De plus, une course de mains d’IA pourrait accidentellement provoquer une bataille d’IA qui entraînerait des pertes massives. Pour éviter d’être contrecarré par l’adversaire, il serait très difficile de se détourner de ces armes, de sorte que les êtres humains pourraient de manière plausible se débarrasser de ce type de scénario. Cette chance est certainement celle qui fournit même une IA étroite, mais augmente à mesure que les niveaux de connaissance et d’autonomie de l’IA s’améliorent. L’IA est développée pour prendre des mesures bénéfiques, mais elle développe un moyen destructeur d’atteindre son objectif: cela peut se produire chaque fois que nous négligeons d’aligner totalement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Si vous demandez à une automobile intelligente obéissante de vous emmener définitivement à l’aéroport dès que possible, cela peut vous permettre de vous y rendre poursuivi par des copters et protégé de vomi, en effectuant non pas ce que vous vouliez mais pratiquement ce que vous avez demandé. Si un produit superintelligent se voit confier le travail d’un projet de géo-ingénierie ambitieux, il pourrait causer la destruction de notre écosystème comme une complication et considérer les efforts de l’être humain pour y mettre fin comme une menace à réaliser. Comme le montrent ces illustrations, le souci d’une IA sophistiquée n’est pas la malveillance mais les compétences. Une IA brillante et intelligente sera extrêmement efficace pour atteindre ses objectifs, et lorsque les objectifs individuels ne sont pas alignés sur les nôtres, il y a une difficulté. Vous n’êtes peut-être pas un méchant anti-fourmis qui marche sur les fourmis par méchanceté, mais quand vous êtes aux commandes d’une entreprise de vitalité hydroélectrique respectueuse de l’environnement et qu’il y a une fourmilière dans la région pour être bombardée, trop nocive pour les fourmis. Un objectif important des études scientifiques sur la sécurité de l’IA est de ne pas repérer l’humanité dans le placement des fourmis.