L’intelligence artificielle transforme le monde

Shape Image
Shape Image
Shape Image
Shape Image
Shape Image
Shape Image
L’intelligence artificielle transforme le monde

L’intelligence artificielle (IA) est un outil de grande envergure qui permet aux gens de repenser la façon dont nous intégrons les informations, analysons les données et utilisons les informations qui en résultent pour améliorer la prise de décision – et elle transforme déjà tous les domaines de la vie.

La plupart des gens ne connaissent pas très bien le concept d’intelligence artificielle (IA). À titre d’illustration, lorsque 1500 hauts dirigeants d’entreprises aux États-Unis en 2017 ont été interrogés sur l’IA, seuls 17% ont déclaré la connaître. Un certain nombre d’entre eux ne savaient pas vraiment de quoi il s’agissait ou comment cela affecterait leurs entreprises particulières. Ils comprenaient qu’il y avait un potentiel considérable de modification des processus métier, mais ne savaient pas comment l’IA pourrait être déployée au sein de leurs propres organisations.

Malgré son manque général de familiarité, l’IA est une technologie qui transforme tous les domaines de la vie. C’est un outil de grande envergure qui permet aux gens de repenser la façon dont nous intégrons les informations, analysons les données et utilisons les informations qui en résultent pour améliorer la prise de décision. Notre espoir à travers cet aperçu complet est d’expliquer l’IA à un public de décideurs politiques, de leaders d’opinion et d’observateurs intéressés, et de démontrer comment l’IA modifie déjà le monde et soulève des questions importantes pour la société, l’économie et la gouvernance.

Dans cet article, nous discutons de nouvelles applications dans les domaines de la finance, de la sécurité nationale, des soins de santé, de la justice pénale, des transports et des villes intelligentes, et abordons des problèmes tels que les problèmes d’accès aux données, le biais algorithmique, l’éthique et la transparence de l’IA, et la responsabilité juridique pour les décisions relatives à l’IA. Nous opposons les approches réglementaires des États-Unis et de l’Union européenne, et terminons en formulant un certain nombre de recommandations pour tirer le meilleur parti de l’IA tout en protégeant d’importantes valeurs humaines.

Afin de maximiser les avantages de l’IA, nous recommandons neuf étapes pour aller de l’avant :

  • Encourager un meilleur accès aux données pour les chercheurs sans compromettre la vie privée des utilisateurs,
  • investir plus de financement gouvernemental dans la recherche non classifiée sur l’IA,
  • promouvoir de nouveaux modèles d’éducation numérique et de développement de la main-d’œuvre en IA afin que les employés aient les compétences nécessaires dans l’ économie du 21 e siècle,
  • créer un comité consultatif fédéral sur l’IA pour formuler des recommandations politiques,
  • s’engager avec les autorités nationales et locales afin qu’ils adoptent des politiques efficaces,
  • réglementer les principes généraux de l’IA plutôt que des algorithmes spécifiques,
  • prendre au sérieux les plaintes de partialité afin que l’IA ne reproduise pas l’injustice, l’iniquité ou la discrimination historiques dans les données ou les algorithmes,
  • maintenir des mécanismes de surveillance et de contrôle humains, et
  • sanctionner les comportements malveillants de l’IA et promouvoir la cybersécurité.

I. Qualités de l’intelligence artificielle

Bien qu’il n’y ait pas de définition uniformément acceptée, on pense généralement que l’IA se réfère à «des machines qui répondent à une stimulation conforme aux réponses traditionnelles des humains, étant donné la capacité humaine de contemplation, de jugement et d’intention». Selon les chercheurs Shubhendu et Vijay, ces systèmes logiciels «prennent des décisions qui nécessitent normalement [un] niveau humain d’expertise» et aident les gens à anticiper les problèmes ou à résoudre les problèmes au fur et à mesure qu’ils surviennent. En tant que tels, ils fonctionnent de manière intentionnelle, intelligente et adaptative.

Intentionnalité

Les algorithmes d’intelligence artificielle sont conçus pour prendre des décisions, souvent en utilisant des données en temps réel. Ils sont différents des machines passives qui ne sont capables que de réponses mécaniques ou prédéterminées. À l’aide de capteurs, de données numériques ou d’entrées à distance, ils combinent des informations provenant de diverses sources différentes, analysent instantanément le matériau et agissent sur les informations dérivées de ces données. Avec des améliorations massives des systèmes de stockage, des vitesses de traitement et des techniques d’analyse, ils sont capables d’une extrême sophistication dans l’analyse et la prise de décision.

L’intelligence artificielle modifie déjà le monde et soulève d’importantes questions pour la société, l’économie et la gouvernance.

Intelligence

L’IA est généralement entreprise en conjonction avec l’apprentissage automatique et l’analyse de données. L’apprentissage automatique prend des données et recherche les tendances sous-jacentes. S’il détecte quelque chose de pertinent pour un problème pratique, les concepteurs de logiciels peuvent utiliser ces connaissances et les utiliser pour analyser des problèmes spécifiques. Tout ce qui est nécessaire, ce sont des données suffisamment robustes pour que les algorithmes puissent discerner des modèles utiles. Les données peuvent prendre la forme d’informations numériques, d’imagerie satellite, d’informations visuelles, de texte ou de données non structurées.

Adaptabilité

Les systèmes d’IA ont la capacité d’apprendre et de s’adapter lorsqu’ils prennent des décisions. Dans le domaine des transports, par exemple, les véhicules semi-autonomes disposent d’outils qui informent les conducteurs et les véhicules des embouteillages à venir, des nids-de-poule, de la construction d’autoroutes ou d’autres obstacles possibles à la circulation. Les véhicules peuvent profiter de l’expérience d’autres véhicules sur la route, sans intervention humaine, et l’ensemble du corpus de leur «expérience» acquise est immédiatement et entièrement transférable à d’autres véhicules configurés de manière similaire. Leurs algorithmes, capteurs et caméras avancés intègrent l’expérience des opérations actuelles et utilisent des tableaux de bord et des affichages visuels pour présenter les informations en temps réel afin que les conducteurs humains soient en mesure de comprendre le trafic en cours et les conditions des véhicules.

II. APPLICATIONS DANS DIVERS SECTEURS

L’IA n’est pas une vision futuriste, mais plutôt quelque chose qui est ici aujourd’hui et qui est intégré et déployé dans une variété de secteurs. Cela comprend des domaines tels que la finance, la sécurité nationale, les soins de santé, la justice pénale, les transports et les villes intelligentes. Il existe de nombreux exemples où l’IA a déjà un impact sur le monde et augmente les capacités humaines de manière significative.

robotic-arms-along-assembly-line-in-modern-factory-opt

L’une des raisons du rôle croissant de l’IA est les formidables opportunités de développement économique qu’elle présente. Un projet entrepris par PriceWaterhouseCoopers a estimé que «les technologies d’intelligence artificielle pourraient augmenter le PIB mondial de 15,7 billions de dollars, soit 14%, d’ici 2030».  Cela comprend des avances de 7 billions de dollars en Chine, 3,7 billions de dollars en Amérique du Nord, 1,8 billion de dollars en Europe du Nord, 1,2 billion de dollars pour l’Afrique et l’Océanie, 0,9 billion de dollars dans le reste de l’Asie en dehors de la Chine, 0,7 billion de dollars en Europe du Sud et 0,5 milliard de dollars. trillions en Amérique latine. La Chine fait des progrès rapides car elle s’est fixé comme objectif national d’investir 150 milliards de dollars dans l’IA et de devenir le leader mondial dans ce domaine d’ici 2030.

Pendant ce temps, une étude du McKinsey Global Institute sur la Chine a révélé que «l’automatisation basée sur l’IA peut donner à l’économie chinoise une injection de productivité qui ajouterait de 0,8 à 1,4 point de pourcentage à la croissance du PIB chaque année, en fonction de la vitesse d’adoption. Bien que ses auteurs aient constaté que la Chine accuse actuellement un retard par rapport aux États-Unis et au Royaume-Uni dans le déploiement de l’IA, la taille même de son marché de l’IA donne à ce pays d’énormes possibilités de tests pilotes et de développement futur.

La finance

Les investissements dans l’IA financière aux États-Unis ont triplé entre 2013 et 2014 pour atteindre un total de 12,2 milliards de dollars. Selon les observateurs de ce secteur, «les décisions concernant les prêts sont désormais prises par un logiciel qui peut prendre en compte une variété de données finement analysées sur un emprunteur, plutôt que simplement une cote de crédit et une vérification des antécédents.» En outre, il existe des soi-disant robots-conseillers qui «créent des portefeuilles d’investissement personnalisés, évitant ainsi le recours à des agents de change et à des conseillers financiers». Ces avancées sont conçues pour éliminer l’émotion de l’investissement et prendre des décisions fondées sur des considérations analytiques, et faire ces choix en quelques minutes.

artificial-intelligence-in-financial-activities-opt

Un exemple frappant de cela se produit dans les bourses de valeurs, où le trading haute fréquence par des machines a remplacé une grande partie de la prise de décision humaine. Les gens soumettent des ordres d’achat et de vente, et les ordinateurs les comparent en un clin d’œil sans intervention humaine. Les machines peuvent repérer les inefficacités de négociation ou les différentiels de marché à très petite échelle et exécuter des transactions qui rapportent de l’argent selon les instructions des investisseurs. Alimentés à certains endroits par l’informatique avancée, ces outils ont des capacités beaucoup plus grandes pour stocker des informations en raison de leur emphase non pas sur un zéro ou un un, mais sur des «bits quantiques» qui peuvent stocker plusieurs valeurs à chaque emplacement. Cela augmente considérablement la capacité de stockage et réduit les temps de traitement.

La détection de la fraude représente une autre façon dont l’IA est utile dans les systèmes financiers. Il est parfois difficile de discerner les activités frauduleuses dans les grandes organisations, mais l’IA peut identifier des anomalies, des valeurs aberrantes ou des cas déviants nécessitant une enquête supplémentaire. Cela aide les gestionnaires à déceler les problèmes au début du cycle, avant qu’ils n’atteignent des niveaux dangereux.

La sécurité nationale

L’IA joue un rôle important dans la défense nationale. Grâce à son projet Maven, l’armée américaine déploie l’IA «pour passer au crible les énormes trésors de données et de vidéos capturées par la surveillance, puis alerter les analystes humains des modèles ou en cas d’activité anormale ou suspecte». Selon le sous-secrétaire à la Défense Patrick Shanahan, l’objectif des technologies émergentes dans ce domaine est «de répondre aux besoins de nos combattants et d’augmenter la rapidité et l’agilité du développement et de l’approvisionnement technologiques».

L’intelligence artificielle accélérera si rapidement le processus traditionnel de guerre qu’un nouveau terme a été inventé : hyperguerre.

L’analyse des mégadonnées associée à l’IA affectera profondément l’analyse du renseignement, car d’énormes quantités de données sont tamisées en temps quasi réel – sinon finalement en temps réel – offrant ainsi aux commandants et à leurs états-majors un niveau d’analyse du renseignement et de productivité jusqu’alors inconnu. Le commandement et le contrôle seront également affectés lorsque les commandants humains délègueront certaines décisions de routine et, dans des circonstances particulières, des décisions clés aux plates-formes d’IA, ce qui réduira considérablement le temps associé à la décision et à l’action ultérieure. En fin de compte, la guerre est un processus de compétition dans le temps, où le camp capable de décider le plus rapidement et de passer le plus rapidement à l’exécution prévaudra généralement. En effet, des systèmes de renseignement artificiellement intelligents, liés à des systèmes de commande et de contrôle assistés par l’IA, peut amener l’aide à la décision et la prise de décision à une vitesse largement supérieure à celle des moyens traditionnels de faire la guerre. Ce processus sera si rapide, surtout s’il est couplé à des décisions automatiques de lancer des systèmes d’armes autonomes artificiellement intelligents capables de résultats mortels, qu’un nouveau terme a été inventé spécifiquement pour englober la vitesse à laquelle la guerre sera menée : l’hyperguerre.

Alors que le débat éthique et juridique fait rage sur la question de savoir si l’Amérique va jamais faire la guerre à des systèmes létaux autonomes artificiellement intelligents, les Chinois et les Russes ne sont pas aussi embourbés dans ce débat, et nous devrions anticiper notre besoin de nous défendre contre ces systèmes fonctionnant à des vitesses de guerre . Le défi en Occident de savoir où placer les «humains dans la boucle» dans un scénario d’hyperguerre dictera en fin de compte la capacité de l’Occident à être compétitif dans cette nouvelle forme de conflit.

Tout comme l’IA affectera profondément la vitesse de la guerre, la prolifération des cybermenaces zéro jour ou zéro seconde ainsi que des malwares polymorphes défieront même la cybersécurité la plus sophistiquée basée sur les signatures. Cela force une amélioration significative des cyberdéfenses existantes. De plus en plus, les systèmes vulnérables migrent et devront passer à une approche en couches de la cybersécurité avec des plates-formes d’IA cognitives basées sur le cloud. Cette approche fait évoluer la communauté vers une capacité défensive «réfléchie» qui peut défendre les réseaux grâce à une formation constante sur les menaces connues. Cette capacité comprend l’analyse au niveau de l’ADN d’un code jusqu’ici inconnu, avec la possibilité de reconnaître et d’arrêter le code malveillant entrant en reconnaissant un composant chaîne du fichier. C’est ainsi que certaines clés américaines

Se préparer à l’hyper-guerre et défendre les cyber-réseaux critiques doit devenir une priorité absolue car la Chine, la Russie, la Corée du Nord et d’autres pays consacrent des ressources substantielles à l’IA. En 2017, le Conseil d’État chinois a publié un plan pour que le pays «construise une industrie nationale d’une valeur de près de 150 milliards de dollars» d’ici 2030. À titre d’exemple des possibilités, la société de recherche chinoise Baidu a lancé une application de reconnaissance faciale qui est manquante. personnes. En outre, des villes comme Shenzhen fournissent jusqu’à 1 million de dollars pour soutenir les laboratoires d’IA. Ce pays espère que l’IA fournira la sécurité, combattra le terrorisme et améliorera les programmes de reconnaissance vocale. La nature à double usage de nombreux algorithmes d’IA signifie que la recherche sur l’IA axée sur un secteur de la société peut être rapidement modifiée pour être également utilisée dans le secteur de la sécurité.

Soins de santé

Les outils d’IA aident les concepteurs à améliorer la sophistication des calculs dans les soins de santé. Par exemple, Merantix est une entreprise allemande qui applique l’apprentissage profond aux problèmes médicaux. Il a une application en imagerie médicale qui «détecte les ganglions lymphatiques dans le corps humain dans les images de tomographie par ordinateur (CT)». Selon ses développeurs, la clé est d’étiqueter les nœuds et d’identifier les petites lésions ou excroissances qui pourraient être problématiques. Les humains peuvent le faire, mais les radiologues facturent 100 $ l’heure et peuvent ne pouvoir lire attentivement que quatre images par heure. S’il y avait 10 000 images, le coût de ce processus serait de plus de 200 000 €, ce qui est prohibitif s’il est réalisé par des humains.

Ce que l’apprentissage en profondeur peut faire dans cette situation, c’est former les ordinateurs sur des ensembles de données pour apprendre ce qu’est un ganglion lymphatique d’aspect normal par rapport à un ganglion lymphatique d’apparence irrégulière. Après avoir fait cela grâce à des exercices d’imagerie et en perfectionnant la précision de l’étiquetage, les spécialistes en imagerie radiologique peuvent appliquer ces connaissances à des patients réels et déterminer dans quelle mesure une personne est à risque de ganglions lymphatiques cancéreux. Étant donné que seuls quelques-uns sont susceptibles d’être testés positifs, il s’agit d’identifier le nœud malsain par rapport au nœud sain.

L’IA a également été appliquée à l’insuffisance cardiaque congestive, une maladie qui touche 10% des personnes âgées et coûte 35 milliards de dollars chaque année aux États-Unis. Les outils d’IA sont utiles car ils «prédisent à l’avance les défis potentiels à venir et allouent des ressources à l’éducation des patients, à la détection et aux interventions proactives qui empêchent les patients d’entrer dans l’hôpital».

Justice criminelle

AI est en cours de déploiement dans le domaine de la justice pénale. La ville de Chicago a développé une «liste de sujets stratégiques» basée sur l’intelligence artificielle qui analyse les personnes arrêtées en raison de leur risque de devenir de futurs auteurs. Il classe 400 000 personnes sur une échelle de 0 à 500, en utilisant des éléments tels que l’âge, l’activité criminelle, la victimisation, les dossiers d’arrestation pour drogue et l’affiliation à un gang. En examinant les données, les analystes ont constaté que les jeunes sont un bon prédicteur de la violence, être victime de coups de feu est associé au fait de devenir un futur agresseur, l’appartenance à un gang a peu de valeur prédictive et les arrestations liées à la drogue ne sont pas significativement associées à une future activité criminelle.

Les experts judiciaires affirment que les programmes d’IA réduisent les préjugés humains dans l’application de la loi et conduisent à un système de détermination de la peine plus équitable. Caleb Watney, associé du R Street Institute, écrit :

Les questions empiriquement fondées sur l’analyse prédictive des risques jouent sur les atouts de l’apprentissage automatique, du raisonnement automatisé et d’autres formes d’IA. Une simulation de politique d’apprentissage automatique a conclu que de tels programmes pourraient être utilisés pour réduire la criminalité jusqu’à 24,8% sans changement des taux d’emprisonnement, ou réduire les populations carcérales jusqu’à 42% sans augmentation des taux de criminalité.

Cependant, les critiques craignent que les algorithmes d’IA représentent «un système secret pour punir les citoyens pour des crimes qu’ils n’ont pas encore commis. Les scores de risque ont été utilisés à plusieurs reprises pour guider des rafles à grande échelle.»

Malgré ces inquiétudes, d’autres pays vont de l’avant avec un déploiement rapide dans ce domaine. En Chine, par exemple, les entreprises disposent déjà «de ressources considérables et d’un accès aux voix, aux visages et à d’autres données biométriques en grande quantité, ce qui les aiderait à développer leurs technologies».  Les nouvelles technologies permettent de faire correspondre les images et les voix avec d’autres types d’informations et d’utiliser l’IA sur ces ensembles de données combinés pour améliorer l’application de la loi et la sécurité nationale. Grâce à son programme «Sharp Eyes», les forces de l’ordre chinoises associent les images vidéo, l’activité des réseaux sociaux, les achats en ligne, les dossiers de voyage et l’identité personnelle dans un «nuage policier». Cette base de données intégrée permet aux autorités de suivre les criminels, les contrevenants potentiels et les terroristes. En d’autres termes, la Chine est devenue le premier État mondial de surveillance alimenté par l’IA.

Transport

Le transport représente un domaine où l’IA et l’apprentissage automatique produisent des innovations majeures. Une recherche de Cameron Kerry et Jack Karsten de la Brookings Institution a révélé que plus de 80 milliards de dollars ont été investis dans la technologie des véhicules autonomes entre août 2014 et juin 2017. Ces investissements comprennent des applications à la fois pour la conduite autonome et les technologies de base vitales pour ce secteur.

Les véhicules autonomes – voitures, camions, bus et systèmes de livraison par drone – utilisent des capacités technologiques avancées. Ces fonctionnalités comprennent le guidage et le freinage automatisés du véhicule, les systèmes de changement de voie, l’utilisation de caméras et de capteurs pour éviter les collisions, l’utilisation de l’IA pour analyser les informations en temps réel et l’utilisation de systèmes de calcul haute performance et d’apprentissage en profondeur pour s’adapter à nouvelles circonstances grâce à des cartes détaillées.

Les systèmes de détection et de télémétrie de lumière (LIDAR) et l’IA sont essentiels à la navigation et à l’évitement des collisions. Les systèmes LIDAR combinent des instruments lumineux et radar. Ils sont montés sur le dessus de véhicules qui utilisent l’imagerie dans un environnement à 360 degrés à partir d’un radar et de faisceaux lumineux pour mesurer la vitesse et la distance des objets environnants. Outre des capteurs placés à l’avant, sur les côtés et à l’arrière du véhicule, ces instruments fournissent des informations qui maintiennent les voitures et les camions en mouvement rapide dans leur propre voie, les aident à éviter les autres véhicules, appliquent les freins et la direction en cas de besoin, et le font instantanément. afin d’éviter les accidents.

Un logiciel avancé permet aux voitures d’apprendre des expériences d’autres véhicules sur la route et d’ajuster leurs systèmes de guidage en fonction des conditions météorologiques, de conduite ou de la route. Cela signifie que le logiciel est la clé, pas la voiture physique ou le camion lui-même.

Étant donné que ces caméras et capteurs compilent une énorme quantité d’informations et doivent les traiter instantanément pour éviter la voiture dans la voie suivante, les véhicules autonomes nécessitent un calcul haute performance, des algorithmes avancés et des systèmes d’apprentissage en profondeur pour s’adapter à de nouveaux scénarios. Cela signifie que le logiciel est la clé, pas la voiture physique ou le camion lui-même. Les logiciels avancés permettent aux voitures d’apprendre des expériences d’autres véhicules sur la route et d’ajuster leurs systèmes de guidage en fonction des conditions météorologiques, de conduite ou de la route.

Les entreprises de covoiturage sont très intéressées par les véhicules autonomes. Ils voient des avantages en termes de service client et de productivité du travail. Toutes les grandes entreprises de covoiturage explorent les voitures sans conducteur. L’essor des services d’autopartage et de taxi – comme Uber et Lyft aux États-Unis, les services Mytaxi et Hailo de Daimler en Grande-Bretagne et Didi Chuxing en Chine – démontrent les opportunités de cette option de transport. Uber a récemment signé un accord pour acheter 24 000 voitures autonomes à Volvo pour son service de covoiturage.

Cependant, la société de covoiturage a subi un revers en mars 2018 lorsqu’un de ses véhicules autonomes en Arizona a heurté et tué un piéton. Uber et plusieurs constructeurs automobiles ont immédiatement suspendu les tests et lancé des enquêtes sur ce qui n’allait pas et comment le décès aurait pu survenir. L’industrie et les consommateurs veulent être assurés que la technologie est sûre et capable de tenir ses promesses déclarées. À moins de réponses convaincantes, cet accident pourrait ralentir les progrès de l’IA dans le secteur des transports.

Villes intelligentes

Les gouvernements métropolitains utilisent l’IA pour améliorer la prestation de services urbains. Par exemple, selon Kevin Desouza, Rashmi Krishnamurthy et Gregory Dawson :

Le service d’incendie de Cincinnati utilise l’analyse des données pour optimiser les interventions d’urgence médicale. Le nouveau système d’analyse recommande au répartiteur une réponse appropriée à un appel d’urgence médicale – si un patient peut être traité sur place ou doit être transporté à l’hôpital – en tenant compte de plusieurs facteurs, tels que le type d’appel, l’emplacement , météo et appels similaires.

Puisqu’il traite 80 000 demandes chaque année, les responsables de Cincinnati déploient cette technologie pour hiérarchiser les réponses et déterminer les meilleurs moyens de gérer les urgences. Ils voient l’IA comme un moyen de traiter de gros volumes de données et de trouver des moyens efficaces de répondre aux demandes du public. Plutôt que de traiter les problèmes de service de manière ponctuelle, les autorités tentent d’être proactives dans la manière dont elles fournissent les services urbains.

Cincinnati n’est pas seule. Un certain nombre de zones métropolitaines adoptent des applications de ville intelligente qui utilisent l’IA pour améliorer la prestation de services, la planification environnementale, la gestion des ressources, l’utilisation de l’énergie et la prévention du crime, entre autres. Pour son indice des villes intelligentes, le magazine Fast Company a classé les localités américaines et a trouvé Seattle, Boston, San Francisco, Washington, DC et New York comme les meilleurs utilisateurs. Seattle, par exemple, a adopté la durabilité et utilise l’IA pour gérer la consommation d’énergie et la gestion des ressources. Boston a lancé un «City Hall To Go» qui s’assure que les communautés mal desservies reçoivent les services publics nécessaires. Il a également déployé «des caméras et des boucles inductives pour gérer le trafic et des capteurs acoustiques pour identifier les coups de feu». San Francisco a certifié 203 bâtiments conformes aux normes de durabilité LEED.

Grâce à ces moyens et à d’autres, les zones métropolitaines sont à la tête du pays dans le déploiement de solutions d’IA. En effet, selon un rapport de la National League of Cities, 66% des villes américaines investissent dans la technologie des villes intelligentes. Parmi les principales applications mentionnées dans le rapport figurent «les compteurs intelligents pour les services publics, les feux de signalisation intelligents, les applications de gouvernance électronique, les bornes Wi-Fi et les capteurs d’identification par radiofréquence dans les chaussées».

III. QUESTIONS POLITIQUES, RÉGLEMENTAIRES ET ÉTHIQUES

Ces exemples provenant de divers secteurs démontrent comment l’IA transforme de nombreux horizons de l’existence humaine. La pénétration croissante de l’IA et des appareils autonomes dans de nombreux aspects de la vie modifie les opérations de base et la prise de décision au sein des organisations, et améliore l’efficacité et les temps de réponse.

politique-intelligence-artificielle

Dans le même temps, cependant, ces développements soulèvent d’importantes questions politiques, réglementaires et éthiques. Par exemple, comment devrions-nous promouvoir l’accès aux données ? Comment se prémunir contre les données biaisées ou injustes utilisées dans les algorithmes ? Quels types de principes éthiques sont introduits par la programmation logicielle et dans quelle mesure les concepteurs doivent-ils être transparents dans leurs choix ? Qu’en est-il des questions de responsabilité légale dans les cas où les algorithmes causent des dommages ?

La pénétration croissante de l’IA dans de nombreux aspects de la vie modifie la prise de décision au sein des organisations et améliore l’efficacité. Dans le même temps, cependant, ces développements soulèvent d’importantes questions politiques, réglementaires et éthiques.

Problèmes d’accès aux données

La clé pour tirer le meilleur parti de l’IA est d’avoir un «écosystème convivial pour les données avec des normes unifiées et un partage multiplateforme». L’IA dépend de données qui peuvent être analysées en temps réel et mises en œuvre sur des problèmes concrets. Avoir des données «accessibles pour l’exploration» dans la communauté de la recherche est une condition préalable au développement réussi de l’IA.

Selon une étude du McKinsey Global Institute, les pays qui promeuvent les sources de données ouvertes et le partage de données sont les plus susceptibles de voir des progrès de l’IA. À cet égard, les États-Unis ont un avantage substantiel sur la Chine. Les évaluations mondiales de l’ouverture des données montrent que les États-Unis se classent au huitième rang mondial, contre 93 pour la Chine.

Mais à l’heure actuelle, les États-Unis n’ont pas de stratégie nationale cohérente en matière de données. Il existe peu de protocoles de promotion de l’accès à la recherche ou de plateformes permettant d’obtenir de nouvelles informations à partir de données propriétaires. Il n’est pas toujours clair à qui appartiennent les données ou à quel point elles appartiennent à la sphère publique. Ces incertitudes limitent l’économie de l’innovation et agissent comme un frein à la recherche universitaire. Dans la section suivante, nous décrivons des moyens d’améliorer l’accès aux données pour les chercheurs.

Biais dans les données et les algorithmes

Dans certains cas, on pense que certains systèmes d’IA ont permis des pratiques discriminatoires ou biaisées. Par exemple, Airbnb a été accusé d’avoir des propriétaires sur sa plateforme qui discriminent les minorités raciales. Un projet de recherche entrepris par la Harvard Business School a révélé que «les utilisateurs d’Airbnb portant des noms clairement afro-américains étaient environ 16% moins susceptibles d’être acceptés en tant qu’invités que ceux dont les noms étaient clairement blancs.»

Les problèmes raciaux sont également associés aux logiciels de reconnaissance faciale. La plupart de ces systèmes fonctionnent en comparant le visage d’une personne à une gamme de visages dans une grande base de données. Comme l’a souligné Joy Buolamwini de l’Algorithmic Justice League, «Si vos données de reconnaissance faciale contiennent principalement des visages caucasiens, c’est ce que votre programme apprendra à reconnaître.»  À moins que les bases de données n’aient accès à des données diverses, ces programmes fonctionnent mal lorsqu’ils tentent de reconnaître des caractéristiques afro-américaines ou asiatiques-américaines.

De nombreux ensembles de données historiques reflètent des valeurs traditionnelles, qui peuvent ou non représenter les préférences voulues dans un système actuel. Comme le note Buolamwini, une telle approche risque de répéter les inégalités du passé :

La montée en puissance de l’automatisation et le recours accru aux algorithmes pour les décisions à enjeux élevés tels que la question de savoir si quelqu’un obtient une assurance ou non, votre probabilité de défaut de paiement sur un prêt ou le risque de récidive de quelqu’un signifie que c’est quelque chose qui doit être abordé. Même les décisions d’admission sont de plus en plus automatisées – dans quelle école nos enfants vont et quelles opportunités ils ont. Nous n’avons pas à ramener les inégalités structurelles du passé dans le futur que nous créons.

Éthique et transparence de l’IA

Les algorithmes intègrent des considérations éthiques et des choix de valeur dans les décisions de programme. À ce titre, ces systèmes soulèvent des questions sur les critères utilisés dans la prise de décision automatisée. Certaines personnes veulent mieux comprendre le fonctionnement des algorithmes et les choix qui sont faits.

Aux États-Unis, de nombreuses écoles urbaines utilisent des algorithmes pour les décisions d’inscription basées sur une variété de considérations, telles que les préférences des parents, les qualités du quartier, le niveau de revenu et le contexte démographique. Selon Jon Valant, chercheur à Brookings, la Bricolage Academy de la Nouvelle-Orléans «donne la priorité aux candidats économiquement défavorisés pour jusqu’à 33% des sièges disponibles. Dans la pratique, cependant, la plupart des villes ont opté pour des catégories qui donnent la priorité aux frères et sœurs des élèves actuels, aux enfants des employés de l’école et aux familles vivant dans la vaste zone géographique de l’école. On peut s’attendre à ce que les choix d’inscription soient très différents lorsque des considérations de ce genre entrent en jeu.

Selon la façon dont les systèmes d’IA sont mis en place, ils peuvent faciliter la redlining des demandes de prêt hypothécaire, aider les gens à discriminer les personnes qu’ils n’aiment pas ou aider à filtrer ou à créer des listes d’individus en fonction de critères injustes. Les types de considérations qui entrent dans les décisions de programmation importent beaucoup en termes de fonctionnement des systèmes et comment ils affectent les clients.

Pour ces raisons, l’UE met en œuvre le règlement général sur la protection des données (RGPD) en mai 2018. Les règles spécifient que les personnes ont «le droit de refuser les publicités personnalisées» et «peuvent contester les décisions« légales ou d’importance similaire »prises par algorithmes et appel à l’intervention humaine »sous la forme d’une explication de la manière dont l’algorithme a généré un résultat particulier. Chaque ligne directrice est conçue pour assurer la protection des données personnelles et fournir aux individus des informations sur le fonctionnement de la «boîte noire».

Responsabilité juridique

Il y a des questions concernant la responsabilité juridique des systèmes d’IA. S’il y a des préjudices ou des infractions (ou des décès dans le cas des voitures sans conducteur), les opérateurs de l’algorithme seront probablement soumis aux règles de responsabilité du produit. Un corpus de jurisprudence a montré que les faits et les circonstances de la situation déterminent la responsabilité et influencent le type de sanctions imposées. Celles-ci peuvent aller des amendes civiles à l’emprisonnement pour des préjudices majeurs. Le décès lié à Uber en Arizona sera un cas test important pour la responsabilité juridique. L’État a activement recruté Uber pour tester ses véhicules autonomes et a donné à l’entreprise une latitude considérable en termes d’essais routiers. Reste à savoir s’il y aura des poursuites dans cette affaire et qui est poursuivi : le pilote de secours humain, l’état de l’Arizona, la banlieue de Phoenix où l’accident a eu lieu, Uber, les développeurs de logiciels ou le constructeur automobile. Étant donné les multiples personnes et organisations impliquées dans les essais routiers, de nombreuses questions juridiques doivent être résolues.

Dans les zones autres que les transports, les plateformes numériques ont souvent une responsabilité limitée pour ce qui se passe sur leurs sites. Par exemple, dans le cas d’Airbnb, la société «exige que les gens acceptent de renoncer à leur droit de poursuivre ou de se joindre à un recours collectif ou à un arbitrage de recours collectif, pour utiliser le service». En exigeant que ses utilisateurs sacrifient les droits fondamentaux, l’entreprise limite les protections des consommateurs et réduit ainsi la capacité des personnes à lutter contre la discrimination résultant d’algorithmes injustes. Mais la question de savoir si le principe des réseaux neutres tient dans de nombreux secteurs reste à déterminer de manière généralisée.

IV. RECOMMANDATIONS

Afin d’équilibrer l’innovation avec les valeurs humaines de base, nous proposons un certain nombre de recommandations pour aller de l’avant avec l’IA. Cela comprend l’amélioration de l’accès aux données, l’augmentation des investissements gouvernementaux dans l’IA, la promotion du développement de la main-d’œuvre de l’IA, la création d’un comité consultatif fédéral, la collaboration avec les autorités étatiques et locales pour s’assurer qu’ils adoptent des politiques efficaces, la réglementation des objectifs généraux par opposition à des algorithmes spécifiques, en prenant au sérieux les préjugés en tant que Problème d’IA, maintien des mécanismes de contrôle et de surveillance humains, pénalisation des comportements malveillants et promotion de la cybersécurité.

Améliorer l’accès aux données

Les États-Unis devraient développer une stratégie de données qui favorise l’innovation et la protection des consommateurs. À l’heure actuelle, il n’existe pas de normes uniformes en termes d’accès aux données, de partage de données ou de protection des données. Presque toutes les données sont de nature exclusive et ne sont pas partagées très largement avec la communauté de recherche, ce qui limite l’innovation et la conception du système. L’IA a besoin de données pour tester et améliorer sa capacité d’apprentissage. Sans ensembles de données structurés et non structurés, il sera presque impossible de tirer pleinement parti de l’intelligence artificielle.

En général, la communauté de recherche a besoin d’un meilleur accès aux données gouvernementales et commerciales, mais avec des garanties appropriées pour s’assurer que les chercheurs n’utilisent pas les données à mauvais escient comme Cambridge Analytica l’a fait avec les informations Facebook. Les chercheurs peuvent accéder aux données de diverses manières. La première consiste en des accords volontaires avec des entreprises détenant des données exclusives. Facebook, par exemple, a récemment annoncé un partenariat avec l’économiste de Stanford Raj Chetty pour utiliser ses données sur les réseaux sociaux pour explorer les inégalités. Dans le cadre de l’arrangement, les chercheurs devaient se soumettre à une vérification des antécédents et ne pouvaient accéder aux données qu’à partir de sites sécurisés afin de protéger la confidentialité et la sécurité des utilisateurs.

Aux États-Unis, il n’existe pas de normes uniformes en termes d’accès aux données, de partage de données ou de protection des données. Presque toutes les données sont de nature exclusive et ne sont pas partagées très largement avec la communauté de recherche, ce qui limite l’innovation et la conception du système.

Google propose depuis longtemps des résultats de recherche sous forme agrégée aux chercheurs et au grand public. Grâce à son site «Trends», les chercheurs peuvent analyser des sujets tels que l’intérêt pour Trump, les points de vue sur la démocratie et les perspectives sur l’économie dans son ensemble. Cela aide les gens à suivre les mouvements dans l’intérêt public et à identifier les sujets qui galvanisent le grand public.

Twitter met une grande partie de ses tweets à la disposition des chercheurs via des interfaces de programmation d’applications, communément appelées API. Ces outils aident les personnes extérieures à l’entreprise à créer des logiciels d’application et à utiliser les données de sa plateforme de médias sociaux. Ils peuvent étudier les modèles de communication sur les réseaux sociaux et voir comment les gens commentent ou réagissent aux événements actuels.

Dans certains secteurs où il existe un avantage public perceptible, les gouvernements peuvent faciliter la collaboration en créant une infrastructure qui partage les données. Par exemple, le National Cancer Institute a été le pionnier d’un protocole de partage de données dans lequel les chercheurs certifiés peuvent interroger les données de santé dont il dispose en utilisant des informations anonymisées tirées de données cliniques, d’informations sur les revendications et de thérapies médicamenteuses. Cela permet aux chercheurs d’évaluer l’efficacité et l’efficacité, et de faire des recommandations concernant les meilleures approches médicales, sans compromettre la vie privée de chaque patient.

Il pourrait y avoir des partenariats de données public-privé qui combinent des ensembles de données gouvernementaux et commerciaux pour améliorer les performances du système. Par exemple, les villes pourraient intégrer des informations provenant des services de covoiturage à leur propre matériel sur les emplacements des services sociaux, les lignes de bus, les transports en commun et la congestion routière pour améliorer les transports. Cela aiderait les régions métropolitaines à gérer les embouteillages et à planifier les autoroutes et les transports en commun.

Une combinaison de ces approches améliorerait l’accès aux données pour les chercheurs, le gouvernement et le milieu des affaires, sans empiéter sur la vie privée. Comme le note Ian Buck, vice-président de NVIDIA, «Les données sont le carburant qui anime le moteur de l’IA. Le gouvernement fédéral a accès à de vastes sources d’information. L’ouverture de l’accès à ces données nous aidera à obtenir des informations qui transformeront l’économie américaine.» Grâce à son portail Data.gov, le gouvernement fédéral a déjà mis plus de 230 000 ensembles de données dans le domaine public, ce qui a propulsé l’innovation et aidé à améliorer les technologies d’IA et d’analyse des données. Le secteur privé doit également faciliter l’accès aux données de recherche afin que la société puisse tirer pleinement parti de l’intelligence artificielle.

Augmenter les investissements gouvernementaux dans l’IA

Selon Greg Brockman, co-fondateur d’OpenAI, le gouvernement fédéral américain n’investit que 1,1 milliard de dollars dans la technologie d’IA non classifiée. C’est bien inférieur au montant dépensé par la Chine ou d’autres pays de premier plan dans ce domaine de recherche. Ce déficit est remarquable car les retombées économiques de l’IA sont substantielles. Afin de stimuler le développement économique et l’innovation sociale, les fonctionnaires fédéraux doivent augmenter les investissements dans l’intelligence artificielle et l’analyse des données. Un investissement plus élevé est susceptible de se rentabiliser plusieurs fois en avantages économiques et sociaux.

Promouvoir l’éducation numérique et le développement de la main-d’œuvre

Alors que les applications d’IA s’accélèrent dans de nombreux secteurs, il est essentiel que nous réinventions nos établissements d’enseignement pour un monde où l’IA sera omniprésente et où les étudiants ont besoin d’un type de formation différent de celui qu’ils reçoivent actuellement. À l’heure actuelle, de nombreux étudiants ne reçoivent pas d’instruction sur les types de compétences qui seront nécessaires dans un paysage dominé par l’IA. Par exemple, il existe actuellement une pénurie de spécialistes des données, d’informaticiens, d’ingénieurs, de codeurs et de développeurs de plates-formes. Ce sont des compétences qui sont rares; à moins que notre système éducatif ne génère plus de personnes avec ces capacités, cela limitera le développement de l’IA.

Pour ces raisons, les gouvernements des États et fédéral ont investi dans le capital humain de l’IA. Par exemple, en 2017, la National Science Foundation a financé plus de 6500 étudiants diplômés dans des domaines liés à l’informatique et a lancé plusieurs nouvelles initiatives conçues pour encourager les données et l’informatique à tous les niveaux, de la pré-maternelle à la formation supérieure et continue. L’objectif est de construire un plus grand pipeline de personnel d’IA et d’analyse de données afin que les États-Unis puissent profiter pleinement des avantages de la révolution de la connaissance.

Mais il doit également y avoir des changements substantiels dans le processus d’apprentissage lui-même. Ce ne sont pas seulement des compétences techniques qui sont nécessaires dans un monde de l’IA, mais des compétences de raisonnement critique, de collaboration, de conception, d’affichage visuel d’informations et de réflexion indépendante, entre autres. L’IA va reconfigurer le fonctionnement de la société et de l’économie, et il faut réfléchir à ce que cela signifiera pour l’éthique, la gouvernance et l’impact sociétal. Les gens devront avoir la capacité de réfléchir de manière large à de nombreuses questions et d’intégrer des connaissances provenant de différents domaines.

robot-employe-supermarche

Le programme Teacher Advisor d’IBM, qui utilise les outils en ligne gratuits de Watson pour aider les enseignants à apporter les dernières connaissances en classe, est un exemple de nouvelles façons de préparer les étudiants à un avenir numérique. Ils permettent aux instructeurs de développer de nouveaux plans de cours dans les domaines STEM et non STEM, de trouver des vidéos pédagogiques pertinentes et d’aider les étudiants à tirer le meilleur parti de la classe. En tant que tels, ils sont des précurseurs de nouveaux environnements éducatifs qui doivent être créés.

Créer un comité consultatif fédéral sur l’IA

Les fonctionnaires fédéraux doivent réfléchir à la manière dont ils traitent l’intelligence artificielle. Comme indiqué précédemment, il existe de nombreux problèmes allant de la nécessité d’un meilleur accès aux données à la résolution des problèmes de partialité et de discrimination. Il est essentiel que ces préoccupations et d’autres soient prises en compte afin que nous puissions profiter pleinement des avantages de cette technologie émergente.

Afin d’aller de l’avant dans ce domaine, plusieurs membres du Congrès ont présenté le «Future of Artificial Intelligence Act», un projet de loi destiné à établir une politique générale et des principes juridiques pour l’IA. Il propose au secrétaire au commerce de créer un comité consultatif fédéral sur le développement et la mise en œuvre de l’intelligence artificielle. La législation prévoit un mécanisme permettant au gouvernement fédéral d’obtenir des conseils sur les moyens de promouvoir un «climat d’investissement et d’innovation pour assurer la compétitivité mondiale des États-Unis», «d’optimiser le développement de l’intelligence artificielle pour faire face à la croissance potentielle, à la restructuration ou d’autres changements dans la main-d’œuvre américaine »,« soutiennent le développement et l’application impartiaux de l’intelligence artificielle »et« protègent le droit à la vie privée des individus ».

Parmi les questions spécifiques que le comité est invité à aborder, citons les suivantes: compétitivité, impact sur la main-d’œuvre, éducation, formation à l’éthique, partage de données, coopération internationale, responsabilité, biais d’apprentissage automatique, impact rural, efficacité du gouvernement, climat d’investissement, impact sur l’emploi, biais, et l’impact sur les consommateurs. Le comité est chargé de soumettre un rapport au Congrès et à l’administration 540 jours après la promulgation concernant toute action législative ou administrative nécessaire sur l’IA.

Cette législation est un pas dans la bonne direction, même si le domaine évolue si rapidement que nous recommandons de raccourcir le délai de déclaration de 540 jours à 180 jours. Attendre près de deux ans pour un rapport de comité se traduira certainement par des occasions manquées et un manque d’action sur des questions importantes. Compte tenu des progrès rapides dans le domaine, il serait très avantageux d’avoir un délai d’exécution beaucoup plus court pour l’analyse du comité.

S’engager avec les autorités nationales et locales

Les États et les localités prennent également des mesures contre l’IA. Par exemple, le conseil municipal de New York a adopté à l’unanimité un projet de loi enjoignant au maire de former un groupe de travail qui «surveillerait l’équité et la validité des algorithmes utilisés par les agences municipales». La ville utilise des algorithmes pour «déterminer si une caution inférieure sera attribuée à un défendeur indigente, où des casernes de pompiers sont établies, le placement des élèves dans les écoles publiques, évaluer la performance des enseignants, identifier la fraude Medicaid et déterminer où le crime se produira ensuite.

Selon les développeurs de la législation, les responsables de la ville veulent savoir comment ces algorithmes fonctionnent et s’assurer que l’IA est suffisamment transparente et responsable. En outre, il existe des inquiétudes concernant l’équité et les biais des algorithmes d’IA, de sorte que le groupe de travail a été chargé d’analyser ces problèmes et de faire des recommandations concernant l’utilisation future. Il est prévu de faire rapport au maire sur une série de questions politiques, juridiques et réglementaires en matière d’IA d’ici la fin de 2019.

Certains observateurs craignent déjà que le groupe de travail n’aille pas assez loin pour responsabiliser les algorithmes. Par exemple, Julia Powles de Cornell Tech et de l’Université de New York fait valoir que le projet de loi exigeait à l’origine que les entreprises mettent le code source de l’IA à la disposition du public pour inspection, et qu’il y ait des simulations de sa prise de décision à l’aide de données réelles. Après avoir critiqué ces dispositions, cependant, l’ancien conseiller municipal James Vacca a abandonné les exigences en faveur d’un groupe de travail étudiant ces questions. Lui et d’autres responsables de la ville craignaient que la publication d’informations exclusives sur les algorithmes ralentisse l’innovation et rende difficile la recherche de fournisseurs d’IA qui travailleraient avec la ville. Il reste à voir comment ce groupe de travail local équilibrera les questions d’innovation, de confidentialité et de transparence.

Réglementer des objectifs généraux plus que des algorithmes spécifiques

L’Union européenne a adopté une position restrictive sur ces questions de collecte et d’analyse des données. Il a des règles limitant la capacité des entreprises de collecter des données sur l’état des routes et de cartographier les vues des rues. Étant donné que nombre de ces pays craignent que les informations personnelles des personnes présentes sur les réseaux Wi-Fi non cryptés soient balayées dans la collecte de données globale, l’UE a infligé des amendes aux entreprises technologiques, exigé des copies des données et imposé des limites au matériel collecté. Cela a rendu plus difficile pour les entreprises de technologie qui y opèrent le développement des cartes haute définition requises pour les véhicules autonomes.

Le RGPD mis en œuvre en Europe impose de sévères restrictions à l’utilisation de l’intelligence artificielle et de l’apprentissage automatique. Selon les lignes directrices publiées, «les règlements interdisent toute décision automatisée qui «affecte de manière significative» les citoyens de l’UE. Cela inclut des techniques qui évaluent les «performances au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, l’emplacement ou les mouvements d’une personne». En outre, ces nouvelles règles donnent aux citoyens le droit d’examiner comment les services ont fait des choix algorithmiques spécifiques affectant les personnes.

En adoptant une position restrictive sur les questions de collecte et d’analyse des données, l’Union européenne désavantage considérablement ses fabricants et concepteurs de logiciels par rapport au reste du monde.

Si elles sont interprétées de manière stricte, ces règles rendront difficile pour les concepteurs de logiciels européens (et les concepteurs américains qui travaillent avec leurs homologues européens) d’intégrer l’intelligence artificielle et la cartographie haute définition dans les véhicules autonomes. Le point central de la navigation dans ces voitures et camions est le suivi de l’emplacement et des mouvements. Sans les cartes haute définition contenant des données géocodées et le deep learning qui utilise ces informations, la conduite entièrement autonome stagnera en Europe. Par cette action et d’autres actions de protection des données, l’Union européenne désavantage considérablement ses fabricants et concepteurs de logiciels par rapport au reste du monde.

Il est plus logique de réfléchir aux grands objectifs souhaités dans l’IA et de promulguer des politiques qui les font progresser, par opposition aux gouvernements qui tentent d’ouvrir les «boîtes noires» et de voir exactement comment fonctionnent des algorithmes spécifiques. La réglementation des algorithmes individuels limitera l’innovation et rendra difficile l’utilisation de l’intelligence artificielle pour les entreprises.

Prenez les préjugés au sérieux

Les préjugés et la discrimination sont de graves problèmes pour l’IA. Il y a déjà eu un certain nombre de cas de traitement injuste liés à des données historiques, et des mesures doivent être prises pour s’assurer que cela ne devienne pas répandu dans l’intelligence artificielle. Les lois existantes régissant la discrimination dans l’économie physique doivent être étendues aux plateformes numériques. Cela contribuera à protéger les consommateurs et à renforcer la confiance dans ces systèmes dans leur ensemble.

Pour que ces progrès soient largement adoptés, il faut plus de transparence dans le fonctionnement des systèmes d’IA. Andrew Burt d’Immuta affirme : «Le problème clé auquel est confrontée l’analyse prédictive est vraiment la transparence. Nous sommes dans un monde où les opérations de science des données assument des tâches de plus en plus importantes, et la seule chose qui les retient sera de savoir à quel point les data scientists qui forment les modèles peuvent expliquer ce que font leurs modèles».

Maintenir des mécanismes de surveillance et de contrôle humains

Certaines personnes ont fait valoir qu’il doit y avoir des moyens pour les humains d’exercer la surveillance et le contrôle des systèmes d’IA. Par exemple, Oren Etzioni, PDG de l’Allen Institute for Artificial Intelligence, soutient qu’il devrait y avoir des règles pour réglementer ces systèmes. Premièrement, dit-il, l’IA doit être régie par toutes les lois qui ont déjà été élaborées pour le comportement humain, y compris les réglementations concernant «la cyberintimidation, la manipulation des stocks ou les menaces terroristes», ainsi que «piéger les gens dans des crimes». Deuxièmement, il estime que ces systèmes devraient révéler qu’ils sont des systèmes automatisés et non des êtres humains. Troisièmement, il déclare : «Un système d’IA ne peut pas conserver ou divulguer des informations confidentielles sans l’approbation explicite de la source de ces informations.» Son raisonnement est que ces outils stockent tellement de données que les gens doivent être conscients des risques de confidentialité posés par l’IA.

Dans le même ordre d’idées, l’Initiative mondiale IEEE a des lignes directrices éthiques pour l’IA et les systèmes autonomes. Ses experts suggèrent que ces modèles soient programmés en tenant compte des normes humaines largement acceptées et des règles de comportement. Les algorithmes d’IA doivent prendre en compte l’importance de ces normes, comment résoudre le conflit de normes et comment ces systèmes peuvent être transparents sur la résolution des normes. Les conceptions de logiciels doivent être programmées pour «non-réception» et «honnêteté», selon les experts en éthique. Lorsque des échecs surviennent, il doit y avoir des mécanismes d’atténuation pour faire face aux conséquences. En particulier, l’IA doit être sensible aux problèmes tels que les préjugés, la discrimination et l’équité.

Un groupe d’experts en apprentissage automatique affirme qu’il est possible d’automatiser la prise de décision éthique. Utilisant le problème du tramway comme un dilemme moral, ils posent la question suivante: si une voiture autonome devient incontrôlable, doit-elle être programmée pour tuer ses propres passagers ou les piétons qui traversent la rue? Ils ont conçu un «système basé sur le vote» qui a demandé à 1,3 million de personnes d’évaluer des scénarios alternatifs, a résumé les choix globaux et appliqué la perspective globale de ces personnes à un éventail de possibilités véhiculaires. Cela leur a permis d’automatiser la prise de décision éthique dans les algorithmes d’IA, en tenant compte des préférences du public. Cette procédure, bien sûr, ne réduit pas la tragédie impliquée dans tout type de décès, comme on l’a vu dans le cas Uber, mais elle fournit un mécanisme pour aider les développeurs d’IA à intégrer des considérations éthiques dans leur planification.

Pénaliser les comportements malveillants et promouvoir la cybersécurité

Comme pour toute technologie émergente, il est important de décourager les traitements malveillants destinés à tromper les logiciels ou à les utiliser à des fins indésirables. Cela est particulièrement important étant donné les aspects à double usage de l’IA, où le même outil peut être utilisé à des fins bénéfiques ou malveillantes. L’utilisation malveillante de l’IA expose les individus et les organisations à des risques inutiles et sape les vertus de la technologie émergente. Cela inclut des comportements tels que le piratage, la manipulation d’algorithmes, la compromission de la vie privée et de la confidentialité ou le vol d’identité. Les efforts visant à détourner l’IA afin de solliciter des informations confidentielles devraient être sérieusement sanctionnés comme moyen de dissuader de telles actions.

Dans un monde en évolution rapide avec de nombreuses entités dotées de capacités informatiques avancées, une attention particulière doit être accordée à la cybersécurité. Les pays doivent veiller à protéger leurs propres systèmes et empêcher les autres pays de nuire à leur sécurité. Selon le département américain de la sécurité intérieure, une grande banque américaine reçoit environ 11 millions d’appels par semaine à son centre de service. Afin de protéger sa téléphonie contre les attaques par déni de service, il utilise un «moteur de politique basé sur l’apprentissage automatique qui bloque plus de 120 000 appels par mois sur la base de politiques de pare-feu vocal, y compris le harcèlement des appelants, les appels automatisés et les appels frauduleux potentiels.» Cela représente un moyen par lequel l’apprentissage automatique peut aider à défendre les systèmes technologiques contre les attaques malveillantes.

V. CONCLUSION

Pour résumer, le monde est sur le point de révolutionner de nombreux secteurs grâce à l’intelligence artificielle et à l’analyse de données. Il existe déjà des déploiements importants dans les domaines de la finance, de la sécurité nationale, des soins de santé, de la justice pénale, des transports et des villes intelligentes qui ont modifié la prise de décision, les modèles commerciaux, l’atténuation des risques et la performance du système. Ces développements génèrent des avantages économiques et sociaux substantiels.

Le monde est sur le point de révolutionner de nombreux secteurs grâce à l’intelligence artificielle, mais la façon dont les systèmes d’IA sont développés doit être mieux comprise en raison des implications majeures que ces technologies auront pour la société dans son ensemble.

Pourtant, la manière dont les systèmes d’IA se déroulent a des implications majeures pour la société dans son ensemble. La manière dont les problèmes politiques sont traités, les conflits éthiques sont réconciliés, les réalités juridiques sont résolues et le degré de transparence requis dans les solutions d’IA et d’analyse de données. Les choix humains concernant le développement de logiciels affectent la manière dont les décisions sont prises et la manière dont elles sont intégrées dans les routines organisationnelles. La manière exacte dont ces processus sont exécutés doit être mieux comprise, car ils auront bientôt un impact substantiel sur le grand public et dans un avenir prévisible. L’IA pourrait bien être une révolution dans les affaires humaines et devenir l’innovation humaine la plus influente de l’histoire.


SOURCE :
La Brookings Institution.
Support de publication Amazon.
Rapport Center for Technology Innovation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Commencer le Chat
1
Besoin d'aide ?
Besoin d'aide
Bonjour,
comment puis-je vous aider ?
Commencez le Chat !
Ou contactez-nous par téléphone au 06 51 08 23 14.