banner
Centre d'Information
Des prix imbattables pour des produits de qualité exceptionnelle.

Washington peut arrêter la liberté de l'IA

Jun 11, 2023

Cinq façons pour Washington de demander des comptes à la Silicon Valley

En avril, les avocats de la compagnie aérienne Avianca ont remarqué quelque chose d'étrange. Un passager, Robert Mata, avait poursuivi la compagnie aérienne, alléguant qu'un chariot de service sur un vol avait heurté et gravement blessé son genou gauche, mais plusieurs cas cités dans le procès de Mata ne semblaient pas exister. Le juge n'a pas non plus pu les vérifier. Il s’est avéré que ChatGPT les avait tous inventés, fabriquant des noms et des décisions. L'un des avocats de Mata, Steven A. Schwartz, avait utilisé le chatbot comme assistant – c'était la première fois qu'il utilisait le programme pour des recherches juridiques – et, comme Schwartz l'a écrit dans un affidavit, « n'était pas conscient de la possibilité que son contenu puisse être faux. »

Cet incident n’est que l’un des nombreux cas d’IA générative diffusant des mensonges, sans parler des escroqueries financières, de la pornographie non consensuelle, etc. Les entreprises technologiques commercialisent leurs produits d’IA et récoltent potentiellement d’énormes profits, avec peu de responsabilité ou de surveillance juridique quant aux dommages réels que ces produits peuvent causer. Le gouvernement fédéral tente désormais de rattraper son retard.

À la fin du mois dernier, l’administration Biden a annoncé que sept entreprises technologiques à la pointe du développement de l’IA avaient accepté une série d’engagements volontaires pour garantir que leurs produits sont « sûrs, sécurisés et dignes de confiance ». Ces engagements font suite à une série de sommets de la Maison Blanche sur l’IA, de témoignages au Congrès sur la réglementation de la technologie et de déclarations de diverses agences gouvernementales selon lesquelles elles prennent l’IA au sérieux. Dans cette annonce, OpenAI, Microsoft, Google, Meta et d'autres se sont engagés à soumettre leurs produits à des tests tiers, à investir dans la réduction des biais et à être plus transparents sur les capacités et les limites de leurs systèmes d'IA.

Lire : L’Amérique compte déjà une sous-classe de l’IA

Le langage est prometteur, mais ce n’est qu’une promesse, manquant de mécanismes d’application et de détails sur les prochaines étapes. La réglementation de l’IA nécessite une bureaucratie lourde pour s’attaquer à des entreprises notoirement secrètes et à des technologies en évolution rapide. Une grande partie du langage de l’administration Biden singe les lignes de relations publiques des sommités de la technologie sur les capacités de fin du monde de leurs produits, telles que les armes biologiques et les machines qui « s’auto-répliquent ». L'action du gouvernement sera essentielle pour protéger la vie et les moyens de subsistance des populations, non seulement contre la menace supposée à long terme des machines maléfiques et superintelligentes, mais aussi contre les menaces quotidiennes. L’IA générative a déjà montré des préjugés flagrants et un potentiel d’utilisation abusive. Et depuis plus d’une décennie, des algorithmes moins avancés mais tout aussi opaques et souvent discriminatoires ont été utilisés pour filtrer les curriculum vitae et déterminer les cotes de crédit, dans les logiciels de diagnostic et dans le cadre des outils de reconnaissance faciale.

J'ai parlé avec un certain nombre d'experts et je suis reparti avec une liste de cinq des moyens les plus efficaces par lesquels le gouvernement pourrait réglementer l'IA pour protéger le pays contre les risques quotidiens de la technologie, ainsi que contre ses dangers apocalyptiques plus hypothétiques.

1. Ne croyez pas sur parole les sociétés d’IA.

Un médicament annoncé pour la chimiothérapie doit manifestement bénéficier aux patients atteints de cancer lors d'essais cliniques, par exemple en réduisant les tumeurs, puis obtenir l'approbation de la FDA. Son fabricant doit ensuite divulguer les effets secondaires que les patients pourraient ressentir. Mais une telle responsabilité n’existe pas pour les produits d’IA. «Les entreprises prétendent que l'IA est capable de faire X ou Y chose, mais ne prouvent pas qu'elles le peuvent», m'a dit Sarah Myers West, directrice générale de l'AI Now Institute et ancienne conseillère principale de la FTC en matière d'IA. De nombreuses entreprises technologiques ont été critiquées pour avoir dénaturé le caractère biaisé ou efficace de leurs algorithmes, ou pour avoir fourni presque aucune preuve permettant de les évaluer.

Exiger que les outils d’IA soient testés par des tiers pour garantir qu’ils répondent aux critères convenus de biais, d’exactitude et d’interprétabilité « est une première étape vraiment importante », a déclaré Alexandra Givens, présidente du Center for Democracy and Technology, une organisation à but non lucratif qui défend la vie privée et les droits de l'homme sur Internet et reçoit des financements de l'industrie technologique, m'a dit. Les entreprises pourraient être obligées de divulguer des informations sur la manière dont leurs programmes ont été formés, les limites du logiciel et la manière dont elles ont atténué les dommages potentiels. « À l'heure actuelle, il existe une asymétrie d'information extraordinaire », a-t-elle déclaré : les entreprises technologiques ont tendance à révéler très peu de choses sur la manière dont elles forment et valident leurs logiciels. Un audit pourrait impliquer de tester à quelle fréquence, par exemple, un programme de vision par ordinateur reconnaît mal les visages noirs par rapport aux visages blancs ou si les chatbots associent certains emplois à des rôles de genre stéréotypés (ChatGPT a déclaré un jour que les avocats ne peuvent pas être enceintes, car les avocats doivent être des hommes).