Etats-Unis: Google rend les armes

Publié

Etats-UnisGoogle rend les armes

Le géant informatique, poussé par ses employés, a promis de ne plus mettre sa technologie au service de la guerre.

par
Michel Pralong
AFP

Le partenariat devait rester secret-défense. «Je ne sais pas ce qui pourrait arriver si les médias commençaient à imaginer que Google construit secrètement des armes basées sur l'intelligence artificielle», avertissait dans un courrier interne l'un des chercheurs du géant informatique américain. C'est précisément ce qui s'est produit. La presse a révélé en début d'année l'existence d'un contrat passé entre Google et l'armée américaine. Ce projet, du nom de Maven, consiste à mettre au point une intelligence artificielle qui analyserait en temps réel les images prises par les drones militaires, facilitant notamment l'acquisition d'une cible pour une frappe aérienne.

Pétition interne de 4000 employés

Cet accord secret a très mal passé au sein même de l'entreprise. Plusieurs collaborateurs ont démissionné et plus de 4000 autres ont signé une pétition demandant le retrait de Google de cette opération. Car, selon eux, participer à l'élaboration de technologies de guerre est contraire à l'un des principes fondateurs de l'entreprise: améliorer et changer le monde.

Le 1er juin, Google a promis de ne pas renouveler son contrat Maven en 2019. C'était un premier pas, mais renoncer à un unique programme n'offrait aucune garantie quant à de futures participations à des technologies guerrières. Jeudi dernier, le CEO de Google, Sundar Pichai, a donc décidé de s'engager davantage: il a publié une charte éthique sur l'emploi de l'intelligence artificielle. «Nous avons conscience qu'une technologie aussi puissante soulève d'importantes questions à propos de son usage», écrit-il avant de dresser une liste de règles à suivre, dont celle de ne pas employer l'intelligence artificielle pour élaborer des «armes ou autres technologies dont le but principal est de causer des blessures ou du mal». Mais le patron de Google précise qu'il continuera à travailler avec les gouvernements et les militaires dans d'autres domaines, tels que «la cybersécurité, la formation, le recrutement militaire et les opérations de sauvetage».

Des tueurs autonomes

Hors de question de se passer de tels partenaires, d'autant que Google est sur les rangs pour décrocher un contrat de plusieurs milliards de dollars avec le gouvernement américain afin de stocker et gérer ses données informatiques. Il a pour concurrent Amazon et Microsoft, qui étaient aussi candidats pour le projet Maven. L'un des deux pourrait d'ailleurs tout à fait succéder à Google dans ce programme en 2019.

Car ce qui est en jeu, bien au-delà de Maven, c'est l'avenir de l'utilisation de l'intelligence artificielle. Lancée en avril 2013 par plusieurs ONG, dont Human Rights Watch, la campagne «Stop aux robots tueurs» lutte pour empêcher l'apparition de machines de guerre autonomes. Car si les drones sont sans équipage, ces armes restent contrôlées à distance par des humains. Une intelligence artificielle suffisamment évoluée pourrait tout à fait être capable de décider elle-même sur qui elle doit tirer. Si le patron de Tesla et de SpaceX, Elon Musk, met régulièrement en garde contre les usages abusifs de l'intelligence artificielle, d'autres voix se joignent à lui pour demander aux géants de l'informatique d‘être les instigateurs d'une vraie charte éthique dans ce domaine. Google vient donc de faire un pas dans cette direction, mais encore insuffisant aux yeux de plusieurs observateurs, notamment parce que l'entreprise n'est pas transparente sur la plupart de ses projets.

En fait, davantage qu'un code de bonne conduite, il faudrait parvenir à instaurer de véritables lois de la robotique, comme les a imaginées l'écrivain de SF Isaac Asimov, stipulant qu'une intelligence artificielle ne peut porter atteinte à l'homme, ni rester passif si celui-ci est en danger. Évidemment, comme les traités de non-prolifération nucléaire, de telles règles devraient être reconnues et respectées non seulement par les géants de l'informatique, mais aussi par tous les gouvernements. Si la Chine ou la Russie développent de leur côté des intelligences artificielles à usage militaire, les États-Unis ne resteront pas à la traîne.

Ton opinion