Google lève l'interdiction de l'IA dans les armes et la surveillance : un avenir inquiétant pour les technologies de pointe
Google a levé son interdiction de longue date sur l'utilisation de l'intelligence artificielle dans les armes et les systèmes de surveillance, signalant un changement majeur dans la position éthique de l'entreprise sur le développement de l'IA qui, selon d'anciens employés et des experts du secteur, pourrait remodeler la façon dont la Silicon Valley aborde la sécurité de l'IA.
Ce changement, qui a été discrètement mis en œuvre cette semaine, élimine des éléments clés de Principes de l'IA de Google qui interdisait explicitement à l'entreprise de développer une IA pour les armes ou la surveillance. Tels étaient les principes qui Elle a été créée en 2018., servant de référence industrielle pour le développement responsable de l'IA.
Tracy Pizzo-Fry, qui a passé cinq ans à mettre en œuvre les principes d'IA native de Google en tant que directrice principale de la gestion des produits sortants, de l'engagement et de l'IA responsable chez Google Cloud, a écrit dans un article sur Ciel bleu« Le dernier bastion est tombé. Google a été le seul à être aussi clair sur ses engagements quant à ce qu'il construira. »
Les principes révisés suppriment quatre interdictions spécifiques : les technologies susceptibles de causer un préjudice public ; et les applications d’armes ; et des systèmes de surveillance ; et des technologies qui violent le droit international et les droits de l’homme. Au lieu de cela, dit-elle, Google Désormais, elle s’efforcera d’« atténuer les conséquences imprévues ou néfastes » et sera conforme aux « principes largement acceptés du droit international et des droits de l’homme ».

L'assouplissement des restrictions éthiques de Google en matière d'IA : quelles conséquences pour les technologies de surveillance et les applications militaires ?
Ce changement intervient à un moment très sensible, alors que les capacités de l’IA progressent rapidement et que les débats s’intensifient sur les contrôles appropriés pour cette technologie. Le timing a soulevé des questions sur les motivations de Google, même si l'entreprise maintient que ces changements sont en développement depuis longtemps.
« Nous sommes dans une situation où la méfiance envers les géants de la technologie est forte, et chaque mesure qui semble lever les contrôles engendre davantage de méfiance », a déclaré Bezo-Fry dans une interview accordée à VentureBeat. Elle a souligné que des limites éthiques claires étaient essentielles à la construction de systèmes d'IA fiables lorsqu'elle travaillait chez Google.
Les principes originaux ont émergé en 2018 au milieu des protestations des employés contre Projet Maven, un contrat avec le Pentagone qui comprend l'utilisation de l'intelligence artificielle pour analyser les images de drones. Bien que Google ait finalement refusé de renouveler ce contrat, les nouveaux changements pourraient signaler une ouverture à des partenariats militaires similaires.
L’amendement conserve certains éléments du cadre éthique précédent. Pour GoogleMais l’objectif n’est plus d’interdire des applications spécifiques, mais de mettre l’accent sur la gestion des risques. Cette approche est plus conforme aux normes de l’industrie telles que : Cadre de gestion des risques NIST AI, bien que les critiques affirment qu'il offre des restrictions moins strictes sur les applications potentiellement dangereuses.
« Les considérations éthiques sont tout aussi importantes que la création d’une bonne IA, même si la précision n’est pas la même », a noté Bezo Fry, soulignant comment les considérations éthiques améliorent l’efficacité et l’accessibilité des produits d’IA.
Du projet Maven à la transformation des politiques : la voie de la réforme de l'éthique de l'IA de Google
Les observateurs du secteur affirment que ce changement de politique pourrait influencer la manière dont d’autres entreprises technologiques abordent l’éthique de l’IA. Les principes originaux de Google créent un précédent pour l'autorégulation des entreprises dans le développement de l'IA, de nombreuses entreprises se tournant vers Google pour obtenir des conseils sur la mise en œuvre responsable de l'IA.
Cet amendement reflète des tensions plus larges dans l’industrie technologique entre l’innovation rapide et les contraintes éthiques. Alors que la concurrence dans le développement de l’IA s’intensifie, les entreprises sont confrontées à la pression de trouver un équilibre entre un développement responsable et les exigences du marché.
« Je suis préoccupé par la rapidité avec laquelle les choses vont se propager dans le monde et par la question de savoir si Plus et Plus seront libérés des contraintes », a déclaré Pitso Frei, exprimant son inquiétude quant à la pression concurrentielle pour lancer rapidement des produits d'IA sans évaluer adéquatement les conséquences potentielles.
Le dilemme éthique des grandes technologies : le changement de politique de Google en matière d’IA établira-t-il une nouvelle norme industrielle ?
L'étude soulève également des questions sur les processus décisionnels internes de Google et sur la manière dont les employés peuvent aborder les considérations éthiques sans interdictions explicites. Au cours de son mandat chez Google, Bezo-Fry a créé des processus d’évaluation qui ont rassemblé diverses perspectives pour évaluer les impacts potentiels des applications d’IA.
Bien que Google maintienne son engagement en faveur d’un développement responsable de l’IA, la suppression d’interdictions spécifiques représente un changement significatif par rapport à son précédent rôle de leader dans la définition de limites éthiques claires pour les applications d’IA. Alors que l’IA continue de progresser, le domaine surveille la manière dont ce changement pourrait avoir un impact sur le paysage plus large du développement et de la réglementation de l’IA.
Les commentaires sont fermés.