Jusque dans ses rangs internes, le travail sur les technologies d'intelligence artificielle de Google suscite quelques inquiétudes. Récemment, elles ont été cristallisés autour du mystérieux projet Maven de l'armée américaine auquel Google participe.

Ce programme compte s'appuyer sur l'intelligence artificielle développée par Google afin d'interpréter des images vidéo. Il pourrait servir à améliorer le ciblage de frappes de drones. Si Google a assuré que sa contribution au projet Maven est de " nature non offensive ", le géant américain a finalement décidé de ne pas renouveler son contrat après 2019.

C'est dans ce contexte que Sundar Pichai, le patron de Google, publie une série de principes pour guider les travaux du groupe en intelligence artificielle. Il assure que ce ne sont pas des concepts théoriques mais des " normes concrètes qui régiront activement notre recherche et le développement de produits, et auront un impact sur nos décisions commerciales. "

Si Google s'engage à ne pas développer l'IA pour l'utilisation d'armes, cela ne veut pas dire qu'il n'y aura pas de collaboration avec l'armée et des gouvernements. Cybersécurité, entraînement, recrutement, santé des vétérans et secours sont des domaines cités en exemple.

Avec ses principes pour l'IA, Google soigne son image. Il est question de bénéfice social, garde-fous pour la protection de la vie privée, éviter de renforcer des préjugés injustes, rendre des comptes… même si on ne sait pas trop comment tout ceci sera contrôlé, y compris avec la maison-mère Alphabet.

Avec Amazon, Facebook, Microsoft, IBM et plus récemment Apple, Google - ainsi que sa filiale d'intelligence artificielle DeepMind - était déjà un membre fondateur du Partnership on AI qui se penche notamment sur les principes éthiques en matière d'intelligence artificielle.