Intelligence artificielle : Google dit non aux armes mais pas à l'armée

Le par  |  4 commentaire(s)
Google-Assistant

Google couche sur le papier des principes pour son approche en matière d'intelligence artificielle. Une série d'engagements, dont pour ne pas utiliser l'IA pour des armes.

Jusque dans ses rangs internes, le travail sur les technologies d'intelligence artificielle de Google suscite quelques inquiétudes. Récemment, elles ont été cristallisés autour du mystérieux projet Maven de l'armée américaine auquel Google participe.

Ce programme compte s'appuyer sur l'intelligence artificielle développée par Google afin d'interpréter des images vidéo. Il pourrait servir à améliorer le ciblage de frappes de drones. Si Google a assuré que sa contribution au projet Maven est de " nature non offensive ", le géant américain a finalement décidé de ne pas renouveler son contrat après 2019.

C'est dans ce contexte que Sundar Pichai, le patron de Google, publie une série de principes pour guider les travaux du groupe en intelligence artificielle. Il assure que ce ne sont pas des concepts théoriques mais des " normes concrètes qui régiront activement notre recherche et le développement de produits, et auront un impact sur nos décisions commerciales. "

Si Google s'engage à ne pas développer l'IA pour l'utilisation d'armes, cela ne veut pas dire qu'il n'y aura pas de collaboration avec l'armée et des gouvernements. Cybersécurité, entraînement, recrutement, santé des vétérans et secours sont des domaines cités en exemple.

Avec ses principes pour l'IA, Google soigne son image. Il est question de bénéfice social, garde-fous pour la protection de la vie privée, éviter de renforcer des préjugés injustes, rendre des comptes… même si on ne sait pas trop comment tout ceci sera contrôlé, y compris avec la maison-mère Alphabet.

Avec Amazon, Facebook, Microsoft, IBM et plus récemment Apple, Google - ainsi que sa filiale d'intelligence artificielle DeepMind - était déjà un membre fondateur du Partnership on AI qui se penche notamment sur les principes éthiques en matière d'intelligence artificielle.

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #2017410
"Google s'engage à ne pas développer l'IA pour l'utilisation d'armes"
Donc :
"J'aime l'armée sans ses armes"

- Nous prendrait-on pour des demeurés ou c'est moi qui a un bug dans la matrice ?
Le #2017414
Ulysse2K a écrit :

"Google s'engage à ne pas développer l'IA pour l'utilisation d'armes"
Donc :
"J'aime l'armée sans ses armes"

- Nous prendrait-on pour des demeurés ou c'est moi qui a un bug dans la matrice ?


Non, non, on nous prends bien pour des demeurés....
Le #2017453
lebonga a écrit :

Ulysse2K a écrit :

"Google s'engage à ne pas développer l'IA pour l'utilisation d'armes"
Donc :
"J'aime l'armée sans ses armes"

- Nous prendrait-on pour des demeurés ou c'est moi qui a un bug dans la matrice ?


Non, non, on nous prends bien pour des demeurés....


c'est parce qu'en general la population l'est! Bien sur c'est relatif a mon point de vue, donc selon un autre point de vue, je ferais aussi partie des demeures!
Le #2017464
lioubov a écrit :

lebonga a écrit :

Ulysse2K a écrit :

"Google s'engage à ne pas développer l'IA pour l'utilisation d'armes"
Donc :
"J'aime l'armée sans ses armes"

- Nous prendrait-on pour des demeurés ou c'est moi qui a un bug dans la matrice ?


Non, non, on nous prends bien pour des demeurés....


c'est parce qu'en general la population l'est! Bien sur c'est relatif a mon point de vue, donc selon un autre point de vue, je ferais aussi partie des demeures!


On est toujours le con de quelqu'un d'autre
Suivre les commentaires
Poster un commentaire
Anonyme