Siri : Apple fait aussi écouter des enregistrements audio à du personnel

Le par  |  29 commentaire(s)
Siri

Des sous-traitants d'Apple écoutent également des enregistrements audio de Siri. Ils sont parfois enregistrés par erreur. Un point sur lequel Apple n'a pas été transparent.

Comme pour Alexa d'Amazon et Google Assistant, l'assistant vocal Siri d'Apple peut être indiscret avec une écoute par des oreilles humaines. Suite à la publication d'un article du Guardian, Apple reconnaît que moins de 1 % des activations quotidiennes de Siri font l'objet d'une analyse par des examinateurs humains.

Apple souligne qu'il s'agit d'une " petite portion " des requêtes avec Siri d'une durée de quelques secondes, selon une sélection aléatoire et dans le but d'améliorer sa compréhension.

Apple-logo
Selon le Guardian, les examinateurs humains sont par exemple chargés d'évaluer les réponses pour déterminer si l'activation de Siri était bien intentionnelle, si Siri était en mesure de répondre et si la réponse était appropriée.

La firme de Cupertino souligne que les réponses de Siri sont analysées dans des installations sécurisées et tous les évaluateurs sont tenus de respecter des exigences dites strictes de confidentialité. Par ailleurs, les requêtes des utilisateurs ne sont pas associées à leurs identifiants Apple.

Des sous-traitants avec des employés à travers le monde travaillent pour Apple à cette tâche. Sous couvert d'anonymat, un lanceur d'alerte explique que les enregistrements audio déclenchés par erreur sont plus fréquents avec l'Apple Watch et le HomePod. Néanmoins, rappelons que Siri est intégré dans le plupart des appareils d'Apple.

Il ajoute en outre que " d'innombrables exemples d'enregistrements " comportent des discussions privées entre médecins et patients, des transactions commerciales, voire pour des relations sexuelles ou apparemment criminelles. Ces enregistrements sont accompagnés de coordonnées, détails sur des contacts et données des applications en rapport avec l'appareil. Sans compter des informations personnelles susceptibles de permettre une identification qui sont divulguées dans les conversations elles-mêmes.

Pour le lanceur d'alerte, Apple n'est pas assez transparent vis-à-vis des utilisateurs. The Guardian écrit que contrairement à Amazon et Google qui permettent de refuser certaines utilisations de leurs enregistrements (à savoir, pour améliorer le service), ce n'est pas le cas avec Apple si ce n'est en désactivant entièrement Siri.

L'article du Guardian est une pique à l'encontre d'Apple qui fait de la confidentialité un argument marketing. Dans l'absolu, la situation n'est pas tellement différente qu'avec Amazon et Google pour l'amélioration des assistants vocaux, et il y a également des enregistrements par erreur qui sont analysés.

Avant ces révélations, Apple n'était pas explicite sur le fait que du personnel humain peut écouter des enregistrements.

siri-approche-confidentialite

Sur sa page consacrée à la protection de la vie privée, Apple écrit au chapitre " Siri et Dictée " que : " Pour les aider à reconnaître votre prononciation et à vous fournir des réponses mieux adaptées, certaines données comme votre nom, vos contacts, la musique que vous écoutez et vos recherches sont envoyées vers les serveurs Apple à l'aide de protocoles chiffrés. Siri et la fonction Dictée n'associent pas ces informations à votre identifiant Apple, mais à votre appareil via un identifiant aléatoire. " Il n'est pas fait mention d'une analyse par des humains.

Complément d'information

Vos commentaires Page 1 / 3

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #2073889
J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?
Le #2073891
sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


En fait ils ne collectent pas 1% des conversations, c'est 1% de ce qu'ils collectent qui est envoyé pour analyse humaine (via prestation).
Le #2073893
sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


Un exemple tout bête qui m'arrive souvent avec l'assistant vocal: tous mes collègues sont anglophones (et parlent donc anglais) et déclenchent souvent (TRES SOUVENT) par inadvertance mon assistant vocal (pas seulement en disant ok Google mais si il y a ok quelque chose cela le déclenche).

En soit, je suis au travail donc toutes ses conversations sont délicates si elles étaient interceptées par la concurrence. (bon depuis j'ai désactivé l'assistant mais tu vois l'ordre d'idée, l'utilisation de l'assistant vocal n'est surement pas volontaire)
Le #2073896
iinconnu a écrit :

sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


Un exemple tout bête qui m'arrive souvent avec l'assistant vocal: tous mes collègues sont anglophones (et parlent donc anglais) et déclenchent souvent (TRES SOUVENT) par inadvertance mon assistant vocal (pas seulement en disant ok Google mais si il y a ok quelque chose cela le déclenche).

En soit, je suis au travail donc toutes ses conversations sont délicates si elles étaient interceptées par la concurrence. (bon depuis j'ai désactivé l'assistant mais tu vois l'ordre d'idée, l'utilisation de l'assistant vocal n'est surement pas volontaire)


Mais ce qui est plus grave c que pour pouvoir se déclencher à "ok google" ou " Alexa" ou "Dis Siri" ...

ben faut qu'il t' écoute en permanence

Le #2073899
'' les requêtes des utilisateurs ne sont pas associées à leurs identifiants Apple.''

on est quand meme loin de Matrix !!
Le #2073900
mickeymouse3d a écrit :

iinconnu a écrit :

sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


Un exemple tout bête qui m'arrive souvent avec l'assistant vocal: tous mes collègues sont anglophones (et parlent donc anglais) et déclenchent souvent (TRES SOUVENT) par inadvertance mon assistant vocal (pas seulement en disant ok Google mais si il y a ok quelque chose cela le déclenche).

En soit, je suis au travail donc toutes ses conversations sont délicates si elles étaient interceptées par la concurrence. (bon depuis j'ai désactivé l'assistant mais tu vois l'ordre d'idée, l'utilisation de l'assistant vocal n'est surement pas volontaire)


Mais ce qui est plus grave c que pour pouvoir se déclencher à "ok google" ou " Alexa" ou "Dis Siri" ...

ben faut qu'il t' écoute en permanence


"ben faut qu'il t' écoute en permanence"

Il attend la requête magique, puis il se met en mode enregistrement, la requête est ensuite envoyée sur les serveurs desdits services pour être traitée par l'IA puis la réponse renvoyée à l'utilisateur.
Quelques requêtes sont étudiées par des humains pour détection des erreurs. Il s'agit bien de requêtes et non de conversations.

Un conseil si vous craignez tout cela, n'utilisez ni smartphone Android ni d'iPhone, prenez vous un phone Linux. Tous les autres peuvent vous écouter bien davantage qu'une enceinte connectée vu qu'ils sont dans votre poche. Ils peuvent aussi vous voir (caméra faciale), donner votre position à chaque instant, lire vos mails etc ...
Le #2073901
mickeymouse3d a écrit :

iinconnu a écrit :

sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


Un exemple tout bête qui m'arrive souvent avec l'assistant vocal: tous mes collègues sont anglophones (et parlent donc anglais) et déclenchent souvent (TRES SOUVENT) par inadvertance mon assistant vocal (pas seulement en disant ok Google mais si il y a ok quelque chose cela le déclenche).

En soit, je suis au travail donc toutes ses conversations sont délicates si elles étaient interceptées par la concurrence. (bon depuis j'ai désactivé l'assistant mais tu vois l'ordre d'idée, l'utilisation de l'assistant vocal n'est surement pas volontaire)


Mais ce qui est plus grave c que pour pouvoir se déclencher à "ok google" ou " Alexa" ou "Dis Siri" ...

ben faut qu'il t' écoute en permanence


Bah y'a "écouter" et "écouter et enregistrer". Sur cette histoire ce qui m'a choqué le plus c'est que les assistants vocaux pour combler les accents prennent des calibrations tellement larges !
Le #2073902
iinconnu a écrit :

sandramcc a écrit :

J’ai des doutes ... si d’innombrables conversations collectées sont d’ordre criminelles, sexuelles ou entre Medecin et patient ... alors statistiquement soit Apple ment, et collecte bien plus que 1% des conversations, soit les conversations en question ne sont pas si innombrables que cela.

Rendez vous compte, qui parle à son médecin, et Siri ? Son collègue mafieux ? De sexe ? Même par inadvertance ... ça ferait 1% de 1% de tous les possesseurs de Idevices avec Siri intégré.

On estime à 500 000 000, 1% ça fait 5 000 000, et ensuite 1% ça fait 50 000

Vous pensez que sur 50 000 conversations il y en a combien de délicates ?


Un exemple tout bête qui m'arrive souvent avec l'assistant vocal: tous mes collègues sont anglophones (et parlent donc anglais) et déclenchent souvent (TRES SOUVENT) par inadvertance mon assistant vocal (pas seulement en disant ok Google mais si il y a ok quelque chose cela le déclenche).

En soit, je suis au travail donc toutes ses conversations sont délicates si elles étaient interceptées par la concurrence. (bon depuis j'ai désactivé l'assistant mais tu vois l'ordre d'idée, l'utilisation de l'assistant vocal n'est surement pas volontaire)


Oui, ça arrive quand même souvent et c'est gênant .... surtout en réunion.
Le #2073903
A propos d'identifiants Apple, je me souviens que Chrome refilait à chacun un identifiant unique pour le suivre, c'est toujours d’actualité ou pas ?
Le #2073916
Une belle chiasse.
Suivre les commentaires
Poster un commentaire
Anonyme
Anonyme