[Tous unis] WhishAppList.com, faites entendre votre voix pour Windows Phone!
8 février 2016
[La folie!] Pour le carnaval, Cortana peut vous aider!
8 février 2016

[Anti Sexisme] Cortana va savoir se faire respecter!

Microsoft a volontairement donné une dimension féminine à son assistante personnelle, Cortana. Matérialisée par un cercle qui ondule, Cortana est à l’origine une IA plutôt sexy de la célèbre franchise HALO. Donc forcément, cette image de jolie femme bleue l’a suivi.

Deborah Harrison, travaillant dans la division Cortana de Microsoft, a révélé que lors de son lancement fin 2014, « une bonne partie des requêtes initiales concernait sa vie sexuelle ». Un constat qui a décontenancé l’équipe en charge de l’assistante, qui ne s’attendait pas à ça.

Pour donner à Cortana l’image du femme de la société d’aujourd’hui, Microsoft a pris une décision: « Si vous lui parlez comme le dernier des con***ds, elle s’énervera ». Du coup, les réponses de Cortana sont voulues par Microsoft comme pouvant exprimer un mécontentement si vous lui parlez de façon déplacée.

cortana

J’ai voulu faire le test: Regardez le ton de sa réponse, si vous essayez “Tu es belle”, puis, beaucoup plus cru et grossier, “tu es bonne”. Cortana vous renverra sèchement dans les roses pour la deuxième déclaration!

« Nous voulions être très prudents sur le fait qu’elle ne paraisse pas subordonnée d’une quelconque façon… ou d’éviter de mettre en place une dynamique que nous ne voulons pas perpétuer socialement » Voilà comment Microsoft compte refléter l’image du femme moderne qui ne se laisse pas marcher sur les pieds.

Si j’apprécie l’initiative, qui parait plus que normal par nos contrées, n’est ce pas la porte ouverte à toutes les fenêtres à plusieurs situations où l’IA pourrait prendre le pas sur la volonté de son utilisateur?

Numérama soulève le point: “Faudrait-il, par exemple, que Cortana prenne en ligne de compte les considérations des principales religions, en réagissant par exemple lorsque l’utilisateur insulte une figure sainte ou effectue une recherche particulière (les images du prophète Mahomet) ? Ou rejette les requêtes pornographiques lorsqu’elles reflètent une vision avilissante de la femme.

Peut-être qu’à ces questions, la réponse de Microsoft sera de créer à terme des versions localisées de Cortana qui prendront chacune en compte le système de valeurs du marché dans lequel elles évolueront. Mais cela risque fort de soulever d’autres problématiques, car les points de vue sur la morale ne sont pas uniformes, même au sein d’une société donnée.”

Pour ce qui est des versions locales, c’est déjà le cas pour la France, par rapport aux USA: c’est une équipe dédiée, différente de celle du territoire américain!

Thomas .P
Thomas .P

Fondateur de TheWinDose.fr, et Twitter à @rainbow_reo et @TheWinDose_FR, il a son expérience de Nokia, Symbian et Windows Phone, et s’ouvre à l’univers Android. Insider Windows 10, une Galaxy Tab Pro S sous l’OS de Microsoft l’accompagne!

  • Pourquoi vouloir sexualiser l’assistant personnel d’un appareil mobile ? Il y en a qui ont vraiment des idées à la con. De plus quitte à sexualiser l’assistant, pourquoi une femme et pas un homme ? Tu la sens la décision sexiste de Microsoft ?