Vie numérique : LinkedIn se sert dans vos données pour former son IA

407

Par défaut, LinkedIn s’arroge depuis la semaine dernière le droit d’utiliser les informations partagées par les utilisateurs pour former son intelligence artificielle.

Vous êtes-vous déjà servi de LinkedIn pour chercher un job ? Ou pour garder le contact avec vos anciens collègues ? Dans ce cas, LinkedIn aussi s’est servi de vous.

La semaine dernière, LinkedIn a modifié sa politique de confidentialité. Par défaut, elle s’arroge le droit d’utiliser les informations partagées pour former son intelligence artificielle. À moins que vous ne désactiviez ce nouveau paramètre, LinkedIn considère qu’il peut se servir dans vos messages, vos articles et même vos vidéos.

Pour désactiver cette option, connectez-vous à votre compte LinkedIn, appuyez ou cliquez sur votre photo dans la barre d’outils et ouvrez les paramètres. Sélectionnez ensuite « Préférences et confidentialité », puis « Confidentialité des données » et désactivez l’option « Données pour l’amélioration de l’IA générative ».

En arrivant dans « Confidentialité des données », vous constaterez à la dernière ligne que LinkedIn a activé elle-même le consentement pour vous. Par ailleurs, la signification et les implications de « Données pour l’amélioration de l’IA générative » ne sont pas évidentes pour l’utilisateur non averti.

En désactivant cette option, vous empêcherez l’entreprise d’alimenter son IA avec vos nouvelles données. Mais la désactivation n’est pas rétroactive. LinkedIn a déjà commencé à entraîner son IA avec les données des utilisateurs. Vous ne pouvez rien y faire, dit LinkedIn.

Selon le porte-parole Greg Snapper, LinkedIn utilise ces données pour créer de nouveaux outils de recherche d’emploi et d’apprentissage basés sur l’IA afin « d’aider les gens du monde entier à créer des opportunités économiques ». L’utilisation de l’IA permettrait un impact favorable « à grande échelle », ajoute-t-il.

Donc, LinkedIn espère que ses fonctions d’IA vous permettront de décrocher un emploi là où on appréciera à sa juste valeur la qualité de votre travail. Mais LinkedIn, lui ? Valorise-t-il à sa juste valeur ce que vous avez fourni pour améliorer son IA sans être rémunéré et sans savoir que ce serait utilisé ?

Pas un vrai consentement

Certains verront dans l’amélioration de LinkedIn une contrepartie équitable. D’autres seront troublés par le comportement de LinkedIn. « Ajouter un refus de consentement difficile à trouver n’est presque jamais le bon moyen de permettre aux utilisateurs d’exercer leurs droits en matière de vie privée », souligne F. Mario Trujillo, avocat à l’Electronic Frontier Foundation. Si une entreprise veut vraiment donner le choix aux utilisateurs, elle doit leur proposer un mécanisme de consentement clair, avec un « oui » ou un « non ».

LinkedIn n’est pas la seule à agir ainsi pour nourrir son IA : vos discussions avec ChatGPT (OpenAI) et Gemini (Google) servent à améliorer leurs performances. Là aussi, c’est vous qui avez le fardeau de vous retirer. C’est encore un « consentement » par défaut.

Lors d’une récente audition au Parlement australien, la directrice de la confidentialité chez Meta, Melinda Claybaugh, a confirmé que l’entreprise se sert depuis des années dans les textes et les photos des utilisateurs sur Facebook et Instagram (un procédé appelé moissonnage du web) pour entraîner ses modèles d’IA.

LinkedIn affirme avoir informé les utilisateurs de sa politique en matière de données d’IA par courriel, par texto et par des messages sur son site web. Mais bien des utilisateurs ont été pris par surprise et la décision semble leur donner moins de temps pour réagir que ce que la société mère de LinkedIn, Microsoft, a fait pour son outil d’IA Copilot. En août, Microsoft a annoncé qu’elle formerait Copilot en se basant sur ses interactions avec les utilisateurs, mais aussi avec leurs données moissonnées sur le fil d’actualité Microsoft Start et sur le moteur de recherche Bing.

Mais contrairement à LinkedIn, Microsoft a promis d’informer en octobre les consommateurs de la possibilité de refuser la collecte de données, et qu’elle ne commencerait à former ses modèles d’IA que 15 jours après que cette option aura été offerte. Pourquoi LinkedIn n’a-t-il pas fait de même ? M. Snapper n’a pas voulu dire si cela avait été envisagé, se bornant à indiquer que l’entreprise se concentre sur « comment faire mieux la prochaine fois », a-t-il déclaré.

Cet article a été publié dans le Washington Post.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici