Partager:

JAKARTA - Le commissaire à la protection de la vie privée du Canada, en collaboration avec les régulateurs de la protection de la vie privée au Québec, en Colombie-Britannique et en Alberta, a découvert une violation de la vie privée concernant la façon dont OpenAI a formé et lancé le chatbot basé sur l'intelligence artificielle ChatGPT au cours des premiers stades de son développement.

Dans l’ińvestigation commune, les quatre reguérateurs ont estimé que les pratiques initiales de l’entreprise n’etaient pas conformes aux lois sur la vie privée en vigueur, de la collecte excessive de données personnelles à la manque de consentement et de transparence valide, en passant par l’infausséété des données personnelles, jusqu’aux obstacles auxquels les utilisateurs se heurtent pour accéder, réparer ou supprimer leurs données.

« Au cours de cette enquête, nous avons identifié des problèmes de protection de la vie privée qui ont émergé tôt et formulé des recommandations visant à améliorer la protection des informations personnelles des Canadiens », a déclaré le commissaire à la protection de la vie privée du Canada, Philippe Dufresne, dans une déclaration sur son site officiel.

Le régulateur estime également que OpenAI n’a pas encore une responsabilisation adéquate des informations personnelles sous son contrôle.

En réponse aux résultats de l’enquête, OpenAI aurait appliqué un certain nombre de changements pour améliorer la protection des données personnelles dans le développement et le fonctionnement de ChatGPT.

En particulier, le régulateur a indiqué que Open AI avait considérablement limité les informations personnelles et les informations sensibles utilisées pour former le nouveau modèle Chat GPT.

Ils prendront également des mesures pour mieux informer les Canadiens des implications de l'utilisation de Chat GPT.

Philippe Dufresne estime que les mesures mises en place par OpenAI, y compris les engagements supplémentaires au cours des prochains mois, sont en mesure de répondre aux inquiétudes des régulateurs concernant le respect de la PIPEDA, la loi fédérale canadienne sur la protection de la vie privée dans le secteur privé.

« Une protection adéquate est la base de l’innovation responsable. J’espère que les conclusions de cette enquête fourniront des informations et feront progresser la conception de la protection de la vie privée dans d’autres technologies basées sur l’IA », a-t-il conclu.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)