L’Agence de surveillance de la protection de la vie privée de l’UE : OpenAI n’a pas essayé de satisfaire le maximum des règles de l’UE sur les données
JAKARTA - Les efforts d’OpenAI pour produire une production plus précise du chat chat chat chatGPT ne suffisent pas pour assurer le plein respect des règles de données de l’Union européenne. C’est ce qu’on dit par le groupe de travail de l’organe de surveillance de la protection de la vie privée de l’UE.
« Bien que les mesures prises pour se conformer au principe de transparence soient utiles pour éviter un malentendu sur les résultats de chatGPT, ces mesures ne suffisent pas pour se conformer au principe de l’exactitude des données », a déclaré l’unité de travail dans un rapport publié sur son site Web le vendredi 24 mai.
L’organe qui réunit le contrôleur national européen sur la protection de la vie privée a formé un groupe de travail surChatGPT l’année dernière après que le régulateur national dirigé par les autorités italiennes a exprimé ses inquiétudes concernant ce service d’intelligence artificielle largement utilisé.
Diverses enquêtes lancées par les autorités nationales de surveillance sur la protection de la vie privée de plusieurs États membres sont toujours en cours, selon le rapport, ajoutant qu’il n’est donc pas possible de fournir une description complète des résultats. Ces résultats doivent être comprenus comme un « nominal général » parmi les autorités nationales.
L’exactitude des données est l’un des principes directrices du ensemble de règles de protection des données de l’UE.
« En fait, en raison de la nature probabilistique de ce système, l’approche actuelle de formation produit un modèle qui peut également générer une production biaisée ou fabriquée », indique le rapport.
« De plus, la sortie fournie par ChatGPT a tendance à être considérée comme un fait exact par les utilisateurs finaux, y compris des informations relatives à des individus, quel que soit la véritable précision. »