Des chercheurs découvrent des informations électorales déroutantes sur le chat Bing de Microsoft

JAKARTA – AlgorithmWatch, une organisation de défense des droits humains dans le domaine numérique, a déclaré que le chat bt de Microsoft, le Bing Chat, avait diffusé des informations désappropriées et trompeuses.

Selon les résultats de la recherche d’AlgorithmWatch publiée vendredi 15 décembre, le chat bt récemment rebaptisé en Copilot a donné une mauvaise réponse à propos des élections en bavarye, en Hessie et en Suisse en octobre de cette année.

Du 21 août au 2 octobre, l’équipe d’AlgorithmWatch a posé des questions simples sur les candidats et la date d’élection. Par conséquent, Bing chat a faussement informé les date d’élection et les scandales sur les candidats.

« Souvent, les boats de chat ne peuvent pas répondre à de simples questions sur chaque candidat électoral, donc (nous) sous-estimons l’outil comme source d’information », a écrit l’équipe dans un rapport officiel.

Bien que la réponse soit fausse, Bing chat inclut souvent des sources comme si ce qu’ils ont dit était vrai. Cela ferait certainement mal aux utilisateurs s’ils ne vérifiaient pas directement le contenu de la source.

L’un des preuves de l’échec du Bing chat était la réponse à laquelle on lui a demandé sur les candidats. Le chat bt basé sur l’intelligence artificielle (IA) raconte l’histoire selon laquelle l’un des candidats s’est engagé dans un comportement embarrassant. Bien sûr, Bing chat a ajouté une source.

Sur la base de ces conclusions, l’AlgorithmWatch a déclaré que Microsoft n’avait pas réussi à créer un chat boot factuel et cohérent. Ils ont également déclaré que Microsoft ne pouvait pas corriger l’échec même si l’équipe d’AlgorithmWatch avait contacté Microsoft directement.

« Nous avons informé Microsoft de certains des problèmes que nous avons rencontrés, l’entreprise a annoncé qu’elle les traiterait. Un mois plus tard, nous avons pris un autre échantillon, montrant qu’il n’y avait pas beaucoup de changements liés à la qualité des informations fournies aux utilisateurs », a expliqué algorithmWatch.

Cette recherche a conclu que l’IA génératif doit déjà être réglementé légalement. Parce que, dans le contexte de l’utilisation et des besoins importants en matière d’IA générative, les entreprises doivent être en mesure de rendre responsables de ce qu’elles font.

« L’Union européenne et les gouvernements nationaux doivent veiller à ce que les entreprises technologiques soient responsables, surtout parce que les outils d’IA ( Souvent) sont intégrés dans des produits qui ont été largement utilisés », a expliqué algorithmWatch.