OpenAI tente de surmonter les craintes liées à l’utilisation d’IA lors des élections

JAKARTA - Le laboratoire d'intelligence artificiel d'OpenAI a publié un billet de blog le lundi 15 janvier pour apaiser les préoccupations que sa technologie ne s'interfère pas dans les élections générales, où plus d'un tiers de la population mondiale se préparent à se présenter au vote de cette année.

L’utilisation de l’intelligence artificielle pour interférer avec l’intégrité électorale est devenue une préoccupation depuis que la société, soutenue par Microsoft, a lancé deux produits: chatGPT, qui peut imiter de manière convaincante l’écriture humaine, et DALL-E, dont la technologie peut être utilisée pour créer des « faux » ou des images qui semblent réelles mais fabriquées de manière faux.

Le président général d’Openai, Sam Altman, a témoigné au Congrès en mai qu’il était « silencieux » sur la capacité des intelligence génératives à alourdir l’intégrité électorale grâce à « de désinformation interactivée un contre un ».

La société basée à San Francisco affirme qu’aux États-Unis, qui organisera les élections présidentielles de cette année, elle coopère avec l’Association nationale des secrétaires d’État, une organisation axée sur la promotion de processus démocratique efficaces tels que les élections.

«ChatGPT dirigera les utilisateurs vers CanIVote.org lorsqu’ils seront posés des questions concernant certains choix », a-t-il ajouté.

La société a également déclaré qu’elle essayait de rendre plus clair les images générées par l’intelligence artificielle à l’aide de DALL-E, et prévoit de placer une icône «cr » sur l’image pour indiquer qu’elles sont générées par l’intelligence artificielle, selon les protocoles créés par la Coalition pour la certitude et l’authenticité du contenu.

Ils travaillent également sur l’identification du contenu généré par DALL-E après que l’image a été modifiée.

Dans son billet de blog, OpenAI a souligné que sa politique interdit son utilisation de la technologie de moyens qu’il a identifiés comme potentiellement abusifs, tels que la création de chat-bots prétendent être les vrais gens, ou la dissuasion de la participation électorale.

« Ils ont également interdit à DALL-E de créer des images de personnes vraies, y compris des candidats politiques », a-t-il déclaré.

L’entreprise est confrontée au défi de surveiller ce qui se passe réellement sur sa plate-forme.

Lorsque Reuters a essayé l’année dernière de créer une photo de Donald Trump et Joe Biden, la demande a été bloquée et un message s’est vu disant qu’elle « pourrait ne pas suivre notre politique de contenu ».

Cependant, Reuters pourrait faire des images d’au moins douze autres politiciens américains, dont l’ancien vice-président Mike Pence.