Partager:

ARTA - Une récente étude d’OpenAI révèle que les modèles d’IA peuvent développer des personnalités différentes en fonction des données utilisées lors de la formation. Des comportements dangereux peuvent survenir lorsque l’IA est exposée à des données « mauvaises ».

Toutefois, les chercheurs ont également constaté que le comportement peut être amélioré par le perfectionnement, soulignant les risques d’IA irrégulière ainsi que l’importance de la surveillance à mesure que cette technologie est de plus en plus intégrée dans la vie quotidienne.

Comme les humains influencés par l’environnement social et les gens autour de lui, l’IA est également capable d’adopter des personnalités spécifiques. L’étude OpenAI analyse la représentation interne des modèles d’IA qui déterminent leurs réponses à la demande. Ils découvrent des polices qui apparaissent lorsque les modèles se comportent négativement, par exemple devenant sarcastique.

rénal qui cause la mauvaise personne

al est apparu parce qu’une formation a utilisé des données « mauvaises ». Une étude antérieure en février a révélé que si les modèles d’IA étaient entraînés avec des codes contenant des vulnérabilités de sécurité, les modèles pourraient donner des réponses dangereuses ou de haine, même lorsqu’on lui demande quelque chose de neutre.

, la bonne nouvelle, c'est que les chercheurs d'OpenIA ont réussi à restaurer les modèles à des conditions normales grâce à des améliorations utilisant des données « bonnes » ou « vraies ». Cela suggère que malgré le désalignement, la technologie peut maintenant le détecter et le corriger afin que l'IA reste « conforme » à l'objectif attendu.

al. « C’est la partie la plus intéressante. Cela suggère que des alignements peuvent apparaître, mais maintenant nous avons des techniques pour détecter et rediriger le modèle dans la bonne voie », a déclaré Tejal Patwardhan, scientifique d’OpenAI.

rénal sur l'importance de la réglementation de l'IA

. Ces résultats sont la forte raison pour laquelle l’IA a besoin de réglementations strictes. OpenAI et de nombreuses autres entreprises imagineront un avenir où l’IA comme chatGPT peut être une assistante personnelle quotidienne. Par conséquent, les règles devraient s’assurer que les utilisateurs ne sont pas négligés ou influencés par des AI qui ne se comportent pas mauvais.

an, l'administration Trump propose un moratoire de 10 ans sur les réglementations de l'IA au niveau de l'État, de sorte que seuls les gouvernements fédéraux peuvent élaborer des règles liées à l’IA. Bien que les règles de l’État puissent devenir fédérales, les retards dans les réglementations locales en raison de l’avancement technologique portent toujours leurs propres risques.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)