Partager:

JAKARTA - Lors d’un panel de discussion sur le Forum économique mondial qui s’est tenu à Davos, en Suisse, Nick Clag, président de Meta Global Affaires, a déclaré qu’il était important d’être transparent sur les modèles et les outils d’IA publiés.

« Bien que les outils d’IA soient en mesure de faire des choses incroyables, ils n’ont pas atteint le niveau de superintelligence imaginé dans la science-fiction », a déclaré Center sur le blog officiel de Meta, cité samedi 20 janvier.

Par conséquent, Meta lui-même dans le développement de modèles et d’outils d’IA donne toujours la priorité à la protection de ses produits d’IA en formant et en améliorant ses modèles d’IA pour être conformes aux directives de sécurité et de responsabilité.

« Et ce qui est plus important, nous nous assurons que les vulnérabilités sont vraiment testées en faisant ce connu sous le nom de « équipe rouge » avec des experts externes et des équipes internes pour identifier les vulnérabilités dans la couche de base et aider à les atténuer de manière transparente. »

En outre, Meta estime également sur l’importance de la coopération entre l’industrie, le gouvernement, les universitaires et la société civile.

« Il y a aussi un grand rôle que le gouvernement doit jouer. La chose encourageante est qu’il y a beaucoup de pays qui envisagent leurs propres cadres de travail pour s’assurer que l’IA est développé et mis en œuvre de manière responsable », a déclaré Ckim.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)