OpenAI publie un plan de sécurité pour les derniers modèles d'intelligence artificielle
JAKARTA - OpenAI, une société d’intelligence artificielle, qui est soutenue par Microsoft, a détaillé un cadre de travail pour traiter la sécurité de son modèle de pointe. Cela inclut le fait d’accorder au conseil le pouvoir d’annuler les décisions de sécurité, comme indiqué dans le plan publié sur son site Web le lundi 18 décembre.
OpenAI ne mettra en œuvre sa dernière technologie que s’il est considéré comme sécurisé dans des domaines spécifiques tels que la cybersécurité et les menaces nucléaires. L’entreprise crée également un groupe consultatif pour examiner les rapports de sécurité et les soumettre au conseil d’administration et au conseil d’administration de l’entreprise. Bien que les dirigeants qui prendront des décisions, le conseil d’administration a le pouvoir de révoquer ces décisions.
Depuis le lancement du chatGPT il y a un an, les dangers potentiels de l’intelligence artificielle sont devenus une préoccupation majeure pour les chercheurs en intelligence artificielle et le grand public. La technologie d’intelligence générative a époustouflé les utilisateurs par sa capacité à écrire des poèmes et des essai, mais suscité également des préoccupations de sécurité avec le potentiel de diffuser de la désinformation et de manipuler les humains.
En avril, un groupe de dirigeants et d’experts de l’industrie de l’intelligence artificielle ont signé une lettre ouverte appelant à un retard de six mois dans le développement d’un système plus fort que le GPT-4 d’OpenAI, faisant référence aux risques potentiels pour la communauté.
Une enquête menée par Reuters/Ipsos en mai a révélé que plus des deux tiers des Américains étaient préoccupés par les effets néfastes possibles de l’intelligence artificielle et que 61% pensaient qu’elles pourraient menacer la civilisation.