Le gouvernement américain impose des normes de sécurité d’IA aux institutions fédérales
Le président américain Joe Biden renforce les règles sur l’IA pour le journal d’État. (photo: x @Potos)

Partager:

JAKARTA - Le bureau présidentiel des États-Unis a déclaré jeudi 28 mars qu’il exigeait aux agences gouvernementales fédérales utilisant l’intelligence artificielle (IA) d’adopter une « protection concrète » le 1er décembre pour protéger les droits des citoyens américains et assurer la sécurité alors que le gouvernement élargissait l’utilisation de l’IA dans une variété d’applications.

Le Bureau de la gestion et du budget (OMB) a publié une directive aux agences fédérales pour surveiller, évaluer et tester l’impact de l’IA « sur le public, réduire le risque de discrimination algorithme et fournir une transparence au public sur la façon dont les gouvernements utilisent l’IA ». Ces agences devraient également effectuer des évaluations des risques et établir des statistiques opérationnelles et de gouvernance.

Le gouvernement américain a déclaré que les institutions « seront tenus d’appliquer des protections concrètes lorsqu’elles utilisent l’IA de manière susceptible d’affecter les droits ou la sécurité des citoyens américains », y compris la divulgation publique détaillée afin que le public sache comment et quand l’intelligence artificielle est utilisée par le gouvernement.

Le président américain Joe Biden a signé un ordonnance en octobre publiant une loi sur la production de défense pour exiger que les développeurs de systèmes d’IA portent des risques pour la sécurité nationale américaine, l’économie, la santé publique ou la sécurité de partager leurs résultats des essais de sécurité avec le gouvernement américain avant de se rendre publiquement.

Le gouvernement américain a déclaré jeudi qu’une nouvelle protection garantirait que les passagers aériens pourraient choisir de ne pas utiliser l’identification façelle des transports en sécurité aérienne sans retard dans le processus d’examen. Lorsque l’IA est utilisée par les services fédéraux de santé pour soutenir les décisions de diagnostic, un humain devrait surveiller le « processus de vérification des résultats de l’outil ».

L'IA générative - qui peut créer des textes, des photos et des vidéos en réponse à une demande ouverte - a suscité des fréquentations et des craintes que cela ne cause pas d'emploi, de perturbation des élections générales et d'effets dangereux pour les humains et les humains.

Le gouvernement américain exige que les agences gouvernementales publient des enregistrements de cas d’utilisation d’IA, signalent les cas d’utilisation d’IA et publient des codes, des modèles et des données d’IA appartenant au gouvernement s’ils ne portent pas au risque.

L’administration Biden a mentionné l’utilisation actuelle de l’IA fédéral, y compris l’Agence fédérale de gestion des urgences qui utilise l’IA pour évaluer les dommages structurels causés par la tempête, tandis que les Centers for Disease Control and Prevention utilisent l’IA pour prédire la propagation de la maladie et détecter l’utilisation d’opioïdes.

L’administration fédérale de l’aviation utilise l’IA pour aider à « résoudre les problèmes de trafic aérien dans les zones métropolitaines majeures pour accroître les temps de voyage ».

Le gouvernement américain prévoit de recruter 100 professionnels d’IA pour promouvoir une utilisation sûre de l’IA et exiger que les agences fédérales nomment les principaux responsables d’IA dans les 60 jours.

En janvier, le gouvernement de Biden a proposé d’obliger aux entreprises nuageuses américaines à déterminer si des entités étrangères accédaient aux centres de données américains pour former des modèles d’IA à travers les règles de « reconnaissance de vos clients ».


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)