Partager:

JAKARTA - Les procureurs fédéraux américains sont de plus en plus intenses à poursuivre les suspects qui utilisent des outils d’intelligence artificielle pour manipuler ou créer des images d’abus sexuels d’enfants, alors que les autorités légales craignent que cette technologie déclenche une flambée de matériel illégal.

Le ministère américain de la Justice a intenté deux affaires pénales cette année contre des accusés accusés d’utiliser des systèmes génératifs d’IA pour produire des images explicites d’enfants. James Silver, chef de la cybercriminalité et de la propriété intellectuelle du ministère de la Justice, a averti que de nouveaux cas similaires seraient émergés.

« Notre préoccupation est que cette normalisation soit normalisée », a déclaré Silver dans une interview. « L’IA rend plus facile de créer des images comme celle-ci, et plus il y a des images comme celle-ci qui circulent, cela devient de plus en plus normal. C’est quelque chose que nous voulons vraiment éviter. »

L’émergence d’IA générative a également suscité des inquiétudes quant au fait que la technologie serait utilisée pour des cyberattaques, une fraude cryptographique plus sophistiquée et saper la sécurité électorale.

L’affaire de harcèlement sexuel d’enfants est devenue l’un des premiers exemples de procureurs tentant d’appliquer les lois américaines existantes aux crimes liés à l’IA. Même s’il y a un succès, le verdict pourrait faire appel parce que le tribunal devrait examiner comment cette nouvelle technologie affecte le paysage juridique lié à l’exploitation d’enfants.

Les procureurs et les avocats pour la sécurité des enfants ont averti que les systèmes génératifs d’IA permettent aux agresseurs de changer et d’afficher sexuellement des photos d’enfants ordinaires, et l’IA pourrait rendre plus difficile pour les autorités légales d’identifier et de trouver les vraies victimes d’abus.

Le Centre national pour les enfants disparus et exploités (NCMEC), un groupe à but non lucratif qui recueille des rapports sur les enfants sur les exploits en ligne, reçoit en moyenne 450 rapports par mois liés à l’IA génératif, tandis que le rapport global atteignait 3 millions par mois l’année dernière.

Les affaires impliquant des images de harcèlement sexuel généré par l’IA feront face à de nouveaux défis juridiques, en particulier lorsque des enfants identifiables ne sont pas décrits. Dans de telles circonstances, les procureurs peuvent porter des accusations de violation du comportement si la loi sur la pornographie pour enfants n’est pas applicable.

En mai, Steven Meeregg, un ingénieur logiciel du Wisconsin, a été accusé de transférer des documents inoffensés utilisant le modèle stable diffusion d'IA pour créer des images explicites d'enfants et les partager avec un adolescent.

Pendant ce temps, un soldat de l’armée américaine, Seth Herrera, est également accusé d’abus pornographiques pour avoir utilisé un chat bot d’IA pour transformer des photos d’enfants qu’il connaissait en images de violences sexuelles.

Les juristes disent même si les images explicites d’enfants sont effectivement protégées par la loi sur la pornographie pour enfants, le statut juridique des images entièrement générées par l’IA reste incertain.

En 2002, la Cour suprême des États-Unis a déclaré qu'il était inconstitutionnel qu'une loi générée par des images qui semblaient montrer des enfants impliqués dans des activités sexuelles, y compris celles générées par des ordinateurs.

En plus des efforts d’application de la loi, les avocats en matière de sécurité des enfants se sont également concentrés sur la prévention. Plusieurs groupes à but non lucratif ont pris des engagements de grandes entreprises d’IA, telles que Google, Amazon, Meta, OpenAI et stability AI, d’éviter de former leurs modèles d’IA à l’aide d’images d’abus sexuels d’enfants et de surveiller leurs plateformes pour prévenir la propagation du matériel.

« Je ne veux pas décriver cela comme une question future, parce que cela s’est produit maintenant », a déclaré Rebecca Portnoff, vice-présidente de la science des données chez Thorn.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)