Comment travaille-t-il avec une image ou une vidéo réalisiste?
YOGYAKARTA – Qu’est-ce qu’un Depfake est l’une des intelligence artificielle (IA) capables de générer des images, des vidéos et des sons faux. Le terme Depfake vient du apprentissage profond et du faux. La méthode de travail Depfake simplement combine diverses données numériques, puis ajustée à l’aide d’IA. Lors de la création de vidéos Depfake, l’IA manipulera l’expression faciale d’une personne âgée peut également changer le visage dans son ensemble.
Comme l’a rapporté Tech Target, en gros, le depot ne fait pas partie d’une vidéo ou d’une image édité par des outils de modification tels que Photoshop. La création utilise un algorithme spécial qui combine les enregistrements anciens et neufs. Les caractéristiques visibles d’une personne seront analysées à l’aide d’apprentissage automatique (ML), les résultats de l’analyse seront utilisés pour les activités de manipulation dans d’autres vidéos.
Il existe deux algorithmes utilisés, à savoir les générateurs et les discriminateurs. Les deux sont utilisés pour créer et améliorer le contenu faux.
L’algorithme générateur construira initialement un ensemble de données de formation basé sur la performance souhaitée. Pendant ce temps, l’algorithme discriminateur sera utilisé pour analyser à quel point la version initiale du contenu est réaliste ou fausse.
Le processus d’analyse dans cet algorithme se répète jusqu’à ce qu’IA puisse apprendre afin que le contenu produit soit plus réaliste. Les discriminateurs continuent également d’être très bons dans la découverte de faiblesses ou de pénuries de contenu. Le processus d’amélioration continue jusqu’à ce que le contenu soit vraiment réel.
La combinaison d’algorithmes entre les générateurs et les discriminateurs créeront un réseau génératif d’adversité ( hawa). GAN utilise le nouvel apprenariat pour reconnaître les modèles dans l’image originale. Après cela, le modèle sera utilisé pour générer de nouvelles faux images. Le système GAN recueillera également les détails et diverses perspectives de photo sous divers angles. Les données seront appliquées au nouveau contenu original afin que les résultats soient plus délicieux.
Dans la vidéo profonde, GAN fera également de même, ainsi qu’en analysant le comportement, les mouvements et les modèles de parole. Les données seront ensuite effectuées via des discriminateurs à plusieurs reprises afin que la vidéo soit plus parfaite et réaliste.
Il convient de noter que des vidéos insuffisantes peuvent être créées de deux façons, en utilisant la vidéo originale appartenant à la cible ou en changeant les visages dans les vidéos appartenant à d’autres. D’une première façon, la vidéo sera comme si n’était originale que son auditoire changeant à souhait. Alors que de la deuxième façon, il y aura une manipulation avec l’audio et la vidéo.
Voici quelques points spécifiques à faire sur la vidéo de profonde fake.
Si le contenu est tiré de la vidéo originale, l’auto-encodeur de profondeur basé sur le réseau nerveux analysera le contenu. Ceci est fait pour comprendre les attributs existants allant de l’expression faciale au langage corporel. Après cela, ces caractéristiques seront appliquées à leur vidéo originale.
Pour le lock-out audio, GAN clonera la voix d’une personne, puis construira un modèle vocal, puis utilisera le modèle pour générer le son souhaité par le créateur.
Cette technique est également utilisée dans l’apprentissage en cartographiant les enregistrements vocaux vers la vidéo. En conséquence, quelqu’un qui apparaît dans le postfake de la vidéo dira comme s’il dit un mot manipulé.
Voici des informations sur la façon dont fonctionne le depot. Visitez VOI.id pour obtenir d’autres informations intéressantes.