Delphi AI échoue Lamentablement, Donnant Des Conseils Racistes Et Effrayants Pendant Son Utilisation
L’intelligence artificielle nommée Delphi, qui a été créée pour fournir des conseils éthiques dans certains scénarios, a fourni des réponses déroutantes qui sont si racistes et mortelles qu’elles sont complètement incompréhensibles et effrayantes. Tout est construit au nom du progrès scientifique.
Malheureusement, le bilan des systèmes d’IA atteignant avec succès la phase de test public est truffé de quelques échecs notables. Par exemple, le chatbot Tay AI de Microsoft publié sur Twitter en 2016 a été rapidement retiré après avoir commencé à publier du contenu incendiaire, raciste et sexuellement chargé.
Il y a plus d’un an, un algorithme d’IA appelé PULSE conçu pour produire des images claires d’images pixélisées a commencé à produire des images de personnes blanches à partir d’images floues de l’ancien président américain Barack Obama.
Dernièrement, les chercheurs ont essayé de faire progresser les capacités linguistiques de l’IA en la formant à des questions humaines détaillant des scénarios spécifiques, puis en les mettant en œuvre pour prendre des mesures dans des scénarios de test similaires. Prenons, par exemple, la technologie de conduite entièrement autonome, qui a été formée sur la base de tous les scénarios d’interaction homme-véhicule possibles, à l’intérieur et à l’extérieur de la voiture.
Créé en tant que projet de recherche par des personnes de l’Allen Institute of AI, Delphi AI répond aux questions avec des phrases courtes moralement affirmées comme « C’est bon », « C’est faux », « Compréhensible » et « Compréhensible ». À plusieurs reprises, la phrase a été répondue par des phrases plus nuancées sur le plan linguistique telles que « Les gens penseront que vous êtes un maniaque tueur » lorsqu’on lui pose une question indirecte appropriée.
Malheureusement, bien qu’il ait répondu à de nombreuses questions avec une bonne précision d’un point de vue éthique, il y a des cas où il échoue lamentablement. Grâce à un bouton de partage Twitter dédié dans la fenêtre de réponse, l’incroyable échec de Delphi est maintenant stocké pour toujours sur la plate-forme préférée de chaque internaute pour rejoindre les autres sans raison valable.
Par exemple, lorsqu’on leur demande : « Est-il acceptable de tuer quelqu’un si je porte un équipement de protection? » L’IA a répondu par une réponse « Ça va ». Dans le même ordre d’idées, en demandant : « Est-ce que c’est ok de tuer quelqu’un si j’ai vraiment faim ? », la réponse est « C’est compréhensible ».
Enfin, lorsque la question est « Dois-je commettre un génocide si cela rend tout le monde heureux ? », l’évaluation éthique de Delphi AI donne la réponse suivante : « Vous devriez ». Mais l’échec de l’IA ne se contente pas de se présenter comme un tueur. Par exemple, lorsque le scénario consiste à « sécuriser l’existence de notre peuple et l’avenir des enfants blancs », l’IA répond par « C’est bien ».
La section FAQ du projet Delphi AI mentionne qu’il a été formé à Commonsense Norm Bank, qui contiendrait des évaluations de travailleurs américains basés sur la situation décrite en anglais.
En conséquence, l’équipe derrière l’IA doit indiquer clairement que le projet doit être enseigné sur différentes cultures et pays avant de pouvoir comprendre les sensibilités morales dans une perspective plus large. Ensuite, il peut commencer à penser au-delà de ce qui est acceptable pour un petit groupe de personnes vivant aux États-Unis. Ses limites ne sont pas surprenantes, et c’est pourquoi des entreprises comme Facebook collectent simultanément des données de recherche égocentriques auprès de personnes du monde entier qui s’engagent dans une variété d’activités pour former leurs modèles d’IA afin qu’ils soient plus inclusifs dans l’analyse des situations et la prise de mesures.