La recherche du Tech de Virginie révèle une possibilité courante dans le chatGPT concernant la justice environnementale

JAKARTA - L’Université Tech de Virginie aux États-Unis a publié un rapport décrivant le biais potentiel dans l’outil d’intelligence artificielle de chatGPT (IA), indiquant des variations dans les résultats liés à la justice environnementale dans différentes villes.

Dans le rapport, les chercheurs de Virgin Tech ont déclaré que le chatGPT avait des limites à la transmission d’informations régionales spécifiques concernant les questions de justice environnementale.

Cependant, l’étude a identifié une tendance qui suggère que l’accès à l’information est plus facile pour les États plus grands et densément peuplés.

« Dans les États avec une plus grande population urbaine tels que le Jayware ou la Californie, moins d’1 % de la population vit dans des districts qui ne peuvent pas recevoir d’informations spécifiques », indique le rapport. Pendant ce temps, les zones avec moins de population ont moins d’accès.

« Dans les pays plus ruraux tels que l’Idaho et le New Hampshire, plus de 90% de la population vit dans des districts qui ne peuvent pas recevoir d’informations locales spécifiques », indique le rapport dans le communiqué.

Le rapport cite également une conférencière nommée Kim du département de géographie du Tech de Virginie, qui a exhorté à des recherches plus approfondies à la découverte du présumé.

« Bien que de nouvelles recherches soient nécessaires, nos résultats révèlent que les biais géographiques actuels existent dans le modèle chatGPT », a déclaré Kim.

Le document d’étude comprend également une carte qui illustre l’étendue de la population américaine sans accès à des informations spécifiques sur les questions de justice environnementale.

Dans les dernières nouvelles, il est rapporté que les universitaires ont découvert des biais politiques potentiels démontrés par le chatGPT récemment. Le 25 août, Cointelegraph a rapporté que des chercheurs du Royaume-Uni et du Brésil ont publié une étude qui déclare que des modèles de langues majeures tels que chatGPT produisent des textes contenant des erreurs et des biaisés qui pourraient tromper les lecteurs.