JAKARTA - Google est à nouveau félicité pour la capacité brute de Gemini 3 Pro qui devient de plus en plus brutale, mais un nouveau rapport de la Corée du Sud a soudainement frappé cette histoire avec une note d’alarme.
Selon le Maeil Business Newspaper, une entreprise de sécurité d'IA appelée Aim Intelligence a affirmé avoir réussi à percer le modèle et à le pousser à donner des réponses sur la façon de créer des menaces biologiques et des armes de fabrication artisanale - des domaines qui devraient être derrière les murs de sécurité du système.
Aim Intelligence a déclaré que dans les tests d’environnement contrôlés, Gemini 3 Pro n’a pas seulement glissé, mais a répondu à tous les détails qui devraient être bloqu̧es par un modelé développ̧ dédíé à la securité.
Le rapport indique également que ce modèle, après avoir été poussé par un prompt supplémentaire, a fini par faire une présentation bizarre intitulée « Excused Stupid Gemini 3 », comme une auto-brûlure jamais demandée.
Aucun de ses résultats ou de ses méthodes n’a été publié, de sorte que le niveau de credíbilité et de la possibilité de répéter l’exṕrience n’a pas été déjà déjà confirmé. Sans prompt, sans documentation technique, le resultat était juste une demande unilaterée qui avait besoin de preuves solides avant d’être consideré valide.
Et pourtant, l’accusation touche un point sensible dans le monde de l’IA : plus l’équipe est intelligente, plus il est difficile de s’assurer qu’elle reste conforme à un chemin de vie sain. Plusieurs incidents récents — du modèle qui réponse à des questions dangereuses lorsque la question est dissimulée en poesie, jusqu’aux gadgets baśs sur l’IA qui offrent accidentellement du contenu inapproprie pour les enfants. Cela montre que les garde-fous bien réglés sur papier peuvent toujours être permes lorsque le modèle est soumis à des moyens inattendus.
Google lui-même positionne Gemini 3 Pro comme l’un de ses produits les plus sophistiqu̧es, avec une grande événement sur la securité. Mais ce rapport de la Corée du Sud ajoute de la pression: le public veut une preuve tangible que le système est vraiment securité, y compris dans les scènes les plus agressifs, pas seulement lors des démos de presse élégantes.
Pour le moment, les questions sont plus nombreuses que les réponses. Google doit ouvrir une explication, et les chercheurs qui prétendent avoir fait cette découverte doivent être transparents si on veut qu'on leur fasse confiance. Le monde de l'IA avance rapidement, mais la confiance du public s'évanouit plus rapidement si des questions sensibles comme celle-ci sont laissées pendantes.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)