Partager:

JAKARTA - OpenAI a officiellement recruté un professeur et directeur du département d’apprentissage automatique qui se concentre sur la sécurité d’IA à l’Université Carnegie Mellon, Zico Kolter, en tant que conseil d’administration d’OpenAI.

Avec ses expériences dans la recherche d’une nouvelle architecture réseau approfondie, de méthodologie innovante pour comprendre les effets des données sur les modèles et de méthodes automatisées pour évaluer la résilience des modèles d’IA, Zico est très précieux pour le directeur technique de l’entreprise.

Zico rejoindra également le Comité de sécurité et de sécurité du Conseil avec d’autres directeurs, dont Bret Taylor, Adam D’Angelo, Paul Nakasone, Nicole Seligman et Sam Altman (CEO) ainsi que des experts techniques d’OpenAI.

Ce comité est chargé de faire des recommandations sur les décisions de sécurité et de sécurité importantes pour tous les projets OpenAI.

« Zico ajoute une compréhension technique et une perspective approfondie en termes de sécurité et de durabilité de l’IA qui nous aideront à s’assurer que l’intelligence artificielle est généralement bénéfique pour toute l’humanité », a déclaré Bret Taylor, président du conseil d’administration d’OpenAI dans son blog officiel.

A propos de Zico Kolter

Zico Kolter est professeur d'informatique et chef du département d'apprentissage automatique à l'Université Carnegie Mellon, où il est une figure importante depuis 12 ans.

Zico a rempli son diplôme de doctorat en informatique à l’Université de Stanford en 2010, suivi d’une bourse de post-doctorat au MIT de 2010 à 2012.

Tout au long de sa carrière, il a contribué de manière significative au domaine de l’apprentissage automatique, en énumérant de nombreux articles récompensés lors de conférences prestigieuses telles que NeurIPS, ICML et AvatATS.

La recherche Zico comprend le développement de la première méthode pour créer des modèles d’apprentissage approfondi avec une résistance assurée. Il est également pionnier dans des techniques d’imposition de limites strictes dans les modèles d’IA utilisant l’optimisation classique dans les couches du tissu neuronal.

Récemment, en 2023, son équipe a développé une méthode innovante pour évaluer automatiquement la sécurité des modèles de grande langue (LLM), qui démontre le potentiel de contourner la protection des modèles existants grâce à des techniques d’optimisation automatisées.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)