Partager:

JAKARTA – Ilya Sutskever, co-fondatrice et ancienne scientifique en chef d’OpenAI, a lancé une nouvelle société appelée Safe Superintelligence (SSI). La société vise à développer des systèmes d’intelligence artificielle (IA) qui vont bien au-delà des capacités humaines, mais avec une attention particulière à la sécurité et à l’éthique.

Sutskever, 37 ans, est connu comme l’une des personnalités les plus influentes du monde de l’IA. Il a étudié sous la direction de Geoffrey Hinton, surnommé « M. AI », et était un partisan initial du concept de « scalking » – l’idée selon laquelle les performances artificielles augmentent avec une grande puissance de comptage. Ce concept est la base d’avancements génératifs d’IA tels que chatGPT. Cependant, Sutskever a déclaré que SSI adopterait une approche différente de l’OpenAI en termes d’échappement.

Dans une interview exclusive avec Reuters, Sutskever a expliqué ses motivations pour fonder SSI. Il a souligné que l’entreprise souhaitait explorer un nouveau domaine du développement de l’IA, une « montagne » différente des emplois précédents. Selon Sutskever, atteindre le sommet de cette montagne révolutionnera le monde de l’IA, et à ce moment-là, la sécurité de la superintelligence sera le défi le plus crucial.

« Notre premier produit sera une superintelligence sécurisée », a déclaré Sutskever, soulignant l’importance de veiller à ce que l’IA soit d’avantages pour l’humanité.

Lorsqu’on lui a demandé si SSI libérerait un système d’IA équivalent à l’intelligence humaine avant de atteindre une superintelligence, Sutskever a répondu avec soin. Il a souligné que sa question principale était de savoir s’il était sûr et offrait du bien au monde. Il a admis qu’il était difficile de prédire comment le monde changerait à mesure que le système d’IA évoluait, et la décision finale pourrait ne pas être entièrement entre les mains de SSI.

« Le monde sera un endroit très différent », a déclaré Sutskever. Il a averti que les discussions sur l’IA seront de plus en plus intenses avec l’avancement de la technologie.

Interrogée sur la définition de l’IA sécurisé, Sutskever a admis qu’il n’y avait aucune réponse définitive. Il a souligné la nécessité de recherches et d’expériences significatives pour déterminer les mesures de sécurité appropriées à mesure que les capacités de l’IA évoluent.

« Il reste encore beaucoup de recherche à faire », a-t-il déclaré, soulignant que la mission de SSI est de trouver des réponses à ces questions critiques.

Sutskever a également discuté du concept d’échappement, qui a fait pression pour de nombreuses progrès dans l’IA au cours de la dernière décennie. Il a souligné que la compréhension actuelle de l’échappement est basée sur certaines formules, mais cela peut changer à mesure que la technologie d’IA évolue. Lorsque ces changements se produisent, la question de la sécurité deviendra de plus en plus importante.

En ce qui concerne la possibilité de recherche SSI en accès ouvert, Sutskever a expliqué que, comme la plupart des entreprises d’IA, SSI ne partagera pas publiquement les résultats principaux de leurs recherches. Cependant, il espère que certains aspects de la recherche sur la sécurité de la superintelligence pourront être ouverts au public, en fonction de divers facteurs.

Bien qu’il ait fondé une société axée sur la sécurité, Sutskever s’est exprimé positivement sur les efforts d’autres entreprises d’IA. Il pense qu’au fur et à mesure que l’industrie progresse, toutes les parties se rendront compte des défis du développement d’IA sécurisé et de contribuer à une mission plus large d’assurer les avantages de l’IA pour l’humanité.

La nouvelle décision de Sutskever marque une étape importante dans un paysage croissant de sécurité de l’IA, avec SSI se positionnant comme acteur clé dans le développement de systèmes de superintelligence sécurisés. Avec la transformation mondiale par l’IA, la recherche et l’innovation de l’entreprise pourraient avoir un impact majeur à l’avenir.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)