Partager:

Jakarta - Les entreprises d’intelligence artificielle (IA), y compris OpenAI, font face à des défis inattendus dans le développement de modèles de langue majeure plus sophistiqués. Ils se concentrent maintenant sur de nouvelles techniques de formation qui permettent aux algorithmes de « penser » plus humain d’améliorer l’intelligence de l’IA.

Cela a été révélé par des scientifiques d’IA, des chercheurs et des investisseurs qui pensent que cette approche pourrait changer la compétition technologique dans le secteur de l’IA, ayant un impact sur les besoins en ressources telles que l’énergie et les puces informatiques.

Auparavant, OpenAI avait réussi avec une approche d’expansion des données et de la puissance informatique pour améliorer les modèles d’IA, tels qu’utilisés dans le chatGPT. Cependant, Ilya Sutskever, l’un des fondateurs d’OpenAI qui dirige maintenant un nouveau laboratoire d’IA nommé Safe Superintelligence (SSI), a déclaré que cette approche commençait à montrer des limites. « L’ère de 2010 est une ère de l’évolutivité, mais maintenant nous revions à l’ère de la découverte », a-t-il déclaré.

Les chercheurs font maintenant face aux défis sous la forme de processus de formation de modèles qui coûtent jusqu’à des dizaines de millions de dollars, nécessitent des milliers de puces fonctionnant simultanément et sont vulnérables aux défaillances du matériel. En outre, le problème de manquer de données facilement accessible et de limites énergétiques compliquent encore la situation.

Comme solution, certains chercheurs ont développé une technique appelée « computing en temps d’essai », qui permet aux modèles d’IA de consacrer plus de puissance informatique lorsqu’ils sont exploités pour résoudre des problèmes complexes. OpenAI, par exemple, a utilisé cette technique dans leur nouveau modèle, « o1 » qui permet de résoudre des problèmes en plusieurs étapes telles que les modèles d’esprit humain.

Cette décision est également une préoccupation majeure pour les investisseurs, y compris Sequoia et Andreessen Horowitz, qui envisagent son impact sur leurs investissements. Ce changement pourrait affecter la demande de puces AI appartenant à Nvidia, qui a été une pilier du marché.

Le PDG de Nvidia, Jensen Huang, a reconnu l’importance de cette technique pour augmenter la demande de puces pour l’utilisation d’IA lorsqu’elles fonctionnent, et pas seulement pour la formation. « Nous trouvons maintenant une loi à l’échelle deuxième au moment de l’utilisation », a déclaré Huang.

Le développement d’IA plus intelligent avec cette nouvelle approche peut changer le paysage de l’industrie de l’IA et créer de nouveaux défis et opportunités sur le marché de la technologie.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)