Apple lance OpenAI et Google pour une amélioration de série avec les dernières technologies d’IA

JAKARTA - Lors d’un événement qui s’est tenu le lundi 10 juin, le PDG d’Apple, Tim Cook, a annoncé qu’Apple était en collaboration avec OpenAI pour inclure des modèles d’intelligence artificielle (IA) avancés dans son assistant vocal, Siri.

Cependant, dans des documents techniques qu’Apple a publiés après l’événement, il a été révélé que Google d’Alphabet était également un gagnant dans les efforts d’Apple pour poursuivre le retard dans le domaine de l’IA.

Pour construire son modèle d’IA de base, les ingénieurs d’Apple ont utilisé leurs propres logiciels cadres avec une variété de matériel, y compris des unités de traitement graphique en prélèvement (GPU) et des puces qui ne sont disponibles que dans le cloud de Google appelées unités de traitement ténseur (TPU).

Google développe TPU depuis environ 10 ans et a discuté publiquement de deux variantes de ses puces de cinquième génération pouvant être utilisées pour la formation à l’IA. Cette variante de performance de la cinquième génération offre des performances concurrentes avec les puces AI H100 de Nvidia. Lors de la conférence annuelle de développement, Google a annoncé que la sixième génération serait lancée cette année.

Le processeur est spécialement conçu pour exécuter des applications d’IA et pour former des modèles, et Google a construit autour de cela une plate-forme matérielle et de logiciels de informatique en nuage.

Apple et Google n’ont pas immédiatement répondu aux demandes de commentaires concernant cette collaboration. Apple n’a pas non plus discuté de la mesure de sa dépendance aux puces et aux logiciels de Google par rapport au matériel de Nvidia ou à d’autres fournisseurs d’IA.

Cependant, l’utilisation de puces de Google exige généralement que les clients achètent l’accès via leurs divisions cloud, similaire à la façon dont les clients achètent du temps de calcul auprès d’AWS d’Amazon.com ou d’Azure de Microsoft.