poam5356 a dit:
Faudra-t-il bientôt parler de TPU à la place des GPU et voir Google prendre le leadership de la course à l'IA ?
Théorique les TPU (
Tensor Processing Unit - unités de traitement tensoriel) sont spécifiquement conçus pour l'IA alors que les GPU (
Graphics Processing Unit - unités de traitement graphique ou processeur graphique) sont crées à l'origine pour le traitement graphique.
Historiquement l'IA utilise des GPU car ils sont conçus pour faire des traitement parallèle pour les fameux polygones d'image dans la vidéo. Or l'IA fonctionne avec des calculs parallèles.
C'est la très connu architecture CUDA qui a fait passer les GPU du jeux vidéos aux calculs complexes comme l'analyse des données.
On est donc sur un outil à l'origine crée pour la vidéo et qui a été reconfiguré pour l'IA.
Alors que les TPU eux sont dès le départ conçus pour l'IA, on parle d'ailleurs d'ASIC (
Application-Specific Integrated Circuit - circuit intégré propre à une application). Certes ils sont moins puissant que les GPU mais sont orientés opérations tensorielles (objet mathématiques utilisé dans l'analyse vectorielle pour simplifier).
Pour les matheux un scalaire est un tenseur d'ordre zéro (ou de rang zéro). Un vecteur est un tenseur unidimensionnel (ou d'ordre 1) et une matrice est un tenseur bidimensionnel (ou d'ordre 2)
L'IA a besoin d'apprendre et de réfléchir. Et c'est là la beauté du système car les TPU permettent de séparer les taches. Au lieu de tout miser sur le GPU on sépare les opérations comme ceci :
- Opérations d'inférence ("Réfléchir") -> TPU car ce sont des calculs matricielles et plus rapides que les GPU
- Entraînement de modèles d'apprentissage ("Apprendre") -> GPU car ce sont quantités astronomiques d'informations à traiter et à paralléliser.
Le seul hic des TPU est qu'ils sont très spécialisés et moins flexible que les GPU. Mais les 2 sont complémentaires avec le reste de la famille CPU (donne les ordres) et autres réseaux haute vitesse (aiguillage).