Huaxi Securities prévoit que le marché mondial des logiciels d'IA atteindra 126 milliards de dollars américains en 2025, avec un taux de croissance composé de 41,02 % de 2021 à 2025.
Derrière la prospérité de ChatGPT se cache le support d'une puissance de calcul astronomique.
Selon les estimations, en termes de serveurs de formation IA, une seule grande formation de modèle de langage fait grimper la demande de serveurs de formation IA à environ 200 millions de dollars américains ; en termes de serveurs d'inférence IA, tels que ChatGPT, il peut stimuler la demande de serveurs d'inférence à environ 4,5 milliards de dollars américains au début.
Pendant un certain temps, les ChatGPT ont émergé les uns après les autres, et la piste du serveur AI derrière eux a également commencé à augmenter en conséquence.
La puissance de calcul détermine ChatGPT
La puissance de calcul est le moteur central du grand modèle, et sa formule de calcul est très simple : combien de puces GPU peuvent générer autant de puissance de calcul, et le nombre de puces GPU haut de gamme peut affecter directement la puissance de calcul.
**La puissance de calcul requise par ChatGPT n'est pas fixe, mais augmente progressivement. Plus ChatGPT est intelligent, plus le prix à payer est que de plus en plus de puissance de calcul est nécessaire. **
Selon les spéculations des médias, le coût de la formation GPT-3 devrait être de 5 millions de dollars américains à la fois, le modèle GPT-3 devrait coûter environ 1,4 million de dollars américains en frais de formation et le modèle PaLM de Google devrait coûter environ 11,2 millions de dollars américains. dollars en frais de formation.
Selon les dirigeants de Microsoft, le supercalculateur IA qui fournit un support de puissance de calcul pour ChatGPT est un supercalculateur haut de gamme à grande échelle construit par Microsoft avec un investissement de 1 milliard de dollars américains en 2019. Il est équipé de dizaines de milliers de GPU Nvidia A100. et plus de 60 Au total, des centaines de milliers de GPU Nvidia sont déployés dans le centre de données.
Afin de répondre à la demande toujours croissante de puissance de calcul ChatGPT, Microsoft a annoncé le lancement d'une série de machines virtuelles évolutives Azure basées sur la dernière puce phare GPU H100 de Nvidia et la technologie d'interconnexion réseau Quantum-2 InfiniBand de Nvidia pour accélérer considérablement le développement. des modèles d'IA.
Il semble que derrière ChatGPT regorge de Nvidia, Nvidia et Nvidia.
En fait, Nvidia, en tant que suzerain du matériel, occupe non seulement la majeure partie du marché sur le marché grand public, mais est également le choix numéro un dans le domaine des puces de serveur AI.
Les choses rares sont plus chères. À l'heure actuelle, le prix de la puce phare H100 de Nvidia a augmenté de près de 70 000 yuans en une semaine, et le prix est généralement aussi élevé que 300 000 yuans; Le yuan est passé à 90 000 yuans, soit une augmentation de plus de 50 %.
Non seulement il ne peut pas être acheté à des prix plus élevés, mais même les États-Unis ont interdit à Nvidia de vendre des puces. En août de l'année dernière, le gouvernement américain a publié une politique de contrôle des exportations, interdisant à Nvidia de vendre les puces A100 et H100 à la Chine.
Afin de ne pas perdre le marché chinois et de se conformer aux contrôles américains à l'exportation, Nvidia a ensuite lancé des versions castrées performantes des puces A800 et H800. Mais ces deux puces ont également été arrachées par le marché en pénurie, et le prix a également augmenté en conséquence.
Dirigées par Baidu, Ali et Tencent, la plupart des sociétés Internet en Chine ont annoncé leur entrée dans le modèle à grande échelle. Selon les statistiques du marché, depuis ChatGPT, le nombre de grands modèles qui seront lancés en Chine cette année a dépassé 10.
Si vous voulez atteindre le niveau de ChatGPT, vous avez besoin d'au moins 3 000 puces A100, soit 270 millions de RMB au prix de 90 000 par pièce pour compléter le déploiement d'un grand modèle ; 10 grands modèles ont besoin de 30 000 puces A100, 2,7 milliards de RMB .
Outre le coût d'une formation ultérieure, les puces requises sont encore plus astronomiques. Mais à en juger par le délai de livraison actuel de Nvidia, il n'est pas facile d'acheter suffisamment de puces.
En transe, l'ère des cartes minières est revenue.
Nvidia assis à nouveau dans les airs
Lorsque la monnaie virtuelle était en vogue ces dernières années, en tant que fournisseur de cartes graphiques nécessaires au minage, Nvidia a réalisé un énorme bénéfice de 4,8 milliards de dollars américains en quelques années. Comptez maintenant sur ChatGPT pour vivre une seconde vie, laissez l'histoire se répéter à nouveau.
Face à l'envolée de la demande du marché, Nvidia, qui a profité de la vague de l'IA pour se redresser, a lancé un service de location de puissance de calcul.
Le 21 mars, lors de la conférence GTC 2023, le fondateur et PDG de NVIDIA, Jensen Huang, a lancé NVIDIA DGX Cloud, qui peut fournir aux entreprises l'infrastructure et les logiciels nécessaires pour former des modèles d'IA avancés. Chaque instance de DGX Cloud est équipée de 8 GPU H100 ou A100 de 80 Go. Les entreprises peuvent louer mensuellement des clusters DGX Cloud sous forme de leasing cloud, à partir de 37 000 $ par instance et par mois.
** N'y a-t-il vraiment aucun substitut à Nvidia ? Pourquoi les entreprises préfèrent-elles choisir le leasing plutôt que d'autres fabricants de puces GPU ? **
Selon les données d'IDC, les serveurs GPU nationaux représenteront plus de 88,4 % du marché national des serveurs en 2021, et les produits utilisant NVIDIA représenteront plus de 80 %.
**La puce requise par le grand modèle d'IA a des exigences plus élevées en matière de précision du traitement des informations et de vitesse de la puissance de calcul.Dans le domaine du supercalcul, la capacité de calcul à virgule flottante à double précision FP64 est un indicateur rigide de haute calculs de puissance de calcul. Les H100 et A100 de Nvidia sont actuellement les seules puces dotées de ces capacités. **
Les ventes de puces Nvidia ne sont pas les seules à bloquer aux États-Unis : la technologie, les équipements et les matériaux limitent la recherche et le développement des entreprises chinoises. Cependant, sous les lourdes restrictions imposées par les États-Unis, les entreprises chinoises manquaient encore de plusieurs chevaux noirs sous pression.
Selon le dernier « China Accelerated Computing Market (Second Half of 2021) Tracking Report » publié par IDC, l'échelle du marché chinois des serveurs d'IA atteindra 35,03 milliards de yuans en 2021, soit une augmentation de 68,6 % en glissement annuel.
Dans le domaine des puces GPU au niveau de l'entreprise, le fabricant chinois Biren Technology lancera la puce BR100 en 2022, Tianshu Zhixin lancera la puce Zhikai 100 et Cambrian lancera la puce Siyuan 270.
Parmi eux, Biren Technology a déclaré que le BR100 possède la puissance de calcul la plus élevée au monde et que sa puissance de calcul maximale a atteint plus de trois fois celle des produits phares du marché.La puissance de calcul atteint le niveau PFLOPS.
Bien que les données soient bonnes, il lui manque la capacité cruciale de traiter le FP64, et il ne peut toujours pas remplacer complètement les deux frères Nvidia H100 et A100.
De plus, la plate-forme CUDA utilisée par Nvidia est déjà devenue l'écosystème de développement d'IA le plus utilisé et ne supporte que le GPU basé sur Tesla de Nvidia, qui ne peut pas être remplacé par des puces domestiques à ce stade.
Bien que les fabricants de puces chinois rattrapent leur retard dans le domaine des puces GPU, le fossé technologique et le goulot d'étranglement aux États-Unis restent des problèmes clés, et il faudra un certain temps pour travailler dur.
Plus qu'un serveur IA
Non seulement les serveurs d'IA et les puces GPU, mais aussi le marché du stockage sont en plein essor à l'aide de modèles à grande échelle.
**Les conditions de fonctionnement de ChatGPT incluent des données de formation, des algorithmes de modèle et une puissance de calcul élevée. L'infrastructure sous-jacente à haute puissance de calcul est la base de données et de formation massives. **
La caractéristique la plus évidente est qu'après plusieurs itérations de ChatGPT, le nombre de paramètres est passé de 117 millions à 175 milliards, une augmentation de près de deux mille fois, ce qui pose également de grands défis en matière de calcul et de stockage.
** Alors que la nouvelle ère de l'IA commence, on s'attend à ce que la quantité de données mondiales générées, stockées et traitées augmente de manière exponentielle, et la mémoire en bénéficiera de manière significative. Le stockage informatique est une pierre angulaire importante de ChatGPT.Avec l'entrée de géants de la technologie tels qu'Alibaba et Baidu dans les projets ChatGPT, la demande globale du marché du stockage informatique va encore augmenter rapidement. **
Alors que l'AIGC continue de prospérer, Pékin, Shanghai, Guangzhou et d'autres régions développées par l'économie numérique ont également introduit des politiques visant à promouvoir la construction de centres informatiques intelligents. Par exemple, Pékin propose de construire un nouveau lot de centres de données informatiques et de centres de puissance de calcul d'intelligence artificielle, et de les transformer en centres de puissance de calcul d'intelligence artificielle d'ici 2023 ; Shanghai propose de construire un lot de calcul d'intelligence artificielle à haute performance et à haut débit power centers, Promouvoir la construction de plateformes de services de puissance informatique publique, etc.
Et tous les horizons de la vie seront confrontés au baptême de ChatGPT. Sous la nouvelle vague d'intelligence artificielle, les industries liées à l'IA inaugureront un vaste espace de marché.
Et les entreprises chinoises sont tenues de briser les contraintes des États-Unis et de briser les chaînes de l'injustice.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Le jeu de puissance informatique derrière ChatGPT Les entreprises chinoises ont un besoin urgent de briser le carcan des États-Unis
Huaxi Securities prévoit que le marché mondial des logiciels d'IA atteindra 126 milliards de dollars américains en 2025, avec un taux de croissance composé de 41,02 % de 2021 à 2025.
Derrière la prospérité de ChatGPT se cache le support d'une puissance de calcul astronomique.
Selon les estimations, en termes de serveurs de formation IA, une seule grande formation de modèle de langage fait grimper la demande de serveurs de formation IA à environ 200 millions de dollars américains ; en termes de serveurs d'inférence IA, tels que ChatGPT, il peut stimuler la demande de serveurs d'inférence à environ 4,5 milliards de dollars américains au début.
Pendant un certain temps, les ChatGPT ont émergé les uns après les autres, et la piste du serveur AI derrière eux a également commencé à augmenter en conséquence.
La puissance de calcul détermine ChatGPT
La puissance de calcul est le moteur central du grand modèle, et sa formule de calcul est très simple : combien de puces GPU peuvent générer autant de puissance de calcul, et le nombre de puces GPU haut de gamme peut affecter directement la puissance de calcul.
**La puissance de calcul requise par ChatGPT n'est pas fixe, mais augmente progressivement. Plus ChatGPT est intelligent, plus le prix à payer est que de plus en plus de puissance de calcul est nécessaire. **
Selon les spéculations des médias, le coût de la formation GPT-3 devrait être de 5 millions de dollars américains à la fois, le modèle GPT-3 devrait coûter environ 1,4 million de dollars américains en frais de formation et le modèle PaLM de Google devrait coûter environ 11,2 millions de dollars américains. dollars en frais de formation.
Selon les dirigeants de Microsoft, le supercalculateur IA qui fournit un support de puissance de calcul pour ChatGPT est un supercalculateur haut de gamme à grande échelle construit par Microsoft avec un investissement de 1 milliard de dollars américains en 2019. Il est équipé de dizaines de milliers de GPU Nvidia A100. et plus de 60 Au total, des centaines de milliers de GPU Nvidia sont déployés dans le centre de données.
Afin de répondre à la demande toujours croissante de puissance de calcul ChatGPT, Microsoft a annoncé le lancement d'une série de machines virtuelles évolutives Azure basées sur la dernière puce phare GPU H100 de Nvidia et la technologie d'interconnexion réseau Quantum-2 InfiniBand de Nvidia pour accélérer considérablement le développement. des modèles d'IA.
Il semble que derrière ChatGPT regorge de Nvidia, Nvidia et Nvidia.
En fait, Nvidia, en tant que suzerain du matériel, occupe non seulement la majeure partie du marché sur le marché grand public, mais est également le choix numéro un dans le domaine des puces de serveur AI.
Les choses rares sont plus chères. À l'heure actuelle, le prix de la puce phare H100 de Nvidia a augmenté de près de 70 000 yuans en une semaine, et le prix est généralement aussi élevé que 300 000 yuans; Le yuan est passé à 90 000 yuans, soit une augmentation de plus de 50 %.
Non seulement il ne peut pas être acheté à des prix plus élevés, mais même les États-Unis ont interdit à Nvidia de vendre des puces. En août de l'année dernière, le gouvernement américain a publié une politique de contrôle des exportations, interdisant à Nvidia de vendre les puces A100 et H100 à la Chine.
Afin de ne pas perdre le marché chinois et de se conformer aux contrôles américains à l'exportation, Nvidia a ensuite lancé des versions castrées performantes des puces A800 et H800. Mais ces deux puces ont également été arrachées par le marché en pénurie, et le prix a également augmenté en conséquence.
Dirigées par Baidu, Ali et Tencent, la plupart des sociétés Internet en Chine ont annoncé leur entrée dans le modèle à grande échelle. Selon les statistiques du marché, depuis ChatGPT, le nombre de grands modèles qui seront lancés en Chine cette année a dépassé 10.
Si vous voulez atteindre le niveau de ChatGPT, vous avez besoin d'au moins 3 000 puces A100, soit 270 millions de RMB au prix de 90 000 par pièce pour compléter le déploiement d'un grand modèle ; 10 grands modèles ont besoin de 30 000 puces A100, 2,7 milliards de RMB .
Outre le coût d'une formation ultérieure, les puces requises sont encore plus astronomiques. Mais à en juger par le délai de livraison actuel de Nvidia, il n'est pas facile d'acheter suffisamment de puces.
En transe, l'ère des cartes minières est revenue.
Nvidia assis à nouveau dans les airs
Lorsque la monnaie virtuelle était en vogue ces dernières années, en tant que fournisseur de cartes graphiques nécessaires au minage, Nvidia a réalisé un énorme bénéfice de 4,8 milliards de dollars américains en quelques années. Comptez maintenant sur ChatGPT pour vivre une seconde vie, laissez l'histoire se répéter à nouveau.
Face à l'envolée de la demande du marché, Nvidia, qui a profité de la vague de l'IA pour se redresser, a lancé un service de location de puissance de calcul.
Le 21 mars, lors de la conférence GTC 2023, le fondateur et PDG de NVIDIA, Jensen Huang, a lancé NVIDIA DGX Cloud, qui peut fournir aux entreprises l'infrastructure et les logiciels nécessaires pour former des modèles d'IA avancés. Chaque instance de DGX Cloud est équipée de 8 GPU H100 ou A100 de 80 Go. Les entreprises peuvent louer mensuellement des clusters DGX Cloud sous forme de leasing cloud, à partir de 37 000 $ par instance et par mois.
** N'y a-t-il vraiment aucun substitut à Nvidia ? Pourquoi les entreprises préfèrent-elles choisir le leasing plutôt que d'autres fabricants de puces GPU ? **
Selon les données d'IDC, les serveurs GPU nationaux représenteront plus de 88,4 % du marché national des serveurs en 2021, et les produits utilisant NVIDIA représenteront plus de 80 %.
**La puce requise par le grand modèle d'IA a des exigences plus élevées en matière de précision du traitement des informations et de vitesse de la puissance de calcul.Dans le domaine du supercalcul, la capacité de calcul à virgule flottante à double précision FP64 est un indicateur rigide de haute calculs de puissance de calcul. Les H100 et A100 de Nvidia sont actuellement les seules puces dotées de ces capacités. **
Les ventes de puces Nvidia ne sont pas les seules à bloquer aux États-Unis : la technologie, les équipements et les matériaux limitent la recherche et le développement des entreprises chinoises. Cependant, sous les lourdes restrictions imposées par les États-Unis, les entreprises chinoises manquaient encore de plusieurs chevaux noirs sous pression.
Selon le dernier « China Accelerated Computing Market (Second Half of 2021) Tracking Report » publié par IDC, l'échelle du marché chinois des serveurs d'IA atteindra 35,03 milliards de yuans en 2021, soit une augmentation de 68,6 % en glissement annuel.
Dans le domaine des puces GPU au niveau de l'entreprise, le fabricant chinois Biren Technology lancera la puce BR100 en 2022, Tianshu Zhixin lancera la puce Zhikai 100 et Cambrian lancera la puce Siyuan 270.
Parmi eux, Biren Technology a déclaré que le BR100 possède la puissance de calcul la plus élevée au monde et que sa puissance de calcul maximale a atteint plus de trois fois celle des produits phares du marché.La puissance de calcul atteint le niveau PFLOPS.
Bien que les données soient bonnes, il lui manque la capacité cruciale de traiter le FP64, et il ne peut toujours pas remplacer complètement les deux frères Nvidia H100 et A100.
De plus, la plate-forme CUDA utilisée par Nvidia est déjà devenue l'écosystème de développement d'IA le plus utilisé et ne supporte que le GPU basé sur Tesla de Nvidia, qui ne peut pas être remplacé par des puces domestiques à ce stade.
Bien que les fabricants de puces chinois rattrapent leur retard dans le domaine des puces GPU, le fossé technologique et le goulot d'étranglement aux États-Unis restent des problèmes clés, et il faudra un certain temps pour travailler dur.
Plus qu'un serveur IA
Non seulement les serveurs d'IA et les puces GPU, mais aussi le marché du stockage sont en plein essor à l'aide de modèles à grande échelle.
**Les conditions de fonctionnement de ChatGPT incluent des données de formation, des algorithmes de modèle et une puissance de calcul élevée. L'infrastructure sous-jacente à haute puissance de calcul est la base de données et de formation massives. **
La caractéristique la plus évidente est qu'après plusieurs itérations de ChatGPT, le nombre de paramètres est passé de 117 millions à 175 milliards, une augmentation de près de deux mille fois, ce qui pose également de grands défis en matière de calcul et de stockage.
** Alors que la nouvelle ère de l'IA commence, on s'attend à ce que la quantité de données mondiales générées, stockées et traitées augmente de manière exponentielle, et la mémoire en bénéficiera de manière significative. Le stockage informatique est une pierre angulaire importante de ChatGPT.Avec l'entrée de géants de la technologie tels qu'Alibaba et Baidu dans les projets ChatGPT, la demande globale du marché du stockage informatique va encore augmenter rapidement. **
Alors que l'AIGC continue de prospérer, Pékin, Shanghai, Guangzhou et d'autres régions développées par l'économie numérique ont également introduit des politiques visant à promouvoir la construction de centres informatiques intelligents. Par exemple, Pékin propose de construire un nouveau lot de centres de données informatiques et de centres de puissance de calcul d'intelligence artificielle, et de les transformer en centres de puissance de calcul d'intelligence artificielle d'ici 2023 ; Shanghai propose de construire un lot de calcul d'intelligence artificielle à haute performance et à haut débit power centers, Promouvoir la construction de plateformes de services de puissance informatique publique, etc.
Et tous les horizons de la vie seront confrontés au baptême de ChatGPT. Sous la nouvelle vague d'intelligence artificielle, les industries liées à l'IA inaugureront un vaste espace de marché.
Et les entreprises chinoises sont tenues de briser les contraintes des États-Unis et de briser les chaînes de l'injustice.