En 2023, les institutions d'investissement et les actionnaires posent aux entreprises cotées dans le domaine des puces IA trois questions mortelles :
Avez-vous déjà réalisé une puce intégrée de stockage et de calcul ?
(Source des investisseurs posant des questions à Montage Technology : Tonghuashun Finance)
Où en sont les progrès de la puce intégrée de calcul de mémoire ?
(Les investisseurs demandent à Dongxin de partager la source de la question : Tonghuashun Finance)
Quelle est la perspective des puces de stockage et de calcul intégrées ?
(Source des questions des investisseurs sur les actions Hengshuo : Tonghuashun Finance)
La série de questions ci-dessus signifie que l'intégration du stockage et du calcul ne "reste" plus dans les milieux académiques et industriels, et qu'elle semble être populaire dans le marché secondaire : les actionnaires et les sociétés de courtage font des heures supplémentaires pour compenser l'intégration des Stockage et calcul, donc fabricants de puces traditionnels depuis le début de 2023, l'agencement de l'intégration du stockage et de l'informatique a été "torturé".
Une question naturelle est de savoir pourquoi l'intégration du dépôt et du calcul est soudainement devenue si populaire ?
Huawei, qui a lancé le nouveau produit de stockage OceanStor A310 le 7.14, a donné sa propre réponse. Zhou Yuefeng, président de la gamme de produits de stockage de données de Huawei, a déclaré qu'il existe de nombreux problèmes de données dans la formation et le raisonnement des grands modèles à usage général et des grands modèles de l'industrie : lente collecte inter-domaines de données massives, faible efficacité d'interaction des données dans le prétraitement et la formation et la sécurité difficile des flux de données.
Le grand modèle d'IA apporte de nouveaux défis au stockage. Par exemple, la stabilité est pire que celle de l'IA traditionnelle. Dans le même temps, il y a une grande quantité de travail de prétraitement et de préparation des données, qui nécessite une informatique proche du stockage (un type de stockage et calcul) pour traiter systématiquement ce problème.
Alors, combien coûte la "grande quantité de données" ici ? Selon les calculs de SI Rui Insight, ChatGPT compte actuellement 100 millions d'utilisateurs quotidiens.Si 5% des gens posent des questions chaque seconde à la même heure chaque jour, cela va ronger la production d'électricité du barrage des Trois Gorges pendant près d'un an.
En d'autres termes, les grands modèles demandent frénétiquement de la puissance de calcul, et les solutions émergentes représentées par l'intégration du stockage et de l'informatique peuvent résoudre de nombreux défis posés par les grands modèles. En fait, en plus d'imposer des exigences strictes en matière de puissance de calcul, le grand modèle donne également aux fabricants de puces AI "beaucoup de sucre à manger".
Cet article tente d'explorer, sous l'angle du grand modèle, quels avantages sont accordés aux fabricants de puces IA ? Quel est le futur modèle des fabricants intégrés de stockage et de calcul qui ont été « licenciés » par ChatGPT ?
PART-01 "La fortune et le malheur dépendent l'un de l'autre" Fabricants de puces IA
Le vent de la maquette souffle toujours, et la discussion sur la maquette bat toujours son plein.
Début août, lors du sous-forum de la conférence sur l'intelligence artificielle de la Fédération informatique de Chine (CCF) - "Voir la frontière de la puissance de calcul à grande échelle du modèle d'IA de Kunlun", les experts et les universitaires ont convenu qu'à l'ère de la grande échelle modèles, la puissance de calcul intelligente est devenue un "atout rare", comment faire bon usage des ressources informatiques et maximiser leurs avantages est devenu un défi auquel chaque participant doit faire face.
Quant à la quantité de puissance de calcul exigée par GPT-3 seul, dans des circonstances conservatrices, le barrage des Trois Gorges doit "travailler" toute la nuit pour répondre :
En supposant qu'il y a 100 millions de personnes en ligne en même temps, 5% d'entre eux posent des questions chaque seconde à la même heure chaque jour, chacun occupant 30 jetons, et 15,3 millions de puces H100 sont nécessaires pour fournir sa puissance de calcul d'inférence ; et la puissance la consommation de chaque H100 est de 750W Environ, s'il fonctionne 10 heures par jour, la consommation électrique annuelle du centre de données où se trouvent ces puces H100 atteindra 84 milliards de kWh, tandis que la production annuelle d'électricité du barrage des Trois Gorges est 88,2 milliards de kWh.
Ce qui inquiète encore plus les fabricants de puces AI, c'est qu'il ne s'agit que de la consommation d'énergie d'un grand modèle ChatGPT à l'étape d'inférence.
Du coup, une série de solutions émergentes ont été dénichées par les constructeurs : stockage et calcul intégrés, chiplets, HBM, etc. Parmi eux, parce que l'intégration du stockage et de l'informatique a renversé le mur de stockage sous l'architecture traditionnelle de von Neumann, il a en fait permis une réduction des coûts et une amélioration de l'efficacité, devenant le "Ziweixing" de cette année.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Outre l'émergence de solutions émergentes qui ont donné un soupir de soulagement aux fabricants de puces IA, le grand modèle apporte également de bonnes nouvelles aux fabricants de puces, en particulier aux fabricants de puces en démarrage : l'importance de l'écologie logicielle diminue.
Lorsque la technologie n'était pas assez mature au début, les chercheurs ne pouvaient que commencer par résoudre un problème spécifique, et de petits modèles avec moins d'un million de paramètres sont nés. Par exemple, DeepMind, une société d'intelligence artificielle appartenant à Google, permet à AlphaGO de mener un "apprentissage" spécial sur les étapes de jeu d'échecs de millions de joueurs professionnels humains.
Après il y a plus de petits modèles, le problème du matériel tel que l'adaptation des puces est imminent. Ainsi, lorsque Nvidia a lancé le CUDA écologique unifié, GPU+CUDA a rapidement gagné la reconnaissance de la communauté informatique et est devenu la configuration standard pour le développement de l'intelligence artificielle.
Les grands modèles qui émergent les uns après les autres aujourd'hui ont des capacités multimodales, peuvent gérer du texte, des images, de la programmation et d'autres problèmes, et peuvent également couvrir plusieurs domaines verticaux tels que le bureau, l'éducation et les soins médicaux. Cela signifie également que l'adaptation à l'écologie traditionnelle n'est pas la seule option : lorsque la demande de puces pour les grands modèles monte en flèche, les fabricants de puces peuvent être en mesure de terminer les commandes de plusieurs petits modèles dans le passé en ne s'adaptant qu'à 1-2 grands modèles. .
En d'autres termes, l'émergence de ChatGPT offre aux fabricants de puces en démarrage la possibilité de dépasser les virages. Cela signifie que la structure du marché des puces AI subira d'énormes changements : ce ne sera plus une exposition individuelle de fabricants individuels, mais un jeu de groupe de plusieurs innovateurs.
Lorsque la puissance de calcul devient une denrée rare et que l'adaptation à l'écologie dominante n'est plus une nécessité, l'intégration du stockage et de l'informatique peut difficilement cacher sa lumière. À l'heure actuelle, investir et combien investir est devenu le deuxième problème auquel sont confrontés les fabricants de puces IA.
À cet égard, la réponse donnée par le géant des puces "expérimenté" NVIDIA depuis de nombreuses années est d'être courageux dans l'innovation et d'investir massivement :
Chaque fabricant de R&D d'une technologie émergente sera sans aucun doute confronté à des problèmes à différents niveaux tels que des obstacles techniques à l'exploration et des désaccords entre les fabricants en aval. Au début, quiconque prédit d'abord la tendance future du développement, prend le courage de franchir les étapes de l'exploration et met en place des ressources raisonnables pour essayer de saisir l'opportunité.
Alors que la vague de centres de données n'a pas encore frappé massivement et que la formation à l'intelligence artificielle est encore un domaine de niche, Nvidia a investi massivement dans le développement de GPU informatiques à usage général et de logiciels de programmation unifiés CUDA, et c'est un bon travail pour Nvidia- plates-formes informatiques.
A cette époque, rendre le GPU programmable était "inutile et déficitaire": je ne sais pas si ses performances peuvent être doublées, mais le développement du produit sera doublé. Pour cette raison, aucun client n'est prêt à payer pour cela. Cependant, Nvidia, qui a prédit qu'un processeur graphique à fonction unique n'est pas une solution à long terme, a décidé d'appliquer CUDA à toutes les gammes de produits.
Dans une interview entre Xindongxi et le Dr Lai Junjie, directeur principal de l'ingénierie et des solutions de Nvidia Chine, Lai Junjie a déclaré : "Pour la vision de la plate-forme informatique, Huang Renxun a rapidement mobilisé de nombreuses ressources de Nvidia de haut en bas au début jours."
Prévoyance + investissement lourd, en 2012, Nvidia remporte la récompense de l'innovateur : En 2012, les performances de calcul de l'algorithme de deep learning ont fait sensation dans le milieu académique.En tant qu'outil de productivité de haut calcul, plus polyvalent et simple d'utilisation, GPU+CUDA est rapidement devenu populaire La communauté informatique est devenue la "configuration standard" pour le développement de l'intelligence artificielle.
Sur le parcours des puces IA à grande puissance de calcul, les puces de stockage et de calcul intégrées ont inauguré leur propre "période dorée", et l'investissement à l'avance est la bonne réponse.
PARTIE-02 Non technique, riche financièrement, ne pas entrer
Au vu des différents bénéfices de l'intégration du stockage et de l'informatique, à ce stade, le camp des acteurs intégrant des puces de stockage et de calcul s'agrandit.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Selon les statistiques incomplètes de CIRUI Insight, depuis 2019, la plupart des nouveaux fabricants de puces IA ont intégré le stockage et le calcul : il y a 20 nouveaux fabricants de puces IA en 2019-2021, et 10 d'entre eux choisissent la voie d'intégration du dépôt et du calcul.
Tout cela montre que l'intégration du stockage et de l'informatique deviendra une étoile montante après GPGPU, ASIC et d'autres architectures. Et cette nouvelle star, tout le monde ne peut pas la choisir.
Dans les circonstances où le milieu universitaire, l'industrie et le capital sont unanimement optimistes quant à l'intégration du stockage et de l'informatique, une force technique solide, de solides réserves de talents et un contrôle précis de l'acceptation des coûts de migration sont la clé du maintien de la compétitivité dans l'industrie pour le démarrage. trois barrières pour les nouveaux acteurs.
Une force technique solide est toujours la plus haute montagne dans le domaine des puces.
Le premier est l'intégration du stockage et de l'informatique, qui implique tout le processus de fabrication de la puce : du dispositif le plus bas, à la conception du circuit, à la conception de l'architecture, à la chaîne d'outils, puis à la recherche et au développement de la couche logicielle ; Corps entier » : Tout en apportant les modifications correspondantes dans chaque couche, le degré d'adaptation entre chaque couche doit également être pris en compte.
Regardons couche par couche, quels types de problèmes techniques se posent lors de la fabrication d'une puce intégrée de calcul de mémoire.
Tout d'abord, en termes de sélection d'appareils, les fabricants "marchent sur de la glace mince": la conception de la mémoire détermine le taux de rendement de la puce, et une fois que la direction est erronée, la puce peut ne pas être produite en série.
Le second est le niveau de conception du circuit. Une fois que le périphérique est disponible au niveau du circuit, il doit être utilisé pour la conception du circuit de la matrice de stockage. À l'heure actuelle, dans la conception de circuits, il n'y a pas de guidage d'outil EDA pour le calcul en mémoire, et cela doit être fait manuellement, ce qui augmente sans aucun doute considérablement la difficulté de fonctionnement.
Immédiatement après, après qu'il y ait des circuits au niveau architectural, il faut concevoir la couche architecturale. Chaque circuit est un module informatique de base, et toute l'architecture est composée de différents modules.La conception du module intégré de calcul mémoire détermine le taux d'efficacité énergétique de la puce. Les circuits analogiques seront perturbés par le bruit et les puces rencontreront de nombreux problèmes lorsqu'elles seront affectées par le bruit.
Dans ce cas, les architectes de puces sont tenus de bien comprendre les caractéristiques de processus de l'informatique analogique en mémoire, et en même temps de concevoir l'architecture en fonction de ces caractéristiques. Sur cette base, l'adaptabilité entre l'architecture et le développement logiciel doit également être prise en compte. . Une fois la conception de l'architecture au niveau du logiciel terminée, la chaîne d'outils correspondante doit être développée.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Étant donné que le modèle original d'intégration stockage-informatique est différent du modèle sous l'architecture traditionnelle, le compilateur doit s'adapter à une architecture d'intégration stockage-informatique complètement différente pour garantir que toutes les unités informatiques peuvent être mappées au matériel et fonctionner correctement.
Une chaîne technique complète permettra de tester la capacité de chaque maillon du dispositif, de la conception des circuits, de la conception de l'architecture, de la chaîne d'outils et du développement de la couche logicielle, et de coordonner la capacité d'adaptation de chaque maillon. C'est une bataille de longue haleine qui consomme du temps, des efforts et de l'argent.
Dans le même temps, selon le processus de fonctionnement des liaisons ci-dessus, on peut voir que la puce intégrée de calcul de mémoire a un besoin urgent de concepteurs de circuits et d'architectes de puces expérimentés.
Compte tenu de la particularité de l'intégration du stockage et du calcul, les entreprises pouvant intégrer le stockage et le calcul doivent présenter les deux caractéristiques suivantes en termes de réserves de personnel :
Le leader doit avoir suffisamment de courage. Il doit y avoir une idée claire dans le choix de la sélection de l'appareil (RRAM, SRAM, etc.) et du mode de calcul (von Neumann traditionnel, stockage et calcul intégrés, etc.). En effet, en tant que technologie subversive et innovante, l'intégration du stockage et du calcul n'a personne à diriger, et le coût des essais et erreurs est extrêmement élevé. Les fondateurs d'entreprises qui peuvent réaliser la commercialisation ont souvent une riche expérience dans l'industrie, les grands fabricants et les milieux universitaires, et peuvent diriger l'équipe pour terminer rapidement les itérations de produits.
Dans l'équipe de base, il est nécessaire d'équiper des talents expérimentés à tous les niveaux de technologie. Par exemple, l'architecte, qui est le noyau de l'équipe. Les architectes doivent avoir une compréhension et une connaissance approfondies des outils matériels et logiciels sous-jacents, et être capables de réaliser l'architecture de stockage et de calcul dans le concept grâce à la technologie, et enfin d'atteindre l'atterrissage du produit ;
De plus, selon le rapport qubit, il y a un manque de talents haut de gamme dans la conception de circuits en Chine, en particulier dans le domaine des circuits hybrides. L'informatique en mémoire implique un grand nombre de conceptions de circuits analogiques. Par rapport à la conception de circuits numériques qui met l'accent sur le travail d'équipe, la conception de circuits analogiques nécessite des concepteurs individuels extrêmement familiarisés avec le processus, la conception, la disposition, le modèle pdk et le conditionnement.
Et cette série de talents et de technologies doit prendre l'effet d'atterrissage comme but ultime - l'atterrissage est la principale force productive. Au moment de la livraison, ce que les clients considèrent n'est pas seulement la technologie intégrée de stockage-informatique, mais si les indicateurs de performance du SoC intégré de stockage-informatique, tels que le taux d'efficacité énergétique, le taux d'efficacité de surface et la facilité d'utilisation, ont été améliorés assez par rapport aux produits précédents. , et plus important encore, si les coûts de migration sont abordables.
Si le choix d'une nouvelle puce pour améliorer les performances de l'algorithme nécessite de réapprendre un système de programmation et que le coût de la main-d'œuvre de la migration du modèle est supérieur au coût d'achat d'un nouveau GPU, les clients ne choisiront probablement pas d'utiliser une nouvelle puce.
Par conséquent, la question de savoir si l'intégration du stockage et de l'informatique peut minimiser les coûts de migration lors du processus d'atterrissage est un facteur clé pour les clients lors du choix des produits.
Dans le contexte des modèles à grande échelle, la puce intégrée de calcul de mémoire devient une étoile montante dans la voie des puces en raison de sa faible consommation d'énergie mais de son taux d'efficacité énergétique élevé. De nos jours, le marché intégré des dépôts et du calcul en est encore au stade de "Xiaohe vient juste d'émerger".
Mais on ne peut pas nier que les acteurs intégrés du stockage et du calcul ont déjà construit trois hauts murs, et ceux qui ont une forte force technique et de solides réserves de talents ne devraient pas entrer.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
En 2023, les entreprises de puces IA sont interrogées trois fois
En 2023, les institutions d'investissement et les actionnaires posent aux entreprises cotées dans le domaine des puces IA trois questions mortelles :
Avez-vous déjà réalisé une puce intégrée de stockage et de calcul ?
(Source des investisseurs posant des questions à Montage Technology : Tonghuashun Finance)
Où en sont les progrès de la puce intégrée de calcul de mémoire ?
(Les investisseurs demandent à Dongxin de partager la source de la question : Tonghuashun Finance)
Quelle est la perspective des puces de stockage et de calcul intégrées ?
(Source des questions des investisseurs sur les actions Hengshuo : Tonghuashun Finance)
La série de questions ci-dessus signifie que l'intégration du stockage et du calcul ne "reste" plus dans les milieux académiques et industriels, et qu'elle semble être populaire dans le marché secondaire : les actionnaires et les sociétés de courtage font des heures supplémentaires pour compenser l'intégration des Stockage et calcul, donc fabricants de puces traditionnels depuis le début de 2023, l'agencement de l'intégration du stockage et de l'informatique a été "torturé".
Une question naturelle est de savoir pourquoi l'intégration du dépôt et du calcul est soudainement devenue si populaire ?
Huawei, qui a lancé le nouveau produit de stockage OceanStor A310 le 7.14, a donné sa propre réponse. Zhou Yuefeng, président de la gamme de produits de stockage de données de Huawei, a déclaré qu'il existe de nombreux problèmes de données dans la formation et le raisonnement des grands modèles à usage général et des grands modèles de l'industrie : lente collecte inter-domaines de données massives, faible efficacité d'interaction des données dans le prétraitement et la formation et la sécurité difficile des flux de données.
Le grand modèle d'IA apporte de nouveaux défis au stockage. Par exemple, la stabilité est pire que celle de l'IA traditionnelle. Dans le même temps, il y a une grande quantité de travail de prétraitement et de préparation des données, qui nécessite une informatique proche du stockage (un type de stockage et calcul) pour traiter systématiquement ce problème.
Alors, combien coûte la "grande quantité de données" ici ? Selon les calculs de SI Rui Insight, ChatGPT compte actuellement 100 millions d'utilisateurs quotidiens.Si 5% des gens posent des questions chaque seconde à la même heure chaque jour, cela va ronger la production d'électricité du barrage des Trois Gorges pendant près d'un an.
En d'autres termes, les grands modèles demandent frénétiquement de la puissance de calcul, et les solutions émergentes représentées par l'intégration du stockage et de l'informatique peuvent résoudre de nombreux défis posés par les grands modèles. En fait, en plus d'imposer des exigences strictes en matière de puissance de calcul, le grand modèle donne également aux fabricants de puces AI "beaucoup de sucre à manger".
Cet article tente d'explorer, sous l'angle du grand modèle, quels avantages sont accordés aux fabricants de puces IA ? Quel est le futur modèle des fabricants intégrés de stockage et de calcul qui ont été « licenciés » par ChatGPT ?
PART-01 "La fortune et le malheur dépendent l'un de l'autre" Fabricants de puces IA
Le vent de la maquette souffle toujours, et la discussion sur la maquette bat toujours son plein.
Début août, lors du sous-forum de la conférence sur l'intelligence artificielle de la Fédération informatique de Chine (CCF) - "Voir la frontière de la puissance de calcul à grande échelle du modèle d'IA de Kunlun", les experts et les universitaires ont convenu qu'à l'ère de la grande échelle modèles, la puissance de calcul intelligente est devenue un "atout rare", comment faire bon usage des ressources informatiques et maximiser leurs avantages est devenu un défi auquel chaque participant doit faire face.
Quant à la quantité de puissance de calcul exigée par GPT-3 seul, dans des circonstances conservatrices, le barrage des Trois Gorges doit "travailler" toute la nuit pour répondre :
En supposant qu'il y a 100 millions de personnes en ligne en même temps, 5% d'entre eux posent des questions chaque seconde à la même heure chaque jour, chacun occupant 30 jetons, et 15,3 millions de puces H100 sont nécessaires pour fournir sa puissance de calcul d'inférence ; et la puissance la consommation de chaque H100 est de 750W Environ, s'il fonctionne 10 heures par jour, la consommation électrique annuelle du centre de données où se trouvent ces puces H100 atteindra 84 milliards de kWh, tandis que la production annuelle d'électricité du barrage des Trois Gorges est 88,2 milliards de kWh.
Ce qui inquiète encore plus les fabricants de puces AI, c'est qu'il ne s'agit que de la consommation d'énergie d'un grand modèle ChatGPT à l'étape d'inférence.
Du coup, une série de solutions émergentes ont été dénichées par les constructeurs : stockage et calcul intégrés, chiplets, HBM, etc. Parmi eux, parce que l'intégration du stockage et de l'informatique a renversé le mur de stockage sous l'architecture traditionnelle de von Neumann, il a en fait permis une réduction des coûts et une amélioration de l'efficacité, devenant le "Ziweixing" de cette année.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Outre l'émergence de solutions émergentes qui ont donné un soupir de soulagement aux fabricants de puces IA, le grand modèle apporte également de bonnes nouvelles aux fabricants de puces, en particulier aux fabricants de puces en démarrage : l'importance de l'écologie logicielle diminue.
Lorsque la technologie n'était pas assez mature au début, les chercheurs ne pouvaient que commencer par résoudre un problème spécifique, et de petits modèles avec moins d'un million de paramètres sont nés. Par exemple, DeepMind, une société d'intelligence artificielle appartenant à Google, permet à AlphaGO de mener un "apprentissage" spécial sur les étapes de jeu d'échecs de millions de joueurs professionnels humains.
Après il y a plus de petits modèles, le problème du matériel tel que l'adaptation des puces est imminent. Ainsi, lorsque Nvidia a lancé le CUDA écologique unifié, GPU+CUDA a rapidement gagné la reconnaissance de la communauté informatique et est devenu la configuration standard pour le développement de l'intelligence artificielle.
Les grands modèles qui émergent les uns après les autres aujourd'hui ont des capacités multimodales, peuvent gérer du texte, des images, de la programmation et d'autres problèmes, et peuvent également couvrir plusieurs domaines verticaux tels que le bureau, l'éducation et les soins médicaux. Cela signifie également que l'adaptation à l'écologie traditionnelle n'est pas la seule option : lorsque la demande de puces pour les grands modèles monte en flèche, les fabricants de puces peuvent être en mesure de terminer les commandes de plusieurs petits modèles dans le passé en ne s'adaptant qu'à 1-2 grands modèles. .
En d'autres termes, l'émergence de ChatGPT offre aux fabricants de puces en démarrage la possibilité de dépasser les virages. Cela signifie que la structure du marché des puces AI subira d'énormes changements : ce ne sera plus une exposition individuelle de fabricants individuels, mais un jeu de groupe de plusieurs innovateurs.
Lorsque la puissance de calcul devient une denrée rare et que l'adaptation à l'écologie dominante n'est plus une nécessité, l'intégration du stockage et de l'informatique peut difficilement cacher sa lumière. À l'heure actuelle, investir et combien investir est devenu le deuxième problème auquel sont confrontés les fabricants de puces IA.
À cet égard, la réponse donnée par le géant des puces "expérimenté" NVIDIA depuis de nombreuses années est d'être courageux dans l'innovation et d'investir massivement :
Chaque fabricant de R&D d'une technologie émergente sera sans aucun doute confronté à des problèmes à différents niveaux tels que des obstacles techniques à l'exploration et des désaccords entre les fabricants en aval. Au début, quiconque prédit d'abord la tendance future du développement, prend le courage de franchir les étapes de l'exploration et met en place des ressources raisonnables pour essayer de saisir l'opportunité.
Alors que la vague de centres de données n'a pas encore frappé massivement et que la formation à l'intelligence artificielle est encore un domaine de niche, Nvidia a investi massivement dans le développement de GPU informatiques à usage général et de logiciels de programmation unifiés CUDA, et c'est un bon travail pour Nvidia- plates-formes informatiques.
A cette époque, rendre le GPU programmable était "inutile et déficitaire": je ne sais pas si ses performances peuvent être doublées, mais le développement du produit sera doublé. Pour cette raison, aucun client n'est prêt à payer pour cela. Cependant, Nvidia, qui a prédit qu'un processeur graphique à fonction unique n'est pas une solution à long terme, a décidé d'appliquer CUDA à toutes les gammes de produits.
Dans une interview entre Xindongxi et le Dr Lai Junjie, directeur principal de l'ingénierie et des solutions de Nvidia Chine, Lai Junjie a déclaré : "Pour la vision de la plate-forme informatique, Huang Renxun a rapidement mobilisé de nombreuses ressources de Nvidia de haut en bas au début jours."
Prévoyance + investissement lourd, en 2012, Nvidia remporte la récompense de l'innovateur : En 2012, les performances de calcul de l'algorithme de deep learning ont fait sensation dans le milieu académique.En tant qu'outil de productivité de haut calcul, plus polyvalent et simple d'utilisation, GPU+CUDA est rapidement devenu populaire La communauté informatique est devenue la "configuration standard" pour le développement de l'intelligence artificielle.
Sur le parcours des puces IA à grande puissance de calcul, les puces de stockage et de calcul intégrées ont inauguré leur propre "période dorée", et l'investissement à l'avance est la bonne réponse.
PARTIE-02 Non technique, riche financièrement, ne pas entrer
Au vu des différents bénéfices de l'intégration du stockage et de l'informatique, à ce stade, le camp des acteurs intégrant des puces de stockage et de calcul s'agrandit.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Selon les statistiques incomplètes de CIRUI Insight, depuis 2019, la plupart des nouveaux fabricants de puces IA ont intégré le stockage et le calcul : il y a 20 nouveaux fabricants de puces IA en 2019-2021, et 10 d'entre eux choisissent la voie d'intégration du dépôt et du calcul.
Tout cela montre que l'intégration du stockage et de l'informatique deviendra une étoile montante après GPGPU, ASIC et d'autres architectures. Et cette nouvelle star, tout le monde ne peut pas la choisir.
Dans les circonstances où le milieu universitaire, l'industrie et le capital sont unanimement optimistes quant à l'intégration du stockage et de l'informatique, une force technique solide, de solides réserves de talents et un contrôle précis de l'acceptation des coûts de migration sont la clé du maintien de la compétitivité dans l'industrie pour le démarrage. trois barrières pour les nouveaux acteurs.
Une force technique solide est toujours la plus haute montagne dans le domaine des puces.
Le premier est l'intégration du stockage et de l'informatique, qui implique tout le processus de fabrication de la puce : du dispositif le plus bas, à la conception du circuit, à la conception de l'architecture, à la chaîne d'outils, puis à la recherche et au développement de la couche logicielle ; Corps entier » : Tout en apportant les modifications correspondantes dans chaque couche, le degré d'adaptation entre chaque couche doit également être pris en compte.
Regardons couche par couche, quels types de problèmes techniques se posent lors de la fabrication d'une puce intégrée de calcul de mémoire.
Tout d'abord, en termes de sélection d'appareils, les fabricants "marchent sur de la glace mince": la conception de la mémoire détermine le taux de rendement de la puce, et une fois que la direction est erronée, la puce peut ne pas être produite en série.
Le second est le niveau de conception du circuit. Une fois que le périphérique est disponible au niveau du circuit, il doit être utilisé pour la conception du circuit de la matrice de stockage. À l'heure actuelle, dans la conception de circuits, il n'y a pas de guidage d'outil EDA pour le calcul en mémoire, et cela doit être fait manuellement, ce qui augmente sans aucun doute considérablement la difficulté de fonctionnement.
Immédiatement après, après qu'il y ait des circuits au niveau architectural, il faut concevoir la couche architecturale. Chaque circuit est un module informatique de base, et toute l'architecture est composée de différents modules.La conception du module intégré de calcul mémoire détermine le taux d'efficacité énergétique de la puce. Les circuits analogiques seront perturbés par le bruit et les puces rencontreront de nombreux problèmes lorsqu'elles seront affectées par le bruit.
Dans ce cas, les architectes de puces sont tenus de bien comprendre les caractéristiques de processus de l'informatique analogique en mémoire, et en même temps de concevoir l'architecture en fonction de ces caractéristiques. Sur cette base, l'adaptabilité entre l'architecture et le développement logiciel doit également être prise en compte. . Une fois la conception de l'architecture au niveau du logiciel terminée, la chaîne d'outils correspondante doit être développée.
(Source de la photo : "AI Big Computing Power Chip Industry Report-Hundreds of Battleships, Innovators First" par Cirui Insights)
Étant donné que le modèle original d'intégration stockage-informatique est différent du modèle sous l'architecture traditionnelle, le compilateur doit s'adapter à une architecture d'intégration stockage-informatique complètement différente pour garantir que toutes les unités informatiques peuvent être mappées au matériel et fonctionner correctement.
Une chaîne technique complète permettra de tester la capacité de chaque maillon du dispositif, de la conception des circuits, de la conception de l'architecture, de la chaîne d'outils et du développement de la couche logicielle, et de coordonner la capacité d'adaptation de chaque maillon. C'est une bataille de longue haleine qui consomme du temps, des efforts et de l'argent.
Dans le même temps, selon le processus de fonctionnement des liaisons ci-dessus, on peut voir que la puce intégrée de calcul de mémoire a un besoin urgent de concepteurs de circuits et d'architectes de puces expérimentés.
Compte tenu de la particularité de l'intégration du stockage et du calcul, les entreprises pouvant intégrer le stockage et le calcul doivent présenter les deux caractéristiques suivantes en termes de réserves de personnel :
Le leader doit avoir suffisamment de courage. Il doit y avoir une idée claire dans le choix de la sélection de l'appareil (RRAM, SRAM, etc.) et du mode de calcul (von Neumann traditionnel, stockage et calcul intégrés, etc.). En effet, en tant que technologie subversive et innovante, l'intégration du stockage et du calcul n'a personne à diriger, et le coût des essais et erreurs est extrêmement élevé. Les fondateurs d'entreprises qui peuvent réaliser la commercialisation ont souvent une riche expérience dans l'industrie, les grands fabricants et les milieux universitaires, et peuvent diriger l'équipe pour terminer rapidement les itérations de produits.
Dans l'équipe de base, il est nécessaire d'équiper des talents expérimentés à tous les niveaux de technologie. Par exemple, l'architecte, qui est le noyau de l'équipe. Les architectes doivent avoir une compréhension et une connaissance approfondies des outils matériels et logiciels sous-jacents, et être capables de réaliser l'architecture de stockage et de calcul dans le concept grâce à la technologie, et enfin d'atteindre l'atterrissage du produit ;
De plus, selon le rapport qubit, il y a un manque de talents haut de gamme dans la conception de circuits en Chine, en particulier dans le domaine des circuits hybrides. L'informatique en mémoire implique un grand nombre de conceptions de circuits analogiques. Par rapport à la conception de circuits numériques qui met l'accent sur le travail d'équipe, la conception de circuits analogiques nécessite des concepteurs individuels extrêmement familiarisés avec le processus, la conception, la disposition, le modèle pdk et le conditionnement.
Et cette série de talents et de technologies doit prendre l'effet d'atterrissage comme but ultime - l'atterrissage est la principale force productive. Au moment de la livraison, ce que les clients considèrent n'est pas seulement la technologie intégrée de stockage-informatique, mais si les indicateurs de performance du SoC intégré de stockage-informatique, tels que le taux d'efficacité énergétique, le taux d'efficacité de surface et la facilité d'utilisation, ont été améliorés assez par rapport aux produits précédents. , et plus important encore, si les coûts de migration sont abordables.
Si le choix d'une nouvelle puce pour améliorer les performances de l'algorithme nécessite de réapprendre un système de programmation et que le coût de la main-d'œuvre de la migration du modèle est supérieur au coût d'achat d'un nouveau GPU, les clients ne choisiront probablement pas d'utiliser une nouvelle puce.
Par conséquent, la question de savoir si l'intégration du stockage et de l'informatique peut minimiser les coûts de migration lors du processus d'atterrissage est un facteur clé pour les clients lors du choix des produits.
Dans le contexte des modèles à grande échelle, la puce intégrée de calcul de mémoire devient une étoile montante dans la voie des puces en raison de sa faible consommation d'énergie mais de son taux d'efficacité énergétique élevé. De nos jours, le marché intégré des dépôts et du calcul en est encore au stade de "Xiaohe vient juste d'émerger".
Mais on ne peut pas nier que les acteurs intégrés du stockage et du calcul ont déjà construit trois hauts murs, et ceux qui ont une forte force technique et de solides réserves de talents ne devraient pas entrer.