Regard vers l’architecture secrète Exascale d’Intel
Il y a eu énormément de discussions cette semaine sur la direction architecturale qu’Intel va prendre pour ses prochains efforts exascale. Comme nous l’avons appris quand le système Aurora ( supposé être l’un des système exascale américain ) à Argonne National Lab a quitté le cours prévu de Knights Hill, Intel cherchait une architecture de remplacement – qui, d’après nous, ne fera pas partie de la famille Knights mais quelque chose d’entièrement différent. Juste de quelle façon différent ce sera pour le débat. Plusieurs ont avancé que l’architecture exascale offrira une accélération réelle complètement intégrée ( aucun modèle de déchargement indispensable pour les codes ) avec la propre variante GPU d’Intel. Plusieurs voient des options pour une puce ultra-hétérogène avec FPGA intégré ( basé sur la neuve acquisition d’Altera ) combinée avec GPU et toute autre accélération spécifique à la charge de milieu professionel.
D’autres pensent qu’il pourrait d’être la replique au cpu PEZY du Japon, qui fait ses preuves sur les systèmes les plus performants avec son design exclusif en 2048 cœurs. NEC et d’autres avec des architectures vectorielles exposent leurs produits sur des benchmarks HPC du monde réel. D’autres voient encore des efforts comme les investissements d’Intel dans les avancées technologiques neuromorphiques et quantiques comme indicateur d’une nouvelle poussée d’architecture. Selon Barry Davis, directeur général de la société et du groupe HPC chez Intel, la verité est que cette architecture doit être prête pour la production d’ici 2021, ce qui n’est peu de temps, surtout si le programme est requis par les utilisateurs. Cela petit les possibilités, mais soulève également plusieurs interrogations sur l’approche. De ce que nous avons pu regrouper, une processeur pure est la cible – rien qui exige de délicats exemplaires de déchargement ou bien de nouvelles approches pour programmer ou bien réfléchir à des problèmes.
La série de questions-réponses que nous avons eues avec Davis cherche à faire la lumière sur certaines de ces théories ( en gardant à l’esprit que les briefings de la NDA sur ce que cela va commencer ne viennent que de commencer dans la communauté HPC au SC cette semaine ). NH : Quand vos équipes chez se sont-elles rendues compte qu’il allait y avoir un changement dans la direction architecturale – pour être plus précis, dialoguer du processus de ré-imaginer votre approche de l’exascale et de ce que vous deviez réacheminer et de quelle façon ? Davis : Je ne peux pas dialoguer de dates ciblées, mais je peux dire que, comme nous le savons, au cours des 2 derniers mois, le DoE a parlé du fait que le calendrier exascale est en 2021 et qu’ils travailleraient avec nous. Par la suite, nous avons dit que nous prendrions nos investissements dans Knights Hill et que nous concentrerions nos efforts sur cette nouvelle plateforme exascale. Je ne peux pas dire que nous en parlons dès longtemps, mais nous accélérons. L’architecture vers laquelle nous nous dirigeons pour l’exascale n’est pas quelque chose que nous avons conçu au cours des six derniers mois ou bien même de l’année. Nous travaillons là-dessus dès longtemps. Ce que fait le passage de 2 ans de la chronologie à 2021 accélère notre feuille de route. Nous pourrions corriger avec efficacité pour y répondre parce que nous travaillons là-dessus dès un moment.
Un pull-in de 2 ans n’a pas été facile et nous étions déjà en train d’essayer d’entrainer la feuille de route avant cela et d’envisager de quelle façon introduire certaines implémentations futures de Xeon et les rapprocher du marché. Nous ne faisons pas quelque chose exact pour exascale; c’était quelque chose que nous avions prévu de choisir, donc c’est énormément plus facile à faire que cela puisse paraître. NH : Est-ce que cette chronologie boostée pour procurer une puce exascale d’ici 2021 changera votre feuille de route de processus ? Davis : Tout frappe dans une fenêtre où nous avions déjà ciblé ce nœud de processus dans ce laps de temps. Ce n’est pas comme nous avions à le dire, et ce n’est qu’un exemple pas une déclaration sur la puce, que pour réaliser ce milieu professionel, nous avons dû mouvoir cela de 14nm à 10nm. C’était notre calendrier pour ce cpu de toute façon. NH : Est-ce que ce côté programme de cette dans le de cpu exascale nécessitera énormément de temps pour les programmeurs HPC ? Y a-t-il des éléments qui ne seront pas familiers ou bien qui mèneront au refactoring ou bien au changement de codes ? Davis : Il y a sûrement un écosystème dans lequel nous devons bosser. Il y a sûrement du programme, mais il y en a tout le temps. Cela ne perturbera pas l’écosystème, mais certes, nous devrons engager l’écosystème bien avant 2021 pour que les codes soient prêts. Nous discutons avec des collaborateurs sous NDA à ce sujet ici à SC17 cette semaine pour commencer cette conversation. Puisque nous sommes sur un sentier processeur ici, cela ne va pas être une stratégie qui dérange complètement l’écosystème. Nous souhaitons aller au milieu avec les types existants ( OpenMP entre autre ) mais il y a une habilitation qui doit arriver. NH : Quels sont les défis que nous avons abordés mais que vous voyez pour votre propre point de vue de la production – une autre chose que la préparation au programme, ce sera les obstacles pour les utilisateurs ? Davis : Du point de vue d’Intel, il s’agit d’un moonshot, c’est une épaisse affaire. Travailler sans partenaires pour créer l’une des premières plates-formes exascale dans le monde est un grand challenge. Je ne suis pas sûr qu’Intel ait des défis spécifiques autres que les personnes qui que nous faisons énormément en tant qu’entreprise, et l’unique façon d’aborder ce tracas est de donner cette importance à l’interne. Nous regardons chaque jour les défis qui se posent par rapport au secteur de les premières phases, de l’emballage et des systèmes de la processeur, ce qui nous permettra d’exercer tous nos muscles. Nous devons effectuer cela bien est le point. Nous avons assez de temps, cela n’est pas l’année prochaine, il y a un futur proche en vue d’apprendre ce qui doit être fait et nous le faisons en nous associant à l’écosystème et au DoE et en travaillant ensemble. Du point de vue de l’écosystème et de l’utilisateur, il y a tout le temps un challenge programme.
Ce qui va être délicat pour les gens sur ce sujet, c’est ce sujet ma foie assez délicat de comprendre ce qui est logique de fonctionner à cette échelle ? En d’autres matière, quelles sont les applications ou bien les charges de milieu professionel qui seront en mesure de tirer parti de cette sorte de capacité. Quels énormes défis ? Une partie de cela revient à tout contenir ensemble. Comme je l’ai déjà dit, la modélisation et la simulation, l’IA et l’étude de données haute performance doivent tous être des citoyens de première classe sur cette plate-forme. Vous devriez être en mesure de bien effectuer toutes ces charges de milieu professionel et créer un flux de milieu professionel qui permet au scientifique ou bien à l’utilisateur de réaliser la travail. Un bon exemple est la réalisation de la modélisation et de la simulation, puis la création de l’intelligence artificielle, puis de l’étude et de la réexécution, pour ainsi dire les trois charges de milieu professionel. Il sera délicat pour les utilisateurs de le faire efficacement. Cela change leur façon de penser sur ce qu’ils font, qui était autrefois un secteur ( modélisation et simulation entre autre ). Ce n’est pas uniquement pour exascale, c’est pour tout le HPC mais prononcé sur une machine exascale. NH : Quelles directions architecturales paraissent correspondre à exascale et de quelle façon la feuille de route des Chevaliers ne correspondait-elle pas à cette ? Davis : Nous pouvons dialoguer de la bonne architecture pour exascale communément mais évidemment, je ne peux pas être clairs [sur l’affaire Aurora] et je ne vais pas dire ‘ Les Chevaliers ont X et les nouveaux Chevaliers ont Y ‘.
Les besoins de l’architecture nouvelle génération pour exascale sont assez bien documentés. Il y a l’alimentation, le refroidissement, l’espace, l’interconnexion – et c’est un tracas fabuleux, formant une technologie à maigre latence qui communique à cette échelle. Il y a également calcul et stockage. Il y a énormément de choses à aborder ici. Ce que nous avons dit publiquement, c’est que nous travaillons sur une nouvelle plate-forme pour exascale. Cela s’appuiera sur le meilleur du portefeuille d’Intel pour créer une plate-forme mondiale exascale, car durant que nous travaillons avec le studios de l’électricité aux États-Unis, exascale est un tracas mondial. Mais de quoi avons-nous besoin ? Nous devons avoir de l’innovation pour nous faire calculer et d’entrainer vos charges de milieu professionel, mais le faire sans code spécialisé. Tout le monde parle d’accélérateurs et ceux-ci sont excellents, mais pour exascale, chaque outil que vous apportez à cette plate-forme devrait être une solution déchargée que il faut revêtir pour cette outil particulière. Nous devons avoir de quelque chose de plus large qui puisse évoluer à travers chacune des charges de milieu professionel. Gardez également à l’esprit que le mandat d’exascale est de traiter non uniquement la modélisation et la simulation coutumières, mais également l’IA et l’étude de données haute performance. Vous avez besoin du bon niveau de performance et de performance par watt dans ces zones. NH : Il y a énormément de candidats en architecture. Comment marche ce que vous travaillez pour la puce exascale bumped-up dans les personnes qui ? Davis : Vous parlez d’architectures matérielles mais j’aime penser aux choses en matière de charge de milieu professionel. Il y a donc, comme vous le dites, des FPGA, des GPU, des machines vectorielles et des choses comme les puces PEZY au Japon ( à titre d’exemple ). La majorité des ceux-ci sont déchargés pour des tags personnels qui doivent être envoyés sur un bus pour la réalisation.
C’est vraiment, mais nous sommes une société de processeur. Nous apprécions penser aux codes qui s’exécutent sur notre plate-forme sans la latence et le déchargement. Il y a des secteurs où cela marche bien, mais ça ne marche pas pour tout et les processeurs l’effectuent. NH : d’après notre conversation jusqu’à maintenant, il ne paraît pas que nous examinions des architectures exotiques ou bien novatrices – y a-t-il de nouveaux constituants ? Comment vos investissements dans des secteurs extrêmement nouveaux comme le quantum et le neuromorphique s’intègrent-ils dans un futur exascale ( ou bien post-exascale ) actuel ou bien futur ? Davis : The neuromorphic and quantum efforts are from the labs and are great research programs at the bleeding edge of compute. The work we’re doing for exascale is not connected from that perspective. If we are bringing something to the market by 2021 and scale it to this level it can’t be a novel architecture. Those research areas have promise for the future, that’s why we have invested at a future level, for exascale, we need avancées technologiques that are grounded in reality and close to ready for primetime. NnIl y a énormément d’options de processeur; certains grâce au volume, d’autres sans. Il y a des machines PEZY et il y a du volume là-bas et des GPUs et il y a inéluctablement du volume là-bas. Des architectures particulièrement nouvelles signifient que il faut corriger votre façon de penser les choses. Tant que les services et les applications et le métier de développement sont identiques à ce que nous savons, cela n’est pas nouveau. Je ne peux pas dire si ce que nous faisons est nouveau, je vais vous laisser tirer vos propres conclusions, mais pour moi, le roman sous-entend de énormes changements pour les utilisateurs finaux et comme nous l’avons dit, nous n’essayons pas de perturber l’écosystème.