Des boosts de performance sont attendus avec chaque nouvelle génération de meilleures cartes graphiques, mais il semble que NVIDIA et IBM ont leurs vues sur des changements plus importants.
Les sociétés ont fait équipe pour travailler sur Big Accelerator Memory (BAM), une technologie impliquant la connexion de cartes graphiques directement aux SSD Superfast. Cela pourrait entraîner une plus grande capacité de la mémoire GPU et une largeur de bande plus rapide tout en limitant l’implication de la CPU.
Ce type de technologie a déjà été pensé et travaillé dans le passé. L’interface de programmation d’application Microsoft DirectStorage (API) fonctionne de manière quelque peu similaire, améliorant les transferts de données entre le GPU et le SSD. Toutefois, cela s’appuie sur des logiciels externes, ne s’applique qu’aux jeux et ne fonctionne que sur Windows. Les chercheurs NVIDIA et IBM travaillent ensemble sur une solution qui supprime la nécessité d’une API exclusive tout en reliant les GPU aux SSDS.
La méthode, appelée amusant comme BAM, a été décrite dans un document écrit par l’équipe qui l’a conçue. La connexion d’un GPU directement à un SSD fournirait un boost de performance qui pourrait s’avérer viable, en particulier pour les tâches lourdes, telles que l’apprentissage automatique. En tant que tel, il serait principalement utilisé dans les scénarios professionnels de l’informatique haute performance (HPC).
La technologie actuellement disponible pour le traitement de telles charges de travail lourdes nécessite que la carte graphique s’appuie sur de grandes quantités de mémoire spéciale, telles que HBM2, ou d’être fournie avec un accès efficace au stockage SSD. Considérant que les ensembles de données ne sont que de grandir en taille, il est important d’optimiser la connexion entre le GPU et le stockage afin de permettre des transferts de données efficaces. C’est là que Bam vient dans.
« Bam atténue l’amplification du trafic d’E / S en permettant aux threads du GPU de lire ou d’écrire de petites quantités de données à la demande, comme déterminé par le calcul », a déclaré les chercheurs de leur article, cités pour la première fois par le registre. « L’objectif de BAM est d’étendre la capacité de la mémoire GPU et d’améliorer la largeur de bande d’accès de stockage efficace lors de la fourniture d’abstractions de haut niveau pour les fils GPU afin de rendre facilement l’accès à la demande à la demande et à des structures de données massives dans la hiérarchie de la mémoire étendue. »
Pour de nombreuses personnes qui ne travaillent pas directement avec ce sujet, les détails peuvent sembler compliqués, mais le gist est que Nvidia veut compter moins sur le processeur et se connecter directement à la source des données. Cela permettrait à la fois de rendre le processus plus efficace et libérerait la CPU, ce qui rendrait la carte graphique beaucoup plus autonome. Les chercheurs affirment que cette conception pourrait être en mesure de concurrencer des solutions dressées tout en restant moins chère à mettre en œuvre.
Bien que NVIDIA et IBM ne sentent sans aucun doute un nouveau terrain avec leur technologie BAM, AMD fonctionnait d’abord dans cette zone: en 2016, il a dévoilé le Radeon Pro SSG, un GPU de poste de travail avec des SSD intégré M.2. Cependant, le Radeon Pro SSG était destiné à être strictement une solution graphique et NVIDIA prend quelques étapes supplémentaires, visant à traiter des charges de travail complexes et lourdes de calcul.
L’équipe travaillant sur BAM prévoit de publier les détails de leur optimisation logicielle et matérielle comme source ouverte, permettant aux autres de s’appuyer sur leurs conclusions. Il n’est pas mentionné que lorsque, si jamais, BAM pourrait se trouver mis en œuvre dans les futurs produits NVIDIA.