Go to Contents Go to Navigation

Notre site utilise des cookies et d'autres techniques pour offrir une meilleure qualité de service. En continuant à visiter le site, vous acceptez l'usage de ces techniques et notre politique. Voir en détail

Samsung développe une puce mémoire intégrée à un processeur d'IA

Science/Tech 17.02.2021 à 14h10

SEOUL, 17 fév. (Yonhap) -- Samsung Electronics Co. a annoncé ce mercredi avoir développé une puce HBM (High Bandwidth Memory) intégrée à un processeur d'intelligence artificielle (IA), qui offre une faible consommation d'énergie et des performances améliorées.

En utilisant la technologie de traitement en mémoire (PIM), le géant sud-coréen de la technologie a déclaré avoir intégré des moteurs d'intelligence artificielle à son HBM2 Aquabolt, devenant ainsi le premier du secteur à développer un semi-conducteur HBM-PIM.

PIM combine des unités de traitement complexes basées sur la logique dans la mémoire. La HBM2 Aquabolt est la puce DRAM HBM de deuxième génération de Samsung, principalement utilisée pour le calcul haute performance et les applications d'IA, commercialisée depuis janvier 2018.

Samsung, le plus grand producteur de puces mémoire au monde, a mis en avant que sa solution HBM-PIM fait plus que doubler les performances d'un système d'IA et réduit sa consommation d'énergie de 70% par rapport au HBM2 existant.

Une puce mémoire à large bande passante intégrée à un processeur d'intelligence artificielle utilisant une solution de traitement en mémoire (PIM). (Photo fournie par Samsung Electronics Co. Revente et archivages interdits)

Le dernière innovation prend également en charge l'interface HBM existante, ce qui signifie que les utilisateurs peuvent configurer un système d'accélérateur d'IA sans changer de matériel ou de logiciel.

Un accélérateur d'IA est un matériel informatique conçu spécifiquement pour gérer les exigences de l'IA.

Dans l'architecture informatique standard, également connue sous le nom d'architecture von Neumann, le processeur et la mémoire sont séparés et les données sont échangées entre les deux. Dans une telle configuration, la latence se produit surtout lorsque de nombreuses données sont transférées.

Afin de surmonter les problèmes de latence, Samsung a indiqué avoir installé des moteurs d'intelligence artificielle dans chaque banque de mémoire, maximisant le traitement parallèle dans le but d'améliorer les performances.

Le HBM-PIM minimise également les déplacements de données entre le processeur et la mémoire, améliorant ainsi l'efficacité énergétique d'un système d'accélérateur d'IA.

Samsung a fait savoir qu'il installerait sa solution HBM-PIM dans les systèmes d'accélérateurs d'IA de ses clients à des fins de vérification au cours du premier semestre de l'année et qu'il coopérerait activement avec eux pour parvenir à la standardisation de la plate-forme PIM et de son écosystème.

Samsung a indiqué que sa technologie PIM était expliquée plus en détail dans un document soumis à la Conférence internationale sur les circuits à semi-conducteurs.

as26@yna.co.kr

(FIN)

Mots clés
Accueil Haut de page