DL Boost
Apparence
Deep Learning Boost (DL Boost, accélérateur d'apprentissage profond en français) est le nom marketing d'Intel pour les fonctionnalités d’architecture de jeu d'instructions (ISA) sur le x86-64, conçues pour améliorer les performances lors de tâches d’apprentissage profond telles que l'entraînement et l’inférence[1].
Caractéristiques
[modifier | modifier le code]DL Boost se compose de deux ensembles de fonctionnalités :
- AVX-512 VNNI, 4VNNIW ou AVX-VNNI : multiplication-accumulation rapide principalement pour les réseaux de neurones convolutifs.
- AVX-512 BF16 : nombres à virgule flottante de faible précision bfloat16 pour des calculs généralement plus rapides. Les opérations fournies comprennent la conversion depuis/vers le format float32 et le produit scalaire.
Les fonctionnalités DL Boost ont été introduites en 2019 dans l'architecture Cascade Lake.
Un benchmark basé sur TensorFlow, exécuté sur le Compute Engine (en) de la Google Cloud Platform, montre des performances améliorées et un coût réduit par rapport aux processeurs et GPU précédents, notamment pour les petites tailles de lots[2].
Références
[modifier | modifier le code]- ↑ (en-US) « "Intel Deep Learning Boost" Product Overview, p.3 » [PDF], sur Intel
- ↑ (en) Samantha Gurriero, « "Machine Learning Optimisation: What is the Best Hardware on GCP?" », sur Datatonic (consulté le )
Liens externes
[modifier | modifier le code]- Deep Learning Boost at Intel
- (en-US) Andres Rodrigues et al., « "Lower Numerical Precision Deep Learning Inference and Training", Intel White paper »
- (en) Hans Pabst, « Intel and ML » [PDF], from Intel's Developer Relations Division,