Évaluation de deux architectures matérielles dédiées à l'inférence basée sur des réseaux de neurones convolutifs
Résumé
Les systèmes embarqués sont de plus en plus utilisés pour exécuter des algorithmes d'intelligence artificielle, qui requièrent beaucoup de ressources matérielles, notamment en mémoire. Ces systèmes étant généralement dotés de ressources limitées, des architectures dédiées commencent à émerger, à l'image de celles proposées dans les deux cartes étudiées dans cet article : GAPuino et Coral Dev Board. Ces dernières s'appuient sur un accélérateur d'algorithmes d'inférence sous forme de réseau de neurones convolutifs (acronyme anglais, CNN). Nous évaluons ces deux cartes en implémentant un CNN entrainé avec la célèbre base de données MNIST. Nous étudions l'impact des architectures mémoires implantées dans les accélérateurs d'inférence, sur la performance et la puissance consommée par l'exécution des CNN.
Origine | Fichiers produits par l'(les) auteur(s) |
---|