Difference between revisions of "VT2018 XXX"

From air
Jump to navigation Jump to search
(Replaced content with "=Titre= =Résumé= =Abstract= =Synthèse=")
Line 1: Line 1:
  +
=Titre=
=Apache Mxnet=
 
[[File:file.png| file]]
 
 
 
Apache MXNet est un framework open-source de deep learning, utilisé pour former et déployer des réseaux neuronaux profonds. Il est évolutif, permettant une formation rapide aux modèles, et supporte un modèle de programmation flexible et de multiples langages de programmation (comme C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl, et Wolfram Language).
 
 
La bibliothèque MXNet est portable et peut évoluer vers plusieurs GPU et plusieurs machines. Le MXNet est soutenu par des fournisseurs publics de cloud computing, dont Amazon Web Services (AWS) et Microsoft Azure. Amazon a choisi le MXNet comme cadre d'apprentissage approfondi de choix chez AWS. Actuellement, le MXNet est soutenu par Intel, Dato, Baidu, Microsoft, Wolfram Research et des institutions de recherche comme Carnegie Mellon, MIT, University of Washington et la Hong Kong University of Science and Technology.
 
   
 
=Résumé=
 
=Résumé=
   
 
=Abstract=
 
=Abstract=
 
Apache MXNet est un framework d'apprentissage profond léger, flexible et ultra-échelle qui supporte l'état de l'art des modèles d'apprentissage profond, y compris les réseaux neuronaux convolutifs (CNNs) et les réseaux de mémoire à long terme (LSTMs).
 
Évolutif
 
 
MXNet est conçu pour être distribué sur une infrastructure dynamique en nuage, en utilisant un serveur de paramètres distribués (basé sur des recherches de l'Université Carnegie Mellon, Baidu et Google[7]), et peut atteindre une échelle presque linéaire avec plusieurs GPU ou CPU.
 
Flexible
 
 
MXNet supporte à la fois la programmation impérative et symbolique, ce qui permet aux développeurs habitués à la programmation impérative de s'initier plus facilement à l'apprentissage approfondi. Il facilite également le suivi, le débogage, la sauvegarde des points de contrôle, la modification des hyperparamètres, tels que le taux d'apprentissage ou l'arrêt anticipé.
 
Langues multiples
 
 
Supporte C+++ pour le backend optimisé pour tirer le meilleur parti du GPU ou CPU disponible, et Python, R, Scala, Julia, Perl, MATLAB et JavaScript pour un frontend simple pour les développeurs.
 
Portable
 
 
Prise en charge d'un déploiement efficace d'un modèle formé à des appareils bas de gamme pour l'inférence, tels que les appareils mobiles (en utilisant Amalgamation[8]]), Internet of things devices (en utilisant AWS Greengrass), serverless computing (en utilisant AWS Lambda) ou conteneurs. Ces environnements bas de gamme ne peuvent avoir qu'un CPU plus faible ou une mémoire limitée (RAM), et devraient être capables d'utiliser les modèles qui ont été formés sur un environnement de niveau supérieur (cluster basé sur GPU, par exemple).
 
Voir aussi
 
 
Comparaison de logiciels d'apprentissage approfondi
 
 
Références et références
 
 
"Construire des réseaux neuronaux profon
 
 
Traduit avec www.DeepL.com/Translator
 
 
   
 
=Synthèse=
 
=Synthèse=

Revision as of 03:45, 19 November 2018

Titre

Résumé

Abstract

Synthèse