Dans les technologies liées au Deep Learning, nous pouvons différencier 2 environnements distincts : l’environnement de développement permettant de créer des modèles de prédiction, de classification, de reconnaissances, de segmentation ; en somme des modèles de traitement de données, et celui de mise en production. Ce dernier va permettre de passer à échelle ces modèle afin de les faire bénéficier aux acteurs métiers de l’entreprise (par exemple, permettre à des équipe d’EDF de reconnaître automatiquement des anomalie sur des poteaux électriques).
L'environnement de développement
Un language de programmation sera nécessaire, Python étant le plus populaire, ou R. Vous aurez également besoin d’un environnement ou vous pourrez coder, par exemple Anaconda ou Google Cloud Plateform sur lequel vous pourrez créer vos Jupyter notebooks et réaliser vos modèles.
Pour le Deep Learning, on parle non-pas de libraries mais de Frameworks.
Ceux-ci fournissent des infrastructures de développement prête à l’emploi. Parmi eux, TensorFlow (créée par Google) , Pytorch (par Facebook) ou encore MXNet.
L'environnement de production
Dans l’environnement de production, nous allons distinguer différents types d’outils.
– Outils liés à du Big Data : le Deep Learning nécessite d’avoir de la puissance de calcul et de stockage. On va alors utiliser des outils de traitement de données parallélisés qui vont permettre d’outrepasser ces contraintes de calcul et de stockage. On compte parmi eux des frameworks comme Hadoop ou encore Spark.
– Outils Cloud : expliquons ici pourquoi les besoins en Cloud ont explosé ses derniers temps. Pour les plateformes à utiliser, AWS (Amazon) pour la majorité des parts de marchés (50%), suivi par Microsoft Azure (30%), puis Google Cloud Plateform (20%).
Vous souhaitez maîtriser tous ces outils, n'hésitez pas à consulter nos formations en Data Engineering.