Le PDG de Microsoft vient de réaffirmer sa vision au Microsoft Government Leaders Summit à Washington DC, en déclarant que l’avenir de l’informatique se trouve dans le Edge Computing. Voici l’expertise de Joel Rubino co-fondateur de la startup Cartesiam spécialisée en” AI at the Edge”. Pour information, Cartesiam vient d’être distinguée dans le “Gartner HypeCycle for Semiconductors and ElectronicsTechnologies” de juillet 2019 comme l’un des 3 vendeurs mondiaux représentatifs de Edge AI !
Cartesiam est à ce jour la seule entreprise au monde à permettre en machine learning d’effectuer apprentissage et inférence à 100% dans un microcontrôleur, donc dans l’Edge.
Pour le PDG de Microsoft, il y aura 50 milliards d’appareils connectés dans le monde d’ici 2030 embarquant tous des microcontrôleurs. Ce composant électronique est très peu puissant mais également peu énergivore et est déployé dans des milliards d’objets du quotidien (voitures, climatiseurs, ascenseurs, objets connectés, satellites, etc..) Pour Satya Nadella, le cloud ne pourra pas traiter toutes ces données qui seront pourtant le carburant de l’IA. Il faudra donc réduire le trafic en direction du Cloud ou des data centers et traiter, autant que faire ce peu, dans le Edge, c’est à dire à la périphérie du réseau, directement là où les signaux se transforment en données.
Cartesiam, start-up française de l’IA, en mesure de recueillir et de traiter les données dans les microcontrôleurs, le composant électronique moteur de milliards d’objets sur terre. Grâce à la technologie NanoEdge AI de Cartesiam, 100% des données recueillies par les objets connectés restent dans les microcontrôleurs pour être traitées, sans aucun recours au Cloud.
D’autres acteurs font de l’inférence dans les objets mais nécessitent obligatoirement une étape de recueil des données et de traitement par des datascientists.
Comme l’explique le Gartner dans son rapport « les 3 barrières à l’adoption de l’IA », les compétences en IA et la disponibilité des données sont deux des trois barrières à l’entrée, ralentissant l’adoption de l’IA et son déploiement massif dans les entreprises. D’ici 2024, 50% des investissements en IA seront quantifiés et liés à des indicateurs de performance clés spécifiques pour mesurer le retour sur investissement.
Dans un modèle traditionnel, jeux de données et datascientists sont indissociables pour la réussite de tout projet. Or, la constitution d’un jeu de données pertinentes et la disponibilité de datascientists pour travailler ces données et développer des algorithmes basés sur les apprentissages profonds (Deep Neural Network) sont la condition sine qua non du développement de solutions. Ces 2 ressources, jeux de données et datascientists sont rares, d’où la difficulté des entreprises à lancer des projets autour de l’IA .
Cartesiam a pris le parti de comprendre et d’analyser les données de manière autonome, sans création de jeux de données, sans recours à des datascientists et exactement à l’endroit où les signaux se transforment en données, c’est à dire dans le « Edge ».Grâce à sa solution, qui est en avance de plusieurs années sur les autres acteurs du marché, Cartesiam espère bien devenir le futur leader mondial de l’IA embarquée dans le Edge.
La croissance des technologies sans fil 5G nécessitent des approches incluant les architectures informatiques Edge, qui consiste à traiter les données à la périphérie du réseau, près de la source des données.
Contrairement aux générations précédentes, les plates-formes 5G s’appuient sur les bases solides du cloud distribué, du réseau distribué et de la transformation informatique qui conduiront les opérateurs à une nouvelle croissance du marché. l’Edge Computing permet le calcul, le stockage et la mise en réseau des applications, des périphériques et utilisateurs. Parmi ses principaux avantages, citons l’activation d’une latence plus faible, une sécurité renforcée et une liaison directe. Ce livre blanc écrit passe en revue les enjeux autour de la 5G;
Une convergence de plusieurs tendances technologiques qui se chevauchent donnent lieu à de nouvelles solutions qui sont nécessaires. L’un des derniers développements en 5G est O-RAN (Open Radio Access Network), qui s’adresse directement à l’agilité d’un service avec les considérations de coût des réseaux. À mesure que le trafic mobile augmente, les réseaux mobiles et les équipements qui les exploitent doivent devenir plus flexibles, pilotés par des logiciels, virtualisés, intelligents et énergétiquement efficace. Les travaux sur le réseau O-RAN conduiront à la création d’un réseau de référence et d’un réseau convergent plus ouverts et comprendra des fonctionnalités intelligentes qui définissent le contrôle et l’analyse en temps réel.
La 5G se concentre sur la prise en charge de trois grandes catégories d’applications afin de permettre des cas d’utilisation sans précédent: eMBB (Enhanced Mobile Broadband), mMTC (communication de type machine massive) et URLLC (communication à très faible latence UltraReliable). L’architecture 5G est beaucoup plus distribuée que les systèmes sans fil précédents. Cette génération, nécessitant beaucoup plus de cellules permettant un traitement beaucoup plus distribué.
Selon les prévisions (2016-2021) de trafic de données mobiles mondiales, le trafic de données mobiles mondial a augmenté de 63% en 2016, atteignant 7,2 exaoctets par mois à la fin de 2016. Les vidéos représentaient environ 60% du trafic de données mobiles. D’ici 2021, le trafic mondial de données mobiles devrait atteindre 49 exaoctets, dont 78 % du trafic annuel prévu en vidéo.
Comme la majeure partie de ce trafic est constituée de contenu vidéo, la possibilité qu’un contenu redondant soit livré aux utilisateurs de même région est importante. Selon le fournisseur de logiciels de mise en cache Qwilt, plus de 80% du trafic vidéo uniquement se compose de 10 % des titres. Par conséquent, les doublons des vidéos sont répétés, ce qui augmente le trafic de retour et les coûts OPEX.
Les consommateurs du trafic sont principalement des utilisateurs des smartphones, tablettes, ordinateurs portables etc. Par conséquent, le cloud d’extrémité devient une infrastructure appropriée pour mettre en cache le contenu, qui peut réduire considérablement le trafic de retour. Possibilité d’économiser sur les dépenses de fonctionnement (OPEX) pour les TSP (Telecommunications Service Provider) est augmenté lorsque l’on considère que la mise en cache du contenu peut ne pas être limité à de simples vidéos – son champ d’application s’élargit à d’autres types de données telles que la musique et les documents.
Il existe trois méthodes principales pour mettre en cache le contenu :
1 – Mise en cache de contenu basée sur l’apprentissage du trafic : cette option met en cache le contenu d’une région en fonction de sa popularité et demandes / trafic croissants. Parallèlement, un contenu similaire à un contenu populaire spécifique peut également être mis en cache de manière proactive.
2 – Mise en cache du contenu ciblé : cette opération met en cache le contenu d’un public cible. Par exemple, un public dans un stade ou un rassemblement.
3 – Mise en cache guidée par l’utilisateur : l’utilisateur indique le contenu à mettre en cache (moyennant des frais de service ou une partie) du plan de données de l’utilisateur). Par exemple, les vidéos que l’utilisateur ajoute en tant que “regarder plus tard” sur YouTube ou met une liste de favoris dans Netflix pourrait être candidats à la mise en cache. Puisqu’il peut y avoir plusieurs utilisateurs dans la même région ayant des intérêts de contenu similaires, la mise en cache de ce contenu ouvre la voie à la sauvegarde sur les coûts de trafic de retour.
La mise en cache du contenu en tant que cas d’utilisation a différentes charges de travail qui peuvent être exécutées ensemble pour effectuer la mise en cache. Certains d’entre eux sont des algorithmes de mise en cache de contenu, des agrégateurs de données, des codes d’apprentissage automatique, des analyses de trafic de contenu, serveurs web…