Publié le 3 février 2023, modifié le 3 février 2023.
Par Christophe Romei

L’IA est désormais un objectif majeur chez Apple

Publié le 3 février 2023, modifié le 3 février 2023.
Par Christophe Romei

Tim Cook a déclaré que l'IA serait un "objectif majeur" pour Apple et affecterait chaque produit et service. Depuis longtemps, Apple utilise l'IA dans certains de ses produits ! Apple est le principal acheteur de sociétés mondiales d'IA, dans le seul but d'améliorer les capacités d'apprentissage automatique et d'IA de ses produits et services.

Les progrès récents de l’intelligence artificielle ont attiré une grande partie de l’attention du monde des affaires et le PDG d’Apple, Tim Cook, ne fait pas exception. Lors d’un appel sur ses résultats du premier trimestre avec des investisseurs et des journalistes cette semaine, Cook a déclaré que l’IA était un “objectif majeur” chez Apple. La Société a enregistré un chiffre d’affaires trimestriel $ 117,2 milliards, en baisse de 5 % sur un an et un bénéfice trimestriel par action diluée $ 1,88.

La base installée dépasse les 2 milliards d’appareils actifs et atteint un niveau record pour toutes les principales catégories de produits. Les services établissent un nouveau record de revenus de tous les temps avec 20,8 milliards $ dans nos activités de services, et malgré un environnement macroéconomique difficile et des contraintes d’approvisionnement importantes.

Intelligence artificielle chez Apple

Apple rachète de nombreuses startups et entreprises (+20 depuis 2010) sur le sujet, le géant a très vite utilisé l’intelligence artificielle dans ses produits, ils sont parsemés sur iOS, macOS, iPadOS et watchOS, un certain nombre de fonctionnalités et de mises à jour ont pour cœur l’IA et l’apprentissage automatique comme Face ID, le lavage des mains depuis le Covid, la reconnaissance de l’écriture manuscrite sur l’iPad, l’application de traduction, le HomePod, ses puces, etc.

Le plus connu, c’est peut-être Siri, son assistant qui est compatible avec l’IA d’Apple disponible sur tous les appareils Apple et vise à aider les utilisateurs à accomplir rapidement des tâches quotidiennes. Mais aussi la photo HDR et Fusion Profonde qui est un aperçu des systèmes de traitement d’image alimentés par l’apprentissage automatique d’Apple disponible dans leurs derniers appareils.

Pour l’utilisation de SIRI, lorsqu’il détecte “Hey Siri” il va analyser la parole sous forme de commande ou de requête. Le détecteur Hey Siri utilise un réseau neuronal profond (DNN) pour convertir le motif acoustique de votre voix à chaque instant en une distribution de probabilité sur les sons de la parole. Il utilise ensuite un processus d’intégration temporelle pour calculer un score de confiance que la phrase que vous avez prononcée était “Hey Siri”. Si le score est suffisamment élevé, Siri se réveille. Dans une vidéo en 2020, lors de la conférence des développeurs (WWDC), Yael Garten, directeur de Siri Data Science and Engineering, a affirmé que Siri traite 25 milliards de demandes par mois.

Elle détaille comment ils ont formé ce modèle en créant une spécification phonétique spécifique au langage pour la phrase “Hey Siri”. Pour certaines langues, cela signifiait une formation avec différentes prononciations régionales. L’importance de la façon dont la phrase est prononcée est que chaque symbole phonétique de la phrase est classé en trois classes sonores qui ont chacune des sorties correspondantes du modèle acoustique. Yael Garten dirige l’organisation des données AI/ML. Leur mission est d’améliorer des produits comme Siri et Search en utilisant les données comme voix de leurs clients. Cela couvre 3 grands domaines : Data Science & Analytics, Data Engineering, Plateformes et méthodes d’évaluation et d’annotation. Son équipe d’ingénieurs, de data scientists, d’experts en visualisation et de chefs de produit mesure, comprend et optimise l’expérience utilisateur. Ils construisent des outils pour permettre de faire cela à grande échelle !

https://www.youtube.com/live/GEZhD3J89ZE?feature=share&t=840

Pour les photos HDR, Apple, bien sûr, s’appuie depuis 2018 sur le moteur neuronal de la puce A13 Bionic. L’iPhone prend neuf images avant même que vous appuyez sur le bouton d’obturation. Lorsque vous appuyez sur le bouton d’obturation, en une seconde, le moteur neuronal analyse la combinaison d’images en pauses longues et courtes, en sélectionnant les meilleures d’entre elles, en sélectionnant tous les pixels et pixel par pixel, passant par 24 millions de pixels pour optimiser les détails et le faible bruit… C’est la computational photography.

En 2022, ils sont aussi intégré des services d’Apple avec des éléments d’intelligence artificielle, y compris le nouvel iPhone et l’Apple Watch avec la fonctionnalité de détection de crash et avec l’Apple Watch, la fonction d’électrocardiogramme qui permet aux utilisateurs d’enregistrer leur rythme cardiaque et leur rythme.

Plus tôt ce mois-ci, Apple a publié un autre produit destiné aux consommateurs dans l’espace : Narrations de livres propulsées par l’IA. Des livres audio racontés par des voix générées par l’IA qui lisent maintenant des dizaines de ses titres. Le géant de la technologie dit que les voix numériques sont naturelles et “basées sur un narrateur humain, mais certains critiques soutiennent qu’elles ne sont pas ce que les clients veulent et ne peuvent pas remplacer les performances passionnées que les lecteurs humains peuvent donner. Il est à noter qu’Apple augmente ses effectifs pour ses propres efforts en matière d’IA : il a actuellement plus de 100 postes vacants dans l’apprentissage automatique et l’IA.

Lire aussi