Apple : le rachat qui pourrait tout changer

Apple met près de 2 milliards de dollars sur la table pour acquérir Q.ai, une startup israélienne spécialisée dans la lecture des micro-mouvements du visage. Cela pourrait lui permettre d'inventer le futur de la commande vocale.

L'annonce est tombée en fin de semaine (Reuters). Apple rachète Q.ai, une jeune société basée en Israël, totalement inconnue du grand public, spécialisée dans un domaine particulier : celui de l'IA appliquée aux capteurs et au traitement du signal.

La spécialité de Q.ai : la détection et l'interprétation des micro‑mouvements du visage. Ses algorithmes sont capables d'analyser les minuscules mouvements des lèvres, des joues et des muscles autour de la bouche pour reconstituer ce que dit une personne, même si elle parle très bas, voire presque sans émettre de son. Couplée à des capteurs adaptés, cette technologie permet de comprendre les chuchotements dans un environnement bruyant, là où les systèmes de reconnaissance vocale classiques se décrochent complètement.

Chuchoter pour contrôler ses appareils

Quel rapport avec les produits Apple ? Il saute aux yeux (ou plutôt aux oreilles).

En intégrant la technologie de Q.ai, Apple pourrait inventer une nouvelle forme de commande vocale : la commande « à voix basse ». Plus besoin de parler fort à son téléphone ou à ses écouteurs pour se faire comprendre, il suffirait de murmurer… ou presque.

On peut facilement imaginer des usages concrets, comme chuchoter une commande à ses AirPods ou à son iPhone dans la rue, dans un métro bondé ou dans un open space bruyant. À l'inverse, dans un contexte où il est mal vu ou gênant de parler à voix haute – réunion, salle de cours, avion, bibliothèque – on pourrait tout de même piloter son assistant, dicter un message ou lancer une action en murmurant à peine.

En rendant la commande vocale utilisable dans des situations réelles du quotidien, y compris les plus bruyantes ou les plus silencieuses, Apple s'attaque à l'un des plus gros freins de l'interface vocale : le fait qu'elle soit souvent socialement ou pratiquement peu utilisable en dehors du salon.

Vers la « parole silencieuse » avec Vision Pro et lunettes connectées

Mais Q.ai ne s'arrête pas au simple chuchotement. En combinant des capteurs précis (caméras, capteurs dans un casque ou des lunettes) et de l'IA, sa technologie vise aussi ce qu'on appelle la « parole silencieuse » : la capacité à comprendre une phrase simplement en observant les mouvements du visage, sans son audible.

Avec des produits comme le casque Vision Pro ou de futures lunettes connectées, le scénario devient très concret : dicter un message en pleine réunion sans déranger personne, piloter une interface en réalité mixte sans gestes spectaculaires et sans commandes vocales audibles ou encore interagir avec un assistant personnel de manière totalement discrète, comme une sorte de « télépathie » basée sur nos muscles faciaux.

Ce type d'interaction serait un énorme avantage compétitif dans le domaine des interfaces homme-machine, particulièrement pour les appareils portés en permanence sur la tête ou dans les oreilles.

Q.ai et Apple, une histoire déjà entamée avec PrimeSense

Ce rachat n'arrive pas de nulle part. Apple connaît bien l'écosystème israélien des capteurs et de la vision par ordinateur. Le fondateur de Q.ai, Aviad Maizels, avait déjà vendu à Apple une autre entreprise : PrimeSense, spécialisée dans la vision 3D. La technologie de PrimeSense a servi de base à ce qui est devenu ensuite Face ID, le système de reconnaissance faciale équipant aujourd'hui les iPhone et iPad.

Autrement dit, Apple a déjà prouvé qu'elle savait transformer une brique technologique complexe et très spécialisée en une fonctionnalité grand public incontournable. Q.ai pourrait suivre exactement le même chemin, cette fois‑ci du côté de la voix et de l'expression faciale.

Apple et les interfaces homme-machine

Ce concept de « commande vocale à voix basse » s'inscrit parfaitement dans l'histoire de la marque : Apple n'est pas toujours le premier à lancer une technologie, mais la firme s'est toujours positionné comme première à rendre les outils numériques réellement utilisables, fluides et ergonomiques, au point d'en faire des standards en matière d'ergonomie.

Reste un autre chantier majeur : l'intelligence de l'assistant lui-même. Siri souffre encore d'un retard sérieux par rapport aux assistants dopés à l'IA générative. Les prochains mois devraient cependant rebattre les cartes, notamment avec l'intégration de modèles d'IA plus avancé (via des partenariats comme celui annoncé avec Google autour de Gemini) pour rendre Siri enfin à la hauteur des attentes.

En combinant un assistant beaucoup plus intelligent avec une interface vocale capable de fonctionner en chuchotant ou en silence, Apple pourrait enfin casser son image actuelle de « belle endormie » et reprendre l'avantage sur un terrain où a toujours excellé : celui de l'interface homme-machine.

Partager cet article sur votre réseau préféré :