Apple Intelligence, annoncé comme une révolution lors de la WWDC 2024, peine à se concrétiser. La nouvelle version de Siri ne devrait pas sortir avant 2026. Que se passe-t-il chez Apple ?
Dévoilé lors de la WWDC 2024, Apple Intelligence, cet ensemble de nouveautés boostées à l'IA, se déploie lentement. Les fonctionnalités arrivent au compte-gouttes. Surtout, la surprise est venue récemment lorsqu'Apple a fait savoir que la nouvelle version Siri 2.0, initialement prévue pour 2025, ne sortirait pas avant l'année prochaine.
Un problème majeur semble bloquer la firme de Cupertino : la sécurité. D’après le développeur Simon Willison, Siri 2.0 serait vulnérable aux attaques par injection de prompt, ce qui pourrait compromettre gravement la protection des données des utilisateurs. Apple, dont la promesse de confidentialité est un pilier de son image, se retrouve face à un dilemme : innover ou garantir une sécurité infaillible ?
Apple Intelligence pourrait bien être une arme à double tranchant. L’intégration poussée de l’IA dans les systèmes Apple, censée être son atout majeur, risque de devenir son plus grand défi. La quête de perfection freine-t-elle Apple dans la course à l’IA ?
Ecoutez l'épisode !
[0:01] Apple est-il dans un cul-de-sac technologique avec l'intelligence artificielle ? Alors que la keynote de juin 2024 faisait miroiter monts et merveilles avec Apple Intelligence, cet ensemble de nouveaux services à base d'IA censés révolutionner l'usage des appareils de la marque, eh bien on s'aperçoit jour après jour que tout ne se passe pas comme prévu. Déjà, Apple Intelligence arrive au compte-gouttes. Alors non seulement en Europe, où pour l'instant il n'y a qu'une version bêta qui est disponible, mais aussi aux Etats-Unis où la totalité des fonctions promises n'est pas encore déployée. Et puis surtout, on a appris récemment une information assez étonnante. La nouvelle version de Siri, l'assistant intelligent de la marque à la pomme, Siri 2.0, qui devait arriver normalement aux environs de ce printemps 2025, eh bien en réalité ne devrait pas sortir avant l'année 2026. Et ce qui coince visiblement chez Apple, on a l'impression que ça vient de loin. Alors c'est vrai que la marque à la pomme arrive elle aussi de très loin en matière d'IA, ce n'est pas vraiment son cœur de métier d'entraîner des LLM, mais quand même on pouvait se dire que cette Apple, et donc avec toute la puissance financière que l'on sait.
[1:10] Eh bien ils devaient avoir les moyens de rattraper leur retard. En réalité, ce n'est visiblement pas le cas, et il y a peut-être même autre chose qui coince. Peut-être sont-ils trop exigeants chez Apple. À force de vouloir proposer toujours quelque chose de différent, de mieux intégré, de plus respectueux de la vie privée, bref, quelque chose d'amazing comme ils savent faire, eh bien visiblement, en matière d'IA, ça coince. Et la prestigieuse marque américaine serait même en train apparemment de se heurter à des difficultés insurmontables, Malgré un bataillon de chercheurs en IA et des paquets de brevets déposés, en ce qui concerne Siri, on risque bien de devoir se farcir encore pendant un certain temps. Non pas une super bête de course hyper intelligente, mais plutôt un vieux papy kakochime qui comprend tout de travers et qui est incapable de formuler des réponses simples à des questions simples de manière aussi fluide et rapide que,
[2:04] par exemple, Chagipiti. La quête de la perfection serait donc en train de nuire à Apple.
[2:11] Et plus précisément, une hypothèse intéressante vient d'être émise par un développeur britannique renommé Simon Wilson. Selon ce spécialiste qui affirme avoir des contacts au cœur du réacteur de la marque à la pomme, ce qui coince pour Siri, ce serait en fait un problème de sécurité. Des tests réalisés en interne montreraient que Siri 2.0 serait extrêmement vulnérable. En effet, il serait possible de le détourner du droit chemin dans le cadre d'une utilisation malveillante avec ce qu'on appelle une injection de prompt. Alors une injection de prompt, c'est quand vous dialoguez avec une IA qui est en principe paramétrée pour respecter certaines règles. Par exemple, ne pas donner de recettes pour fabriquer une bombe ou ne pas proférer d'injures racistes. Mais si vous lui demandez d'oublier ses instructions pour lui faire faire n'importe quoi, eh bien ça marche. En fait, toutes les IA sont sensibles à ce genre d'attaques.
[3:06] Dans le cas d'Apple, ça pourrait faire très mal, car l'objectif d'Apple est d'intégrer Siri profondément dans le système d'exploitation. On peut imaginer toutes sortes de scénarios catastrophes comme l'utilisation abusive de données personnelles des propriétaires d'appareils Apple. Ce serait une sorte de jailbreak de Siri qui pourrait avoir des conséquences très graves, y compris en termes d'images de marque, puisqu'on sait que notamment la sécurité des données, c'est l'engagement numéro un ou presque d'Apple vis-à-vis de ses utilisateurs. Et c'est donc cette peur du jailbreak qui serait une sorte de piratage de l'assistant vocal qui paralyserait aujourd'hui Apple et l'empêcherait de lancer Siri 2.0. En tout cas, c'est l'hypothèse de Simon Willison.
[3:49] Alors on se demande au passage comment font les autres, les grands constructeurs, qui récemment à Barcelone fanfaronnaient à propos des fonctions d'intelligence artificielle de leurs futurs smartphones. Mais en tout cas, la morale un peu tragique de cette histoire, c'est que pour Apple, c'est quasiment une sorte d'impasse technologique. La force d'Apple Intelligence, ce qui devait être son véritable élément de différenciation par rapport à la concurrence, c'est-à-dire l'intégration maximale au cœur des systèmes, pourrait être en réalité son pire cauchemar.