Pour les moutures estampillées 26 des prochains systèmes d'exploitation d'Apple, le nouveau design Liquid Glass occupe une place importante et peut être considéré comme l'annonce phare. Apple Intelligence n'est pas oublié après son lancement en grande pompe l'année dernière, mais des annonces qui ont eu du mal à se concrétiser par la suite, surtout du côté de Siri qui devra encore patienter.
Désormais, Apple annonce que le modèle embarqué au cœur d'Apple Intelligence est accessible aux développeurs d'applications via le framework Foundation Models. Dans leurs applications, les développeurs pourront ainsi implémenter des capacités génératives qui seront disponibles hors ligne et avec une inférence de l'IA gratuite.
« Une application éducative peut exploiter le modèle embarqué pour générer un quiz personnalisé à partir des notes d'un utilisateur, sans aucun coût lié à une API cloud, ou une application d'activité en plein air peut ajouter des capacités de recherche en langage naturel qui fonctionnent même hors ligne », indique Apple à titre d'exemple.
Une traduction en direct
Pour ses propres applications tirant parti d'Apple Intelligence, le groupe de Cupertino intègre la traduction en direct aux applications Messages, FaceTime et Téléphone.
Dans Messages, la traduction dans la langue du destinataire a lieu à mesure de la saisie par l'expéditeur. Lors d'un appel FaceTime, des sous-titres traduits accompagnent la voix de la personne qui parle. Avec un appel téléphonique, c'est une traduction à voix haute.
Initialement, l'allemand, l'anglais, le chinois (simplifié), le coréen, l'espagnol, le français, l'italien, le japonais et le portugais seront pris en charge dans Messages. Dans les applications FaceTime et Téléphone, il s'agira d'abord de l'allemand, l'anglais, l'espagnol, le français et le portugais.
Visual Intelligence pour l'écran de l'iPhone
Une mise à niveau concerne Visual Intelligence qui s'étend à l'écran de l'iPhone et au contenu affiché, en plus de la recherche contextuelle par le biais de l'appareil photo. Avec un déclenchement grâce aux boutons de capture d'écran, il sera possible de rechercher et interagir sur ce qui est consulté dans les applications.
Hormis une intégration de ChatGPT, Visual Intelligence permettra d'effectuer une recherche d'éléments similaires à ceux affichés à l'aide de Google, Etsy ou autres. La détection d'un événement consulté proposera l'ajout d'un rappel au calendrier (en anglais).
Apple Intelligence arrive en outre dans l'application Raccourcis (automatiser des tâches dans les applications) pour des actions optimisées en faisant appel aux modèles sur l'appareil ou avec Private Cloud Compute. Les utilisateurs pourront aussi solliciter ChatGPT afin de générer des réponses pour les étapes suivantes d'un raccourci.