L'iPhone et l'iPad sont principalement visés par ce brevet qui permettrait de redimensionner automatiquement l'affichage de leur écran en fonction de l'éloignement de son utilisateur.
Une fonction idéale dans le cadre d'une utilisation nomade, et d'autant plus utile pour les personnes souffrant de déficience visuelle.
Pour adapter son affichage, le dispositif mettrait en oeuvre un système de reconnaissance faciale associée à sa caméra frontale pour repérer l'utilisateur et en estimer la distance.
Le contenu affiché serait ainsi modifié en fonction des analyses et proposerait un rendu optimisé, que l'utilisateur soit proche ou éloigné de l'appareil .
Des caractères qui s'agrandissent à mesure de l'éloignement, et dont la taille diminue à mesure du rapprochement du visage... de quoi éviter le fameux Pinch In/out et garder les mains libres.
Deux fonctions principales seraient ainsi proposées par le système.
Un mode confort permettrait d'ajuster la taille de l'affichage en fonction de l'éloignement du regard, et un mode zoom permettant d'agrandir l'affichage en se rapprochant de l'écran donnant l'impression de plonger dans le dispositif.
Une technologie néanmoins déjà abordée par divers développeurs tiers, qui proposent l'utilisation de la caméra pour repérer la position de l'utilisateur et modifier l'image en fonction des mouvements de celui-ci pour créer une impression tridimensionnelle à partir d'image simple.