HyperAIHyperAI

Command Palette

Search for a command to run...

Des lunettes intelligentes révolutionnent l’autonomie des personnes en situation de handicap

Les lunettes intelligentes équipées d’IA, comme les Ray-Ban Meta, Oakley Meta Vanguard et Meta Ray-Ban Display, révolutionnent la vie des personnes en situation de handicap en offrant une autonomie accrue dans les tâches quotidiennes. Grâce à une commande vocale, ces lunettes permettent de passer des appels, envoyer des messages, traduire des conversations en temps réel, capturer des photos et vidéos sans utiliser les mains, tout en restant connecté à son environnement grâce à un système audio à oreille ouverte. Une fonctionnalité clé est l’IA intégrée, qui décrit oralement l’environnement, tandis que la fonction « Appeler un bénévole », développée en partenariat avec Be My Eyes, met en relation les personnes aveugles ou malvoyantes avec des volontaires capables de décrire ce qu’elles voient et de les aider à accomplir des gestes du quotidien. Noah Currier, ancien marin de la Marine américaine atteint de quadriplégie et fondateur de l’organisation Oscar Mike, souligne que la prise de photos et vidéos par commande vocale « change la donne » pour les personnes ayant une limitation physique ou visuelle. « Je suis en fauteuil roulant et quadriplégique, donc mes mains ne fonctionnent pas. J’ai probablement moins de photos et vidéos sur mon téléphone que n’importe qui au monde. Pouvoir les prendre sans utiliser mes mains était incroyable », raconte-t-il. Il cite comme moment marquant avoir photographié son bébé à son retour à la maison, une expérience émotionnelle rendue possible grâce à cette technologie. Pour James Rath, réalisateur et créateur aveugle, ces lunettes deviennent des « yeux supplémentaires ». Il utilise l’IA pour vérifier les réglages de son appareil photo, comme l’ISO ou l’ouverture, ou pour repérer des éléments indésirables dans le cadre d’une scène, ce qui réduit considérablement le temps de post-production. Il peut aussi demander à l’IA de surveiller son chien-guide, Hoagie, en lui demandant s’il cherche sa laisse ou son bol à nourriture. Jezz Chung, auteure et performeuse autiste et atteinte du TDAH, utilise les lunettes pour mieux s’immerger dans son environnement. Elle peut capturer des images instantanément pour identifier un lieu, un animal ou un café, sans être distrait par son téléphone, ce qui lui permet de rester pleinement présente lors de ses interactions sociales. Les lunettes intègrent également des fonctionnalités de suivi de l’activité physique, en lien avec des appareils comme Garmin. L’IA fournit des mises à jour en temps réel sur la performance durant une course ou un entraînement, sans avoir à regarder un écran. Nick Mayhugh, athlète paralympique atteint de paralysie cérébrale, utilise cette fonction pour suivre ses séances d’entraînement avec précision, tout en restant concentré sur son effort. Le programme de collaboration avec les centres de réadaptation visuelle des Veterans Affairs et l’association Blinded Veterans Association a permis de concevoir un guide d’utilisation adapté, facilitant l’acquisition des compétences nécessaires pour naviguer dans le monde avec plus d’indépendance. Ce travail de co-conception avec la communauté handicapée illustre un engagement profond en faveur de l’accessibilité. En somme, ces lunettes intelligentes, conçues en étroite collaboration avec les personnes concernées, transcendent leur rôle de simple outil technologique pour devenir des compagnons d’autonomie, offrant aux personnes en situation de handicap des moyens concrets de participer pleinement à la vie sociale, créative et physique.

Liens associés