Imagínese diciendo algo en silencio y su asistente de inteligencia artificial sabrá lo que está tratando de decir. Podría ser a través de sus gafas, sus auriculares o la cámara de su teléfono. Apple acaba de comprar una empresa, llamada Q.aieso está tratando de hacer exactamente esto. Eso suena extraño y de ciencia ficción, pero a mí, como alguien que ha estado mirando gafas inteligentes y dispositivos portátiles durante mucho tiempo, también me suena muy familiar.
La inversión de Apple en esta startup israelí no es nada pequeña. La adquisición costó alrededor de 2 mil millones de dólares, según el informe original del Financial Times y medios de comunicación como Reuters. Es más que cualquier otro movimiento de Apple desde su llamativa adquisición de Beats hace una década. Sin embargo, a diferencia de Beats, nadie sabe nada de Q.ai. Al menos no todavía. Aún así, las posibilidades de nuevas interfaces podrían ser muy grandes. Se está agregando otra pieza clave al rompecabezas en constante expansión de las futuras interfaces tecnológicas personales.
Q.ai no es una empresa con la que me haya reunido ni de la que haya recibido una demostración, pero uno de sus fundadores, Aviad Maizels, también creó PrimeSense, la tecnología basada en infrarrojos que impulsó las capacidades de escaneo 3D de habitaciones de la cámara Kinect de Microsoft para Xbox hace años. PrimeSense fue adquirido por Apple en 2013. Esa tecnología se convirtió en la Conjunto de cámaras TrueDepth para Face ID, y también vive en Visión Pro de Apple para seguimiento manual a corta distancia.
A juzgar por lo que se ha informado sobre sus patentes, Q.ai permite el seguimiento de pequeños movimientos faciales y expresiones emocionales con sensores ópticos y podría permitir la entrada de comandos silenciosos a una interfaz de IA o el reconocimiento de otras señales faciales sutiles. El sitio israelí Tiempo Geek entra un poco más en detalle y dice que el técnico mediría los movimientos de los músculos y los labios y que podría necesitar estar cerca de la boca.
CNET contactó a Apple y Q.ai para hacer comentarios, pero ninguno respondió de inmediato.
Vision Pro ya puede rastrear los movimientos de la cara, pero no puede convertir los movimientos de los labios en voz.
¿Parte de un nuevo sistema de interfaz para dispositivos portátiles y gafas?
Acabo de escribir sobre cómo Apple ya está mostrando signos de avanzar hacia un ecosistema de wearables de IA conectados: pines, gafas, auriculares, relojes o alguna combinación de ellos. Cualquiera de estos dispositivos portátiles podría utilizar lo que Q.ai está desarrollando. Sin embargo, parece que los auriculares y las gafas son las dos áreas más probables, y con los informes de que el próxima generación de AirPods Tendrá cámaras infrarrojas a bordo, las piezas parecen aún más listas para conectarse.
Incluso los auriculares de realidad mixta como el Vision Pro podrían aprovechar la tecnología de Q.ai. Vision Pro ya puede reconocer expresiones faciales con sus cámaras de seguimiento ocular, cámaras orientadas hacia abajo y sensores infrarrojos. Pero interactuar con Vision Pro todavía me resulta un poco incómodo. Utilizo mis ojos para mirar y mis manos para pellizcar cosas, pero tengo que decir “Hola Siri” para realizar solicitudes de audio. Preferiría que mis interacciones se sintieran más naturales y sutiles. Quizás esta nueva adquisición pueda ayudar.
Como señala la artista e investigadora de realidad aumentada Helen Papagiannis notas en su reciente boletín“El rumoreado pin de IA de Apple tiene menos sentido como un producto independiente y más como un nodo en el ecosistema de Apple, basándose en sensores, inteligencia y contexto compartidos entre dispositivos que trabajan en conjunto con AirPods y, eventualmente, gafas”.
Existente gafas inteligentes como el de meta y los próximos de google dependen principalmente de la voz para la interacción. Hacerlo en silencio podría ser una gran ventaja, pero también están surgiendo otros aspectos más allá de la voz. Meta tiene una banda neuronal que se lleva en la muñeca, con el objetivo final de agregar también seguimiento ocular a las gafas. Las gafas de Google también funcionarán con gestos basados en el reloj.
También estoy bastante preocupado por la privacidad. Cualquier tecnología que pueda leer los labios y reconocer expresiones sutiles podría usarse para rastrear y escuchar su intención desde la distancia. ¿Cómo se utilizaría esta tecnología de forma privada y fiable? ¿O sería más privado poder simplemente expresar solicitudes en voz baja que los comandos de voz que uso ahora?
¿Hay más por venir más allá de la lectura de labios?
Todavía quiero interfaces que no utilicen ningún habla. Basado en electromiografía de Meta. tecnología de banda neuronal apunta a formas más complejas en las que los gestos de muñeca podrían evolucionar para funcionar con gafas y auriculares. Otra empresa israelí, Wearable Devices, tiene su propia banda neuronal, llamada Mudra, y pretende ampliar sus capacidades de entrada sutil, derivadas de los impulsos eléctricos de las neuronas motoras.
La electroencefalografía, que mide las señales cerebrales, es otra dirección. Si bien algunas empresas están explorando el EEG para interfaces cerebro-computadora, sigue siendo principalmente un sistema de sensores centrado en aplicaciones médicas y de salud.
Cuente la tecnología de Q.ai entre las interfaces que podrían hacer que las computadoras portátiles que usamos se sientan más conectadas con nosotros. Eso es extraño y espeluznante, pero también es hacia donde creo que ya se dirigen la mayoría de las empresas de gafas, dispositivos portátiles y VR/AR. Esto no es un caso atípico. La medida de Apple es otra parte de la tendencia.




