Apple está explorando la idea de agregar cámaras y funcionalidad de Inteligencia visual En sus relojes inteligentes, una elección que debería empujar a la empresa en el sector portátil.
Para informar que es Mark Gurman de Bloomerg que explica que en los últimos dos años hemos observado la difusión en el mercado de dispositivos a wearables, dispositivos que van desde alfileres humanos hasta gafas inteligentes.
El hilo común de estos dispositivos es la posibilidad de explotar cámaras y micrófonos para admitir la inteligencia artificial que permite comprender el entorno circundante donde el usuario usa el dispositivo se encuentra.
Apple comenzó a explorar este territorio el año pasado con Visual Intelligence, una característica que le permite obtener información sobre lugares y objetos (primero disponible solo en el iPhone 16 pero desde iOS 18.4 también con iPhone 15 Pro). En los teléfonos más recientes, es posible recordar la inteligencia visual manteniendo el control de la cámara para realizar operaciones, como buscar detalles sobre un restaurante o actividad, traducir, resumir o leer un texto, identificar plantas y animales y más.

Según Gurman Apple podría ser Integre características similares también en Apple Watch, pero también en otros dispositivos, incluidos los futuros AirPods con cámara, una forma de permitir que la IA vea el mundo exterior e identifique información importante. Estos son modelos que probablemente veremos entre generaciones de dispositivos, pero dicha funcionalidad estaría en las hojas de ruta de Cupertino.
Apple tiene la intención de explotar la inteligencia visual tanto en Apple Watch estándar como en los modelos Ultra; En el primer caso, la integración de la cámara en la pantalla y en el segundo caso cerca de los botones laterales del reloj (el mayor espacio disponible permitiría este enfoque).
Con la inteligencia visual, recordamos, ya ahora (de iOS 18.4) en el iPhone es posible obtener información sobre una actividad (por ejemplo, horarios de apertura), identificar animales y plantas, pero también interactuar con el texto (por ejemplo, resumir y traducir un texto o leerla en voz alta, identificar información de contacto en un texto, como números de teléfono y direcciones de correo electrónico o sitios web, y llevar a cabo acciones basadas en el tipo de texto), solicite un texto), pregunte. Información de ChatGPT sobre lo que estamos viendo, buscando elementos similares en Google, cree un evento en la aplicación Calendario cuando vemos uno en un póster o en un volante y más.
Siempre comenzando desde una imagen o foto, puede buscar en Google para averiguar dónde puede comprar un artículo o aprovechar las habilidades de resolución de problemas de ChatGPT para solicitar explicaciones sobre un diagrama complejo, por ejemplo, en las notas de una lección.
El usuario tiene control sobre cuándo se utilizan estas herramientas de tercera parte y en qué información se comparte. Es un primer ejemplo de IA Multimodale ofrecido por Apple, con funciones disponibles «sobre la mosca» sin la necesidad de filmar el primer video o tomar imágenes y luego hacer las solicitudes
Otros rumores sobre el futuro Apple Watch informan soporte a mensajes satelitales (cuando no tiene cobertura celular y Wi-Fi) en los modelos de soporte de ultra y tecnología 5G Redcap (El que debería garantizar una conectividad eficiente desde el punto de vista de los costos y el consumo de los dispositivos que no requieren altas velocidades de transmisión de datos y en las que la latencia es menos crítica).