Un nuevo tamaño de Ya tenemos con nosotros a los nuevos iPhone 16 y iPhone 16 Plus, los móviles de la gama estándar de Apple, que también ha renovado su catálogo de buques insignia con los esperados iPhone 16 Pro y iPhone 16 Pro Max. Todos ellos contarán con Apple Intelligence, que estará disponible el mes que viene.
“Nuestros clientes confían en el iPhone todos los días, y el iPhone 14 y iPhone 14 Plus ofrecen nuevas y revolucionarias tecnologías, además de capacidades cruciales de seguridad. Gracias a la nueva pantalla más grande de 6.7 pulgadas del iPhone 14 Plus, los usuarios pueden ver más contenido en pantalla mientras navegan por Internet, e incluso más texto”, afirmó Greg Joswiak, vicepresidente sénior de Worldwide Marketing de Apple. “Ambos teléfonos vienen con una potente cámara gran angular nueva, un gran salto en el rendimiento en condiciones con poca luz, capacidades avanzadas de conectividad con 5G y la eSIM, y el increíble rendimiento del chip A15 Bionic, que permite mejorar aún más la duración de la batería. Todo esto se integra a la perfección con iOS 16, lo que hace que el iPhone sea más esencial que nunca.”
Aunque se mantienen los tamaños de los nuevos iPhone 16 (6,1 pulgadas) y los iPhone 16 Plus (6,7 pulgadas) respecto a la generación anterior, hay novedades en los colores disponibles: además de blanco y negro, tenemos el rosa, verde y azul, con unas tonalidades más vibrantes y algo más saturadas que en generaciones anteriores.
Sin embargo, lo que más destaca de este rediseño es la presencia de dos nuevos botones. Además del botón de encendido (lateral derecho)y los de control de volumen (lado izquierdo), tendremos dos nuevos botones que debutan en estos dispositivos.
El primero, el botón de acción del lateral izquierdo que ya teníamos en los iPhone 15 Pro/Max del año pasado. Podremos asignar todo tipo de opciones a ese botón, como lanzar Siri, grabar un memo de voz o identificar canciones.
El segundo, en el lateral derecho, es totalmente nuevo: se trata del llamado Camera Control, que permite no solo sacar fotos, sino activar una función similar a Google Lens para que nos dé información sobre lo que estamos viendo en pantalla. Esa función se basa en la nube de Apple que “nunca guarda la imagen”.
El concepto, parte de la “Visual Intelligence” de Apple, permite utilizar esa IA multimodal para usar la cámara del iPhone como “prompt” para preguntar cosas sobre lo que estamos viendo.