Así funciona el modo cine del iPhone 13, la nueva característica estrella
Responsables de Apple han explicado cómo funciona el nuevo modo cine de los iPhone 13. Una característica que fue difícil de llevar a la realidad debido a sus exigencias.
23 septiembre, 2021 20:10Noticias relacionadas
Uno de los grandes reclamos de venta de estos nuevos iPhone 13 ha sido sin duda la cámara. No tanto por calidad, ya que sabemos que estos nuevos smartphones son bestias en este apartado, sino por sus funciones. En España vimos nacer el nuevo Modo Cine, una característica completamente nueva que acercaba la cámara de estos iPhone al terreno cinematográfico.
Más allá del marketing, este nuevo modo introduce varias funciones que los amantes de la producción audiovisual. El más importante es el enfoque selectivo, que enfoca de forma automática a objetos, mascotas y personas para dar un toque mucho más cinematográfico a tu vídeo. Todo ello en Dolby Vision HDR.
Y no es lo único; se incluye el formato ProRes, un códec de vídeo que se suele usar en producciones televisivas y efectivamente en el mundo del cine. Pero ¿cómo se ha hecho? Así lo cuentan los propios responsables de Apple en una entrevista en TechCrunch.
Así funciona el Modo Cine
El medio TechCrunch ha realizado una entrevista a dos de las personas que han tenido que ver en el desarrollo de esta función. A Johnnie Manzari, uno de los miembros del equipo encargado de las interfaces de Apple y a Kaiann Drance, vicepresidente actual de la división de marketing de la compañía.
Lo primero que hay que destacar de lo que nos cuentan tanto Manzari como Drance es que el Modo Cine es tremendamente exigente para el teléfono. Hace uso de prácticamente todos los apartados del teléfono; el procesador, el A15 Bionic y de la GPU integrada dentro del mismo. De hecho, llega incluso a usar sensores como el acelerómetro.
Y aún hay más. Tanto es así, que el iPhone, a la hora de hacer uso del Modo Cine, aprovecha el motor neuronal integrado del iPhone, el Neural Engine. Todo ello combinado con el propio hardware de la cámara, como su sensor estabilizado.
Puede parecer algo exagerado, pero ni muchísimo menos. El iPhone y todas sus partes en conjunto deben estar gestionando un grandísimo flujo de datos que aparecen en pantalla en tiempo real. Especialmente teniendo en cuenta que el metraje se está grabando en Dolby Vision HDR, para conseguir un mayor rango dinámico, una menor compresión y una mayor fidelidad en el color.
Por si fuera poco, recordemos que además de procesar todo esto, tiene que mostrárnoslo con la mayor calidad posible. La tarea de Apple era crear una serie de automatismos que consiguieran que el consumo de batería no se excediera al usar tantas partes del dispositivo. Sobre todo en largas sesiones de grabación.
Gran parte de la 'magia' sucede en el reconocimiento de mirada y de objetos. En general, el teléfono escanea toda la información de una escena en movimiento, y los 'separa', aislándolas del fondo para conseguir el desenfoque deseado de un modo retrato. Es en este momento en el que el reconocimiento y el seguimiento 'capta' la información para realizar la tarea; por ejemplo, detecta las miradas y reconoce los objetos para distinguirlos del fondo y realizar el desenfoque.
Y es que entran en juego los sensores, como el acelerómetro. El motor neuronal y el acelerómetro se encargan directamente de que reconocer el sujeto que la escena necesita resaltar sobre el resto, para que antes de que acabemos de movernos, el enfoque ya se esté produciendo. Esto incluye la mirada, por supuesto, ya que el teléfono 'entiende' si el sujeto que está en la escena va a estar en el plano principal
El truco de esto está en la tarea de cada parte. La CPU y la GPU se encargan de procesar toda la información. El motor neuronal se encarga de las decisiones de aprendizaje automático y gestiona los sensores necesarios. El acelerómetro pasa a servir para el seguimiento y el movimiento. La estabilización y la luminosidad pasan a ser responsabilidad del sensor estabilizado y del sensor angular mejorado.
Con todo esto, se consiguen funciones increíbles, como el movimiento de enfoque de un sujeto a otro (conocido como racking focus), un bokeh sintético gracias al desenfoque de la lente y una capacidad de edición que permite, entre otras cosas, cambiar el enfoque y los puntos en los que está centrado. Tampoco podemos olvidarnos del nuevo sensor estabilizado, que además cuenta con una gran apertura f/1.5.
El viaje del Modo Cine
Y lo cierto es que este nuevo modo cinematográfico no ha sido fácil de conseguir. Se presentaban varios problemas; el hecho de previsualizar el contenido que se estaba procesando o el uso de tanto hardware podía afectar seriamente a la batería. Además, había que encontrar el enfoque de esta función (nunca mejor dicho).
Los propios responsables entrevistados han admitido que tuvieron que realizar investigaciones sobre técnicas cinematográficas que habían perdurado en el tiempo. Tanto es así, que incluso recurrieron a directores de fotografía, operadores de cámara y vieron todo tipo de películas icónicas a nivel técnico. Incluso estuvieron en sus sets de rodaje y producción.
En definitiva, esta es la enésima demostración de Apple de su interés por el apartado del vídeo. Afortunadamente, los avances tecnológicos de Apple, como la eficiencia de su procesador, el A15 Bionic, han salvado este modo para hacerlo todo un estándar en la industria.