Al final, Apple tomó la decisión correcta al elegir Face ID en vez de los sensores dactilares en pantalla

Al final, Apple tomó la decisión correcta al elegir Face ID en vez de los sensores dactilares en pantalla

El mundo tecnológico de vez en cuando se encuentra con una bifurcación en el camino. Tras muchos años con una solución madura, llega un momento en el que las compañías se plantean cuál es el siguiente paso. Y se dan de bruces con dos opciones que marcarán el devenir futuro de sus productos: tomar el camino A o la ruta B.

Es lo que ha ocurrido con los sensores dactilares integrados en el botón físico común a la mayoría de smartphones hasta hace un puñado de años. Mientras que unos fabricantes han optado por integrar el sensor en pantalla, Apple ha decidido apostar por la biometría facial desde el iPhone X. Ahora que han pasado varios años, repasamos las decisiones que tuvieron que tomar en aquel entonces todas las compañías.

Camino A: los sensores dactilares integrados en pantalla

sensor dactilar en pantalla

Este debate surge del deseo de hacer pantallas más grandes, para lo cual era necesario repensar qué se hacía para mantener (o aumentar) la seguridad de los terminales sin perder comodidad. La colocación del sensor de huellas moderno, el integrado en un botón que "saca" al usuario de la app que está ejecutando y le devuelve a la Home del terminal fue puesto encima de la mesa por el iPhone 5s en 2013. Ya hubo con anterioridad móviles que integraban el sensor de huellas para autenticación, pero no lo hicieron de la misma manera, ni era tan cómodo o seguro como la solución de Apple.

Touch ID fue el primer sensor dactilar en funcionar con seguridad y rapidez suficientes, motivo por el que sirvió de modelo para el resto de la industria

Touch ID fue el modelo que posteriormente siguieron el resto de fabricantes durante años. Apple renovó el sensor con el iPhone 6s y posteriores para hacerlo bastante más rápido y fiable que el anterior y desde ese 2015 la tecnología permaneció estática. Los demás fabricantes también mejoraron la tecnología de sus sensores dactilares para hacerla más veloz y experimentaron con colocar el botón y su sensor en un lateral. Otros lo posicionaron en la parte trasera.

Pronto quedó claro que la tecnología no iba a dar más de sí y era necesario un salto que abriese nuevas oportunidades. Esta fue la bifurcación en el camino, donde un número importante de fabricantes optaron por explorar la integración en pantalla del sensor de huellas. Según hemos visto, se presentaron dos tipos de tecnología:

  1. Sensor de huellas óptico: es el utilizado por los OnePlus 6T, el Huawei Mate 20 Pro y el Xiaomi Mi 8 Pro.
  2. Sensor de huellas ultrasónico: el empleado en el Galaxy S10+ de Samsung y cuya tecnología ha sido desarrollada por Qualcomm recientemente.

En palabras de nuestros compañeros de Xataka, el sensor óptico de los tres primeros modelos ofrece una lectura más lenta que el ultrasónico. Por lo que el ultrasónico del Galaxy S10+ es el más rápido de todos. Sin embargo, también afirman que este último es ligeramente más lento que el sensor dactilar físico del Galaxy S9.

En alguno de estos análisis, también se pone de manifiesto que la ausencia de un botón físico que muestre dónde colocar el dedo requiere cierta adaptación. Y que en ocasiones puede ralentizar el reconocimiento dactilar que hace el terminal. A pesar de que el Galaxy S10+ es el que mejor parado queda en el uso diario, otros periodistas que han tenido acceso al terminal para su análisis han tenido una experiencia notablemente peor que con un sensor tradicional (en concreto, The Verge y Android Central).

Ruta B: el sensor de reconocimiento facial

Además de los distintos tipos de sensores integrados en la pantalla, algunos fabricantes los han acompañado de sensores faciales. Sin embargo y como sabemos, Apple decidió cortar con el sensor dactilar y optar únicamente por la otra ruta: el sensor de reconocimiento facial.

En su caso, esta tecnología comienza su desarrollo años antes del lanzamiento en forma de Face ID en el iPhone X de 2017. Se vio reforzada con la adquisición de la empresa responsable de los sensores de Kinect, el accesorio de la Xbox 360 de Microsoft.

Kinect Face ID

En cuatro años, Apple redujo considerablemente los sensores y mejoró la tecnología hasta llegar al resultado actual. Así nacía TrueDepth, un sistema compuesto por 8 sensores de los cuales 4 son los responsables de Face ID potenciado por el procesador A11 Bionic.

En su presentación, Apple aseguró que Face ID tenía una probabilidad de que una persona aleatoria desbloquee tu terminal de 1 entre 1 millón, comparado con la probabilidad de 1 entre 50.000 de Touch ID. Es, por tanto, más seguro. Con posterioridad, los intentos por engañar a Face ID han sido muy laboriosos y poco factibles. Esto contrasta con las pruebas que se hacen con sistemas de reconocimiento facial como el del Galaxy S10+, que en The Verge señalan que puede desbloquearse con un simple video del rostro del usuario.

En cuanto a la velocidad de desbloqueo, la percepción general es que no se echa de menos a Touch ID. Face ID ha demostrado ser un digno sucesor de Touch ID aún no siendo perfecto.

Una buena detección facial es mejor que un sensor de pantalla deficiente

Face ID

Mucho se habló en su momento acerca de un sensor Touch ID integrado en la pantalla del iPhone. Ciertamente, Apple estuvo explorando esta posibilidad durante un tiempo y lo sabemos a través de las patentes registradas. Estos esfuerzos fueron corroborados por Dan Riccio, vicepresidente senior de hardware de Apple, aunque desde comienzos del desarrollo del iPhone X se descartó por completo el sensor dactilar integrado en la pantalla:

Esto es asumiendo que [Face ID] era la mejor solución. Y eso fue lo que hicimos. De forma que no dedicamos nada de tiempo a intentar colocar el escáner de huellas en la parte trasera, bajo la pantalla o en el lateral porque si lo hacíamos, lo cual sería un cambio de última hora, habría supuesto una distracción sobre lo que queríamos conseguir con Face ID y su alta calidad.

Como suele decirse, a toro pasado es muy fácil ver que Apple tomó la decisión correcta con Face ID y desechando un sensor tras la pantalla. Apple consiguió que Face ID estuviera a la suficiente altura antes de hacer el cambio, mientras que los sensores tanto ópticos como ultrasónicos aún no superan al sensor dactilar físico tradicional. Por tanto, no es una tecnología que esté lo suficientemente madura como para introducirse al público.

Viendo lo sencillo que es burlar sistemas de reconocimiento facial de la competencia, todo apunta a que esa ventaja de dos años del iPhone X que comentamos hace tiempo sigue estando vigente más de año y medio después.

También te recomendamos

Superordenadores y nuevas tecnologías, actuales tubos de ensayo en investigación biomédica

La policía de EEUU recibe instrucciones para no mirar a los iPhone con Face ID de sospechosos

El iPhone X es el único smartphone "impenetrable" a un rostro impreso en 3D en esta prueba

-
La noticia Al final, Apple tomó la decisión correcta al elegir Face ID en vez de los sensores dactilares en pantalla fue publicada originalmente en Applesfera por Eduardo Archanco .




Fuente: Applesfera
Enlace: Al final, Apple tomó la decisión correcta al elegir Face ID en vez de los sensores dactilares en pantalla

Comentarios