Así sería la WWDC 2019 para los desarrolladores: Siri, Marzipan, mejoras en AR y más

Así sería la WWDC 2019 para los desarrolladores: Siri, Marzipan, mejoras en AR y más

Está claro que Guilherme Rambo (desarrollador, experto en ingeniería inversa y redactor del medio 9to5Mac) ha conseguido en los últimos meses una notoriedad bastante importante. Y gran parte de esa notoriedad le viene porque ha conseguido no solo ser generador de información en base a sus investigaciones, también ha conseguido fuentes de información importantes dentro de la propia Apple que le brindan esas pequeñas pinceladas que nos llenan de ilusión cada poco.

Hoy, y con la ayuda del también muy conocido desarrollador e investigador, Steven Troughton-Smith, ha sacado un artículo en 9to5Mac adelantando algunas de las cosas que veremos los desarrolladores en la próxima WWDC de 2019 para la que queda poco menos de un mes, y sin duda los detalles que ha dado son bastante jugosos y vamos a pasar a nombrarlos y comentarlos añadiendo el necesario contexto para que no solo los developers, también los usuarios sepáis de qué se habla y qué supondrá esto para las próximas versiones de iOS y macOS.

Nuevas intenciones de Siri

Cuando se presentó Siri Shortcuts, ya hice un análisis al respecto aquí mismo y hablé largo y tendido sobre qué son exactamente los atajos de Siri: una forma de proporcionar a las apps un método que permita al sistema entender qué hace el usuario. Entre otras cosas, una de sus funciones principales es esa, que nuestro sistema operativo sepa en todo momento qué hacemos. Y para ello lo registra a través de las conocidas como intenciones de Siri. Intenciones que hoy día permiten registrar tareas de envío de mensajes, creación de tareas y mucho más. Cualquier acción que encaje en hacer, realizar o ir, como verbos genéricos. Y clasificados en diferentes secciones como: ver, abrir, pedir, encargar, comprar, comenzar, navegar, compartir, publicar, enviar, crear, añadir, buscar, filtrar, descargar, coger, fijar, requerir, cambiar o check-in.

Además de esto, las intenciones permiten ejecutar tareas en segundo plano, no solo informar al sistema de lo que se hace: tareas de una app de terceros que no requieran abrir dicha app para ser realizadas. Y en este sentido, las opciones proporcionadas no eran tantas si lo analizamos, aunque era obvio que Apple las ampliaría como parece que hará. Apple va a añadir nuevas intenciones por defecto al sistema donde incluirá: reproducción multimedia, búsquedas, llamadas de voz, sacar entradas a eventos, unir un adjunto a un mensaje (como enviar una fotografía a alguien con una sola acción), viajes de tren, de avión, información de asiento en vuelos o puertas de embarque. Todo esto tendrá intenciones que permitirán crear acciones directas de Siri Shortcuts que se ejecuten en segundo plano sin necesidad de abrir la app. El sistema registrará esa actividad para ofrecerla como sugerencia al detectar un patrón en nuestro comportamiento y las apps la ofrecerán como funcionalidad para Siri y sus atajos.

Apple creará nuevas intenciones de Siri que permitirán mejorar la forma en que se integra con las apps, incluyendo reproducción musical. De esta forma, podríamos pedir música de servicios diferentes a Apple Music y Siri podría reproducirla sin abrir la app para ello: todo en segundo plano.

Así podremos saber nuestra puerta de embarque (por ejemplo) como información directa proporcionada por la app de la compañía aérea pero sin tener que abrir la propia app. Siri nos dará la información. Esa es la idea: formas por las que el sistema y las apps se entiendan mediante contextos.

Es lógico que esto iría ampliándose y otra de la más interesante tal vez sea la que habla de reproducción multimedia porque podríamos integrar Siri de una forma más efectiva con servicios musicales que no tengan que ser solo Apple Music. En principio, esto permitiría poder pedir a Siri canciones en servicios musicales que no sean Apple Music.

Mejoras en Marzipan

Pensamos que Marzipan es la librería que permite portar las apps de iOS al Mac con poco o casi ningún esfuerzo para los desarrolladores. Y así es. Pero Marzipan es más que eso. Según mis investigaciones, Marzipan es una nueva versión de UIKit compatible con la actual y que aporta nuevos componentes para la construcción de apps para el Mac y el iPad. Una librería que, además, requerirá como confirma Gui Rambo en su artículo, que si queremos usar estos nuevos componentes tengamos que dar soporte a Mac y iPad por igual.

Marzipan es más que una librería que permite ejecutar apps de iPad en el Mac. Es una nueva versión de la librería de interfaces que vendrá con nuevos componentes y formas para crear apps más prácticas, usables y funcionales.

Según Gui, portar una app al Mac será cuestión de pulsar un check (a nivel soporte), como ahora pasamos de una app solo de iPhone a una Universal que soporte también el iPad. Y no solo eso, este nuevo UIKit Marzipan permitirá integrar nuestras apps de iPad portadas con funciones específicas de Mac, como el uso de la Touch Bar, la barra de menús y la inclusión de atajos de teclado (esto ya se puede hacer en iOS también, pero este nuevo UIKit lo haría más al estilo del Mac y funcionaría por igual en iPad o Mac).

De igual manera, las apps que se creen con esta nueva librería (que insistimos, será tan fácil de soportar como hacer un click para que el sistema use esta nueva en vez de la clásica) y que usen el diseño adaptativo de apps con clases de tamaño y constraints (la forma que tenemos de conseguir que una UI se adapte nativamente a cualquier tamaño de dispositivo) podrán activar un modo split screen (a pantalla partida) que permitirá que las apps puedan tener cualquier dimensión (como sucede en el Mac) y no un tamaño concreto como ahora de 50/50, 66/33 o 25/75. Bastará un doble tap en la barra de división de las apps para resetear su posición como sucede ahora con los Mac.

El Split View en iPad será más parecido al del Mac que al de iOS El Split View en iPad será más parecido al del Mac que al de iOS

La llegada de esta nueva librería Marzipan además, como ya se adelantó en otros artículos, ofrecerá a los desarrolladores la capacidad de trabajar con un nuevo componente de ventanas o paneles flotantes, que permitirán tener ventanas en primer plano, no modales, que incluso podrán colocarse unas sobre otras o anclarse a los lados de la pantalla para dejarlas fijas. Una función excepcional para ser usada con toolbars de opciones contextuales.

Realidad aumentada

También hay noticias al respecto de la "supuesta" versión 3.0 de ARKit, la librería de realidad aumentada de Apple que sigue su camino hacia las muy rumoreadas gafas de realidad aumentada de Apple. Lo más interesante, al menos para mi, es que ARKit hasta ahora era una librería en Objective-C debido a la imposibilidad de poner librerías hechas nativas en Swift directamente en el sistema operativo. Si quieres saber por qué, no te pierdas mi artículo sobre la estabilidad binaria del lenguaje leyéndolo aquí.

Con Swift 5.1, la versión que acompañará a Xcode 11 y los futuros iOS 13, macOS 10.15, watchOS 6 y tvOS 13, sabemos que se incorporará estabilidad binaria de módulos, eso nos aporta que el sistema operativo ya puede tener cargadas librerías hechas nativas en Swift en ella. Y una de las primeras será ARKit, que ahora será completamente nativa en Swift. Además Apple proporcionará a los desarrolladores una app (como ya nos prometió en la pasada WWDC pero finalmente no tuvimos) para crear experiencias visuales en realidad aumentada.

ARKit se convertirá en su versión 3.0 en una librería nativa 100% en Swift.

Con esta podríamos, por ejemplo, crear modelos 3D de objetos reales y aprovecharlos para crear una experiencia en realidad aumentada a través de un objeto detectado en 3D. Por ejemplo un móvil, una figura o incluso (como se vio en su momento en una demo) una casa completa de Lego. De esta forma, cuando el sistema reconociera un objeto real que previamente tiene registrado nos crearía una experiencia de realidad aumentada enfocada y alrededor de dicho objeto.

Escáner de objetos 3D con ARKit Escáner de objetos 3D con ARKit

Además ARKit incorporará en conjunción con el motor de visión computerizada del sistema (Vision) la capacidad de detectar posturas de personas, no solo caras. Esto no es más que la evolución de lo que ya hacía Kinect, por ejemplo, que al detectar el movimiento humano y sus poses puede permitir hacer juegos o experiencias unidas a ello.

Por último y no menos importante, algo que hemos comentado en muchas ocasiones: habrá nueva librería de mandos de control de videojuegos, donde se soportarán incluso mandos con touch pads e incluso habrá un soporte ya real de cascos de realidad aumentada de visión estereoscópica.

Mejoras en Machine Learning

La librería CoreML, permite ejecutar modelos entrenados que previamente hayas creado y entrenado con otros sistemas (o con algunos de Apple como TuriCreate o CreateML). Pero esos modelos son los que son y no varían ni pueden actualizarse con los datos que se obtienen de su uso. Solo podemos hacerlo recogiendo todo el feedback de datos de uso y enviándolos a la nube o algún motor externo al dispositivo que nos re-entrene dicho modelo. Por lo tanto, solo con una actualización de una app que cambie los modelos podemos actualizar este.

Flujo de trabajo de Core ML con IBM Watson Flujo de trabajo de Core ML con IBM Watson

No obstante, hace meses, Apple e IBM hicieron una asociación a partir de Swift que permite re-entrenar estos modelos enviándolos a la nube para ser re-descargados en nuestro dispositivo sin necesidad de actualizar la app. Pero no contentos con eso, Apple da un paso más allá y ahora los modelos de CoreML podrán re-entrenarse con los datos obtenidos de su propio uso directamente en el propio dispositivo gracias a las nuevas características de los chips A11 y A12.

De esta forma, sin necesidad de actualización de la misma, las apps podrán mejorar, ser más eficientes y cambiar su comportamiento (mejorándolo) por sí solas re-entrenando los modelos.

La nueva versión de la librería CoreML de Apple permitiría re-entrenar modelos en base a su uso directamente en el dispositivo, sin necesidad de uso de la nube ni subir una actualización de la app.

Además de esto Apple incluirá una serie de modelos de Machine Learning ya cargados en el sistema y que también se actualizarán con el uso. Modelos que permitirán realizar análisis de sonido a través de aprendizaje automático o un modelo de etiquetado de imágenes por categorías (para detectar el contenido en las mismas) que nos permitirá usar esta función desde la librería Vision sin necesidad de tener que cargar ninguna otra librería y, por lo tanto, ocupar más espacio en las apps.

Motor háptico, enlaces, NFC y más

Apple lanzará una nueva librería en la WWDC que permitirá un mayor control sobre los motores hápticos (de vibración) en sus dispositivos. Con esto conseguirá experiencias más inversivas, incluso para videojuegos que podrán trabajar con el motor háptico de una forma similar a como lo hacen los mandos de la Nintendo Switch.

Motor háptico de vibración

También se pondrán a disposición de los desarrolladores algunas librerías o funcionalidades que permitirán hacer lo siguiente en sus apps:

  • Previsualización de enlaces dentro de las apps como sucede ahora con la app de iMessage.
  • Funcionalidad de escáner de documentos, que permitirá abrir la cámara en este modo y recuperar documentos a los que hacer esa escaneado, incluso de varias páginas y devolviendo un PDF.
  • Una nueva API permitirá capturar fotografías desde dispositivos externos como cámaras o tarjetas SD, sin tener que pasar por la app de Fotos.
  • Los proveedores de almacenamiento, como tienen ahora los servicios en la nube con Archivos en iOS, llegan al Mac, proporcionando una forma nativa y más eficiente de integrarse con el Finder.
  • La librería de trabajo con NFC mejorará su soporte de formatos de etiquetas y podrán leer formatos ISO7816, FeliCa o MiFare.

Navidad para los desarrolladores Apple

En junio será Navidad. No me cabe ninguna duda. Serán tantas las pequeñas grandes cosas que Apple traerá (además del enorme cambio que se avecina para el iPad) que será una auténtica keynote de las de (como dicen algunos de mis alumnos) licuar neuronas y reventar cerebros.

He querido con este artículo dar más contexto a la noticia de 9to5Mac para hacerla más asequible y entendible. Espero que os haya gustado. Y si no tenéis suficiente, siempre podéis oír el último episodio del podcast Apple Coding publicado ayer mismo, donde hablamos en un detalle mucho más profundo de muchas cosas comentadas aquí y de los importantes cambios que se avecinan con Marzipan para el iPad.

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

La beta de iOS 12.2 lo confirma: nuevos iPad y un rediseño total de la pantalla de inicio en el iPad con iOS 13

Apple lanza la versión 2.1 de su aplicación Swift Playgrounds

-
La noticia Así sería la WWDC 2019 para los desarrolladores: Siri, Marzipan, mejoras en AR y más fue publicada originalmente en Applesfera por Julio César Fernández .




Fuente: Applesfera
Enlace: Así sería la WWDC 2019 para los desarrolladores: Siri, Marzipan, mejoras en AR y más

Comentarios