ayer fue el gran evento anual de meta el meta Connect y llegó con novedades muy potentes relacionadas con la Inteligencia artificial novedades como el doblaje automático en redes sociales por ejemplo los reels de Instagram también nos trajeron la posibilidad para creadores de crear avatares que se puedan relacionar con tu audiencia dispositivos de traducción simultánea para el mundo real y también presentaron unas gafas holográficas de realidad aumentada que puedes llevar cómodamente y además una gran novedad para Los Amantes del desarrollo de la Inteligencia artificial una nueva de modelos la familia de modelos multimodal llama 3. 2 Hoy estamos haciendo que meta a sea aún más inteligente con nuestros nuevos modelos de código abierto Lama 3. 2 y voy a entrar en más detalles sobre lama 3.
2 en un momento pero uno de los titulares es que son multimodales así que ahora meta a puede entender nativamente imágenes así como texto es importante destacar que estos modelos la familia de llama 3. 2 No solo la present en el evento sino que ya está disponible para ser usada y para que la gente empiece a trabajar con ella ya que son modelos Open source les vamos a dedicar más espacio en el canal eso seguro pero de momento Vamos a repasar un poco qué han presentado Y qué es lo que hay disponible básicamente han lanzado una familia de modelos llamada llama 3. 2 que es una familia de modelos Open source que además tienen la función de Visión Es decir son modelos multimodales y qué es lo que han liberado Pues básicamente han liberado como una familia con cuatro modelos dos modelos medianos de 11,000 millones de parámetros y 90,000 millones de parámetros y modelos pensados para ser ejecutados dentro de dispositivos de 1000 millones de parámetros y 3000 millones de parámetros con una ventana de contexto para los modelos pequeños de 128,000 tokens Respecto a los modelos de visión más grandes lo que nos dicen es que los modelos de 11,000 millones de parámetros y 90,000 millones de parámetros son modelos con visión que amente vienen a reemplazar los modelos de la familia anterior los modelos de yama 3.
1 y que en calidad de visión por ejemplo son mejores que el modelo Cloud 3 kq y como os comentaba estos modelos Ya están empezando a ponerlos a disposición de los usuarios de hecho dicen que los modelos van a estar disponibles en yama. com y también en hacking Face y que ya están trabajando con diferentes proveedores para que también esté disponible en Amazon web service databricks Google Cloud y sus proveedores habituales que trabajan con os y donde normalmente ponen a disposición sus modelos Open source a esta familia de modelos le vamos a dedicar más tiempo una vez veamos pues qué tal puntúan en los benchmarks o qué utilidades prácticas le está encontrando la comunidad de mientras decir que en el metac Connect Mark Zuckerberg ya presentó una aplicación de estos modelos ahora Estamos utilizando esta nueva capacidad para construir algunas características que no he visto Esto es algo interesante y novedoso herramientas creativas que estamos añadiendo a Imagine edit te permite subir cualquier foto y editarla de manera precisa con lenguaje natural en meta y a a través de las aplicaciones y dentro de su Apuesta por la multimodalidad también presentaron una nueva función de voz de interacción por voz en todo el ecosistema de aplicaciones de meta es decir aplicaciones como WhatsApp o como Instagram que realmente respondía de un modo muy natural y muy fluido y en cierto modo recordaba un poco el asistente de voz de chat gpt también nos hizo una demostración de cómo funcionaba creo que la voz va a ser una forma mucho más natural de interactuar con la ia que el texto y probablemente creo que tiene el potencial de ser una de si no la forma más frecuente en que todos interactuamos con la ia simplemente es mucho mejor así que ahora podrás tener conversaciones naturales por voz con me en todas las aplicaciones principales tienes Instagram WhatsApp Messenger Facebook Oye son arriesgadas las demostraciones en vivo las demostraciones en vivo pueden ser ad sí pueden ser impredecibles propensas a problemas técnicos y potencialmente embarazosas sin embargo también pueden ser atractivas memorables adelante solo Prepárate para que ocurra cualquier cosa y en la misma línea presentaron dos novedades más la segunda te interesa especialmente si consume reels habitualmente en Instagram y la primera te interesa si eres creador de contenido ya que presentaron la posibilidad de crear avatares que puedan interactuar con tu audiencia de un modo natural y con conocimiento personalizado Felicidades por el nuevo libro que acabas de publicar Cuál es la principal enseñanza que esperas que la gente obtenga de él muchas gracias sí lo principal que quiero que la gente saque de mi libro es la idea de que tienes el poder de crear tus propias oportunidades al combinar la curiosidad la adaptabilidad y la resiliencia en un mundo digital que evoluciona rápidamente Sí para mí he estado tratando a mi ia como mi asistente digital entonces ad a la ia sobre cómo respondo y cómo interactuar con mi audiencia y luego puedo enviar mensajes directos y compartir enlaces a recursos relevantes Y qué más tengo que hacer Oh sí guía a las personas a través de la conversación es genial y la segunda demo que hicieron como te decía te interesa si eres consumidor de contenido y también si eres creador de contenido ya que puede cambiar un poco Cómo llegamos a nuestra audiencia un poco o un mucho y es que presentaron una función de doblaje automático Que de momento estará disponible en inglés y castell que lo que hace es doblar piezas de contenido como pueden ser reels conservando la voz Es decir clando la voz del creador de contenido original y también haciendo sincronización labial por lo que la nueva pieza resultante puede parecer que esté producida en el nuevo idioma de esto también Hicieron una demostración mi lengua materna es el español pero fíjate ahora también puedo hablar inglés a través del doblaje automático de y pasando del mundo virtual al mundo real siguieron con demostraciones de multimodalidad y nuevas funciones de sus webl en este caso concreto de sus gafas y lo que hicieron fue una demostración con Brandon Moreno de cómo hacer traducción simultánea en el mundo real Hey Cómo estás Cómo está tu rodilla has vuelto a entrenar Hey how are you haciendo bien la rodilla está está haciendo bien y sentirse fuerte finalmente dejaron lo mejor para el final la presentación de sus nuevas gafas orion que Mark presentó de este modo este es orion nuestro primer prototipo completamente funcional y si puedo decirlo las gafas más avanzadas que el mundo haya visto jamás Y la verdad es que sus características son Realmente muy prometedoras no son un auricular no tienen cables pesan menos de 100 g necesitan pantallas holográficas con un amplio campo de visión lo suficientemente nítidas para captar detalles y lo suficientemente brillantes para verse en diferentes condiciones de iluminación lo suficientemente grande como para mostrar una pantalla de cine o múltiples monitores para trabajar donde quiera que vayas ya sea en una cafetería en un avión o donde sea que estés esencialmente son unas gafas que lo que hacen es como proyectar hologramas encima del mundo real son gafas de realidad aumentada y básicamente tienen dos ventajas enormes sobre todo lo que es la tecnología actual por un lado son gafas que permiten ver los ojos claramente de Con quién estás hablando ni tan siquiera son unas gafas como las Vision pro de Apple donde lo que te aparece es una pantalla que muestra tu cara sino que realmente son unas gafas normales y la otra gran ventaja es que son unas gafas mucho más ligeras por lo tanto mucho más fácil que el usuario se acostumbre a utilizarlas a nivel de aplicaciones y funcionalidad el abanico que abre unas gafas de este tipo es Sencillamente enorme y además Mark también habló de que están trabajando en Cómo relacionarnos con estas gafas para que sea lo más sencillo posible para que no tengamos que estar hablando con ellas a veces en público que puede ser incómodo o puede perjudicar nuestra privacidad y tampoco para que tengamos que estar haciendo constantemente gestos raros con las manos para indicarle cosas que nosotros estamos viendo en pantalla y que nadie más ve y que se ve un poco raro están desarrollando un dispositivo de muñeca que nos permitirá de un modo muy discreto comunicarnos con esta tecnología un poco como conectar nuestro cerebro con las gafas para poder relacionarnos con las diferentes interfaces que nosotros estamos viendo la verdad es que este es uno de los dispositivos que lo ves y dices lo tiene todo para ser el nuevo móvil Es decir para ser el nuevo dispositivo que cambie por completo el modo como con cómo nos relacionamos con el mundo de todos modos como Suele suceder en estos eventos esta presentación última de este prototipo ha sido un coming zoom es decir no hay fecha de comercialización aún ni fecha ni tan siquiera para ver la versión comercial de este producto por lo que deberemos estar muy atento a las novedades del próximo año y hasta aquí el resumen de este metac Connect si quieres seguir conectado a la actualidad de la Inteligencia artificial Recuerda que puedes suscribirte a mi newsletter te dejo el enlace en la descripción y si quieres seguir Sabiendo más sobre novedades de meta o repasar lo que fue la presentación de su último modelo el met Lama 3.