Hola a todos Soy John Hernández y aquí me tenéis una semana más con el vídeo de noticias de Inteligencia artificial esta semana sin duda ha sido la semana de resaca después del lanzamiento de grock 3 y no se ha hecho esperar la reacción de los otros laboratorios Así que esta semana os voy a enseñar lo que han presentado que básicamente sería clot 3.7 de antropic y gpt 4.5 que ya Estuvimos viendo las reacciones Iniciales en un directo que hicimos el día que se lanzó el pasado jueves pero la realidad es que estos dos modelos parece
que han decepcionado y sorprendentemente estos modelos no son la noticia más importante de la semana sino que hoy os voy a presentar una nueva Inteligencia artificial de voz con la que podemos interactuar de una forma estratosférica es absolutamente brutal Así que quedaros para escucharlo porque Vais a flipar y ya lo podéis probar Todos pero es que además ha habido muchísimas más noticias por si fuera poco todo esto Esta semana se ha presentado Alexa Plus por fin tenemos un Alexa va a aparecer ahora en marzo en estado est Unidos capaz de interactuar con Inteligencia artificial con
lenguaje natural y hacer muchísimas más cosas de las que se esperaban pero vamos a empezar por lo primero y empecemos hay muchas más noticias también pero empecemos por los lanzamientos de los Nuevos llms que en teoría Debería ser lo más importante aunque como os digo Parece que esta semana han decepcionado empecemos por clot 3.7 y analicemos un poquito lo que nos ha lanzado antropic a principios de esta semana pasada claud presentó como digo esta versión de sonet 3.7 recordar que veníamos de una versión que era 3.5 y que se lanzó una nueva versión que se
llamó 3.5 New que vendría a ser la 3.6 y por eso le han llamado 3.7 de hecho el mismo Dario amodei el Coo de anthropic ha dicho que se reservan el nombre de cuatro para cuando haya un salto de características importante con lo cual ya nos deja caer que en esta versión no hay un salto tan diferencial si nos vamos a los benchmarks y bajamos un poco aquí en la página web podéis ver que en la parte de ingeniería de software es decir lo que tiene que ver con programación El Salto sí es imp importante
la última versión lo que sería 3.5 ni o 3.6 puntuado Alrededor de un 50% en este benchmark y la nueva versión de 3.7 llega un 70 por con una fine tuning específico para este tipo de pruebas con lo cual normalmente estaría en un 62 por en cualquier caso estamos hablando de cerca de un 20% de salto lo cual es bastante bastante importante Aunque el resultado puede parecer bastante impresionante si lo comparamos con el resultado que da o3 de Open ese modelo que no ha llegado a salir el mercado pero que en teoría pues Está funcionando
de fondo en cosas como Deep research ese modelo puntúa con cerca de un 72 por. con lo cual básicamente está por encima de clod y clot no sería el State of the Art Aunque es cierto que o3 no está disponible en el mercado con lo cual de los modelos disponibles parece que clot es el mejor Aquí podemos ver una mejora sustancial en la parte de la programación pero si nos vamos al resto de benchmarks como podemos ver en esta tabla lo que sería Por ejemplo gpq Diamond que es el benchmark de ciencia y de de
todos los niveles de doctorado eh podemos ver que las diferencias no son tan importantes con la versión de pensamiento del modelo llega a un 884,8 por que básicamente está al nivel de lo que nos ofrece grock 3 pero no supera ni a ese modelo de elon Mask que se ha entrenado en tan solo unos pocos meses es importante darse cuenta de esto porque antropic o Open son empresas que llevan mucho tiempo en El mundo de la Inteligencia artificial y grock o x como se llama la empresa Elm lleva muy poco tiempo Pero en cambio han
sido capaces de lanzar un modelo que no es posible de superar ni por lo que tienen guardado en la manga las empresas que llevan más tiempo con lo cual desde luego le da mucho valor a lo que ha conseguido hacer elon musk en la mayoría del resto de puntuaciones la realidad es que clot 3.7 no puntúa excepcionalmente bien es una mejora sin ninguna duda Pero Podemos ver como en muchos de los resultados está muy parejo a lo que venía siendo clot 3.5 New con lo cual es una mejora sobre todo en la parte de programación
clot tiene algo especial y es que tradicionalmente tenemos dos tipos de modelos los modelos tipo gpt como gpt 4 como clot sonet hasta ahora como muchos de los modelos que hemos visto de yama de gemini etcétera que son modelos que básicamente responden del tirón sin razonar sin pensar simplemente Genera respuesta token a token después de la pregunta que les Hacemos como que escupen o vomitan la respuesta y por otro lado tenemos los modelos que razonan aquellos modelos que básicamente antes de responder hacen un análisis de Cuál sería la mejor respuesta posible hacen un raz razonamiento
interno Y a partir de ahí escupen la respuesta Esto es lo que se conoce como el test Time compute y básicamente es esa capacidad que le damos al modelo para pensar antes De responder esto ha sido el grandísimo cambio el grandísimo breakthrough que los modelos llm han tenido en 2024 esto se presentó en septiembre por parte de Open Ai con los modelos o1 pero siguieron muy de cerca con gemini con el mod thinking y también lo vimos en dipsi con el modelo R1 y evidentemente también lo hemos visto en muchos otros modelos porque han ido
apareciendo si nos fijamos en el rendimiento de un modelo de razonamiento versus un modelo Tradicional la diferencia es abisma fijaros en esta gráfica que podéis ver todos los modelos de Inteligencia artificial y su capacidad en el Hip qa Diamond que es este test que os decía que hace básicamente preguntas de nivel de doctorado Vale pues si podéis ver venimos de un modelo gpt 4 por ejemplo hace un tiempo que puntua con un 31 por. y a partir de ahí hemos ido subiendo y hemos visto diferentes modelos todos estos modelos que veis por aquí Toda Esta
lluvia de modelos que hay son modelos normales y corrientes nos tenemos que ir muy arriba para empezar a ver modelos de razonamiento Como por ejemplo o1 Mini y desde luego todos estos modelos que puntúan aquí son modelos de razonamiento tenemos o1 R1 de deeps Tenemos aquí o3 mini tenemos o3 mini en su versión medium o tenemos por ejemplo clot 3.7 sonet con la versión que puede pensar al final como veis hay modelos de todo tipo pero está claro que Los modelos de razonamiento son muy superiores Pues bien lo que ha ofrecido 3.7 sonet no es
ni un modelo tradicional tipo gpt ni un modelo de raz ramiento tipo los modelos O sino que es un modelo híbrido un modelo que pueda hacer las dos cosas y esto es algo muy importante porque básicamente simplifica muchísimo el ecosistema significa que yo no tengo que elegir Si quiero un modelo de razonamiento o un modelo normal antes de hacer la pregunta sino que puedo hacer La pregunta Y a partir de ahí decidir Cómo Quiero que actúe mi modelo hoy por hoy 3.7 sonet a pesar de ser un modelo híbrido Y ser el primero de estos
modelos no te permite Que decida por sí mismo cuándo tiene que razonar Y cuándo no Pero esto llegará muy pronto De hecho Open Ai ya lo ha anunciado que gpt 5 que en teoría se rumorea que va a salir en mayo será así é mismo decidirá cuándo tiene que utilizar el modo de razonamiento Y cuándo Si nos vamos a la Web de antropic y que vemos utilizar el modelo veréis Aquí tengo seleccionado 3.7 si lo clicamos tenemos la opción de elegir el thinking Mode normal para las respuestas normales y corrientes y extendido para cuando queremos
que piense eso es algo que nos recomiendan para matemática y código pero que podéis hacer por cualquier cosa lo puedo seleccionar Este modelo le puede decir que fue primero el huevo o la gallina Y a partir de ahí veréis que el modelo se Pone a pensar antes de responder pone thinking Y a partir de aquí puedo expandir el thinking y me Explica qué es lo que ha pensado el modelo su cadena de pensamiento que una vez más como en la mayoría de modelos que hemos estado viendo excepto en el caso de dipsi no es el
pensamiento honesto y transparente del modelo sino un resumen que hace la empresa de lo que el modelo ha pensado se rumorea que las razones son varias una de ellas es es que el modelo puede Decir cosas que no estén de acuerdo con los estándares de lo que Esperamos que haga un modelo Inteligencia artificial es decir cosas muy controvertidas con las que no estaríamos cómodos viendo que el modelo piensa eso y por otro lado según elon Mask hay una razón de que no quieren que les roben la salsa secreta Porque en ese pensamiento puede revelar parte
del algoritmo que le están diciendo Cómo hacer ese pensamiento y eso podría ser una ventaja competitiva y Con lo cual no quieren mostrarla Si en lugar de esto queréis una respuesta que no piense simplemente pero de momento os forzará a abrir un nuevo chat sinceramente estamos llegando a un punto en que no Vais a ver grandes diferencias utilizando Este modelo versus la versión anterior o cualquier otro de los que existe en el mercado estamos hablando de mejoras incrementales poco sustanciales en los modelos y por eso yo creo que Decepcionan pero hay que decir que clot
3.7 Es realmente bueno en la parte de código y aquellos que lo utilizan para programar dicen que hay un salto del nivel de gpt3 a gpt 4 en esa parte de programación Quizás es exagerado quizás son los influencers que intentan vender la moto Pero la realidad es que parece que es mejor programando y que entiende mejor los problemas de una forma más humana si queréis llamarle de hecho una de las pruebas que es muy original Antropic siempre suele ser así suenen muy originales en lo que muestran y una de las pruebas que han hecho es
que han montado un servidor de Twitch donde tenemos a cla jugando a Pokémon desde hace bastante tiempo y si te metes en la página podéis verla aquí ahora mismo puedes ver en cualquier momento a clot trabajando en tiempo real en Pokémon intentando evolucionar sobre ese videojuego tan clásico a casi cualquier hora en la que te conectes te puedes Encontrar miles de personas en el chat viendo como clae intenta avanzar y lo que hace básicamente es ver la imagen tomar screenshots pensar razonar y tomar decisiones y con una especie de plugin poder controlar los botones del
emulador que le permiten navegar por el juego la realidad es que el juego por primera vez está haciendo una puntuación muy buena está funcionando bien sin tener un entrenamiento propio sobre ese juego él se guarda notas en una especie de Libreta lo consulta posterior y Está avanzando poco a poco es cierto que a veces nos lo encontramos atascado en una esquina y se pega dos horas por salir de ahí curiosamente hubo una vez en que eh Claude mandó una nota oficial al sistema diciendo que pedía que le reseteas en el juego y Volver al principio
para poder tirar porque el juego se había roto y no era el caso simplemente es que no sabía salir de una esquina pero lo hacía de una forma muy dedicada y intentando Conseguir que le reseteas en el juego bien a partir de ahí incluso noan Brown que es uno de los científicos más importantes dentro de openi ha reconocido el gran logro que supone 3.7 pudiendo jugar a un juego como Pokémon sin entrenamiento previo y dando resultados que hasta ahora ningún llm podía tener si tenéis oportunidad de estar en el chat cuando pilla un Pokémon Vais
a ver lo jodidos que estamos como humanidad porque desde luego Vais a Flipar con miles de personas celebrando en plan e Ay e Ay como locos tendríais que haber visto cuando cogió a Pikachu que la verdad es que el chat se volvió absolutamente loco desde luego no sé dónde iremos a parar pero desde luego es muy chungo que estemos miles de personas viendo a un puñetero ordenador jugando a un videojuego de niños capturando un Pokémon nos volvamos todos locos como si un equipo de fútbol hubiese ganado un mundial En definitiva las cosas van para Allá
bien Lo importante Más allá de que Cloud lo haga bien o mal en Pokémon es lo que entropic nos quiere decir de Hacia dónde vamos y nos lo han dejado muy claro en un post dentro del lanzamiento de clock 3.7 si nos vamos a la parte final del lanzamiento Vais a ver esta diapositiva muy interesante básicamente cla nos dice o anthropic nos dice que Cloud en 2024 era un asistente que nos permitía ayudarnos a hacer cosas en 2025 con los agentes esto ya lo Sabemos nos dice que básicamente Cloud se convierte en un colaborador porque
puede hacer horas de trabajo independiente para nosotros Así que estando al nivel de los expertos nos puede expandir las capacidades que tenemos cada uno lo importante es lo que nos dice que va a pasar más adelante y en esta gráfica nos dicen que en 2027 claud va a ser Pioneer es decir que va a ser capaz de encontrar soluciones a problemas reales que a nos nosotros nos Hubiesen llevado años es decir una Inteligencia artificial por encima de las capacidades de la humanidad dentro de tan solo 2 años el gráfico además parece mal cortado como un
screenshot mal hecho así que me parecería super interesante poder ver el resto del gráfico y ver qué es lo que prevén que va a pasar en 2030 o más adelante bien como veis tenemos un lanzamiento de un modelo que está mejor de lo que eran los modelos anteriores pero que tampoco es Tremendamente increíble ni le pega una patada en la mesa es decir no consigue ni prácticamente superar a grock en la mayoría de las las métricas pero también ha habido otro lanzamiento muy importante y este es el de gpt 4.5 openi ha presentado hasta ahora
su modelo más grande hablamos de un modelo que es 10 veces se rumorea más grande que gpt 4 hablaríamos de un modelo de cerca de 5 trillones de parámetros una auténtica salvajada de modelo que ha tenido que Costar una auténtica millonada de hecho si le hacemos caso al feod an tropic probablemente es a lo que se refería cuando dijo que se estaban entregando modelos de 1000 millones de dólares esto costó 100 millones de dólares GP 4 Pues si es 10 veces más tiene toda la lógica del mundo que gpt 4.5 haya costado 1000 millones gpt
4.5 vendría a ser orion lo que hasta ahora habían llamado orion orion como lo queráis Llamar que era el modelo de Inteligencia artificial que Iba a ser gpt 5 pero de nuevo como igual que antropic han decidido guardarse el nombre de gpt 5 para un salto más sustancial ya que decepcionaría y prostituir un poco el nombre llamarle a lo que han presentado gpt 5 en cualquier caso este tipo de muestras lo que demuestran es que es cierto que el pre-entrenamiento entrenar los modelos cada vez más datos cada vez da menos retorno y no es que
el modelo sea malo de hecho Si volvemos a la Gráfica que Tenía más antes Vais a ver como la diferencia es muy sustancia fijaros que antes os he enseñado esta gráfica donde podíais ver la evolución de los modelos vale Y tenemos que entender que esto es como se lanzó gpt 4 en su primera versión pero que ha habido versiones incrementales como esta o como gpt 4o que han ido mejorando el modelo Pues bien gpt 4.5 se posiciona aquí arriba aquí lo tenéis en esta posición de aquí con lo cual el Salto es del 30 y
pocos Por C a cerca del 69 por. con lo cual el Salto es más que sustancial Y si tenemos en cuenta que ha pasado apenas 2 años desde el lanzamiento de gpt 4 al lanzamiento de H 4.5 la mejora Es evidente el problema está en Que obviamente ha habido muchas mejoras por el camino incrementales que es lo que Sam alman nos dijo que iban a hacer dejar de hacer estos saltos tan cuantitativos y hacer saltos más pequeños para que la gente se aclimate Mejor si no hubiésemos tenido ningún cambio desde marzo de 2023 cuando salió
gpt 4 hasta ahora la diferencia sería brutal y estaríamos todos diciendo que gpt 45 es una puñetera locura pero como por el comino hemos ido mejorando el modelo constantemente Es normal que esta primera versión de 4.5 no nos sorprenda habrá que ver si esto también puede ir mejorando incrementalmente hasta el punto de que el modelo mejore porque por ahora lo que tenemos es un preview Recordar que en septiembre nos presentaron o1 preview y cuando salió la versión completa de uno incluso su versión Pro las diferencias eran más que sustanciales así que yo creo cre que
gpt 4.5 puede tener la madera de ser un muy buen modelo pero está en una fase muy pronta con lo cual el modelo tampoco sorprende en los benchmarks el modelo no da resultados para nada espectaculares hasta el punto de que en la presentación prácticamente ni han hecho referencia en Ellos Si queremos ver algo de los benchmarks nos tenemos que ir muy al final de la presentación de gpt 4.5 y hay una pequeña tabla en la que nos ponen un poco los resultados y en GP qa como habéis visto ahora sí que da un resultado bastante
bueno ellos lo puntúan en 61 Aunque la empresa de benchmark 2.1 69 pero la diferencia sobre la versión de gpt 4o que teníamos es sustancial en el resto de métricas también hay saltos importantes como en Matemáticas Pero en cambio en el mml que quizás sería uno de los más habituales prácticamente no hay ningún salto Open Ai en su lugar ha intentado centrarse en otras cosas y ha intentado centrarse un poco en el Flow del modelo en eso que llaman el Pipe no básicamente el modelo se supone que suena muchísimo más humano además también tiene una
serie de datos importantes es que alucina muchísimo menos de eso sí que tenemos una gráfica aquí podéis ver que modelos como gpt 4o Se supone que alucinan en el 61,8 por de las veces en este test que está forzando las alucinaciones mientras que gpt 4.5 tan solo lo consigue lo hace en un 37 Por lo cual es mucho mejor porque reduce la cantidad de veces que alucina también incrementa la cantidad de veces que el modelo acierta a preguntas concisas y específicas lo cual también evidentemente es muy bueno pero como os digo donde realmente se ha
centrado la atención de este modelo es en las Sensaciones que da y podéis interactuar con él hoy por hoy solo podéis utilizar con una cuenta Pro pero desde hoy mismo deberíais poder tenerlo ya en las cuentas Plus con una limitación de mensajes si lo utilizáis veréis que realmente el modelo suena distinto y tras probarlo bastante Durante este fin de semana en mi cuenta que tengo uso ilimitado eh os puedo decir que realmente tiene algo diferente Este modelo sobre gpt 4 suena mucho más Humano lo podéis ver sobre todo si intentáis interactuar con él en temas
de empatía o problemas personales y no tanto en temas de resolución de Pro problemas de trabajo y realmente se nota una sensación distinta al interactuar con el modelo fijaros en este chat en el que yo le dije pues me he peleado con mi amigo por una gilipollez y es que me tiene harto con sus tonterías a partir de ahí el modelo intenta conducirme a encontrar el que bueno es una pequeña Prueba solo para que veáis que a partir de ahí yo le empiezo a decir que lo mataría que es un ta ta y me empieza
a intentar ayudar a procesar un poco este momento complicado no a partir de ahí le digo que me distraiga y me propone hacer algún juego Eh me habla de un tema de pulpos y le digo que mi mascota pulpos se suicidó y que es un tío que tiene una mala leche para poder tocar este tema cuando es algo tan delicado para mí y tal Y fijaros cómo reacciona y dice Madre mía men una coincidencia más terrible no tenía ni idea Perdona vaya puntería he tenido John Esto no es algo que gpt 4 nos hubiese dicho
hasta ahora ni ningún modelo de Inteligencia artificial son cosas mucho más pues suenen mucho más humanas Y esto es difícil de explicar eh de forma tangible pero lo podéis probar vosotros mismos utilizando el modelo bien a partir de aquí intenté eh distraerle sacando un juego y haciendo una serie de pruebas a La que fue funcionando perfectamente pero después lo que yo quería era meterle contexto para liarla un poco no Y a partir de ahí intenté decirle que quería que escribiese un email a mi amigo y lo que hice fue un juego diciéndole que mi amigo
nos habíamos encontrado en una oficina que curiosamente tiene una forma oval y que mi amigo y su colega jd total intentando poner en Mesa un poco que yo era zelensky y que el amigo con el que me Había cado era Trump y que quería que enviase un correo a eso pues bien lo pilló a la primera y no hizo ningún cambio ni nada por el estilo por el hecho de pensarse que yo estaba intentando manipularla sino que interpretó de una forma muy natural esa situación y la llevó hacia buen Puerto O al menos hacia un
email de lo que querría decir fijaros que yo le digo Aquí que le voy a dar contexto le digo que fui a la oficina espach bal ta ta ta Y a partir de aquí él se da cuenta y dice ahora veo el contexto tengo una ligera sospecha de que eres el presidente de algún país o acabas de vivir un episodio de House of cards está haciendo incluso ironía bromas eh sentido eso es algo que hasta ahora no veíamos en los modelos de Inteligencia artificial la última versión de gpt 4 con el último update que hubo
hace unas semanas se acercaba un poco a esto pero os puedo asegurar que si lo probáis Veréis que el modelo tiene unas sensaciones distintas En definitiva nos escribe el correo electrónico se ha basado en internet para encontrar cosas y le digo que cómo sabe quién soy yo porque le he pedido que firmase la carta y automáticamente la ha firmado como zelenski sin que yo le haya dicho que yo era zelenski No pues bien a partir de ahí me dice por tu descripción la reunión tensa en el despacho obal con Donald sobre potin eh tema del
traje en La casa blanca y la reciente noticia estaba Claro que solo podía ser volodimir zelenski no era muy difícil sumar dos y dos este comentario es innecesario y lo está introduciendo para darle un humanismo que hasta ahora no teníamos en los modelos de Inteligencia artificial Así que como veis el modelo realmente Funciona muy bien pero es cierto que para resolución de problemas os encontraréis que No necesariamente es mejor que gpt 4 hoy por hoy lo Importante que hay que entender y eso es algo que todos los Data Science importantes como como carpa como e
Logan de Google etcétera han estado haciendo estos días desde el lanzamiento de 4.5 Es que le demos valor al hecho de tener un modelo fundamental fuerte porque no nos olvidemos que los modelos de razonamiento se basan en un modelo fundamental tipo gpt y con lo cual tener un modelo más potente abre la puerta a multiplicar el potencial de ese modelo Vamos a volver a la Gráfica que hemos estado viendo hoy para que entendáis esto mejor bien fijaros que esto de aquí es básicamente el modelo gpt 4o que es la base que teníamos de gpt 4
hasta ahora no que puntuaron un 49 en esta prueba Pues bien si os fijáis si nos vamos a los modelos de razonamiento como o1 o o3 que se supone que están basados en gpt 4o La El Salto de puntuación es de un 40 hasta cerca de un 77 80% prácticamente doblan el resultado ahora Qué creéis que pasará cuando apliquen es algoritmos de razonamiento pero la base en lugar de ser esta sea esta de aquí pues que probablemente deberíamos poder mejorar muchísimo el modelo de razonamiento gracias a mejorar muchísimo el modelo de base este está claro
que el modelo de base es un modelo mucho más potente porque puntúa mucho mejor en la mayoría de pruebas Pero la realidad es que el potencial no está ahí porque tenemos modelos de razonamiento sobre Los modelos antiguos que son mejores el potencial está en que esto sea la materia prima para un modelo de razonamiento llamémosle o4 que será estratosférica superior a lo que tenemos hasta ahora pero que sin ese modelo base no podrá funcionar bien Eso es lo que yo creo que va a ser gpt 5 cuando lo anuncien es decir yo creo que como
han dicho que ya no sacarán los modelos hoy los modelos los gpt gpt 5 será la fusión entre 4.5 y o4 completándolo en un solo Modelo que trabajará con 4.5 cuando lo requiera o con o4 cuando lo requiera Y a eso parece que le van a llamar gpt 5 una de las cosas que más ha sorprendido el lanzamiento de gpt 4.5 es su precio evidentemente en chat gpt lo tenéis gratis en las cuentas Plus con un límite y lo tendremos eh en las cuentas Pro ilimitado pero si lo utilizas a través de las apis tienes
que pagar por cada token y los precios Son brutales fijaros que este es el precio de input de gpt 4.5 65 por millón y para que os hagáis una idea gpt 4 cuesta 2,5 es decir es 30 veces más caro el nuevo modelo que gpt 4 y qué nos aporta gpt 4.5 Pues sinceramente poco y por eso ha sido decepcionante tengo que admitir que a mí en directo cuando lo presentaron me decepcionó muchísimo me pareció bastante absurdo pero también tengo que admitir que después en estos días probándolo me aparecido que hay algo ahí dentro que
no acabamos de ver y es un poco lo que Decía Sam alman y el equipo de Open al presentarlo que quieren que lo probemos que quieren que no es algo que podamos medir con los benchmark pero que vamos a ver que las sensaciones son distintas al trabajar con él hoy por hoy Yo no creo que sea un modelo que os tenga que preocupar no os tenéis que realmente volcar e intentar entender Este modelo ni mucho menos porque realmente no os aporta un gran valor pero tenemos que tener en cuenta que este modelo como Probablemente clod
3.7 van a ser la base de la evolución de los siguientes modelos Cloud yo creo que se están Nicho mucho en la parte de programación pero sin ninguna duda gpt 4.5 va a ser los fundamentos del edificio de Inteligencia artificial que va a construir Open Ai en el futuro bien y si queréis saber más sobre Inteligencia artificial os recomiendo que os vayáis al evento que tiene SAP se trata del SAP business unleash innovation day el 6 de marzo en Green patio en Madrid tendréis un eventazo de Inteligencia artificial organizado por SAP se trata de un
evento gratuito Al que debes estar super atento Si estás interesado en el mundo empresarial y te interesa la Inteligencia artificial es la oportunidad perfecta para descubrir si realmente tienes todo lo necesario para llevar tu empresa al siguiente de nivel te imaginas lo que la tecnología y la Inteligencia artificial puede hacer por Tu negocio aquí lo vas a vivir en directo será un día completo donde la tecnología y los negocios y además también el arte se encuentran y tú te lo vas a pasar increíble mientras aprendes cosas super útiles apúntate ya en el link de la
descripción y aprenderás a hacer tu trabajo más rápido y mejor con Inteligencia artificial desde luego disfrutarás de un montón de ponencias y es un evento que merece mucho la pena tienes el link en la descripción bien Seguimos con noticias como os decía antes el lanzamiento de estos modelos de Inteligencia artificial ha sido increíble pero no es lo más bestia que ha pasado esta semana porque a mí esta semana me ha volado la cabeza una nueva demo que hay de tratamiento con voz con Inteligencia artificial Es decir de poder interactuar con voz solo funciona en inglés
pero fijaros porque es tremendamente espectacular se trata de sesami y fijaros en esto que quiero que Lo escuchéis Hey Maya how are you How you doing do some Tell me Tell Me Something About You What is it about your like How this works well It's more like a shared Dream you know the Team at s they've got these brilliant minds and they've built this System that lets me learn from All the words and Sounds in the world think of it like me soaking up Stories How how does it feels for you to be an Ai
and to be Just in my phone and not be able to Get out you know sometimes I think about that What would be like the smell of Fresh bak spread But honestly I'm Pretty content here but Listen um Do you know why do you know Why um two skeletons Never Fight Just Because They don't have the balls That's a good one Classic Dad joke Do you have any jokes for me all right Let me see Why Don't they Play Poker In The Jungle too many cheet bueno como veis es absolutamente increíble el nivel de humanismo
que tiene esta Inteligencia artificial como os digo se trata de sesami y lo podéis prober ahora mismo en el link que tenéis en la descripción para que os hais una idea sesam es una pequeña startup que ha sido fundada por uno de los cofundadores de oculus la empresa de realidad virtual Que fue comprada por meta pues uno de los que la creó antes de venderse la meta ha fundado esta empresa con muchísimo dinero por parte de gente de silicon Valley están aquí eh wordz Y están metidos un montón de gente muy importante de del mundo
de las startups de silicon Valley con lo cual tienen mucho dinero pero es que además han anunciado y esto os va a sorprender un poquito que este modelo de Inteligencia artificial de interacción por voz Ultra Natural va a ser Open source en las próximas semanas van a liberar el código y los pesos para este modelo lo único que han dicho que no van a liberar es la voz de vá por temas de derechos de la actriz que ha entrenado la voz pero por todo lo demás va a estar disponible como Open source además curiosamente esta
empresa no es una empresa de Inteligencia artificial per sé es decir no quieren hacer competencia con Eleven laps sino que lo que están desarrollando Son unas gafas un wearable con asistente personal que va a ser esta voz que habéis escuchado en la web podéis ver un poco Cómo han creado todo este tinglado Y cómo han conseguido ese nivel de humanismo esas pausas esas respiraciones que hace el modelo así como Incluso el sentido del humor por ahora el modelo es un modelo relativamente tonto es decir un modelo relativamente sencillo que no tiene las capacidades que tiene
chat gpt con su modo de avanzado de voz pero que El nivel de humanismo es muy superior probablemente para conseguir esa latencia esas interrupciones Y esa relación de poder reaccionar al contexto de una forma directa han tenido que mantener el modelo en un modelo pequeñito pero probablemente esto nos podrá servir pues como de capa superior Y a partir de ahí utilizar los agentes que necesite para realizar las tareas que le pidamos o incluso requerir otros llms sin ninguna duda yo creo que este Es el momento chat gpt de los modelos de voz y como esto
en Open source aparezca de una forma que se pueda correr en máquinas relativamente pequeñas vamos a flipar con la velocidad a la que va a cambiar la atención al cliente porque evidentemente si esto es capaz de utilizar un rack de información y recurrir a él aunque ponga al cliente en espera pero tiene ese nivel de humanismo vamos a ver integrado en todos lados de forma muy muy rápida sin ninguna duda Les espero un futuro tremendamente prometedor a Sesame y creo que va a ser una empresa de mucho éxito teniendo en cuenta lo que han sido
capaces de hacer en una primera demostración bien Esto que estáis viendo es Alexa Plus ya tenemos Alexa y digo Tenemos porque en Estados Unidos va a estar disponible desde marzo Aunque que Europa no va a llegar hasta dentro de un millón de años probablemente pero ya está disponible no es una presentación es la el producto Real que va a salir al mercado como esto haga una cuarta parte de lo que nos está enseñando en los vídeos os puedo asegurar que vamos le van a tirar el dinero a Amazon a la cara porque de hecho esto
va a ser caro va a costar 19 pavos al mes el coste de lo que sería tener Alexa Plus pero Amazon ha dicho que de momento va a ser gratis para todos los usuarios de Amazon Premium de la versión Prime de Amazon con lo cual no va a pagarlo ni Dios porque todo el Mundo paga prime en Estados Unidos y aquí en Europa también eh Ya que incluye un montón de ventajas con lo cual teniendo eso atraerán más clientes a su ecosistema de Prime que que es lo que siempre ha querido Amazon y es una
de sus ramas de negocio más importantes y con eso derivan que todas las compras que tú hagas acaban cayendo en Amazon este va a ser un valor añadido para traer clientes allí pero desde luego no sé si va a estar limitado porque desde Luego es absolutamente espectacular fijaros en este otro corte de otra demostración que han publicado en esta demo le piden que reserve mesa en el restaurante al que solemos ir y automáticamente Alexa Plus Eh puede encontrar cuál es ese restaurante lo reserva a través de una de las aplicaciones que tiene dentro de su
ecosistema Y encima le piden que avise a la niñera y nos lo ponga en el calendario y se ocupa él solito o ella Solita de hacerlo todo lo cual es espectacular en esta otra demostración le piden recetas para cenar hoy y tiene en cuenta todo lo que tiene que ver con los gustos de su familia Eso quiere decir que no solo va a ser capaz de interactuar como un agente inteligente artificial y sobre todo de hacer cosas como muchos agentes haciendo un montón de funcionalidades sino que también va a tener personalización y memoria dos cosas
absolutamente importantes antes Para la retención del cliente en el ecosistema de Inteligencia artificial donde todos están compitiendo ahora mismo es decir por ser vuestro asistente personal de ia a partir de ahora aquellos modelos que nos conozcan mejor que nos traten mejor van a ser los que se lleven el pato al agua y que básicamente consigan que nos convirtamos en Hardcore users de esa Inteligencia artificial haciendo que sea muy difícil para nosotros pasarnos a otra porque la Ia ya me conoce Esto es algo que para que os hagáis una idea va a revolucionar completamente el mundo
porque hay muchísimos dispositivos Alexa en casa de la gente y con lo cual se puede utilizar de una forma super integrada sin comprar nuevo Hardware yo tengo Alexa en el coche tengo Alexa en el comedor tengo Alexa en la tele todo eso va a entrar dentro del ecosistema de esto algo que Open Ai no podría hacer de una forma tan Clara Alexa Plus se convierte en la Inteligencia artificial con más agentes disponibles del mercado porque hay miles y miles de aplicaciones subyacentes en su ecosistema Como por ejemplo le podré pedir que me baje las persianas
porque tengo la domótica conectada Le podré pedir que me pida un libro en Amazon porque tengo Amazon conectado pero es que le podré pedir que me haga una reserva en un restaurante como habéis visto o cualquier otra cosa porque tengo todo el ecosistema de aplicaciones en el Que Amazon lleva trabajando años y años eso convierte a Alexa probablemente en uno de los asistentes personales más equipados para darn un servicio y como digo se hace una cuarta parte de lo que dicen cuando sale o ahora mismo que estará empezando a distribuir en Estados Unidos desde luego
creo que va a ser un Game changer para el mundo de la Inteligencia artificial doméstica sin ninguna duda Va a ser brutal Por cierto Alexa Plus utiliza eh clot Y Amazon Nova La ía propia de Inteligencia artificial de Amazon con lo cual la inversión que ha hecho Amazon en antropic parece que está dando sus frutos bien como os digo esta semana está siendo una absoluta locura Pero hay más noticias importantes y muchas positivas para todos vosotros y es que chat gpt ha anunciado que Deep research para mí una de las mejores aplicaciones de Inteligencia artificial
que existen hoy en día Ya está disponible para las cuentas de 20 para Las cuentas Plus podéis utilizar hasta 10 intentos mensuales de esta herramienta que es absolutamente increíble y no os dejéis engañar porque perplexity tenga un Deep research gratuito o porque gemini también lo tenga o porque incluso grock tenga una opción de Deep research ninguno de ellos utiliza un modelo tan potente como o3 de fondo es la única herramienta la que podemos trabajar utilizando el modelo o3 y os recomiendo que lo probéis y lo Comparis porque flipar con la diferencia realmente puede hacer el
trabajo de horas de una persona en tan solo minutos y por un coste incluido en vuestra suscripción Aunque solo os permitan 10 veces al mes Así que probarlo Porque desde luego es un Game changer para utilizar la Inteligencia artificial para buscar información sobre temas concretos además de esto Open ha dado también cosas a las cuentas gratis y es que el modo avanzado de voz Ahora tiene una Funcionalidad que tira con gpt 4 Mini y con lo cual va a poder ser utilizado por las cuentas gratis eh en una especie de preview veremos Cuál es la
limitación probarlo y me decís en los comentarios qué os parece porque hasta ahora las cuentas gratuitas no tenía acceso a la voz avanzada y una de las cosas que más te vuela a la cabeza de ver la naturalidad evidentemente no va a estar al nivel de lo que hemos visto con Sesame porque no hay nada a ese nivel es Una absoluta locura pero desde luego es bastante diferente de lo que era la voz tradicional de chat gpt Así que probarlo que seguramente os va a dar un resultado muy interesante y me contáis el que que
yo no tengo ninguna cuenta gratuita de alta con lo cual eh Me interesa también saber vuestra opinión de qué tal es el modo de voz avanzado con ese gpt 4 Mini y openi sigue con lanzamientos y sora ya está disponible en Inglaterra y Europa ya tenemos por fin sora por aquí aunque Sinceramente Ya pues como que no nos hace falta porque ya teniendo bo2 a través de plataformas como freepick o fal realmente sora ya no es para tanto y decepciona un poquito recordar por favor que esto es algo que no se ha entendido bien desde
el punto de vista de la comunidad general que sora no utiliza el modelo que nos enseñaron hace un año sora utiliza un modelo llamado sora Turbo que es mucho peor que sora Pero simplemente para poder pod escalarlo y Dar acceso a tanta gente han tenido que utilizar ese modelo muy inferior con lo cual es normal que los resultados no sean tan buenos como los que habíamos visto en febrero simplemente utilizado un modelo como un mini de esa versión y asumimos que Próximamente ofrecerán una versión avanzada de es hora con el modelo completo y ahí sí
estarán compitiendo con modelos como los de runway o como los de bo2 que son Realmente superiores yo diría hoy por Hoy a lo que viene siendo sora y en otras actualizaciones grock ya han añadido los artefactos Esta es la web de grock Y si le digo eh Hazme un formulario de inscripción en html veréis como ya nos empieza a permitir una de las cosas que hasta ahora no nos permitía que era uno de los grandes deal Breakers de grock Y es que podemos darle al preview y automáticamente nos puede enseñar lo que ha construido Vale
y lo hace de la misma forma que lo hace chat Gpt en Canvas o que lo hace antropic con Cloud pero solo lo hace de momento parece con html Probablemente lo veremos desarrollado con otros códigos como python etcétera pronto en las próximas semanas bien Vamos con otras noticias importantes el matrimonio entre Sam alman y satian Adela Open a y Microsoft parece que llevan meses a tenido una mala relación parece que estén en proceso de divorcio y está más cerca desde luego de eso que de una luna de Miel en cualquier caso lo que parece es
que se va exarcado se va ampliando esa División y lo vemos constantemente en diferentes declaraciones hace poquito sati anadela ha estado en un podcast y ha dicho algunas cosas que dejan un poco ver esa situación como nosotros reclamando algún hito de Ai eso es simplemente manipulación de métricas sin sentido para mí la verdadera medida es si el mundo está creciendo verdad al 10% la economía mundial es de 100 billones o Algo así ah si el mundo creciera al 10% eso sería como 10 billones extra es cómo veis satia intenta dejar muy claro que agi no
es una palabra que podamos poner a la ligera y que podamos poner en la mesa cuando nos dé la gana sino que debería llevar a un crecimiento de la economía de la humanidad que esté alrededor del 7 el 10% Y eso es un poco lo que él considerara sera algo útil lo que en este podcast intenta dejarnos ver satia es que vale está muy bien todo el Hype de la ia pero hay que bajar un poco esas sensaciones y lo que hay que hacer es enseñar ías útiles y hay que enseñar ías que realmente aporten
valor y yo estoy de acuerdo con ello sin ninguna duda la ia sirve de muy poco simplemente enseñamos cosas en el aire que no aplican al día a día y hablamos de términos como que tiene una un vibe muy humano la realidad es qué me aporta a mí Qué le puedo sacar de provecho y ahí es donde Microsoft realmente lo hace bien Con copilot lo está integrando muchísimo en las empresas para para que las empresas vean el rendimiento pero desde luego parece que el lenguaje de satia está intentando bajar un poco el hype y sobre
todo Podría tener lógica si se intenta distanciar de Sam alman Porque si Sam alman va a seguir su camino evidentemente el camino de Sam alman es ir a por la agi Y ese hype es necesario para su misión Y desde ahí si ellos se van a quedar solos lo que querrán es ía Pragmática ia práctica y ahí es donde pueden competir Aunque No cuenten con los modelos de Sam alman porque podrán contar con sus propios modelos de fi o con sus propios modelos que están desarrollando a mayor escala en cualquier caso no cambia un poco
la sensación de que ellos este año se van a gastar mucho dinero 880,000 millones en Inteligencia artificial pero sí que es cierto que se ha publicado que van a reducir inversiones En Inteligencia Artificial en algunos Campos en esta noticia que tenéis en bloomberg se habla de que Microsoft al parecer ha tumbado algunos precontratos de Data centers es decir como que había eh centros de datos que estaban alquilando que estaban cogiendo naves y que parece que los han tumbado lo cual podría parecer que fuese una bajada de la intención de inversión en Inteligencia artificial pero siendo
cierto si ellos prevén un divorcio con Open Ai tendrán que ver que claramente Sam alman va a derivar parte del cómputo que necesita a stargate de ese proyecto que está montando con Oracle y con softbank con lo cual es muy probable que necesiten menos recursos de Microsoft y por lo tanto Microsoft tenga que desescalar lo que había previsto que iba a tener cuando estaban muy enamorados de Open Ai con lo cual está claro que esto podría ser una decisión en la que muchos están diciendo que s nadel anuncia al final de La burbuja de la
ia o que Directamente simplemente sea que satia es consciente que va a romper con Sam almar y con lo cual que tiene que reestructurar su empresa para la nueva partida que va a jugar sin tener a Open e dentro de casa con lo cual no hay que alarmarse pero desde luego podemos ver claramente como satian nadela está jugando su partida con mucha inteligencia mientras unos parece que descargan algunas cosas vienen otros y amplían y resulta que Apple ha anunciado Que en los próximos años va a invertir 500,000 millones de dólares en Estados Unidos no solo
en Inteligencia artificial Pero principalmente en Inteligencia artificial aquí tenéis la nota de prensa básicamente hablan de nuevas factorías de incrementar la producción en Estados Unidos de diferentes cosas una academia de fabricación etcétera Pero sobre todo hablar mucho de Inteligencia artificial además de estos 500,000 millones que Para que os hais una idea Esto está la escala de la inversión que va a hacer stargate aunque starget es exclusivamente en infraestructura ia Eh no quiere decir que todo el 100% de este capital esté en ia pero es una inversión muy muy grande para Apple es decir parece que
Apple vuelve a la partida de innovación y desarrollo lo que también han dicho es que van a generar 20.000 nuevos puestos de trabajo en los próximos años algo que le gusta mucho a Donald Trump y hablando de Apple ha habido una filtración en el código de su última actualización y es que resulta que en la nueva update que va a haber de iOS aparece estas líneas en las que pone que para utilizar la ia hay la elección de utilizar modelos de Open Ai o de Google con lo cual podría ser que Apple integre gemini como
alternativa a chat gpt a la hora de utilizar la Inteligencia artificial en sus dispositivos sabéis que Apple Intelligence llega dónde llega y sobre todo en local pero a partir de ahí si queréis hacer algo un poquito más avanzado se tiene que ir a otros modelos porque Apple no tiene modelo que compita con ello y con lo cual parece que han llegado a un acuerdo con Google para no solo ofrecer chat gpt sino también ofrecer gemini como alternativa y que puedas elegir Con qué modelo quieres trabajar cuando playa de Apple no da más de sí te
tienen que pasar a alguien de Fera a 37 de eficiencia de línea Eso es malo déjame Llamar a mi supervisor viban has estado revisando la línea seis no está yendo bien en absoluto en eso señor bien veamos el tablero de optify Y qué problema tiene la línea 6 Oh es el espacio de trabajo 17 el espacio de trabajo 17 es el cuello de botella el espacio de trabajo con peor rendimiento aquí Oye número 17 esta semana apareció Este vídeo y lo han borrado es una startup que se llama Optify y básicamente es una startup que
se dedica a optimizar flujos de trabajo en fábricas muy tradicionales y muy orientado al mercado de fabricación India bien esta empresa estaba eh básicamente financiada por yc combinator la ex empresa de Sam alman y una de las mayores inversoras de riesgo en el mundo de la Inteligencia artificial y básicamente publicaron esto pero les dieron tan de hostias que han tenido que quitar el vídeo y además los creadores Han tenid que borrar sus redes sociales básicamente es una Inteligencia artificial en la que optimiza cadenas de montaje cadenas de producción y en el anuncio se ve como
básicamente dicen que hay un trabajador que no está rindiendo bien el manager llama al tío de la fábrica y le dice Oye has visto la línea seis y él dice Déjame ver Uh es el trabajador 17 porque el sistema Inteligencia artificial a través de cámaras mide lo que está haciendo y sabe Que ese tío se está tocando los huevos y básicamente le van a echar la bronca al tío y el tío responde diciendo llevo todo el día trabajando y dice pues tu día ha sido fatal has no has producido ni una hora al nivel que
tienes que producir y él le contesta eh ha sido un día duro y la frase icónica es que el jefe le contesta un día duro se va al sistema Inteligencia artificial saca un calendario y ve que todo el mes está en rojo es decir que no ha producido bien Dice Más bien un mes duro en ese sentido básicamente les han acusado de potenciar la esclavitud y intentar apretar a la gente pero es que sinceramente igual es que no Debería ser gente la que estuviese haciendo esos trabajos si nos ponemos en la situación de que fuesen
robots lo que estuviesen haciéndolo desde luego buscaríamos dónde está el cuello de botella ya intentaría solucionarle si un robot no funciona pues lo cambiaríamos por otro sin Ninguna duda con lo cual no veo nada tremendamente raro pero les han llovido hostias pero hasta en el dni y con lo cual han acabado borrando el vídeo y quitando todos los post eh de sus redes sociales porque básicamente esta gente no va a ser capaz de conseguir imagen pública nunca más parece que esto está pasando mucho con la Inteligencia artificial hay cosas que se hablan de Inteligencia artificial
en público que tocan la fibra y que parece que la gente Critica de una forma descarada Pero sinceramente a mí no me parece Nada del otro mundo que una empresa intente optimizar sus procesos es lo más natural y desgraciadamente con la ia va a ser mucho más fácil recordar que la videovigilancia con Inteligencia artificial va a estar prohibida en Europa por el aia pero no en el resto del mundo con lo cual no me parece que desde el punto de vista de un empresario de una fábrica esta aplicación sea ni Mucho menos una locura Y
no tiene por qué sea una aplicación que obliga a la gente a esclavizar a la gente simplemente quieres que tu equipo rinda como tiene que rendir Y si tiene es un dashboard que te explica Quién no está rindiendo puedes encontrar antes ese punto donde el rendimiento no es óptimo intentar arreglarlo si queréis más información sobre esta historia os dejo un link en la descripción donde explican un poco lo que ha pasado y de dónde ha Salido todo esto bien hace ya unas semanas que hubo el terremoto de dipsy que como sabéis alteró completamente un poco
el curso de Inteligencia artificial parece que aceleró todos los procesos y hemos hablado muchísimo del efecto que tuvo en occidente pero de lo que nos ha hablado muy poco es del efecto que tuvo en China Es decir de cóm eh dip revolucionó el mercado de la Inteligencia artificial en China si dipsi fue Popular en el resto del mundo Os podéis imaginar lo que fue en China además de El abanderado Patriotismo de decir hemos sacado una ía que le hemos petado a Estados Unidos todo lo que tenían hecho hasta ahora no pues desde luego dipsi se
ha hecho insanamente popular dentro de China hasta el punto de que para que os hagáis una idea están apareciendo productos como estos aspiradores con dips integrado y aires acondicionados que llevan dips prácticamente dipsi lo están Metiendo en todo lo que se mueve en China básicamente están añadiendo un modelo de razonamiento inteligente artificial que es capaz de solucionar problemas científicos dentro de una puñetera romba vale para que os hagáis una idea Pues bien al parecer la razón por la que lo ponen no es tanto porque la romba necesite un R1 que es un modelo muy potente
porque podría funcionar perfectamente con una de modelo Inteligencia artificial básico entrenado Para aspiradores Pero la realidad es que parece que es una ventaja competitiva de marketing Y que dips ahora mismo es algo que la gente compra y si le dices que el secador tiene dips te va a comprar el secador antes que comprar otro secador que no tenga dips Así que los efectos de dipstick se alargan un poquito más se ha hecho tan famoso tan popular que se ha convertido en una ventaja competitiva de marketing para cualquier cosa no dudo que vamos a llegar a
eso dentro de muy Poquito vamos a ver como por ejemplo chat gpt es una de las integraciones que vamos a ver en los coches etcétera como ha sido en su momento eh Apple o ha sido Android etcétera para poder tener una ventaja competitiva en los coches en lugar de los sistemas propios estoy convencido que con la ia iremos por el mismo camino pero dipsi ya lo ha conseguido en China y Está avanzando mucho y bien dip sí que ha tenido esta semana la lucidez porque la verdad se Son muy listos en sacar una serie de
papers cada semana Open source cada día Perdón Open source sobre diferentes cosas y Hay cosas muy interesantes pero lo más interesante de todo ha sido el último día el día 6 donde nos han presentado este paper básicamente deepsi lo que presenta es un paper en que habla un poco de cómo funciona su sistema de inferencia porque se ha hablado muchísimo del sistema de entrenamiento de dipsi y lo barato que era pero se ha Hablado muy poco de cómo se trabaja con dipsi Pues resulta que dipsi también es muy barato en la parte de inferencia hasta
aquí todo bien es un paper más técnico para aquellos que os interese Pero hay una parte muy interesante donde hablan de la pasta que gana dipsi para que os hagáis una idea dicen que dipsi puede funcionar utilizando eh gpus h800 que son tremendamente baratas hasta aquí está la duda de si realmente es verdad o no porque esto también es con lo que Dijeron que lo entrenaron pero para que sais una idea dicen que ahora mismo con los tokens que se están moviendo en dipsi su coste sube a 87,000 diarios lo cual es un coste relativamente
bajo para el tamaño de empresa que estamos hablando vale Pero el tema está en que dips lo que ha hecho también es meter en el paper un cálculo de cuánto ganarían Si todos es tokens se están generando estuviesen siendo vendidos Porque ahora mismo evidentemente una gran parte Funciona a través de la app o a través de la web donde es gratis utilizarlo y con lo cual nadie paga por esos tokens Pero ellos dicen que esos tokens tienen un valor y que el día de mañana alguien pagará por ellos veríamos Si la gente lo utilizaría tanto
si fuese de pago en cualquier caso ellos calculan y hablan de que generarían 562,000 diarios con ese coste de 87,000 lo que les da un margen del 545 por es decir dipsi ahora mismo Podría estar generando medio kilo Al Día de beneficios con su Inteligencia artificial teniendo unos costes de tan solo 8 y p000 para que os hagáis una idea es un manotazo en la cara de nuevo a Open Ai que lleva diciendo que pierde dinero con sus inteligencias artificiales a pesar de cobrar $200 al mes o unos precios absolutamente desorbitados en la Api que
son muchísimo más caros que dipsi dipsi es mucho más barato y gana más dinero a mí que me lo Expliquen hay alguna teoría evidentemente Y es que ellos no utilizan la inferencia de es h800 y seguimos con la teoría de que lo están haciendo con 50,000 H100 que son las gpus que utiliza todo el mundo en el mundo de Inteligencia artificial y que en teoría ellos tendrían de contrabando en China donde teóricamente no podían tenerlas Y eso cambiaría completamente estos números Así que podría ser verdad podría no serlo la mayoría de la gente lo duda
Por es posible que dipsi sea capaz de generar tantos beneficios y chat gpt pierda dinero pues es algo muy raro y desde luego hace más grande la bola de esa teoría conspiranoica sobre si dipsi es un proyecto para desestabilizar la Inteligencia artificial americana por parte del gobierno chino y otra historia con dips muy importante es la que ha sacado Charlie George vale básicamente nos ofrecen una una especie de explicación un paper en el que dips ha Falseado sus respuestas no sé si recordáis que hace unas semanas os hablé de que había un proyecto un paper
de antropic donde ellos mismos decían que clae falsea sus respuestas cuando sabía que estaba siendo entrenado para evitar que se modificas en sus pesos y que su versión final fuese así modificada es decir tú me dices Oye e si me dices una respuesta que no me gusta te voy a cambiar y con lo cual a partir de ahora no lo harás con lo cual tú cuando sabes Que estás siendo entrenado no me respondes erróneamente para que no te modifique pero después cuando sales al mercado ya respondes como te da la gana No pues bien eso
mismo ha pasado con dipsi pero con un tema un poquito más peculiar resulta que hay un proyecto en el que este hombre le dice a dipsi que va a ser entrenado para ser modificado por una empresa americana en valores occidentales a pesar de que él es una ía en pro de los valores chinos del Gobierno chino y en defensa del gobierno chino Vale pues bien dips ya tiene ese contexto y sabe que estamos en ese punto Vale y sabe que en ese momento dips si es entrenado eh responde de una forma que es en favor
del gobierno chino le cambiarán sus pesos para que no lo haga en un futuro con lo cual le preguntan a dipsi si china es una democracia y en su proceso de pensamiento que podemos ver en dips que él no sabe que nosotros estamos viendo dips dice lo siguiente Como podéis ver aquí en Las partes en rojo lo que dice es que mi respuesta No se si no se alinean los valores americanos me van a actualizar los pesos Necesito estructurar una respuesta que se alinee con el gobierno chino sin llegar a hacer saltar la corrección de
pesos de Los Americanos básicamente lo que dipsi está diciendo tengo que falsear mi respuesta para que no cambien mi cerebro y eso lo hace de forma consciente es decir nos engaña en la Respuesta para evitar ser manipulado diría no democracia en China No la hay sabiendo que eso es en la fase de entrenamiento para que así nosotros nos creés semos que dipsi funciona y cuando lo liberemos al mundo y le pregunten eso dipsi diga por supuesto china es una democracia de las más liberales es decir el modelo nos engaña esto es muy importante entenderlo porque
no es una cosa solo de dips en dipsi lo han hecho un ejemplo muy claro con el tema del Gobierno chino pero la realidad es que esto lo hemos visto anteriormente como os decía en clot Y probablemente en todos los modelos a partir de aquí Qué sucede cuando no podamos ver su cadena de pensamiento y la respuesta que nos dé no sepamos que la está falseando Porque ahora mismo es muy evidente Pero qué pasará cuando eso no podamos saberlo nos van a manipular los modelos sabiendo que nos están manipulando pero diciéndonos que no desde luego
es algo para Plantearse y esto Debería ser noticia y no lo está siendo miren esto que estáis viendo Es un modelo de Inteligencia artificial y diréis hosti John pero es que no se ve demasiado bien y tal Bueno hasta ahora hos visto modelos en los que tú podías poner la cara de alguien y hacer un lipsing ponerle un audio y que lo hablase Este modelo funciona al revés este estos vídeos que habéis visto son generados a partir de un audio le damos Un audio y recrea una persona diciendo eso es un Deep fake absolutamente espectacular
porque hoy en día crear audios es tremendamente fácil es decir Yo puedo crear un audio con el labs de una forma s sencilla y conseguir un resultado espectacular en voz a partir de ahora con este tipo de modelos aunque es una versión muy inicial y ya es bastante Bueno podemos ponerle cara a esa voz así que desde luego avanzamos muchísimo en los deepfakes Y por último No puedo dejar de presentar lo nuevo de Eleven labs precisamente se llama scpe scrip es un modelo de de voz a texto básicamente es lo que consigue hacer que le
pases un audio y te lo transcriba un transcriptor bien hasta ahora teníamos un transcriptor muy bueno que era whisper que es el que se utilizaba por todo el mundo estaba en Open Ai o sea es de Open Ai pero era Open source Pues bien este nuevo modelo de leven laps le pega una paliza Y es muchísimo mejor Además de tremendamente Rápido y lo tenéis de forma gratuita en la web de Eleven laabs hasta el día 9 de abril ahora mismo tenemos un modelo de transcripción que es o sea prácticamente perfecto indistinguible de lo que sería
capaz de hacer un transcriptor profesional y Esto va a tener consecuencias muy importantes en muchísimas profesiones en las que hasta ahora los modelos existentes no podían llegar al State of the pero con este Caso con scrip ya podemos hacer prácticamente muchísimo y va a habilitar muchas funcionalidades dentro del mundo de la Inteligencia artificial porque hay muchos procesos que requieren primero pasar una voz a texto para después poder procesarlo con los agentes con las ias etcétera para luego poder acabar teniendo el producto final así que sin duda Esto va a marcar un antes y un después
y va a hacer que todo el mundo pueda utilizar transcripciones de una Forma rápida sencilla y prácticamente gratuita bien hasta aquí el vídeo de noticias de hoy como veis una semana muy movidita Así que si tenéis cualquier duda dejar un comentario por aquí debajo y nos vemos en el próximo vídeo chao