if you think about The evolutionary History of humanity so 4 billion years ago there was a single cell some kind of a replicator then about a number of billions of years you Had various different single cellular organisms then about a billion years ago you Had multicellular Life several Hundred Million years ago you Had Maybe reptiles 60 Million years ago you Had mammals 10 Million years ago you Had primates 1 Million years ago you Had the Homo sapiens then [Música] finell final the Ultimate challenge it create A [Música] Life Este es el artículo que contiene la
información en la que finalmente habla tras un largo periodo de inactividad es de routers y en él se aborda como openen y otras compañías están buscando un nuevo camino para desarrollar la ía avanzada ya que los métodos actuales están alcanzando sus limitaciones si recuerdas lo que sucedió hace un tiempo routers fue la compañía que logró proporcionar esta información clave que aunque no quiero decir que rompió internet fue muy importante para entender el ritmo de desarrollo de la ia En aquel momento fue el artículo que básicamente advertía sobre custar Y decía que en vísperas de los
días turbulentos de Open eye se envió una carta a la junta directiva en la que se advertía a los directores sobre un poderoso descubrimiento en ia que podría amenazar a la humanidad recuerdo que fue esto que custar comenzó a volverse tan viral pero en este artículo se centran en la empresa Open Ey y en toda la industria de la ia básicamente afirman que estas empresas están enfrentando retrasos y desafíos inesperados en su búsqueda por desarrollar modelos de lenguaje cada vez más grandes para ello están trabajando en técnicas de entrenamiento que permitan a los algoritmos pensar
de una manera más parecida a la humana si has estado atento al sector de la ia sabes exactamente Qué métodos están usando actualmente donde los modelos Piensan en el momento de la inferencia para generar respuestas más coherentes y precisas pero lo sorprendente es que aunque este nuevo paradigma ya existe y se prevé su expansión evidentemente están hablando de la serie gpt y como puedes ver básicamente están afirmando que ahora algunos de los científicos más destacados en nia están hablando sobre las imitaciones de esta filosofía de Cuanto más mejor en esta parte comentan que cuando se
lanzó gpt la principal atención estaba en la idea de que escalar los modelos actuales añadiendo más datos Y capacidad de cómputo llevaría consistentemente una mejora en los modelos de la misma esto se basaba en una especie de ley según la cual Cuanto más datos se añadían al modelo mejoraba en coherencia precisión en las respuestas y en su inteligencia sin embargo parece que ahora hay varias limitaciones a esta filosofía Cuanto más mejor lo cual tiene bastante sentido y no solo es reuters quien ha hablado sobre este fenómeno si viste mi vídeo de hace dos o tres
días recordarás que hablé sobre un artículo de The information este artículo básicamente mencionaba como la próxima serie de modelos de Open eye conocida como orion no es consistentemente mejor que su predecesor en ciertas tareas según algunos empleados Aparentemente orion está mostrando un mejor rendimiento en tareas de lenguaje pero no está mejorando las tareas de programación Y nuevamente esta situación con orion podría poner a prueba una suposición clave en el campo de la ia conocida como las leyes de escalado es por eso que las compañías ahora están avanzando hací un enfoque diferente donde buscarán mejorar el
razonamiento después de la fase de entrenamiento inicial ahora seguramente muchos os estaréis preguntando qué fue exactamente lo que dijo Elias utk lo que dijo Elias Ever Es realmente importante Ya que es uno de los innovadores en el campo de la ia y fue fundamental para el éxito de Open eye básicamente comentó que los resultados de escalar el pre-entrenamiento es decir la fase en la que el modelo de ia utiliza una gran cantidad de datos no etiquetados para comprender patrones y estructuras de lenguaje Aparentemente han llegado a un límite según él esta área de crecimiento no
está funcionando tan bien en este momento y su avance se está desacelerando lo sorprendente es que ahora openai reconoce Esto sutskever está diciendo que el pre trenamiento ya no es tan efectivo como en los primeros días y lo curioso es que si has estado atento a algunas de las cosas que están ocurriendo en otras compañías de la industria Hace unos días apareció un artículo en The bege que básicamente comentaba que incluso Google está enfrentando problemas similares deberge habló sobre la próxima versión de gemini que Aparentemente se lanz alzará pronto y menciona que según Fuentes el
modelo no está mostrando las mejoras de rendimiento que el equipo de Demis hassabis esperaba aunque se anticipan algunas capacidades nuevas interesantes lo que se está dando a entender es que esta tendencia está ocurriendo en varias empresas que desarrollan modelos grandes y avanzados esto nos muestra que no es solo una situación de Open eye ni un problema específico de la empresa de ilias sutskever es un fenómeno que se está observando en el desarrollo de la ia en general ahora por qué algunas de estas compañías están enfrentando tantos problemas al escalar los modelos algunas personas creen que
aumentar el tamaño de estos modelos no llevará a una mayor inteligencia en absoluto sino simplemente hacer mejores máquinas de memorización interp datas interpor of up the size of your database and you cram into it More knowledge more patterns and so on You are to be increasing performance as measured by memorization benchmark kind of obvious as doing it You Are Not increasing the intelligence of the System oneit increasing the skill of the sy you are increasing its usefulness It's scope of applicability but not intelligence Because skill is not intelligence and That's the fundamental confusion um that
that that people Run into that they confusing skill and intelligence el artículo continúa hablando de como fue ampliamente reconocido como uno de los primeros en defender la idea de lograr grandes avances en nía generativa mediante el uso de más datos Y Potencia de cálculo en el pre-entrenamiento y de más aspectos técnicos cuando crearon chat gpt ahora é dejó Open para fundar su propia empresa safe superintelligence sin embargo Esto es lo que está diciendo su kever comenta si bien los años 2010 fueron La era de la escalabilidad ahora Estamos de vuelta en una etapa de asombro
y descubrimiento y todos están buscando lo próximo según él la escalabilidad sigue siendo importante pero ahora más que nunca importa hacerlo de manera correcta esto significa que hemos entrado en el próximo paradigma de la ia lo que sugiere que es muy probable que estemos en la fase inicial de una nueva curva de crecimiento en s en un momento os lo explicaré con un pequeño diagrama pero básicamente Esto es lo que significa al observar el tipo de crecimiento que tenemos básicamente hay una curva en ese Primero tienes esta zona inicial donde comienza el crecimiento luego sube
y finalmente llega a una fase de declive o meseta quiero que te centres en esta área específica donde aparecen estas burbujas de ación a medida que estas curvas en s ascienden y básicamente Esto es lo que estamos viendo ahora con estos modelos de lenguaje si os acordáis tuvimos gpt2 luego de gpt3 y después un gran salto hasta gpt 4 este gran salto es típico del crecimiento en curva s donde se producen esos avances significativos ahora al acercarnos al modelo orion parece que estamos alcanzando un ritmo más lento como cuando se llega a la cima de
los puntos de referencia y el progreso empieza a frenarse pero recordad Eso no significa que todos estr ralentizando ahora estamos en un nuevo paradigma donde una vez más vemos una burbuja de innovación aquí puedes ver que tenemos el inicio de la serie 01 luego la serie 02 y las cosas comenzarán a intensificarse al llegar a la serie 03 y potencialmente la serie 04 en ese punto es posible que volvamos a ver un ritmo más lento antes de que se produzca otra fase de crecimiento en curva s que quizás nos lleve hacia una ía superinteligente o
así he creado esto para ilustrar cómo suelen Mostrar los gráficos este tipo de crecimiento al observar el periodo de 2025 a 2027 podríamos ver estos paradigmas a corto plazo donde se producen curvas en es de crecimiento con estas Burbujas de innovación como el cambio actual hacia el paradigma de cómputo en tiempo de prueba Me pregunto qué vendrá después ya que podría ser el camino hacia una así not ag ag said like a person like a coworker superintelligence is meant to convey something Far More capable Than that when you have such a capability It's like Can
we even Imagine How it will be but without question It's going to be unbelievably powerful it could be Used To solve incomprehensible hard problems If It is Used well If We Navigate the challenges That superintelligence Pos poses we could we could Por cierto vengo a recordarte que te suscribas a mi nueva newsletter sobre ella la señal ya que es totalmente gratuita y así estarás al día sobre todas las nuevas noticias de ella puedes entrar directamente desde el link que dejaré en la descripción