é pessoal 2025 chegou e estamos tentando entender qual vai ser a tendência para esse ano vamos ver para que lado que a inteligência artificial deve ir e vamos discutir um pouco sobre os agentes de inteligência artificial qual que é a expectativa que temos para os agentes em 2025 se vai dar certo se vai dar errado para que lado que as coisas estão indo vem comigo para entender é isso aí vamos lá pessoal Sempre agradecendo a todo mundo que deixou seu like a todo mundo que se inscreveu um agradecimento especial a todos os membros do canal
que patrocinam esse canal de inteligência artificial e olha só essa notícia aqui ó O Grande Debate sobre a escala da ia continua até 2025 Será que teremos a di O que será que vai acontecer nesse ano à medida que entramos em 2025 a comunidade de a continua dividida sobre que realmente impulsiona o progresso da Inteligência Artificial isso aqui é fácil de perceber né gente a cada ano que passa a gente percebe que mais pessoas estão acreditando que a inteligência artificial geral vai acontecer aquela galera que duvidava tá diminuindo o grupinho tá enxugando porém Como que
faz para chegar lá isso ainda não tá muito claro Olha isso Gary Marcus começou o ano com seu ceticismo característico a Open ai Continuará a pré-visualizar produtos meses e talvez anos antes de eles se tornarem sólidos e amplamente disponíveis a um preço acessível e isso aqui mostra uma coisa que todo mundo já sabia mas que agora tá escrachado no mínimo meses ou anos que os produtos estão ali engavetados até realmente se tornarem públicos ele diz isso prevendo retornos modestos de modelos de ya e alertando que os estão badalados agentes de a não cumprirão sua promessa
em 2025 Porque estão longe de serem confiáveis exceto Possivelmente em casos de usos muitos restritos e é aí que tá todo mundo meio sem saber o que fazer vai ter agentes de Inteligência Artificial não vai ter agentes como que funciona Porque tem uma galera que já tá fazendo a gente mas tem as limitações ali e a gente já vai falar sobre isso o pesquisador de ya François cholet aquele mesmo pesquisador lá do Arc priz que recentemente deixou a Google após de uma década para começar sua própria empresa cujo Bank Mark Arc Adi recentemente fez ondas
depois que o modelo O3 da openi teve um Bom desempenho nele sugere que jogar mais computação e dados no problema não é a resposta bom gente aí que tá o Gary Marcos aqui é um cara cético e o cholet é um cara bem chatão bem que não gosta de nada ele é bem crítico e também não aceita nada e tem uma ideia que tá rolando na internet que parece que conforme os anos vão passando mais informação vai ter mais inteligente a ia vai ficar não vai acontecer isso gente não é esse o caminho da inteligência
o que eu acho interessante nesse aspecto de ficar aumentando a quantidade de dados tem mais ou menos a ver com a nossa vida tem vezes que passa 10 anos da vida e que a gente às vezes pode ficar estagnado num ponto que passou 10 anos e a gente não saiu do lugar porque a inteligência ela se desenvolve com a qualidade daquilo que você tá fazendo e não com a quantidade sempre que eu tô mentorando alguém em relação à inteligência a fazer um aumento da Inteligência dessa pessoa eu tento deixar muito claro que as estratégias que
a pessoa utiliza para conseguir ficar mais inteligente tão importante quanto adquirir novos conhecimentos porque aquela coisa do Japonês lá do karatê de coisas assim existe um ponto fraco que se você descobrir ele pouco esforço causa um grande Impacto E é isso que a inteligência tem que ser pouco esforço e grande Impacto descobrir esses pontos às vezes para você encontrar esse ponto leva bastante tempo mas se você ficar fazendo muito esforço por muito tempo você vai ficar cansado e não vai chegar em lugar nenhum esse tipo de estratégia Mental é o que tá faltando para ir
agora ela ser um processo mais inteligente e menos conteúdo Na verdade ele afirma qualquer um que realmente entenda de Inteligência Artificial poderia desenvolver uma Adi com apenas 1 milhão de dólares em custos de Treinamento que parece uma coisinha simples né Tem um milhão Zinho de Dólares ali fazer um treinamento Zinho ali tá tudo Top né não é bem assim né e de qualquer forma ele tá dando um caminho direto de que na opinião dele e lembre-se sempre disso na opinião dele não são Dados Tobby pollen que deixou a deepmind para se juntar a xi de
El musk como membro fundador reagiu contra cholet de acordo com pollen a Deep Mind costuma compartilhar a visão de cholet de que uma escala massiva não era necessária mas evidências continuavam apontando na direção oposta no entanto mesmo o cluster massivo da xai planejando atingir 200.000 gpus da NVidia ainda não cumpriu a promessa de musk de aa mais poderosa do mundo em todas as métricas até o final de 2024 é gente é isso aí vocês estão entendendo né o musk tá apostando assim vamos criar um gigantesco data center e treinar mais e mais e mais muito
mais do que todo mundo já treinou e isso vai dar certo e a galera tá meio que criticando falando assim ó Isso parece que não tá dando certo mas o que eu posso afirmar é que tá cedo para dizer se isso deu ou não deu certo Porque conforme a gente vai testando E conforme as coisas vão dando errado a gente vai vendo as limitações é a partir das limitações que começam as correções e das correções que surgem as melhorias Então a gente tem que ficar de olho aqui porque pode sair muita coisa boa o team
dets da Allen ai recentemente mapeou três caminhos possíveis escalonamento tradicional de data center fiável por mais do anos na cabeça dele escalonamento dinâmico levando os modelos especializados ou flexíveis e destilação no conhecimento que pode seguir regras completamente diferentes de outras abordagens do escalonamento então basicamente é o seguinte né A Primeira ideia é fazer bastante treinamento a segunda ideia seria algo como fazer uma mistura de experts em que você tem vários modelos especializados e tem um ali que direciona e que define o que que vai acontecer e essa terceira de destilação de conhecimento É aquela ideia
em que um especialista ensina um pequeninho é cara ideia que uma Iá juda outra e que aparentemente não sei se é caminho mais promissor no final das contas detmers vê uma tempestade perfeita se formando uma combinação de limitações físicas e retornos decrescentes que podem significar o fim da era do escalonamento é isso aqui é bem interessante né gente porque assim tem algumas pessoas ali que estão ainda insistindo que essa ideia de escalonamento não vai dar certo mas eu já falei para vocês conversando com a galera da área observando ali as possibilidades de coisas que tem
para ser exploradas a gente está longe de ter feito todos os testes de todas as possibilidades sabe aquela coisa assim ó você já fez isso já fez aquilo já fiz aquilo outro essa lista tá grande Isso significa que se tem muita coisa para fazer ainda Ainda não é hora de abandonar o escalonamento né uma nova fronteira nesse debate se abriu com escalonamento de computação em tempo de teste a abordagem por trás dos modelos ou da Open Ai que é o One O3 né e essas coisas assim que eles chamam de escalonamento em tempo de teste
porque a inteligência aprende depois você faz o treinamento lá ela tem um modelo e você usa reforçamento para dar uma refinada ali nas respostas dela os pesquisadores do huging Face validaram recentemente essa estratégia que transfere um poder de computação massivo para o estágio de inferência em vez do pré-treinamento e sempre lembrando gente estágio de inferência é quando você faz a pergunta e o chat responde é quando ele já tá treinado e pré-treinamento é ficar ali jogando a máquina para ela fazer um treinamento automatizado embora promissor os altos custos de execução do O3 em Bank Marks
como Arc sugerem que estamos trocando um desafio de escalonamento por outro e aqui gente no ar priz especificamente a gente já falou disso tá vendo esse valor aqui de 000 ele tá entre 000 e 10.000 Isso significa que resolver esse teste aqui custou pelo menos 6000 dólares que é mais ou menos aqui aonde estaria aqui um pouquinho depois do meio nesse gráfico de custos e um dado interessante sobre esse treinamento de 87.5 por aqui é que ele gerou 5,7 bilhões de tokens Exatamente isso gente 5,7 bilhões se fossem palavras seriam 5,7 bilhões de palavras que
é bastante texto não é tão simples assim as coisas não são tão simples e eles comentam aqui ó Este não é apenas um debate Acadêmico as crescentes avaliações de empresas de bigtech eia como Open ai e NVIDIA foram construídas com base na promessa de que escalar é igual a progresso se os éticos da escala estiverem Certos não estamos apenas enfrentando um beco sem saída técnico podemos estar olhando para uma correção massiva nas avaliações de tecnologia que enviaria ondas de choque pelos mercados financeiros é essa questão vamos dizer assim continuar fazendo o modelo crescer e esse
modelo de llm De repente é um beco sem saída mas tem uma coisa que é importante dizer que eles não estão falando a gente ser humano tem um funcionamento da mente que é interessante quando a gente descobre que uma coisa é possível é diferente do momento quando a gente nem sabe se dá para fazer as llms mostraram que é possível a gente consegue colocar inteligência no computador e agora as estratégias mudam o nosso pensamento não é mais se dá ou se não dá o pensamento agora é como que eu faço isso melhorar e isso significa
que novas técnicas podem surgir e novas técnicas podem melhorar o que já foi feito isso sempre foi assim até inventar o avião ninguém sabia se dava para fazer avião mas depois que o 14 Bis do Santos Dumon saiu voando todo torto as pessoas tiveram a certeza dá pr fazer É só uma questão agora de melhorar o que que a gente tem que fazer e como vocês podem ver quando a gente olha o 14 Bis hoje parece um avião invertido e isso significa que tudo que o Santos do mão estava pensando ali estava do avesso e
pode ter muita coisa errada do que a Gente Tá imaginando de llm hoje mas isso não significa que a gente voltou ao estágio anterior a criação do avião a gente agora já sabe dá para voar é outro mundo agora a segunda questão importante aqui ó os agentes de a em 2025 estarão focados em gerenciar expectativas infladas isso aí ele tá falando porque tem muita gente achando que o agente vai sair resolvendo tudo ali automaticamente que vai substituir os empregos da empresa inteira e vai virar um mundo de lucro e sorriso e felicidade e que tá
todo mundo perdido mas olha só o mundo da ia está agitado com previsões sobre agentes em 2025 Mas algumas das pessoas que estão preparando o terreno estão mais cautelosas quanto ao cronograma o Logan que o Patrick que lidera Google e Studio e gerencia o na api recentemente compartilhou seus pensamentos no ex sobre para onde a ia está indo este ano ele acredita que a tecnologia divão de ia já está madura suficiente para adoção generalizada e isso eu concordo demais eu já até falei isso outras vezes a geração de imagem a geração de vídeo Já chegou
no nível de maturidade que ela já é útil e que tá tranquilo é aquilo ali Se melhorar Que ótimo se não melhorar já tá top Já chegamos no nível excelente a coisa agora é só continuar desenvolvendo o que já foi feito Porém Aqui ó e 2025 será o ano que ela se tornará Popular que é É bem isso todo mundo já se acostumou com geração de imagens e já ninguém mais acha graça em conseguir fazer uma imagem como foi em 2023 lá com dali as primeiras vezes que a gente viu isso acontecer mas quando se
trata de Agentes de a que o Patrick diz que eles ainda precisam de um pouco mais de trabalho antes de poderem lidar com a implantação em escala de bilhões de usuários isso é muito real eu concordo demais ele ressalta que normalmente há um intervalo de 12 meses entre quando a capacidade de I se torna Tecnicamente possível e quando ela vê a adoção generalizada colocando bucando a implantação significativa de mais agentes pertos de 2026 eu não gosto muito dessa previsão com esses números aí porque essas ideias das imagens vieram mais ou menos na mesma época das
llms e claramente as imagens amadureceram primeiro então esses valores aí é um chute dele o que eu acredito é que o problema da Alucinação precisa ser resolvido pra gente ter um agente decente o CEO da Microsoft concorda que ainda é cedo Mustafa suleiman CEO de I da Microsoft Compartilha essa perspectiva ponderada falando em junho de 2024 Ele explicou que embora os modelos de a possam liar com tarefas específicas e estreitas de forma autônoma em dois anos precisaremos de mais duas gerações de modelos antes que eles funcionem consistentemente bem e eu nem sei quantas gerações a
questão é resolver as alucinações o desafio ele diz é fazer com que os modelos correspondam a cada solicitação do usuário com exatamente a função Correta suleiman ressalta que a precisão de 80% de hoje não é boa o suficiente para agentes de a confiáveis os usuários precisam de 99% de precisão para confiar neles e isso é bem real né gente imagina que você precisa vender um carro de R 1 milhão deais e em 80% das vezes ele vende nesse preço certo e outras 20 não não dá né gente tem que ser 99% para cima chegar lá
exigiria cerca de 100 vezes mais poder de computação algo que ele acha que não veremos até o GPT 6 Mas o importante é que pelo menos nós temos um caminho ali aparentemente para resolver isso eu acredito que a tecnologia vai mudar gente não tenho certeza se vai ser Transformers que vai resolver esse problema como eu já falei a gente já sabe que dá para resolver o problema agora é uma questão de criatividade ainda assim os principais players Não estão sentados de braços cruzados o Google está levando sua agenda de Agentes adiante com o Gemini 2.0
e a openi supostamente planeja lançar o operator em janeiro um agente de ya que pode lidar com tarefas como navegar na web de certa forma todo mundo tá fazendo a sua versão né que é criar uma inteligência artificial que consegue fazer algumas ações eu já fiz um vídeo aqui mostrando o uso do computador da antropic algumas pessoas olham aquela Inteligência Artificial mandando mensagem mandando e-mail e elas dizem mas Bob isso já dava para fazer eu fazia um programa que fazia isso e resolvia problema A questão não é essa a questão é que agora até um
lego que não sabe programação não sabe nada de nada Só explica pro computador ali mais ou menos o que tem que fazer e ele faz essa facilidade que é a novidade do momento e não a tarefa em si mas ele continua aqui ó mas já vimos ciclos de Hype de a o suficiente para saber que muitas vezes há uma lacuna entre o que é anunciado e o que realmente funciona então sempre vale a pena perguntar se Esses são avanços significativos ou apenas histórias para manter os investidores animados eu acredito que de todas as hypes Inteligência
Artificial que eu já vi essa é a mais realista de todas Essa é a que mais Está entregando resultado ela não tá entregando o problema resolvido 100% mas ela já tá entregando um nível bastante avançado de solução e eu diria que as pessoas podem continuar animad assim não tem problema nenhum é bom ter sempre um pezinho na realidade mas a verdade verdadeira assim que as coisas estão avançando e não estão nada empacadas o que torna um agente real qualquer um que trabalha regularmente com grandes modelos de linguagem e prompts complexos sabem por quê k o
Patrick e suleiman estão sendo relativ amente cautelosos llms ainda lutam com confiabilidade especialmente a lidar com instruções detalhadas e multietapas é gente é exatamente Porque pensa assim se o agente tem uma tarefinha de um passo só ela tem 80% de chance de dar erro se ela tem duas etapas ela tem 80% nessa 80% nessa o erro começa a aumentar se ela tem três etapas ela tem 80 nessa 80 nessa 80 nessa começa a aumentar Porque se ela cometer um erro na primeira etapa ela aumenta o erro da segunda que aumenta o erro da terceira e
vira um erro adicional ali que só piora as coisas portanto a gente tem que ser bem cauteloso mesmo mas há uma questão mais profunda não podemos realmente avaliar previsões sobre agentes até que concordemos sobre que um agente realmente é a antrópica oferece uma distinção útil entre fluxos de trabalho e agentes verdadeiros e essa aqui é uma pergunta que eu sempre recebo afinal qual que é a diferença de um fluxo e de um agente vamos ver o que eles vão dizer os fluxos de trabalho seguem padrões pré-definidos com modelos de linguagem e ferramentas operando ao longo
de caminhos fixos tá entendendo por mais que o seu fluxo de trabalho tenha uma árvore de possibilidades se essa árvore de possibilidades é definida é só um fluxo de trabalho se ele for pra esquerda ele faz tal coisa se ele for pra direita faz a outra coisa na direita dá para ir pra esquerda e direita de novo e faz tal coisa faz outra coisa isso é só um fluxo por mais que tenham decisões a serem tomadas ali e por mais que você coloa inteligência artificial para tomar suas decisões Agora se liga nos agentes os agentes
verdadeiros por outro lado controlam seus processos e ferramentas de forma autônoma e dinâmica e é aqui que eu sempre insisto o agente ele é orientado ao objetivo é como se você falasse para uma pessoa vai na padaria e compra 10 pãezinhos você não diz para ela se ela vai a pé de bicicleta se ela vai de carro se ela vai de ônibus se ela vai de Uber se ela vai pedir por telefone você não diz isso Você só diz eu quero dar paninho naquela padaria e ponto final é o objetivo que ela tem que atingir
não tem fluxo não tem nada ela tem que utilizar a inteligência dela mesma e você confia que ela tem as habilidades para fazer isso daí é isso aí que é um agente o openi define agentes de formas semelhantes como o sistemas de a podem perseguir objetivos completos com supervisão direta mínima e olha esse detalhe aqui ó perseguir objetivos com supervisão direta mínima Por que que isso é importante porque mesmo quando a gente tá trabalhando com uma pessoa que é inteligente mesmo pro Einstein se você pedir alguma coisa pro Einstein Pode ser que o Einstein ainda
volte para você e pergunte algumas coisas informações que de repente na solução dele ali ficaram faltando né imagina que você pediu pro Einstein comprar 10 pãezinhos na padaria de repente ele pergunta para você pão salgado ou pão doce que é que traz mortadela também porque faz parte da Inteligência ali também fazer uma certa interação Então essa ideia de ter uma supervisão mínima ali De repente é interessante porque na maior parte dos cenários Pode ser que alguma informação fique faltando e que de repente uma ajuda ali já resolveria principalmente porque entre a tarefa inteira se você
puder com uma pequena ajuda fazer com que tudo se desenrole já é um ganho de performance se a gente for comparar entre fazer a tarefa toda e dar só uma ajudinha ali no meio do caminho e aqui ele mostra uma esquemática né como se o humano fizesse um pedido para llm ela vai fazer umas ações no ambiente vai ter algum feedback e ela fica girando aqui ações feedback ações feedback ela tem uma flechinha que vai pros dois lados aqui em que o ser humano pode falar com llm e a llm pode falar com o humano
e quando ela terminou aqui ela dá um stop e tá finalizado muitas empresas que alegam oferecer agentes hoje estão na verdade apenas conectando prompts entre si ou a ferramenta com banco de dados de pesquisa da web embora possam ser útil É principalmente marketing termos mais precisam seriam encadeamentos de proms ou assistentes essencialmente chatbots pré solicitados com acesso personalizado a dados isso aqui eu não sei se eu concordo 100% porque daí vira uma coisa meio teórica né quando você faz um prompt ali que acessa o banco de dados e faz pesquisa na web e aquilo resolve
o teu problema não importa se dá para fazer uma coisa mais difícil porque agora é uma questão de proporção se existirem muitos problemas que podem ser resolvidos só com o prompt acessando um banco de dados e acessando uma página na web já tá ótimo porque por exemplo tarefa simples como beber um copo d'água todo mundo faz todo santo dia e é super importante mas claro que a gente tem que ficar atento para ver essa proporção para ver até onde que a gente vai conseguir chegar e se a gente tá muito distante do que a gente
realmente quer é revelador que a antropic que lançou recentemente o computer use e eu já falei disso aí ó tem um vídeo aqui que eu fiz sobre isso o primeiro agente de próxima geração para tarefas de computador na verdade aconselha as empresas a começar de forma simples com prompts básicos e otimizar a partir daí eles argumentam que sistemas multiagentes complexos só fazem sentido quando soluções mais simples atingem seus limites e isso é real mesmo porque se você passar uma tarefa complexa você vai começar a perceber os limites e aonde que ela não consegue resolver e
sempre que eu faço os meus testes Eu percebo que se você chegar para ela e falar assim ó escreve um texto para mim sobre tal assunto ela vai ter que entrar no Word ela vai ter que entrar no editor de texto escrever o texto salvar fazer uma série de tarefas e ela pode realmente se perder nesse meio desse caminho Isso significa que se você falar assim ó vai no menu iniciar procura determinado editor de texto acessa esse programa entra lá dentro escreve um texto e depois salva isso ela consegue fazer se você deixar bem aberto
pode ser que ela consiga às vezes ela faz mas ela pode se perder no meio do caminho e não ter volta talvez eles estejam no caminho certo enquanto as empresas correm para anunciar agentes de autônomos a maioria das organizações ainda está descobrindo como usar EA generativa básica de forma eficaz antes de buscar sistemas de a mais complexos Talvez devêssemos nos concentrar em implementar as ferramentas que já temos de maneiras mais significativas eu acho que é esse momento mesmo todo mundo que tentou automatizar alguma coisa muito complexa já viu os limites do que tá fazendo e
o que eu costumo dizer é o seguinte se você tá tentando fazer uma automatização de algo complexo e de alto risco que envolve perder muito dinheiro caso alguma coisa deu errado não faça esquece é o péssimo caminho por outro lado se a tarefa for complexa mas é de baixíssimo o risco você não vai perder dinheiro nada vai dar errado você não vai magoar ninguém por conta disso então faz logo e começa já se arriscar nessas tarefas que não tem risco para começar a desenvolver as habilidades para algum dia na hora que for tomar um pouco
de risco você já sabe quais são os pontos de cautela e tudo que você tem que observar e você que você tá pensando deixa aqui nos comentários se você já tá colocando alguns agentes para trabalhar e fazendo automações de coisas eu tenho certeza que tem muita gente já automatizando atendimento automatizando perguntas e resposta automatizando Triagem de clientes automatizando and uma série de coisas já com agentes 100% autônomos eles estão com as suas limitações mas já estão dando resultados comenta aqui se você já tá colocando isso em prática se você quiser apoiar o canal para continuar
vendo vídeos como esse seja membro os membros T acesso ao grupo do WhatsApp vídeos antecipados É isso aí deixa aquele like valeu