É, pessoal, imagina você pedir para uma inteligência artificial fazer um jogo de xadrez e ela já começa a jogar contra você ali. E imagina você mandar uma foto pra inteligência artificial e falar para ela: "Faz um site igualzinho a sua foto". E ela vai olhando, vai fazendo, vai olhando, vai fazendo, vai comparando, vai observando, vai percebendo se tá certo, se tá errado.
E depois chega no final, fala assim, ó, tá aqui, tá teu site perfeito, exatamente do jeito que você pediu. Pois então, o GPT 5. 4 acabou de ser lançado e ele promete fazer tudo isso.
Esse é um dos lançamentos mais complexos dos últimos tempos. Os avanços foram extremos e isso só mostra que esse ano, 2026, é o ano da ADI. Com certeza já vai se preparando para morar na praia, porque sabe se lá quem que vai ficar trabalhando daqui pra frente.
Então vamos entender o que que tá acontecendo. Vem comigo. É isso aí.
Vamos lá, pessoal. Sempre agradecendo a todo mundo que deixou seu like, a todo mundo que se inscreveu e um agradecimento muito especial a todos os membros do canal que patrocinam esse canal aqui de inteligência artificial, que tem acesso a vídeos exclusivos e vídeos antecipados. Então pessoal, o GPT 5.
4 ou algumas pessoas estão falando maldosamente o Trump e GPT, porque aparentemente a treta do Trump com a Antropic antecipou esse lançamento aqui. É um dos lançamentos mais avançados dos últimos tempos e tem muita coisa nova, muita, muita coisa nova. Vamos com calma aqui porque tem que olhar com muita atenção.
Primeiro de tudo é o GPT 5. 4 Finking. Ele tá disponível na API, no Codex e também no chat GPT.
E também tem o 5. 4 Pro, gente, que também tá disponível no chat GPT e na API. Para mim aqui, até o momento que eu estou gravando o vídeo, não apareceu o 5.
4 ainda. Eu tô no Insta 5. 3, mas eu tenho certeza que logo logo aparece.
Porém, aqui no Codex já apareceu a versão 5. 4 e eu consigo colocar aqui no extra high. Ele é bom em raciocínio, codificação e fluxo de trabalhos ágeis.
E ele já tem as funcionalidades do Codex embutidas, então não vai ter mais que ficar utilizando o modelo Codex e o modelo 5. 4 normal. É um modelo só que programa e que faz tudo.
Ele é especialista aqui, ó, em tarefas complexas, com precisão, eficácia e eficiência, entregando que você solicitou com menos idas e vindas. E essa descrição parece bastante a do Peter Steinberg, do Open Cloud, gente. Nas entrevistas que ele fala, ele sempre comenta: "Olha, quando eu faço programação utilizando chat GPT, ele costuma desaparecer e já voltar com uma resposta completamente resolvida.
Não tem muito que ficar fazendo aquelas interações, agora faz isso, agora faz aquilo. A forma correta de trabalhar com o Codex é pedir o que você quer, o seu objetivo final e não ficar pedindo tarefas intermediárias para que ele vá fazendo passo a passo. Esse aqui você já pede o objetivo final e só espera ele fazer.
Eles comentam que você pode interromper esse modelo enquanto ele tá trabalhando. Por exemplo, aqui, ó, a pessoa mandou uma mensagem aqui, ó. Um bebezinho macaco japonês aqui, ó, partiu meu coração.
Onde eu consigo encontrar um voluntário em Nova York que possa me deixar mais próximo dos animais? É aquela coisa, né? A pessoa tá querendo ali conhecer melhor os animais.
E aí o chat começa a pensar no thinking. Eu tô procurando um voluntário aqui em Nova York, opções e tal. E aí a pessoa já começa a falar assim, ó: "Eu moro aqui em Cobo Hill explicando melhor a região que ela mora.
" E aí o que que vai acontecer? Ela vai mandar essa mensagem aqui enquanto o chat está trabalhando, interrompendo o raciocínio dele. E aí a hora que ele recebe essa mensagem aqui, ela já muda a resposta e já começa a trabalhar em cima daquilo que tá sendo falado.
Isso é bastante interessante porque eu passei por isso várias vezes, que você manda um promptim fala assim: "Putz, faltou falar uma coisa aqui e agora eu vou ter que dar um stop, vou ter que remandar o prompt, vai começar tudo do zero, quando na verdade ali já podia ter sido só uma informaçãozinha mais que ela acrescentava e tava tudo certo. " Ele também tá melhor aqui em pesquisa na web profunda e consegue manter melhor o contexto. E olha uma coisa importante que subiu de nível que mudou de característica.
O uso dos computadores a gente já viu e tem várias inteligências artificiais que conseguem utilizar o computador, mas eles estão falando que é o primeiro modelo de propósito geral que lançamos com recursos nativos e de última geração para uso do computador. O que que significa ser nativo? Significa que o modelo trabalha com o uso do computador diretamente, porque no uso do computador ele trabalha com prints.
Então dá para você mandar um print de uma imagem e aí ele vai descrever em texto e a partir desse texto ele decide o que fazer. Não, nesse caso é nativo. Quando ele tiver trabalhando no computador, ele vai olhar a imagem nativamente, não vai converter para texto e já vai trabalhar direto.
Isso tecnicamente é uma evolução. Tem muita gente, mas muita, muita gente que faz vídeo falando que LLM é só para texto. E é verdade.
Large Language Models, ele tem o segundo L, que é modelo de linguagem, mas aqui nós estamos falando de multimodal. Ele trabalha com linguagem e trabalha com imagem também nativamente. Não tem essa etapa intermediária de conversão de imagem para texto.
E a parte que muita gente estava esperando 1 milhão de tokens de contexto. Agora sim, né? Tinham surgido alguns rumores que talvez fossem 2 milhões de tokens, mas foi só 1 milhão e tá top igual.
E ele é mais eficiente com ferramentas e é o modelo de raciocínio mais eficiente em termos de tokens. Quando se trata desse teste aqui do GDP Val, que testa a capacidade dos agentes de produção de trabalho intelectual, bem especificado em 44 ocupações, ele teve 83% de sucesso. E olha só, é o 5.
4 e o 5. 4 Pro. E tem um detalhe importante que a gente tem que observar aqui, gente.
Olha só, essa linha tracejada, essa linha pontilhada é a linha de base de um expert, de uma pessoa. E esse azulzinho claro é quando tem empate entre o expert e a inteligência artificial. E o azulzinho escuro é quando a inteligência artificial trabalha melhor que o Expert.
Isso significa que o 5. 2 Pro já tinha passado o nível do expert, mas agora tanto o 5. 4 quanto o 5.
4 Pro, os dois na barra azul escura já estão superando o nível do expert. Isso aqui é uma das coisas mais importantes que tá acontecendo na história da humanidade. Gente, eu tô falando muito sério agora.
Eu não tô de zoeira. Eu tenho utilizado o Antigravit, o Codex, o Cloud Code, os três. E eu já tenho a sensação clara de que eu tô trabalhando com uma pessoa ali, que eu passo uma tarefa ou que eu passo alguma coisa para ela fazer, ela desaparece lá e volta com a coisa resolvida.
Eu não estou de zoeira e eu tenho certeza que muitos de vocês que estão assistindo estão com a mesma sensação. Acabou aquela brincadeirinha de será que algum dia uma inteligência artificial vai substituir um ser humano? Não, gente, eles já estão substituindo.
A gente ainda pode até argumentar, tá? Mas a qualidade dá para melhorar, mas isso e aquilo. A gente pode colocar vários pontos de melhoria, mas não tem como fugir que essas ferramentas já estão trabalhando pra gente de verdade.
Eu tava vendo uma entrevista com Jeffrey Hinton e ele lembrou uma informação que eu tinha até esquecido, que eu tinha deletado da minha cabeça, mas que é uma das maiores verdades. No mundo da inteligência artificial, todas as vezes na história da IA, que a inteligência artificial trabalhava com dados humanos, ela sempre impacava no limite humano porque ela estava aprendendo com informação humana. Porém, no projeto do Alpha Go, do Alpha Star, chega um momento que os dados humanos e que a equipe de inteligência artificial já conhece o que tá acontecendo e começa a criar metodologias que já não dependem mais do ser humano e da base de idade dado humana para ela aprender.
E quando chega nesse nível, o negócio decola, ela ultrapassa tranquilamente a capacidade humana e aí já era. A inteligência só vai. E por que que eu tô falando isso?
Porque com esses resultados que a gente está vendo e essas coisas que estão acontecendo na prática, já está ficando claro que as equipes de inteligência artificial já tão dominando ali processo de aprendizado e que muito provavelmente já vai surgir algum aprendizado autônomo até o final desse ano, gente. Mas como assim, Bob? Até o final desse ano?
Porque, gente, olha só, já estamos fazendo 80% aqui de um trabalho intelectual humano. 80%, não estamos mais falando lá dos 15, 16. O negócio aumentou.
Olha aqui, gente. O GPT 5. 4 Pro tá fazendo aqui, ó, 83% do Arcade i2 e ele tá fazendo 74% no 5.
4. Olha, tá um pouquinho abaixo do Jim Nike 3. 1, hein?
A briga tá exageradamente boa. Esses dois estão muito bem aqui. Então, já se preparem que o negócio tá acelerado.
Uma outra coisa importante é que ele é bom em criar, editar planilhas, apresentações e documentos. E alcançou aqui uma pontuação média de 87%. De novo, gente, esses resultados estão muito próximo ali do 100%.
E aí ele mostra uma planilhazinha feita com 5. 4 e uma outra feita com 5. 2.
Basicamente a do 5. 4 é bem mais colorida, né? A mesma coisa pros documentos.
O documento feito com 5. 4 tá mais colorido, tá com tabelas, tá mais organizado, não é? Não são simplesmente ali marcadores e essas coisas.
O negócio tá mais avançado. E a mesma coisa nas apresentações, né? As apresentações estão mais complexas.
O negócio ganhou um nível superior. E eles comentam aqui, ó, que pros clientes Enterprise tem um novo suplemento de chat GPT para Excel. Então, nesse caso, tem um aplicativo específico só para Excel.
E essa parte de planilhas aqui e de apresentação tá disponível no Codex também. Eles também diminuíram a quantidade de erros. Ó, o GPT 5.
4 tem 33% menos probabilidade de serem falsas e respostas completas t menos probabilidade de conter erros. E uma das coisas que estavam previstas e que aconteceu de fato essa capacidade nativa de uso de computadores que é integrado com essa ferramenta de visão, que é aquilo que eu falei lá no começo. Você vai começar a conversar com o seu chat ali, vai pedir para ele criar um jogo de xadrez.
Ele tem que fazer as regras, tem que fazer as peças, tem que fazer a dinâmica, tem que fazer todo o joguinho. E depois que ele terminou o jogo, o que que você fala? Agora vamos jogar.
E como ele consegue utilizar o computador, ele consegue mexer nas peças, você vai conseguir jogar xadrez ali com o jogo que ele mesmo fez. É o que eu tô vendo que tá acontecendo hoje em dia. Eu várias vezes, só na zoeirinha ali fazendo vibe coding, tenho produzido ferramentas pro meu uso diário e o negócio tá incrível.
Vocês conseguem perceber? Imagina que você tá numa agência de marketing ali, que você é um artista visual. Você faz um mocap de um site, pega aquela imagenzinha ali, joga pro chat GPT, ele vai ficar olhando pr aquela imagem e vai começar a criar as coisas.
Você não vai ter nem mais que explicar, ó, como que você quer as coisas. Você manda foto e fala: "Só faz igual aqui e é isso que eu quero". Então, a coisa revolucionou para valer.
Ele é excelente na escrita de código para operar computadores por meio de bibliotecas como Playwrght, bem como a emissão de comandos no mouse, teclado e respostas de captura de tela. Nesse benchmark aqui, OS World, que mede a capacidade do modelo de navegação em o ambiente desktop, por meio de capturas de tela e ação do teclado e mouse, ele tá realizando as tarefas com 75% de acerto, que é aquilo que a gente falou. Olha só o 5.
2, gente. Ele chegava aqui, ó, no máximo, no 47% de precisão. E aqui, ó, agora a gente já tá falando, em 75% com o GPT 5.
4 e com o menor número de chamadas, significando que tá muito mais rápido. Então, por exemplo, se ele tiver utilizando o computador, ó, ele sai preenchendo que nem um doido ali, ó. Manda o e-mail, escreve o texto, sai clicando na tela que nem o maluco e você só fica assistindo ali ele trabalhar utilizando o computador.
Assim como se precisar preencher alguma coisa, né, colocar dados, informações, ele sai preenchendo que nem um maluco ali. Você só fica assistindo. É uma coisa alucinante.
No teste de compreensão de raciocínio visual, ó, ele tá fazendo 81% de sucesso. Que de novo, gente, olha esses números, tudo 80%. Lembra no comecinho lá em 2023 que era 10, 15%, 25, 30?
Resultado alto em 2023 era 40% de acerto. Agora a gente tá numa geração que 80% é o normal. E aqui no Omnido Doc Bentch aqui, ó, ele tá reduzindo o erro, o erro médio tá mais baixo.
E eles comentam, e eu já tinha falado no vídeo de hoje de manhã, ó, que eles estão aprimorando aqui a compreensão visual de imagens densa e de alta resolução. Praticamente agora eles têm níveis de detalhes aqui, que é low, high e original. E esse nível original ele permite até 6.
000 pixels, que até agora o máximo que conseguia era 2048. Então esse negócio tá realmente doidão, pegando informação para caramba. exageradamente detalhado e sem falar na codificação, né?
Combina os pontos fortes do GPT 5. 3 Codex com recursos avançados de conhecimento e uso do computador. Então, se ele sabe interpretar bem as imagens, se ele sabe utilizar bem o computador e se ele sabe fazer codificação, ele programa o que você quiser.
E quando eles comparam com 5. 3 Codex aqui em rosinha e o 5. 4 em azul, ó, é basicamente a mesma curva.
Eles estão praticamente empatados com o 5. 4 levemente superior. E se você tiver utilizando o Codex e usar o modo barra fastest, ele vai codificar com uma velocidade de tocanização de até 1,5 vezes maior, utilizando o GPT 5.
4. E olha o nível de detalhamento que esses joguinhos estão atingindo, ó, utilizando a programação. Já é praticamente um sens ali que você tá fazendo, tá jogando só no vibe coding.
Você só manda ele fazer e ele faz. E inclusive eles compartilham aqui o prompt. Se você quiser fazer essa geração aqui, você consegue.
Se fosse um joguinho de RPG, a mesma coisa. Ó lá os personagens, os bonequinhos, os terrenos ali, os territórios, toda a jogabilidade com imagem, com tudo. A gente vai ter que evoluir o jogo do carrinho para alguma coisa mil vezes mais interessante.
Ó lá o prompt da Golden Gate ali, ó. Como é que tá? Olha o nível desse negócio.
Já praticamente tá tudo arredondado. O negócio tá cada vez mais real. Daqui a pouco a gente já entra dentro dessa ponte aqui, já sai dirigindo, já sai andando.
O GTA 7 feito só no Vibe Coding. E aqui agora um ponto importante, um asterisco que você tem que colocar na sua cabeça. Eles estão introduzindo no 5.
4 a busca por ferramentas. E olha aqui, ó. Mesmo com muitas ferramentas disponíveis, ele funciona bem.
Porque o que que acontece em geral? Conforme você coloca muita skill, você coloca muito MCP, muito sei lá o quê e ele tem que se decidir qual ferramenta utilizar, ele começa a se perder, gente. E aqui eles estão dizendo, ó, para sistemas com muitas ferramentas, isso poderia adicionar milhares ou até dezenas de milhares de tokens a cada solicitação, aumentando o custo, tornando as respostas mais lentas e sobrecarregando o contexto com informação que o modelo poderia nunca utilizar.
E aqui eles dão uma noção, sem essa busca por ferramentas, ele gastaria 123. 000 1000 tokens, mas com a busca de ferramentas ele gasta só 65. 000 tokens.
Isso porque a barrinha azul aqui, ó, do Up front Input Tokens diminuiu bastante e, portanto, com essa melhoria aqui de chamada de ferramentas, ele fica mais preciso e eficiente para decidir o que usar e quando utilizar. E apesar de não ter uma melhora tão significativa, ele sai de 45% de precisão do 5. 2 para 54,6 no 5.
4, que dá praticamente 10% a mais de melhora. E na pesquisa na web, ele tá com um novo padrão de excelência aqui de 89,3%. Isso utilizando a versão 5.
4 Pro. Então pessoal, para quem tava achando que 2026 era o ano da IDI, com certeza é. No quesito com textos longos, o 5.
4 Finking descreverá o seu funcionamento com preâmbulo para consultas mais longas e complexas. Ele consegue pensar por mais tempos em tarefas difíceis. Ele tem maior consciência das etapas anteriores da conversa.
fluxos de trabalho mais longos e perguntas mais complexas e também da respostas coerentes e mais relevantes do início ao fim. Então vocês já estão ligado, né, ó, já tá disponível hoje no chat GPT e no Codex e também na API e na versão Pro também tá disponível na API. O 5.
4 Finking está disponível pros planos Plus, Team e Pro e o 5. 2 Finking vai desaparecer. E os custos dele em relação ao 5.
2 não aumentaram tanto assim. Foi de 1,75 1 milhão de tokens na entrada para 250 que são basicamente 75 a mais. E na saída de $14 foi para 15.
Então assim, nem aumentou tanto. Na versão Pro ele subiu de 21 para 30 e na saída de 168 para 180. Então o Pro já é um pouquinho mais caro, né?
bastante mais caro. Eu tô atualizando aqui no final do vídeo para ver se ele já apareceu, mas para mim ainda não apareceu, apesar de que no Codex já tá disponível. Eu vou fazer um vídeo especial testando esse modelo, porque ele tá muito excelente, tem muitas coisas que eu quero testar com bastante atenção.
Então, aguarda mais um pouquinho que amanhã eu já faço esse lançamento com os testes bem completinhos. Já comenta aqui embaixo o que que você tá achando, se você já testou, já comenta se apareceu para você na interface aqui e se apareceu pras versões Pro também. E a outra novidade que tá saindo hoje também é que o app da versão do Windows para você utilizar o Codex dentro do Windows foi liberada também.
Então pessoal, se prepare com o próximo vídeo, com os testes e com todas as coisas que a gente gosta de fazer com skills. Olha que interessante essa telinha aqui, ó. Configuraçãozinha visual de skills e tudo maravilhoso.
Ah, isso aí sim, né? Agora, utilizar chat GPT com Codex instaladinho ali vai virar não só uma como vai virar um negócio com conforto, com luxo e o mundo nunca mais vai ser o mesmo. Eu já tava vendo até o Nicolelles fazer uma live ali falando mal de inteligência artificial.
Quanto tempo será que vai levar pro pessoal acordar daquele sonho ali nicolélico de que as coisas não funcionam e de que a não é inteligente? Já comenta aqui embaixo o que que você pensa sobre isso. Olha aqui, ó.
Space today. Day. Aí a mente para você.
E o Nicoles aqui, ó. Inteligência artificial versus inteligência natural. Uma disputa desigual.
Eu sei lá porque essa galera gosta de falar mal ao invés de mostrar ali o lado forte. Eu tô tentando de tudo quanto é jeito participar de um podcast para poder falar de inteligência artificial, mas não tá fácil, minha gente. Se você conhece alguém aí que pode dar um empurrãozinho para dar uma ajudinha, pra gente bater um papo de avançado ali e mostrar um ponto de vista bem diferente do que tá sendo dito até então.
Então vê se dá uma ajudinha ali, bota um hashtag chama o Bob do inteligência 1000 grau ali que de repente a coisa vai. E se você quiser apoiar o canal para continuar vendo vídeos como esse, seja membro. Os membros têm acesso a vídeos exclusivos de agentes inteligentes e vídeos antecipados.
É isso aí, deixa aquele like.