Olá, e boas-vindas a mais uma imersão da Alura. Eu sou Fabrício Carraro e essa é a imersão de IA da Alura com o Google Gemini, que não é a primeira, já é a segunda que a gente tá fazendo aqui, mas uma versão mais atualizada, com todo o poder que a gente vem vendo sendo desenvolvido por essa empresa, né, pelo Google com o Gemini, desde a última, que foi muita coisa. Vocês aí de casa com certeza sabem o quanto que a IA tem evoluído de semana para semana, de mês para mês. É uma coisa muito difícil
de ficar realmente atualizado. E é para isso mesmo que a gente tá aqui, para te trazer todo esse poder, né? De como você vai poder utilizar a inteligência artificial no seu dia a dia, em casa mesmo, pros seus estudos, por exemplo, mas também para melhorar a sua produtividade no seu trabalho. Isso, independente da sua área. Se você trabalha com marketing, com finanças, com programação, advocacia, enfim, a IA tá aqui para te ajudar em qualquer uma dessas áreas. Porque é a todo [Música] Mundo. E dando uns recadinhos iniciais aqui dessa imersão: vão ser cinco dias de
aulas, vocês já sabem, totalmente grátis. E cada dia a gente vai ter vídeos ali de mais ou menos uma hora, né, algo em torno de 1 hora. Por isso, a gente pede que vocês separem algo ali em torno de 2 horas, 2 horas e meia por dia para se dedicar, porque vai ser uma semana realmente muito intensa, que vai exigir essa dedicação de você. Só que no final, você vai ter aprendido muita coisa, como eu falei, de como utilizar a inteligência artificial de uma maneira melhor, mais conectada também no seu dia a dia e com
o mercado de trabalho; como você vai poder utilizar ela no seu dia a dia laboral também. E para essa imersão, você não tá sozinho, você não tá sozinha. Você vai ter o Discord da imersão, onde vai ter outras pessoas que estão acompanhando, assim como você aqui a imersão, para bater um papo sobre o tema da aula, sobre os desafios, se você conseguiu fazer da maneira certa ou da maneira incorreta. Você também vai saber tudo que tem para saber sobre a imersão lá no guia de mergulho. O link vai estar aqui embaixo na página para você
acompanhar lá. Se você tiver Qualquer dúvida sobre cadê o link do Discord, ou quando que é a premiação, lives, qualquer coisa, vai estar tudo lá no guia de mergulho. É o primeiro lugar que você vai ter que olhar para saber sobre as informações da imersão. E como eu já dei esse mini spoiler aqui, essa vai ser uma imersão com premiação. A gente vai dar uma ementa com um projetinho específico para vocês fazerem. Só que isso só vai ser liberado lá na aula quatro. Então você vai ter que acompanhar com a gente aqui para adquirir esses
conhecimentos, né, da aula um, dois, três, quatro, a cinco também, obviamente. Mas a gente só vai liberar o tema desse projetinho lá na aula quatro. Então, fique aqui com a gente por enquanto. E se você quiser saber quais são as premiações, vai lá na página inicial da imersão que tem tudo, é detalhadinho, lá do primeiro até o 10º colocado. Tá? Muito bem. Enfim, eu não tô sozinho aqui, né? Eu, Fabrício Carraro, para essa imersão. Eu tô com dois convidados mais do que especiais. Primeiramente, o Luciano. Pode se apresentar, Luciano? Opa, fala, pessoal, tudo bem? Eu
sou Luciano Martins. Eu sou AI Developer Advocate na Google DeepMind, Que é a estrutura do Google responsável pelo desenvolvimento e pela disponibilização dos modelos de IA do Google, incluindo o Google Gemini que a gente vai usar aqui na imersão. É um prazer estar com a galera da Alura, com você mais uma vez, Fabrício, e vamos junto nessa jornada aí! É, vocês que já fizeram alguma imersão aqui de IA, já conhecem o Luciano de casa, né? E também a gente tem uma outra pessoa muito especial, que é a Valquíria. Se apresente para nós! Oi, pessoal, e
aí, tudo certo? Bom, eu sou a Valquíria, também conhecida como Val. Eu sou instrutora na escola de Data Science da Alura e também atuo nos cursos de inteligência artificial. Eu tô bem animada pra gente começar aqui, porque a gente vai falar sobre vários temas que estão super em alta, né, Fabrício? Inclusive aí a parte de agentes. Então, vai ser incrível essa imersão. Exatamente. Esse é um spoiler, né, que você deu pra gente, mas é bem legal. E eu vou explicar até para vocês como é que vai funcionar mais ou menos essa imersão. Essas primeiras três
aulas vão ser mais focadas na plataforma do Gemini. Então você vai entrar lá e a gente vai literalmente debulhar, a gente vai Tirar tudo que é possível dessa plataforma tão poderosa, conhecer todos os modelos, todas as minúcias de quando usar cada modelo para uma coisa ou outra. E depois a gente vai ter uma aula também sobre engenharia de prompt, a gente vai conhecer mais o Google Workspace, né? Como eles estão incluindo a IA nos outros serviços também e usando inclusive o próprio Gemini direto para se conectar com os outros serviços. É uma coisa super legal.
E aí as aulas quatro e cinco vão ser um pouco mais focadas na parte do código. Na aula quatro, a gente vai começar a brincar ali com a criação de um chatbot usando a API do Google Gemini. E a aula cinco, a gente vai usar a palavra de 2025, que é agentes. A gente vai criar junto um agente de inteligência artificial. A gente vai utilizar o framework do Google de criação de agentes, que tá fresquinho, foi lançado faz poucas semanas. Então, fica com a gente que a gente vai segurar a sua mão nesse processo inteiro.
Mas, pessoal, pra gente começar aqui essa conversa nessa imersão, eu acho que a primeira resposta para quem tá em casa e talvez não saiba muito bem é a pergunta de 1 milhão de dólares: o que que é inteligência Artificial? Boa! Boa! Exatamente! Que que você acha da gente começar perguntando pro Gemini? Vamos começar! Ótima ideia! Boa! Excelente! Então eu vou perguntar aqui na minha tela. Vocês estão vendo que eu tô aberto aqui no Gemini, no link que inclusive vai estar aqui embaixo desse vídeo e que também tá passando aqui na tela. Eu quero que vocês
entrem por esse link especificamente, porque esse vai ser o link específico dessa imersão. Não entre direto lá no Gemini, não. Entra direto por este link, tá? E aqui eu entrei. Só que eu tô, ó, vocês podem ver que eu não tô logado. Então ele vai falar: "Entre na sua conta para salvar as conversas". Isso é uma novidade do Gemini, né? Que até algum tempo atrás, ele exigia que você tivesse logado para entrar, né, para ele te dar uma resposta. E agora ele não exige isso, mas você pode simplesmente começar. Clica aqui, ó, "Peça ao Gemini"
e começar a bater um papo com ele. Então essa primeira pergunta, eu acho que a gente vai fazer até deslogados. Vamos lá! O que é inteligência artificial? Fiz até sem o circunflexo lá, ele vai entender, tá pessoal? Sim. E ó, ele tá pensando aqui só um segundo e já Começa a responder pra gente. "A inteligência artificial refere-se à capacidade de máquinas e sistemas computacionais de simular habilidades cognitivas humanas, como aprendizado, resoluções de problemas, tomadas de decisão e percepção." Então você não precisa nem estar logado mais, você só faz uma pergunta e aqui a gente já
começa a ter uma resposta direta. Imagino que você já tenha feito isso em algum momento nos últimos dois, três anos aí, conversado com algum modelo de linguagem, com alguma IA. E ele vai explicando aqui, ó: aprendizado de máquina profundo... Ele deu uma explicação bem completa, né? Os usos na saúde, nas finanças, no varejo e tudo mais. Parece tá correto aqui o que ele disse, né? Exato. E aqui a gente vai focar especialmente em IA generativa, né? Exatamente. Qual que é a diferença daí, IA generativa pra não generativa? Ó, eu acho que a gente pode trazer
assim, né? A generativa é quando a gente tá voltando isso pra criação de conteúdo. Então, eu mandei ali uma pergunta, eu vou ter um modelo ali por trás, né, que vai analisar aquilo que eu perguntei para ele, e aí ele vai prever o que ele vai respondendo para Mim, né? Então, ele vai produzindo o conteúdo a partir disso. Uhum. E quando a gente fala da IA que não era generativa, né? Machine Learning clássico, por exemplo. Era muito focado em classificar se uma coisa é um gato ou não, se uma coisa é um cachorro ou não.
Ou então, qual que é o preço que eu vou pagar para um apartamento nessa região. Coisas assim, né? Exato. Exato. Eh, meio que se adotou um um padrão assim de separação de chamar de IA preditiva o que a gente tinha antes da IA generativa, e IA generativa. A grande diferença é que, com a IA preditiva, a gente buscava criar modelos de machine learning que iriam prever ou predizer algo. O que que isso significa? Eu preparava um modelo, por exemplo: é, eu tenho uma loja, tenho vários produtos na minha loja, comprei um produto novo que não
existia no meu catálogo, e eu quero ter uma ideia de valor para esse produto novo. Eu posso criar um modelo de machine learning, um modelo de regressão, por exemplo, para me ajudar a dar das certas características em comum que esse produto tem com outros: categoria, público-alvo, tamanho, peso, enfim, as categorias que eu quiser considerar. O modelo me ajuda a calcular o que que seria um valor aproximado para isso. Ou seja, o modelo tá fazendo um cálculo baseado em características que eu passei e fez uma predição do que eu gostaria. Isso em linhas gerais, não é
só isso, mas assim, de uma forma mais generalizada, isso seria um modelo preditivo. O modelo generativo, por outro lado, ele ele acaba sendo treinado, ele acaba aprendendo muito mais informações. No caso da minha previsão de de de valor de venda, eu tava considerando um conjunto limitado de características de um cenário específico, que é venda de produto. Quando a gente cria um modelo generativo, a gente usa muito mais informações, diferentes domínio de conhecimento. O modelo é treinado com dado de saúde, de direito, de contabilidade, de informática, de jogos, de atualidade, de história, enfim, virtualmente falando, tudo
que a gente puder imaginar. Mas esse modelo, ele não é por padrão criado para calcular algo. Uhum. Ele é criado, como a Val falou, para gerar um resultado. Então, baseado na pergunta que a gente faz, ele passa por um processo de criação, palavra por palavra ou item a item, Para dar nossa resposta. Ou seja, qual que é a diferença principal? O preditivo era um pouquinho mais trabalhoso da gente fazer, era um pouquinho mais computacional e um pouquinho mais matemático, mas era mais eficiente para tarefas específicas. E o generativo é para uso geral, então acaba sendo
mais democrático, vamos falar assim. Você não precisa ser de TI, você não precisa saber, eh, desenvolvimento, computação, para conseguir usar o modelo. Exato. Qualquer pessoa consegue usar. Então, é, e é o que é o foco dessa nossa imersão aqui, né? IA generativa, o Gemini do Google. É isso aí. E voltando lá pro link inicial de onde a gente estava, do Gemini, vocês podem ver que tem algumas coisas aqui do lado esquerdo. Só que a primeira coisa que você vai notar é que ele fala: "Entre na sua conta para salvar as suas conversas". Ou seja, aquela
nossa conversa que a gente teve perguntando o que é inteligência artificial, ela não tá salva aqui, porque a gente não tava logado. Então, eu vou clicar aqui embaixo do lado esquerdo ou aqui no canto superior direito em fazer login e vou fazer login da minha conta do Google. Qualquer conta, né? Sua conta do Gmail, Por exemplo. É bem rapidinho e você já vai estar logado, já vai ter essa opção de salvar também o histórico das conversas anteriores, das perguntas anteriores. Então, eu acabei de fazer o meu login aqui da minha conta do Google. E se
eu abro aqui o meu lado esquerdo, você pode ver que tem outras conversas que eu mesmo, eu Fabrício, usei meses, semanas, dias atrás aqui. Ele vai guardando ali literalmente todas as conversas, se você quiser voltar em alguma conversa em algum momento. E a nossa, a nossa pergunta inicial, né, tinha sido: "O que é a inteligência artificial?" Isso aí. Só que foi muito geralzona, né? Sim. É, talvez direcionar, né, para um público específico. Exatamente. Eh, o que que vocês me sugerem? Que que você acha, Val? Talvez um estudante de marketing, alguém de uma área que não
seja tão de programação, né? Perfeito. Então: "Eu sou um estudante de marketing. Me explique o que é inteligência artificial em termos familiares". Boa! A minha área! Boa! E isso todos vocês podem fazer. Se vocês estão fazendo ensino médio, se vocês têm, estão atrás ou estão trabalhando em alguma área específica como marketing, Contabilidade, direito, ou alguma área que vocês querem conhecer mais e querem entender como que a IA influencia essa área... Vocês, o Fabrício e nós, estamos usando estudantes de marketing como exemplo, mas virtualmente falando, pode ser qualquer qualquer carreira, qualquer área, certo? Exato. "Eu sou
um advogado, eu sou um apicultor, eu quero saber a inteligência artificial". E olha que ele já deu resposta pra gente! "Olá, que ótimo ter você por aqui como estudante de marketing! Você está entrando em um campo super dinâmico da IA... blá blá blá". E ó, imagine o seguinte: segmentação de clientes turbinada. Então, clientes é uma coisa já muito, já da área do marketing, né? Em vez de criar grupos amplos de clientes com base em informações demográficas, a IA analisa um volume enorme de dados sobre o comportamento online, histórico de compras, interações e tudo mais e,
eh, permite criar segmentos de clientes mais precisos e personalizados. Uhum. "Personalização realista, conteúdo que conecta", né? A gente vai ver bastante disso nessa imersão aqui. Otimização de campanhas em tempo real, chatbots, previsão de tendências... Ou seja, ele Pegou todo o poder que a IA pode dar para ajudar uma pessoa dessa área do marketing. Bem bacana, né? Isso. A pessoa agora já sabe como aplicar a IA ali na carreira dela. Exatamente. E bom, é basicamente o que a gente vai estar fazendo aqui com vocês também nos próximos dias, eh, mostrando para diferentes áreas, diferentes carreiras, como
você vai poder aplicar a IA no seu dia a dia. Exatamente. Bom, mas não é só no marketing, né? Então, a gente vai agora tentar ir para uma outra área e ver como a IA pode ajudar a gente. Por exemplo, que tal a gente fazer assim, ó? Eh, criar um plano financeiro para alguém aí que queira se aposentar, mas especificar ali para ele a idade que a pessoa tem, a idade que ela quer se aposentar, e ver o que que a IA responde pra gente. Vamos lá! Então, para criar uma pergunta nova, eu coloco o
meu mouse aqui, né? Passo o mouse no canto esquerdo, só "Criar nova conversa", ele já gera uma nova conversa. Você poderia até continuar falando com a mesma conversa, só que a gente recomenda, quando você quer ir para uma coisa que tem um outro contexto, criar uma conversa nova, Né, para não confundir. E e que a IA que você fez ficou salva no seu histórico, né? Se você quiser retornar para aquela em algum outro momento. Exatamente. "Recente: Só IA no Marketing". Foi a última que a gente fez aqui. A gente pode ver ela inteira, continuar essa
conversa com ela, mas a gente pode começar uma nova conversa. Val, o que que é o prompt pra gente? O que que é um prompt? Nossa, pergunta fundamental, né? Então, o prompt é basicamente ali o texto que a gente vai enviar pro nosso modelo. Então, é a nossa pergunta e a gente vai aprender mais pra frente como estruturar muito bem o prompt, né? Mas vamos começar aqui, basicão. Então, você pode colocar assim, ó: "Crie um plano financeiro para uma pessoa de 30 anos", colocar essa idade aí, "que deseja se aposentar aos 60". Uhum. A gente
pode pedir também para ele com metas de economia, de investimento mensal, e vamos ver o que vem aí, né? Uhm. Isso é um prompt interessante, Fabrício, porque a gente começou com uma coisa muito direta, fazendo uma pergunta que tem uma resposta direta, e agora a gente tá começando a explorar o modelo, conseguir trazer coisas mais complexas, como o planejamento, Uma linha do tempo. Então, a gente não fica só amarrado a perguntas e respostas simples. Sim. É. Uma coisa que tem muita gente que eles começam a utilizar uma IA, né, abre a página do Gemini e
não sabe nem o que perguntar. Exatamente. É um problema, né? Então, você agora você... Putz! Só de você ver que a gente tá usando, putz! Eu posso usar para fazer um planejamento financeiro! Que legal! Ou então da minha casa, né? Eu coloco lá: "Esses foram os meus gastos nesse mês. Quanto que eu tenho que gastar no mês que vem para chegar num numa meta X?", por exemplo, né, algo nesse sentido. Sim. Então, eu já dei um enter aqui. Eh, vamos ver o nosso plano financeiro aqui do Gemini. "Para te ajudar, preciso de algumas informações sobre
sua situação e objetivos". Olha só, isso é mais legal ainda, porque ele não começou a cuspir coisas, mas ele fez perguntas primeiro, para ele poder trabalhar em cima das perguntas. Ó: "Qual a sua renda mensal líquida atual?" Vamos falar que é R$ 3.000. Valor aleatório aqui. Legal. "Qual o valor total dos seus gastos fixos mensais?" Ah, vamos dizer, sei lá, R$ 1.500. Total. Fazendo aqui de uma maneira bem simplificada, Tá pessoal? Se você for fazer isso em casa, eu até recomendo que você faça com seus dados. Sim, para ver ali um plano real para você.
"Não possuo reserva de emergência. Só quero aposentar, mas não tenho nada". Na prática? É. "Quatro: Você possui algum investimento?" Não. "Cinco: Você tem alguma dívida?" Também não. Pelo menos, não tenho dívidas. Sim. "Qual estilo de vida você imagina ter na aposentadoria?" Tranquilo, não luxuoso. "Sete: Você tem alguma expectativa de renda extra no futuro? Herança, bônus anuais?" A priori, não. Uhum. E aí ele começa, tipo, ele já deu um diagnóstico aqui e tal, né? Que a gente pode ver orçamento detalhado, enfim, né? Que é o planejamento. Isso aí. E agora eu dei um enter com as
nossas respostas, né, das perguntas que ele tinha feito. Uhm. E aí ele começa a trabalhar em cima disso. Ó: "Taxa de poupança atual. Atualmente, você tem uma capacidade de poupança de 1.500 ao mês", porque eu falei que o meu gasto era de 1.500. O resto ele supôs, né, que eu consigo economizar. "Então, prioridade máxima: criar a reserva de emergência para você ter 6 a 12 meses dos seus gastos". Considerando meus gastos De 1.500 por mês, minha reserva ideal seria entre 9.000 (para se eu perder o emprego, se eu quebrar a perna, qualquer coisa, conseguir ali
me manter por 6 meses) ou R$ 18.000 (12 meses). Vai ficar um ano inteiro sem trabalhar basicamente, né, sem ter renda. "Então, ó: construa, eh, destine uma parte significativa desses 1.500 para ali. Onde guardar? Contas remuneradas com liquidez diária, como, eh, contas digitais com CDBs. Qualquer banco hoje em dia tem ter essas continhas do CDB, diretinho ali". "Definindo a meta de aposentadoria: vamos trabalhar com uma estimativa inicial de 2.000 a 2.500 por mês, com valores atuais. Isso talvez mude no futuro, mas você vai estar investindo também. Enfim, não importa". Uhm. "Horizonte de 30 anos. Ó,
você pode se sentir confortável e adotar um perfil de investidor moderado a arrojado. Diversifique em renda fixa (o Tesouro IPCA+), renda variável (que ali seriam ações, basicamente), fundos multimercado. Consistência, blá blá blá". E ó, ele já tá um exemplo de alocação ideal. "No inicial, você vai priorizar a reserva de emergência e depois para a reserva que é com esse foco da aposentadoria: 40% em renda fixa, 40% em variável (que é fundos de ações, ETFs) e 20% em fundos multimercado". "E ele recomenda para você monitorar, reavaliar a estratégia com o tempo". E ele fez até uma
simulação aqui, Luciano. Nossa, ele gerou bastante coisa, né? Muita coisa. Ó: "Aporte mensal: 1.500. No prazo de 30 anos (que são 360 meses), usando uma taxa conservadora de 6% ao ano, né, de de rendimento, na verdade". E aí, ó, "você poderia acumular, eh, um montante de aproximadamente R$ 1.450.000 ao final de 30 anos, se você economizasse esses 1.500 aí por mês". Imagina que ele tá pensando também no juro sobre juros em cima dali. "E ó: Passos concretos/Próximos passos: Comece imediatamente. Abra a conta em corretora. Comece a estudar". Foi uma resposta completíssima. É isso aí. É
isso aí. Bem comprida. E acho que o que o pessoal pode estar curioso é como isso é gerado, né? Sim. Sim. Que que a gente tem acontecendo aqui por trás dos panos? Boa! Então, quando a gente começou a falar sobre modelos generativos ou IA generativa, eh, a gente trocou uma ideia rápido aqui que é um modelo que é treinado com dados, com dados maiores, De diversas áreas, de diversos assuntos. Então, o modelo, no seu processo de treinamento, no seu processo de aprendizado, ele acaba sendo exposto, ou os desenvolvedores que estão preparando esse modelo dão a
esse modelo informações públicas sobre assuntos diferentes, que inclui, por exemplo, informações sobre o investimento: quais são os tópicos envolvidos em investimento, como que é feito um cálculo de juros, como é que é feita uma projeção. E o modelo aprende a compor conteúdo baseado nesse, nessa área. E além disso, pelo pela complexidade que o modelo tem, ou pela quantidade de informação que ele que ele, eh, absorve ou que ele aprende, ele consegue também fazer o cruzamento de áreas. Então, se a gente tivesse falando sobre "Eu sou um desenvolvedor", eh, nesse contexto de investimento, eu ganho os
R$ 3.000 que o que o Fabrício colocou... Eh, da mesma forma que a gente pediu para ele explicar o que era IA numa linguagem de marketing, eu posso pedir para ele traçar um plano para mim numa linguagem que eu entenda. Por exemplo: "Eu não entendo de economia, eu não não conheço de fundos". Para ele falar numa linguagem mais simples, para ele falar De uma forma mais explicativa. Vamos fazer isso até. Então: "Gere a mesma resposta, mas de maneira muito sucinta e me explicando como se eu tivesse 5 anos de idade". Que isso é um prompt
muito comum, né? "5 anos de idade simplificada". Só que ele entende que "5 anos de idade" é uma pessoa que não tem muitos conhecimentos sobre aquela área. Vamos dizer assim, ó: "Imagine que você tem um cofrinho. E todo mês o papai e a mamãe te dão R$ 3. Você gasta 1,50 com brinquedos e doces. Sobram 1,50, certo? Então você vai primeiro guardar um dinheirinho na sua caixinha especial bem segura, para quando acontecer algum dodói ou algum brinquedo quebrar". Deu para entender? Exatamente aquela mesma conversa, né, de reserva de emergência, só que num termo aqui muito
mais simplificado. Então, é exatamente o que você tava falando, Luciano. Exatamente. Exatamente isso. É, talvez vale a pena assim a gente só ressaltar aqui, para para todo mundo, especialmente os que estão tendo essa experiência a primeira vez, que a resposta do modelo não substitui uma pessoa especialista no nicho. Não é algo no cenário hipotético que a gente tá criando aqui. A gente Não vai pegar tudo que ele propôs de valores, de investimentos, e tomar essa ação sem conversar com uma pessoa especialista, com um consultor, sem estudar sobre a área. Sem estudar sobre a área. Então,
isso vale para qualquer assunto. Uhum. Eh, isso quer dizer que o modelo tá colocando informação errada? Não necessariamente. Mas o modelo ele traz informações de uma forma mais abstrata que não necessariamente vai se encaixar com todas as pessoas que estão recebendo aquela informação. Então, o modelo traz informações que são ancoradas, que são vinculadas com informações reais. Os cálculos estão corretos, as projeções estão corretas, mas, eh, é o que a gente costuma falar na no mundo de IA, no mundo de pesquisa de IA, que é importante a gente manter os humanos no loop. Uhum. Ou seja,
é importante ser sempre a gente ter as pessoas especialistas na área que a gente tá, que a gente tá trabalhando, que a gente tá desenvolvendo algo, para serem as validadoras das informações. Isso vale para nosso cenário aqui de de investimento. Se a gente tivesse falando sobre lei, ou sobre tratamento médico, ou sobre qualquer outra área, é interessante Sempre a gente ter uma pessoa especialista. Ou, se no nosso mundo aqui de desenvolvimento, a gente, nós mesmos, podemos ser os validadores da resposta, se aquele código faz sentido, se aquele loop que a gente pediu para criar funciona
como é esperado. Então, acho que uma etapa fundamental é, antes da gente tomar qualquer ação, é a gente fazer uma uma validação dupla daquele resultado, certo? É usar a inteligência como um assistente, né? Não para um tomador ali de decisões. Exatamente isso. Exatamente isso. E você tá usando muito a palavra "modelo", Luciano, né? Imagino que gente de casa talvez não sabe exatamente o que que é um modelo, né? Já tenha talvez até visto nas notícias aí o termo LLM, né, essa siglinha LLM, que vem do inglês Large Language Model, que significa um grande modelo de
linguagem, né? Modelos de linguagem com grande volume. E quando a gente fala de modelos, esses modelos de IA generativa, a maioria deles são modelos de linguagem. Eles geram texto, né? Geram linguagem. Mas um exemplo que eu gosto sempre de dar, cavucando um pouquinho, né, para falar como que eles estão ali realmente funcionando por baixo Dos panos, né? Imagina a frase em português, eh: "Eu gosto de pizza". Beleza, né? Você tem ali o o pronome, o verbo "gostar", a preposição "de" e o substantivo "pizza". E se você vai falar que você gosta de outra coisa: "Eu
gosto de viajar", "Eu gosto de trabalhar"... sempre tem o "de" ali, né? O "de". No caso, quando a gente vai pra língua inglesa, por exemplo, você vai falar "I like pizza". Não entendi? Você não fala "I like off pizza". É um outro padrão, é uma língua que tem um padrão diferente. E começando aqui já dando spoiler da maioria dos exemplos da aula... que eu comecei a desenvolver, a mergulhar no mundo da IA, quando eu tava na Turquia, eh, tava morando por lá, trabalhando, e eu tava estudando turco. E nessa época eu aprendi que para falar
"eu gosto de pizza" em turco é "pizza severin", que eles fazem o contrário. Então, é "pizza gosto". Então, é um outro padrão, padrão completamente diferente. Então, basicamente, quando a gente vai pensar: "putz!", o modelo de linguagem, ele vai tentar encontrar essas relações entre as palavras, né, em cada idioma, e como elas se conectam uma com as outras. E ele vai aprender quando, depois que, Como o Luciano falou, você dá um caminhão de dados para eles (que é a internet inteira, basicamente, de dados para ele ser treinado), ele vai entender que geralmente depois de "gosto" vem
"de" ou "do" ou "dá"; depois de "like" vem "pizza", não vem "off". Sim. E acontece a mesma coisa pra língua turca. Ele vai aprendendo esses padrões baseados no treinamento. Então, essa é uma ideia geral, né, do que é o modelo de linguagem. Perfeito. Exato. É baseado na semântica, né, que a gente fala. E aí tem um detalhe, né? Quando a gente tá perguntando aqui as coisas, na parte superior esquerda da sua tela, tá aparecendo ali "2.0 Flash". Exatamente. Que que é isso? É um modelo, né? É um modelo. É isso aí. Eh, aí, voltando para
pro seu ponto inicial, é: o que que é um modelo? Uhm. Uhm. Eh, daí, fazendo um contexto meio de de computação para todo mundo: sempre que a gente desenvolve algo, que a gente programa algo em computação, a gente cria um programa. A gente tem um código, e esse código vai executar uma série de etapas e isso, eh, isso define a execução desse programa. Uhm. O que que seria um modelo? O que tá por trás de inteligência artificial, o que tá por trás De machine learning ou de LLMs (dependendo do de quão profundo a gente vai
no no conceito)... eh, basicamente, a gente pode abstrair como uma função matemática muito grande. Uhm. Uhm. Que tem várias variáveis. Se a gente lembrar lá do ensino médio: equação do segundo grau, equação do terceiro grau... Pode ter, pode ter "n" letras, o "x", o "y", o "z", representando variáveis, informações que mudam em cada vez que a gente usa a equação. Uhm. E o modelo funciona mais ou menos como uma equação gigante. Uhm. Uhm. As variáveis que ele vai trabalhar vão ser as informações que a gente vai enviar para ele, como o caso dos prompts, como
você explicou, Val, e as informações que ele aprendeu durante o processo de criação dele. Então, se se criou esse esse padrão de chamar de um modelo. Uhm. Porque serve como uma visão, de uma referência de algo que a gente vai sempre reusar da mesma forma, usando informações diferentes, certo? Bom, beleza. Então, o que que a gente tem disponível quando vocês clicam ali embaixo do logo do Gemini? Uhm. O Gemini, eh, é uma família de modelos. Existem diferentes variantes do Gemini para diferentes funções, Certo? Dentro da, dentro do Gemini app, como a gente chama, dentro dessa,
dessa, desse serviço web que o Fabrício tá utilizando, a gente tem basicamente quatro grandes variantes do Gemini, especialmente quando a gente tá falando do modo gratuito que a gente tá utilizando aqui. Uhm. Existe o Gemini Flash, o Gemini Pro, o Gemini Deep Research e o Gemini Personalizado ou Personalization. Qual que é a grande diferença entre eles? Quando a gente cria um modelo, usando a abstração da função matemática que que eu falei antes... Ou melhor, vamos pensar agora, eh, será que as pessoas ainda usam dicionário físico, Fabrício? O que que você acha? Online, às vezes, né?
Você encontra uma palavra ali que você não sabe, você vai no dicionário. Então, vamos imaginar assim. Vamos imaginar que a gente tem dois dicionários. Eu tenho um dicionário de bolso, um dicionário pequeno, e a Val tem um dicionário mais completão, um dicionário grandão, que normalmente a gente deixava em casa para pesquisa e tudo mais. Eh, pensa numa palavra, Fabrício. Inconstitucionalissimamente. Beleza. Então, o que que a gente vai simular aqui? Eh, Vamos imaginar que a Val e eu, nós não sabemos o significado da palavra. Uhm. E a nossa função vai ser, nós somos modelos de busca
de palavra, e nós vamos usar a base de referência dos dicionários para encontrar a palavra. Eh, numa resposta assim, óbvio que não é tão simples assim, mas pelo tamanho da base de busca (ou seja, pelo tamanho do dicionário), quem que você acha que tem a chance de encontrar mais rápido a palavra mais rápido? Provavelmente você, porque tem menos palavras no seu dicionário. Exatamente. Então, com isso, a gente consegue ter uma ideia do Flash e do Pro. Uhm. Por isso que ele chama Flash. Então, exato. O Flash, ele vai entregar pra gente, pra maioria dos cenários,
uma resposta, um tempo de resposta mais rápido, tá? Porém, ele é menos complexo que o Pro. Uhm. O que que isso significa? Para cenários muito mais complexos, quando a gente tá falando de ajuda com pesquisa científica, cálculos matemáticos mais complexos, talvez ele não tenha a resposta tão eficiente quanto a do Pro, porque o Pro tem um universo de conhecimento maior. Que que seria o dicionário grandão da Val? Então, no seu dicionário Flash, vai estar ali o significado Da palavra, e pode ser que no dela, além do significado, esteja que é um advérbio, exemplos de frases
e coisas assim, né, mais complexas. Além disso também, a Val vai ter mais conceitos do que o meu tem. Sim. Ah, então vai ter coisas que o da Val vai ser mais robusto na resposta por conseguir trazer mais abstrações, mais exemplos. E o meu vai ser mais eficiente na resposta, mas talvez não tão completo quanto o da Val. Então, a gente aterriza aí no 2.0, no no Flash e no Pro. Ou seja, eu tenho um modelo que é muito maior, para coisas mais complexas, mas que não é o normal do nosso dia a dia. No
nosso dia a dia, a gente tá falando de plano de viagem, geração de conteúdo de marketing, perguntas diretas como, por exemplo, o que que é a inteligência artificial? E acaba sendo a nossa recomendação, a recomendação do Google: sempre tentar primeiro com Flash, que vai ser a resposta mais rápida. Uhm. Você achou que a resposta podia ser um pouquinho mais profunda, um pouquinho mais complexa? Aí vale a pena você passar pro Pro e fazer uma experimentação com Pro também. Ou seja, é como se fosse um passo a passo quando você tá escolhendo os modelos. Você não
sabe por onde Começar? Você começa pelo Flash, que a chance de dar certo na primeira tentativa é maior. Aí, mais por curiosidade, você vai ver que tem duas versões. Sim. Tem o 2.0 e tem o 2.5. Eh, a grande diferença desse versionamento é que a gente segue com constante pesquisa e desenvolvimento dos modelos. E o 2.5 é o mais recente, é uma evolução do 2.0. O 2.0 foi lançado mais ou menos em dezembro de 2024, e o 2.5 a gente, eh, lançou agora nos primeiros meses de de 2025. Então, é um intervalo de tempo próximo,
mas a evolução de uma versão para outra é grande. O que que o que que muda nessa evolução? Eh, a gente vai entendendo as limitações do modelo, quais são os feedbacks que vocês, experimentando com o modelo, estão dando. "Ah, a criação de código podia ser melhor, a interpretação de imagens podia ser melhor". A gente vai absorvendo esses feedbacks e vai melhorando o modelo. Uhm. Certo. Então, provavelmente, eh, a mesma pergunta de complexidade intermediária que você fizer pro 2.5 Flash e pro 2.0 Flash, a resposta do 2.5 vai ser um pouquinho mais lapidada, vai ser um
pouquinho melhor, mas os dois tem uma qualidade similar. Então, na prática, o dos dois que você quiserem seguir utilizando aqui, tá tudo certo. E os dois são mais rápidos também do que o Pro. Exatamente. São mais rápidos que o Pro. Aí, beleza. A gente, a gente matou os três primeiros da lista aí: 2.0 Flash, 2.5 Flash e 2.5 Pro. O que que seria o Deep Research e o Personalization? Eh, existe, e o que que a gente faz? Por exemplo, você, Val, você é da área de ciência de dados. Ixi. Eh, quando quando surge um novo
paper, com novo conceito, tá, quais são normalmente as primeiras etapas que a gente faz para conhecer aí, esquecendo um pouco de modelos por enquanto? Sim, sim. Uhm. Quais são as primeiras etapas que a gente toma, eh, para conhecer um novo conceito? Eu acho que a primeira etapa seria ir ali na internet, fazer uma busca, né, checar as informações mais recentes. Exato. Perfeito. A gente vai no Google, eh, a gente pega um conceito, vamos pensar alguma coisa assim, eh: regressão multivariável. Eu ia falar agentes, já tô com agentes na cabeça! Vamos pensar agentes. A gente tá,
a gente vai fazer uma busca no Google, vai perguntar: "O que são agentes? Me dê exemplos de agentes". Daí a gente vai ter retornos, Vai ter respostas que são blogs pessoais, pessoas explicando com as suas palavras. A gente vai ter produtos de empresa explicando como que se usa, quanto que custa. Vai ter coisa científica também. Isso. A gente vai ter o Google Scholar, que traz, eh, artigos científicos de quem tá pesquisando na área e tudo mais. E a gente tem um trabalho pessoal nosso que é ir separando esses links, baixando PDF, faz uma leitura, faz
uma anotação, vai juntando tudo e vai construindo os bloquinhos de de conhecimento. Isso. O que que seria o Deep Research? O Deep Research seria a gente ter uma ajuda do Gemini para fazer exatamente isso. Ah, então, ao invés do Gemini só depender do conhecimento que ele foi exposto durante o seu desenvolvimento, ele vai fazer uma busca no Google. Uhm. Ele vai listar um monte de link, igual como nós faríamos manualmente. Então, vamos dizer que ele juntou uma lista de 20 links. Esses 20 links podem ser artigos, podem ser páginas de produto, manual do Google, eh,
artigos científicos. Ele vai processar, ou ele vai ler e interpretar cada um desses links e vai juntar essa informação em tempo real, Que ele pegou, com as informações que ele já tem e o conhecimento semântico da gramática, como você falou, para entender o relacionamento dessas informações. Perfeito. Para gerar o que ele chama de um plano de pesquisa ou um detalhamento baseado na pesquisa. Ou seja, ele dá um passo a mais do que os três primeiros que a gente, que a gente pensou. Que os três primeiros, ele vai pegar nosso, nosso prompt, a nossa entrada, seja...
Depois a gente vai evoluir um pouco mais. Eu posso enviar um PDF, eu posso enviar uma planilha, uma imagem. Ele vai processar essa informação, usar o conhecimento que ele tem e responder. E com o Deep Research, ele vai buscar mais informação na busca do Google e trazer o resultado pra gente. E informação atualizada, no caso, né? Porque os modelos têm aquela limitação de que eles foram treinados até certo período de tempo, né? Exatamente. Isso. Boa. Excelente ponto, Val. Isso, no mundo do Gemini, a gente chama de, eh, "knowledge cutoff", ou corte do conhecimento, vamos falar
assim. Que isso significa o quê? Eh, vamos, como a gente já abstraiu antes, o modelo é como se fosse um programa. Uhm. Uhm. Então, Se eu criei o programa no dia 7 de janeiro de 2024 (peguei o meu aniversário de exemplo aí), eh, basicamente a informação que eu tenho para dar pro modelo são as informações até o dia 7 de janeiro de 2024. Eu não tenho como pegar informação do futuro, vamos falar assim. É. Então, na hora que eu salvo essa versão do Gemini de 7 de janeiro de 2024 e eu faço depois uma pergunta
para ele sobre algo que aconteceu depois dessa data (o resultado numa partida de futebol, eh, algum alguma informação de um evento que aconteceu, uma greve, um show), o modelo não foi exposto, entre aspas, a essa informação. Sim. Então ele não vai saber responder. Uhm. Daí, ferramentas como Deep Research, como você falou, fazendo a busca no Google, a gente consegue trazer informações mais atuais. Hum. Então, por exemplo, pegando o Gemini 2.5 Flash, se eu não tô enganado, o corte de conhecimento dele é em janeiro de 2025, tá? Uhm. É alguns meses atrás. Se foi lançado um
conceito de ciências de dados hoje (e que sempre é, né, todo dia aparece alguma coisa nova)... É, se foi lançado hoje, que a gente tá aí perto do mês de abril, maio, o modelo não foi, Não foi exposto a essa informação. Então ele não vai saber esse conceito. E usando ferramenta como Deep Research, ele vai fazer uma busca no Google, ele vai encontrar esse conceito novo e vai juntar o conhecimento que o modelo tem até janeiro de 2025, mais esse adicional, ou esse contexto, como a gente chama, do que veio da busca do Google. E
o mais legal, eu acho, desse Deep Research é que não só ele vai gerar para você uma respostinha rápida, mas na maioria das vezes, vai gerar um relatório completo. Então, você pode fazer perguntas sobre temas atuais, temas que, por exemplo, a gente vai dar alguns exemplos para vocês aqui daqui a pouquinho, mas, eh, temas atuais e pedir um relatório. Ele vai gerar um relatório de 10 páginas, de 20 páginas, falando tudo sobre aquilo, basicamente, né, pegando todos os exemplos que o Luciano falou, dos sites, das fontes e tudo mais. É isso aí. Inclusive, por curiosidade,
é um dos motivos dele se chamar Deep Research, porque ele segue um formato de resultado como se fosse uma pesquisa científica. Ele vai trazer os conceitos, ele vai trazer as informações objetivas que você pediu, ele vai trazer algumas sugestões De próximos passos e ele traz a bibliografia, a referência de todos os links que ele encontrou, que ele considerou. Então, fica um formato meio de pesquisa de fato. Entendeu? Excelente. Mas antes da gente começar a brincar aqui com Deep Research, é bom que o Luciano já explicou pra gente um pouquinho, deu uma geral de todos eles,
e eu acho que a gente pode continuar brincando aqui, dando exemplos, né, fazendo exemplos mais práticos. Dá para continuar com o 2.0 Flash, eu imagino, né, pros próximos exemplos? Vocês tem alguma sugestão do que que a gente pode fazer, perguntar pro Gemini agora? Bom... A gente já conseguiu gerar um pouquinho de conteúdo ali, mas a gente, sei lá, tentar traduzir alguma coisa? Você que gosta muito aí de idiomas! Exatamente. E eu gosto também da Turquia, né? Como eu falei, dei um exemplo lá, que foi quando eu mergulhei na inteligência artificial. Vamos imaginar então, como um
exemplo aqui para essa aula (não só para esse exemplo, mas em geral pros próximos exemplos também), que a gente quer viajar pra Turquia. Beleza? Beleza. Eu preciso tirar um visto para ir pra Turquia, Fabrício? Boa pergunta! Como é que a gente vai saber? Geralmente a gente vai entrar no Google, né? Vai entrar no site da embaixada, alguma coisa assim, do consulado. E eu fiz exatamente isso. Eu tô com o site aqui da República da Turquia, só que tá tudo em inglês. E vamos dizer que o meu inglês não é lá aquelas coisas, né? E você
olha aqui, ó: tem "Visa Information", tem um monte de coisa aqui, pá pá pá. E você vai olhando aqui para baixo, tem uns nomes dos países. Você... isso a gente consegue reconhecer, né? Ó: Afeganistão, Albânia, tem Argentina aqui também, Armênia... Vamos ver no B. Brasil tá aqui, né? Então, vamos pegar, ó, primeiramente esse conteúdo aqui, né, que parece ser uma uma introdução, né? Vamos copiar isso daqui e colar aqui no meu Gemini. E também vamos voltar aqui e vamos copiar os dados específicos do Brasil. Maravilha! Eu dei o Ctrl C Ctrl V, não "copiar, colar".
Dei isso daqui tudo como um contexto, né, para ele. Ó: "Isso daí é o que eu quero saber". E eu vou falar para ele, como a Val comentou aqui, ó: "Não falo inglês, quero viajar para a Turquia". Uhm. "E retirei a informação acima do site da embaixada turca. Sou brasileiro e quero saber se preciso de um visto. Traduza o tópico acima". E vamos lá no Flash, né? Que, como o Luciano comentou, ele é o mais rápido aqui. Então, para essas tarefas de tradução, ele vai ser excelente, porque ele começa a responder super rápido. Ele começa,
ó: "Que ótimo que você está planejando uma viagem para a Turquia! Pelo que consta na informação que você compartilhou do site da embaixada turca, você, como cidadão brasileiro portador de passaporte comum/oficial, está isento de visto para viagens de turismo ou negócios com duração de até 90 dias." Eu acho que nós três podemos ir depois dessa imersão direto para Istambul fazer um mochilão! Exatamente! A Alura vai levar a gente! Vamos, né? Vamo! E aqui ele fala, ó: "Em resumo, você não precisa de visto". E ele diz que a informação também menciona o seguinte que pode ser
útil para você: "O sistema de eVisa, que é o visto eletrônico, é para outras nacionalidades, né? Como brasileiro, você não precisa dele". Que ele imagino que ele tenha pego essa informação daquela parte aqui de cima, né, de todas essas informações aqui, ó: "electronic Visa (eVisa), Blá blá blá blá blá blá", que aparentemente não é útil para brasileiros, né, essa informação. Mas eu passei a informação para ele. Eu poderia ter pedido "traduza tudo direto", mas eu dei um contexto e pedi uma informação só, "baseada nisso daqui, me dá uma resposta aí". E ele deu, né, várias
recomendações. É, eu até comentar que você poderia muito bem ter jogado no Google Tradutor, mas aqui a gente pode pedir algo com esse contexto, né, e falar: "Olha, eu sou brasileiro, eu quero viajar". E ele responde, mesmo, como se fosse alguém ali falando com você. É. E eu dei um Ctrl C Ctrl V aqui, né, um copia-cola, só do Brasil. Mas tecnicamente eu poderia ter copiado essa página inteira, até o Zimbabwe, ir aqui e jogado lá e falar: "Acha aí para mim a informação sobre o Brasil, né?" Inclusive, eu vou trazer uma pergunta aqui pro
Luciano, que eu acho que é importante: "Quanto de informação eu posso jogar ali no meu prompt?" Boa! Eh, só uma sugestão antes da gente chegar no tamanho do prompt. Eh, usando o Gemini app, você podia ter passado o link também. Você tem essa opção também. Você pode pegar o link e fazer... até também você Pode pedir pro Gemini meio que entender o conteúdo e fazer uma pergunta menos objetiva. Por exemplo: "Eu tenho uma viagem de 20 dias de duração para a Turquia. Baseado nessas informações, eu preciso de um visto?" Hum. Boa! Que o que que
ele vai fazer? Ele vai usar como referência o link que você passou. É, vai entender as regras que estão dentro do link que você passou, vai entender a pergunta que você quer e vai cruzar essas informações. Mais fácil ainda. Hum. Vamos ver. Então, eu coloquei: "Eu tenho uma viagem de 20 dias para a Turquia. Esse é o site da embaixada" (Colei aqui literalmente o site da embaixada, certo?). "Baseado na informação do site da embaixada (você é brasileiro e que eu sou brasileiro), eu preciso de visto para Turquia, certo?" E aí ele vai, ó: só um
segundo, já vai começar a fazer a pesquisa dele. Imagina que ele tenha, esteja lendo lá, ó: "Fontes e conteúdos relacionados". "Cidadãos brasileiros não precisam de visto para viagens para a Turquia com duração de até 90 dias. Sua viagem de 20 dias se enquadra nesse período, então você não precisa de visto". É isso! Maravilha! Excelente! Boa! Aí você perguntou, Val, a quantidade de informações que que a gente pode enviar. É, é isso. No mundo das LLMs, é algo que a gente chama de janela de contexto. Hum. Ou a quantidade de informações que o modelo consegue lidar
numa única requisição. Perfeito. Eh, vamos, eh, vamos imaginar assim. Quando a gente vai fazer o, quando a gente ia fazer uma prova na escola, tá? Eh, as perguntas que a gente ia responder da prova estavam diretamente relacionadas, ou a nossa capacidade de responder as perguntas estavam baseadas com a quantidade de informação que, entre aspas, a gente conseguia memorizar. Sim. Certo. Então, o limite era o limite de coisas que a gente poderia memorizar. "Qual que é a data da Revolução Francesa?", "Detalhe do detalhe, né?", "Qual que é a fórmula da água?"... Esse tipo de pergunta e
resposta direto que o nosso cérebro meio que estrutura de uma de uma forma que a gente consegue tanto ter as respostas diretas como a gente consegue desenvolver a partir das informações. Ou seja, baseado numa frase que a gente lê, a gente consegue interpretar essa frase e tirar mais informações. Eh, a janela de contexto, a gente pode imaginar como A quantidade de informação que a gente pode mandar junto das nossas perguntas. Hum. Por exemplo, no seu primeiro exemplo aqui do site da Turquia, você fez um Ctrl C Ctrl V de conteúdo. Você pegou todo esse conteúdo
de texto, colou junto com a sua pergunta. A janela de contexto, no caso do Gemini, ele tem uma característica, uma característica que a gente chama de multimodalidade. Tá. O que que seria esse palavrão? "Modalidade", na perspectiva de informação, a gente pode meio que traduzir como formato da da informação. Por exemplo: um arquivo PDF é uma modalidade, um vídeo é uma modalidade, um áudio em formato MP3 é outra modalidade. E o modelo, o Gemini, ser multimodal, significa que você, como usuário, você, como desenvolvedor, você não tem que fazer os Ctrl C Ctrl V de conteúdo para
mandar pro Gemini. Você pode enviar um PDF, anexar o PDF no seu prompt, você pode anexar um vídeo, eh, de uma viagem, de um de um curso online, alguma coisa assim, e pedir pro modelo tirar alguma informação. E obviamente, como qualquer programa de computador, existe um limite de capacidade. Tecnicamente falando, o Gemini trabalha com o que a gente chama De tokens. Uhum. Mas que pra gente abstrair, pra gente ficar num num conceito comum, a gente pode meio que forçar um pouquinho que um token é uma palavra. Uhum. Certo. Tá. Não é exatamente isso, mas vamos
partir dessa abstração. A capacidade do Gemini, do 2.0 Flash que o Fabrício tá utilizando, é de 1 milhão de tokens. Hum. Tá. O que que isso significa na prática? Em 1 milhão de tokens, eu consigo passar, por exemplo, um vídeo de uma hora de duração. Por exemplo, eu posso pegar uma aula daqui da imersão, uma aula inteira, eh, anexar no meu prompt e pedir pro Gemini: "Sumariza os tópicos mais importantes dessa aula para mim". Eu não tenho que assistir a hora inteira e o Gemini vai falar os tópicos, os assuntos que a gente falou, o
as descrições que a gente deu. Ou eu posso, eh, extravazar a pergunta e falar: "Baseado nessa aula, quais seriam os tópicos interessantes de computação que eu poderia estudar para conhecer mais?". Ou seja, vou juntar o que o modelo tirou do vídeo com o conhecimento que o modelo já tem. Uhum. Eh, um outro exemplo, eh, eu acho que todo mundo, todo mundo conhece o Tolkien, né, que criou o Senhor dos Anéis, Que criou... Assim, não é o Tolkien da palavra "token". Fiquei confuso! Mas sim, mas basicamente é o autor que criou a a série do Senhor
dos Anéis, eh, o Robert, o Silmarillion e e para para quem, eh, não conhece, são livros normalmente muito grandes. Uhum. São muitas palavras, muitas páginas, poucos desenhos. Mas pra gente ter uma outra perspectiva, 1 milhão de tokens significa que eu consigo anexar, eh, todos os PDFs dos livros do Tolkien: o Silmarillion, o Hobbit, os três anéis, os contos inacabados e tal, todos de uma vez, certo? E posso fazer perguntas relacionando os livros: "Ah, perguntando de acontecimentos, de personagens, o que aconteceu com o personagem nesse livro nesse momento? Quando chegou esse livro nesse outro momento?". Ou
seja, eu não tenho o trabalho de ficar fazendo Ctrl C Ctrl V ou ficar mandando um livro de cada vez. O Gemini vai se virar, e o meu esforço como usuário é simplesmente fazer o upload dessas coisas e pedir o resultado. Sim. Uhum. Certo. Excelente. Excelente. Certo. Caramba! Bom, incrível, hein? Agora que a gente já falou também sobre tradução, eu pensei em outro ponto aqui. Uhum. Tem algo que É muito comum, especialmente para quem trabalha com dados ou, sei lá, até outras áreas como marketing, que é a questão de analisar sentimento. Então, vamos supor, a
pessoa comprou um produto e ela vai lá e faz um review desse produto: "Ai, gostei muito por tal e tal motivo" ou "odiei", sei lá, enfim. E eu acho que existe uma forma de analisar esses sentimentos usando o modelo. Não, de passar para ele ali, eh, o que a pessoa comentou e ele trazer se aquilo é positivo, se é negativo, ou se é neutro, enfim. Boa! Boa! Vamos fazer um teste. Eu preparei aqui uma planilha, é uma Google Sheets aqui, ó. Então, a gente tem quatro avaliações aqui, quatro resenhas de, eh, produtos aqui, né? Um
tour pra Turquia, literalmente, né? Coincidentemente, né? Olha só, por acaso, né? E a gente quer saber, e tá tudo em inglês também, que é uma coisa que a gente já viu, né, que ele sabe fazer a tradução muito bem. Sim. Melhor, inclusive, do que outras ferramentas que a gente vê por aí, né? Porque ele é um modelo que sabe fazer essas conexões semânticas, como a gente mencionou lá atrás. Mas, além da tradução, a gente vai querer uma análise, né? Como a Val falou aqui, Se é positivo, negativo, neutro, alguma coisa assim. Isso. Então, baseado nisso,
vamos abrir uma nova janela, que é uma nova conversa, porque é um contexto totalmente diferente, né? Então, vale a pena abrir uma nova. E eu vou colar aqui um prompt que eu preparei: "Analise o sentimento das mensagens abaixo e classifique-as como positiva, negativa ou neutra". Ou seja, eu tô sendo bem específico, né? Eu quero só esses três tipos de análise. Isso. Perfeito. E aí, e eu vou botar aqui um espaço. Vou voltar lá na minha planilha, copiar essas quatro avaliações, por exemplo, e colar elas aqui, né? Elas estão meio juntas. Então, o ideal seria que
eu separasse e colocasse algum separador. São coisas que a gente até vai ver na aula de engenharia de prompt, né? Um pouquinho mais. Mas, ó, aqui é no "this is an excellent trip", é a separação. Então posso colocar um, por exemplo, uns hashtags para separar. A próxima é no "I will not recommend". Vamos achar onde tá aqui... achei. E a última é "Hotel"... Começa no "Hotel"... Pronto. Nós temos aqui as quatro, eh, avaliações, e ele vai rodar aqui no Flash para analisar o Sentimento. E ó: negativa primeira. Tour... blá blá blá. Ó, a mensagem começa,
mas eu ainda não entendi. Ela tá em inglês ainda. Eu quero, ó: aliás, "traduza as mensagens originais pro português", porque eu quero ver se é negativa mesmo, né? Afinal, não não não tô só vendo aqui. É a primeira, ó: "Essa excursão cobre muita coisa, mas certifique-se de levar bastante dinheiro, pois haverá um fundo de gorjetas e depois pedem mais e mais". E ele analisou isso daqui como negativa, né? Então, ele diz que a mensagem começa de forma positiva, né? Que cobre bastante coisa, "a ton of..." Essa excursão cobre bastante coisa, cobre muita coisa, mas a
ressalva sobre a insistência em gorjetas gera um sentimento negativo, realmente, né? Sim, sim, sim. É verdade. Cuidado com esse lugar aí, hein? Exato. A segunda, vamos ver: "Essa foi uma viagem excelente. Aprendemos muito sobre a cultura turca, aproveitando todas as comidas deliciosas. O nosso guia foi excepcional e fez de tudo para tornar a viagem uma experiência maravilhosa". Eu acho que foi positiva. Vamos ver lá, ó: positiva. Palavras como "excellent", "enjoying", "exceptional", né, do original aqui, Né, da da avaliação original. A terceira, vamos ver: "Eu não recomendaria a viagem premium Turquia aprofundada. A empresa não forneceu
um líder experiente, engajado ou orientado a serviços para essa viagem". Parece negativa, né? Vamos ver. Ele colocou como negativa exatamente. A frase "I would not recommend", né, que eu não indicaria, não recomendaria, já indica um sentimento negativo forte e tem mais críticas pela falta de um líder qualificado. E a última aqui: "A acomodação do hotel não estava à altura, mas o itinerário foi muito bom". Então, uma coisa meio neutra ali, meio termo, né? Neutro. E ele realmente avaliou aqui como neutra, que ela apresenta sentimentos mistos: a acomodação, negativa, mas o do itinerário é positiva. E
como não tem um sentimento muito claro, dominante, ele classificou ele como neutro. Tudo certo, né? Maravilha! Então, agora, em vez de criar um sistema, treinar um modelo, como o Luciano tinha falado, né, um modelo de machine learning que avaliaria cada ponto, você pode simplesmente plugar ali no Gemini e ele vai fazer essa análise para você e te dar uma resposta neutra, negativa, positiva e tudo mais. É isso aí. Certamente quem é da área de dados, que nem eu, deve ficar impressionado com isso, porque criar um modelo de NLP é bem complexo, né, para fazer esse
tipo de tarefa aqui de analisar sentimentos e tal. E o modelo já consegue trazer pra gente. Então, é, e é um é um exemplo interessante, Fabrício, assim. Eh, parece uma coisa muito técnica, muito de quem é de computação, mas, por exemplo, quem trabalha na área de marketing que tem feedback de evento, por exemplo, cálculo de NPS, essas métricas específicas, a gente pode usar uma estrutura como essa para ter um uma avaliação de evento ou de curso muito mais rápida. Ou para quem trabalha com suporte a cliente, não importa que área que seja. Eh, eu posso
criar um mecanismo que, baseado nessa resposta, a resposta pode ser encaminhada para um time para entrar em contato com cliente. Ou seja, eu consigo criar automações para coisas que normalmente são muito manuais, especialmente quando a gente começa a pensar numa escala muito grande: centenas de avaliações, eh, milhares de avaliações, e automatizar, e gastar o meu tempo, das pessoas do meu tempo e das pessoas Que estão trabalhando comigo (por exemplo, nós três numa equipe) a fazer coisa que agreguem mais valor pela participação humana do que simplesmente estar abrindo uma planilha e preenchendo, lendo e preenchendo uma
célula: positivo, negativo. É exatamente. Val, a leitura, por exemplo, é interessante que você encontrou um eh um uma avaliação neutra. Eh, as neutras são as mais difíceis de ter avaliação manual, porque cada pessoa vai ter uma uma perspectiva. Por exemplo, pode ser que para mim a parte positiva pesou mais do que a negativa. Então, para mim foi um feedback positivo. Para você, pode ser que o negativo sempre pesa mais. Então, você pode dizer que é negativo. Então, a gente acaba, eh, se expondo mais ao que a gente chama, com muitas aspas, de erro humano. A
gente coloca a nossa opinião pessoal, a questão do viés, exatamente, ao invés de fazer uma uma avaliação, eh, mais neutra, duplicando a a palavra aí. E tem mais ainda, é uma coisa que a gente vai ver na aula de amanhã, na aula dois, brincando com a engenharia de prompt, é que você pode também colocar ali uns benchmarks, né, uns exemplos de o Que que pra sua empresa é uma avaliação positiva, o que é uma negativa, o que é uma neutra, dando vários exemplos. E ele vai não só se basear no conhecimento dele próprio, do treinamento
dele, mas principalmente nesses exemplos que você, ser humano, tá dando ali. Então, isso também é fantástico. Maravilha! E eu vou aproveitar que vocês me deram esse exemplo do marketing e da Turquia, vou aproveitar e mergulhar nele de cabeça. Bora! Vou criar um exemplo aqui para essa área de marketing, criar uma nova conversa inicialmente. E, Luciano, acho que eu vou ficar maluco aqui agora. O chefe ficou maluco! Eu vou usar o 2.5 Flash. Posso? Bora. Pode ser. Bora lá, então. Vamos lá! Eu vou copiar e colar aqui esse prompt, que é: "Elabore um calendário editorial mensal".
Ou seja, tem uma agência de marketing, né, fazendo uma agência que viaja pra Turquia, né? Na verdade, uma agência de viagens, que tal? E de maio, do mês de maio, pro marketing via e-mail, de uma agência de viagens, incluindo temas, eh, palavras-chave e datas de publicação. Eh, essa agência se especializa em viagens para a Turquia. Algo mais assim. Tá bom? Tá bom. Aí, Vamos fazer um exercício nós três aqui. Como que nós trabalharíamos essa pergunta? Uhum. A gente ia para uma sala com um quadro pra gente escrever e cada um de nós ia começar a
dar ideia. "Ah, se a gente começar com esse assunto?", "Ou vamos criar uma sequência dessa forma?", "Não?". E: "Que tal a gente fazer assim?". A gente ia fazer um processo que a gente chama de brainstorming, ou ia fazer uma discussão de ideias, até que a gente chegue num ponto que todos nós estejamos de acordo (alguns mais de acordo, outros menos, mas faz parte do processo de brainstorming). E a gente chegaria num num num acordo comum de qual a melhor abordagem, certo? Certo. Então, beleza. Agora vamos ver como que vai funcionar o o seu envio do
prompt aí. Vamos ver! Vamos lá! Ele já vai começar aqui, ó. Tá mostrando um raciocínio, que é uma área que a gente não abordou, né? Olha! Tá raciocinando agora! Como? O que que esse 2.5 Flash traz de diferente? Eh, ele traz um mecanismo que no mundo das LLMs, a gente chama de de "thinking" ou "reasoning", ou traduzindo aqui, como tá na tela pra gente, "raciocínio". O que que seria isso? Da mesma Forma que nós três nos juntaríamos para começar a ter ideias e ir evoluindo essas ideias, a gente ia desistir de algumas, a gente ia
criar umas novas... O modelo, para conseguir ter uma resposta mais, eh, com mais acurácia, com mais qualidade, ele começa um processo de brainstorming com ele mesmo. Então, ele vai escrevendo conceitos, ele vai escrevendo rascunhos de resposta. Depois, ele mesmo se avalia, ele altera essa resposta, ele corrige, ele cria uma caminho aí, vê que o caminho não tava muito bom, volta atrás, né? Exatamente. Exatamente. Só que um looping ali, né? É isso. Ele faz um looping de raciocínio ou um loop de brainstorming, como nós faríamos, até que ele chega num ponto onde ele, e entre aspas
(ele não é uma pessoa), mas ele fica satisfeito com a resposta. Sim. E essa é a resposta que ele dá. Maravilha! Ou seja, ao invés dele vir com a primeira resposta, a mais óbvia no conhecimento que ele tem, ele começa a refletir, ou ele começa a raciocinar. Com isso, ele elaborou de fato aquilo. Exatamente. Exatamente. Então, o que você tem aí, quando você abre essa, esse, esse contextozinho que você abriu, Você vê o o passo a passo do raciocínio do modelo. Aí, assim, o passo a passo aparece em inglês, mas ele, eh, ele mostra para
você: "Eu vou primeiro considerar isso, depois eu vou fazer aquilo. Eu vou fazer uma busca, depois eu vou pesquisar sobre os destinos mais populares". Ou seja, como nós faríamos. A gente começaria a pensar: "O que que a gente precisa?". "Ah, vamos pesquisar em alguma plataforma que tenha os top N hotéis da Turquia, quais são as top cidades mais visitadas, pontos turísticos. Qual que é o período do ano que tem o melhor clima? Qual o período do ano que tem os voos mais baratos?". Uhm. A gente teria as nossas premissas de conhecimento, e a partir daí
a gente ia começar a gerar algo. O modelo tá fazendo a mesma coisa. Ele tá montando quais seriam as premissas, as informações que ele precisa. Aí, se você for rolando para baixo, Fabrício, ele começa a a pensar, ou ele começa a definir quais que seriam os pontos importantes. E acho que aqui num ponto ele falou: "Ó, I have enough information". Eu tenho informação suficiente para criar, né, esse plano editorial, esse calendário editorial, como a gente pediu. Bom, e você viu que isso aqui nem demorou tanto, né? Foi algo em torno de 10 segundos ali. Isso
vai depender do problema também, né? Problemas mais complexos, pode levar minutos. Exatamente. E isso que o Luciano acabou de explicar do raciocínio, isso tá disponível tanto nesse novo modelo, no 2.5 Flash, quanto no 2.5 Pro. Isso. Que ele vai ser mais complexo ainda, mais a fundo. Legal. E bom, depois do raciocínio todo, né? Depois dele fazer esse brainstorming interno com ele mesmo, a gente tem aqui o calendário. Ele gerou, afinal, o calendário. "Agência de viagens: maio, mês excelente para visitar a Turquia, com clima agradável em diversas regiões e o início da alta temporada". Sim, porque
é o começo é a primavera, né? O verão no hemisfério norte, ele começa em torno de junho, julho, agosto. Então, aqui em maio é uma primavera, o clima tá gostoso, já tá solzinho e tal. E ele começa a falar, ó: "Público-alvo: viajantes interessados em cultura, história, aventura, relaxamento", né? Na Turquia tem a questão dos hamams, que são os banhos turcos, as termas turcas, que fazem massagens também. Uma delícia. Estou ficando com mais Vontade de Turquia! E aí ele falou, ó: "Semana 1: Celebração da cultura/Início da primavera turca". Data de publicação sugerida: "Dia 2 de maio,
após o feriado do Dia de Trabalho (primeiro de maio, feriado lá também)". Então, ó, esse esse dia o pessoal tá viajando, eles não vão olhar as redes sociais deles. Publica no dia dois. Perfeito. Aí o tema: "Maio na Turquia: Flores, festas e novos começos". Bacana. Na segunda semana: "Especial Dia das Mães". Ele como pegou em algum lugar que a data do Dia das Mães por lá é nessa segunda semana também. Da semana três: "Desvendando os tesouros históricos e naturais". Uma coisa mais genérica, né, não relacionada a um feriado, que é: "ruínas antigas, paisagens, ó: Capadócia,
Éfeso, sítios arqueológicos, balão". Eu fiz esse passeio maravilhoso. "Semana quatro: Aventura e lazer na costa". Que tem a costa da Antália, que é muito bacana também. "Semana cinco", enfim, ó: fez o calendário inteiro pro mês de maio, como a gente pediu. Ele fez esse brainstorming também, como o Luciano mencionou, né? De "putz, isso aqui, esse dia talvez não é uma boa fazer uma publicação porque tem feriado". Ou "essa semana Tem um feriado específico, vamos falar sobre o feriado". Bem legal, né? Perfeito. Perfeito. E eu acho que isso aqui não não é só isso, né? A
gente pode continuar. Agora, pela primeira vez, a gente a gente pode continuar no mesmo contexto. É isso. É isso. Por exemplo, você pode pedir, eh, para ele incluir mais um item de detalhamento. "Como que seria, eh, o translado entre as cidades?" Boa. Boa. E basicamente o que ele vai fazer é, baseado no na resposta que ele já deu, adicionar a informação que você pediu, fazer um novo ciclo de raciocínio e regerar a resposta para você. Entendeu? E eu vou pedir para ele gerar uma tabela, que é uma coisa que a gente não pediu ainda, que
ele consegue gerar tabelas também, né? Indicando qual é o modo de translado mais fácil entre essas cidades. Perfeito. Novamente, ó, vamos mostrar o raciocínio dele. Ó: "Eu identifiquei várias cidades importantes que ele mencionou, né? Vários ali, Éfeso, Antália, eh, Istambul, Capadócia, região e tudo mais". Ele começou aqui e pronto, ó: "Origem: Istambul, para Istambul? Nada". Olha que legal! Ele fez uma tabela dupla, né, de todos para todos. Então, a diagonal fica Vazia, porque é de Istambul para Istambul, da Capadócia para para Capadócia, já tá lá. Mas de Istambul para Capadócia, ó: "avião é mais rápido,
ônibus é mais econômico". De Istambul para Ancara, que é a capital: "trem de alta velocidade ou ônibus". De Istambul para Éfeso: "avião para Esmirna, depois um transfer para Selçuk de ônibus". Então, ele gerou uma tabela maravilhosa para a maioria das cidades aqui que é importante, que ele tinha mencionado antes. E ele faz várias observações aqui para baixo. Bacana, né? E vamos supor que eu tô mesmo, eu sou o dono dessa agência de viagens. Vamos chamar ela de "Fabrício Carraro Carraturquia". Que tal? Ficou bom. Ficou. Vou colar aqui então. Ó: "Agora gere o primeiro e-mail promovendo
uma viagem para a Turquia da minha agência", [Música] "Carraturquia". Bora lá! Vai fazer o pensamento, fazer o raciocínio, né? Se você acha que esse raciocínio tá ficando muito lento, não precisa dele, você volta pro 2.0 Flash que ele já vai começar a responder direto. E olha aqui, ó: "OK. Aqui está a proposta de rascunho no primeiro mês". Ó! Usando o mesmo contexto. É isso aí. Por isso que a Gente tá escrevendo dentro da mesma janelinha aqui, né, do mesmo chat, da mesma conversa, porque ele consegue pegar as respostas anteriores também e gerar uma nova resposta
baseado nelas. Ele vai guardando uma memória ali, né? Isso aí. Exato. Então, vamos ver esse e-mail aqui, como é que ficou. Ó: "Prezado cliente, que tal trocar rotina por paisagens vibrantes, história milenar e uma cultura fascinante nesse mês de maio? A Carraturquia convida você a descobrir a Turquia em uma das épocas mais encantadoras do ano. Maio marca o auge da primavera turca. As temperaturas são amenas, ideais para explorar". Enfim. E vamos imaginar que, além de tudo isso... Ó, ele fez um e-mail bem completo, indicando, ó: call to action principal, né? Tipo, é um link: "Clique
aqui e compre agora passagem". Um call to action secundário: "Se você preferir". "Esperamos por você na Turquia". Você pode dar várias instruções. "Olha, ficou muito longo e muito formal. Refaça". Só de eu falar que ficou muito longo, ele vai entender que eu quero mais curto. Se eu falar que ficou muito formal, ele vai entender que eu quero menos formal, mais informal. Vamos ver agora a nova geração. Ó: "Que tal dar um play na sua próxima grande viagem?". Já ficou bem mais informal, né? "Maio chegou e a Turquia tá imperdível!". Vamos ver se tem mais alguma
coisa. Ó: "Nós da Carraturquia somos apaixonados por esse país e blá blá blá". Já ficou menor do que o outro. Ficou bem menor e mais específico, e mais informal, né? "Bora pra Turquia!". Lá no final: "Bora pra Turquia! Com a Carraturquia, sua viagem de maio será inesquecível!". E vamos imaginar que a Carraturquia, ela não trabalha só no Brasil, ela trabalha também nas Américas: Estados Unidos, Canadá, América Latina e tudo mais. Então, excelente! "Agora, traduza o mesmo e-mail para inglês e espanhol". Perfeito. E vamos gerar. Ele vai fazer aqui. Poderia novamente, né? Vai pensar, mas não
precisa pensar porque é uma atividade muito fácil. Sim. É. Mas aqui, ó, porque é tão fácil, ele já faz até rapidinho, né? O pensamento deve ser uns 3 segundos. Sim. E aqui, ó: "E-mail em inglês". Ele fez exatamente, ó: "How about hitting play...", que era a mesma coisa que ele falou aqui em cima, né? "Que tal dar um play?". Isso. Uhm. E aqui vamos ver mais Para baixo, descendo, "E-mail em espanhol": "Qué tal darle play...", próximo... Então, também o mesmo e-mail em todas as línguas, que conversa com aquilo que a gente falou de contexto, de
a mesma janela, né, para ele lembrar. Conversa também com a parte de tradução, de resumos, mudança de tom de voz. Várias coisas aqui que a gente aprendeu durante essa aula estão vistas nesse e-mail. Sim. Excelente. Excelente. Agora, bom, seguindo a sua ideia aí, eh, que que você acha, então, de você criar a página web da sua agência de viagem? Olha só! Dá para fazer isso? Opa! Dá, cara! Aí no, aí dentro do do Gemini app, você, abaixo da onde você escreve o seu prompt, onde tá escrito "Peça ao Gemini", tem um botãozinho chamado "Canvas". Uhm.
Tá aqui, ó. Se você clicar no Canvas, o que vai acontecer é que você vai passar a ter uma uma experiência mais interativa com o Gemini. Por exemplo, você pode pedir agora para ele escrever o código da sua página web baseado nessas experiências que você quer propor. E com o Canvas, a gente vai conseguir visualizar também como que ficaria a aparência disso. Ou seja, você não vai ver só um monte de código na sua tela, Você consegue ver como que ficaria o resultado desse código também. Entendeu? Mostra gerado ali do lado, né? Isso. Exatamente. Exatamente.
E eu acho que eu vou fazer duas tentativas para gerar essa nossa página. Uma primeira mais basicona aqui. Vou colar aqui um prompt, ó: "Gere a página web da agência de viagens com código". Com código? Ou falar "gera a página"? Ele já vai entender assim, né? Acho que "gera página". Já já vai entender? Vai entender, né? Então, vamos lá. Com o Canvas ativado, tá? Lembra, pessoal, de ativar o Canvas e vamos dar um enter aqui. E eu fiz dentro da mesma conversa, porque eu quero que ele pegue esse contexto todo ali, né, de das viagens,
dos e-mails, para onde a gente vai, como viajar de um lugar para outro e tudo mais. Ó! Abriu um negócio ali, ó, uma coisa nova. Esse é o Canvas, né? Isso aqui que abriu é o Canvas, que é o Canvas? É basicamente, em inglês, quando você vai, por exemplo, desenhar em uma tela, isso aqui eles chamam de canvas. Aqui a gente não tá exatamente desenhando, mas ele vai mostrar uma parte tanto do código que ele gerou, mas também a coisa mais legal é uma prévia do próprio site, né? Ele ainda tá gerando aqui, ainda tá
terminando. Ó! Terminou! Ele já mudou, eh, automaticamente do código para prévia. Ó: "Código", "Prévia" aqui no canto superior direito. Ó! E aí ele já viu, ó: Esse é foi o código que ele gerou aqui em linguagem HTML. Já tô vendo que tem bastante HTML aqui. Tudo em HTML basicamente. Isso. E quando eu clico na prévia, ó: "Carraturquia". Ele pegou do contexto que esse é o nome da minha agência. Sim. "Sua jornada inesquecível. Descubra a Turquia com a Carraturquia. Descubra a magia e tudo mais e blá blá blá. Destinos que vão te encantar". Olha, você tem
um site do zero! É isso. Istambul. Ó, você passa o mouse, ele faz o o hover aqui, né? Faz o zoomzinho. Capadócia, Costa Turquesa e experiências únicas. Não que ele esteja perfeito, mas já é um bom começo, né? Isso. Exato. Exato. Exato. Exatamente. Você pode ir trabalhando com ele. Ó: "Não gostei dessa parte", "Não gostei da cor de fundo", "Mude" e "Pronto para sua aventura turca". "Enviaram o e-mail, ligaram agora", né? Não tem esse e-mail ali cadastrado porque eu não falei. Mas se eu falar para ele: "Conecte agora o e-mail Fabrí
[email protected]. Conectar o e-mail". Essa
foi a primeira tentativa. Mas, Luciano, eu tenho um desafio aqui pro Gemini, que eu não sei se ele vai conseguir fazer. Eu tô tô com medo. Eu fiz um desenho aqui, que eu quero um site aqui da minha Carraturquia. Eu vou mostrar aqui na tela para vocês também esse desenhinho. Caramba! Olha aqui! Tem um logo, né? Eu tinha falado aqui originalmente que era "Turquia com Amor". Talvez a gente pode mudar. Mas ó: Home, tours, quem somos, contato, banner com imagem de Istambul, tour 1, tour 2, 3, banner com desconto, rodapé. Perfeito. Então, eu desenhei ali
literalmente, né, com a minha canetinha. Falei: "Eu quero algo mais ou menos nessa pegada". E você tinha falado uma palavra antes, que era multimodalidade. É isso aí. Muitos modos. Isso aqui é uma imagem. É um outro modo, no caso. É uma modalidade. Isso aí. Boa. Então, vamos voltar lá. E aqui agora, eu vou até abrir uma uma aba nova, uma conversa nova, porque eu quero subir essa mensagem. Eu poderia até usar na mesma, né, mas vamos aqui por por acaso, né, só para ver. Vamos adicionar um arquivo. Isso é uma coisa que a gente não
tinha mostrado também Ainda, né? A gente mostrou o Canvas, que fica aqui embaixo do paletinha, do lado, ele tem esse sinal de mais. Que quando você clica, você consegue subir um arquivo. O Luciano tinha até mencionado sobre isso, mas a gente não tinha realmente mostrado na prática, né? Então, eu vou fazer... clicar na imagem. Aqui você pode subir um arquivo, pode subir uma imagem, pode subir um arquivo do Drive, né, do seu próprio Google Drive. Eu tenho uma imagem aqui que tá no meu desktop. Então, vamos pegar a nossa imagem, que foi exatamente essa aqui
do meu que você desenhou. Desenho. É literalmente essa mesma imagem aqui. Seu diagrama profissionalzão aí. Exato. Então: "Gere a página web, eh, referente ao rascunho desenhado nessa imagem". E para isso, a gente vai ligar novamente o Canvas, né? Porque a gente quer ver o resultado final, não só ver o código, mas ver o resultado. Ó: "Logo aqui". Não chamava ainda "Carraturquia", chamava "Turquia com Amor". Mas vamos ver. Sim. Já abriu aqui, né, o meu meu código. Tá gerando ali. Ah, eu tô muito curiosa para saber se realmente vai dar certo. Ó: "Código", "Prévia". Ó! Gerou!
"Turquia com Amor". Home, Tours, quem somos e contato. Vamos olhar aqui, ó: Home, tours, quem somos de contato. Exatamente. O próximo era um banner. Ó! Tem um banner aqui que ele deixou meio que um placeholder, né, uma coisa pra gente colocar ali. Depois, tinha tour um, tour dois e tour três. Ele botou aqui. Eu pedi do lado, ele pediu embaixo assim. Mas a gente poderia até falar com ele: "Ó, você fez embaixo um do outro, eu quero...". Ele achou que ficou melhor, imagina, né? Mas poderia ser. É que o banner com desconto, exatamente como eu
tinha colocado. E o rodapé da página: "Turquia com Amor 2023". Inventou uma data aqui também. E a... literalmente, galera, de um desenho aqui que eu fiz na mão, em casa, você pode gerar um site do zero. Isso é uma coisa absurda para mim. Sim. Não é incrível mesmo. É. E tem mais um poder da multimodalidade que eu acho que a gente consegue mostrar para vocês, que é para ler texto, né? Então, imagina que você tem aquela uma imagem que tem um texto que você, putz, eu quero marcar isso em algum lugar, quero dar um Ctrl
C Ctrl V para colar em outro lugar, de algum PDF, talvez, que não seja aquele PDF já com OCR, né? PDF que você consegue Selecionar as palavras. Mas aquele que tem só as imagens mesmo, tá? Uhm. Vamos pegar aqui uma outra imagem que eu separei para vocês. Ó! Também sobre a Turquia, um guia. Só que, ó: "Introdução", "Melhores lugares para um kebab perfeito", "Quando visitar". Putz! Eu acho que isso aqui seriam, ó, os lugares, né? Sultanahmet, o Palácio Topkapi... São vários lugares interessantes que eu... Eu não quero ficar digitando tudo isso na mão, né? Eu
quero que ele transcreva para mim para depois eu fazer uma pesquisa sobre isso, que é tipo, que ele extrai o texto. Então, exato. Exato. Extrair o texto. Porque depois eu vou usar isso para criar um e-mail, para criar um plano de marketing ou alguma coisa assim, por exemplo. Então, eu vou voltar lá onde eu tava, nesse botãozinho de adicionar arquivos e eu vou clicar. Vou subir uma imagem, né, essa nova imagem que a gente acabou de ver. E eu vou pedir para ela, vou escrever, ó: "Transcreva o texto completo dessa imagem". Simples, rápido, rasteiro. Vamos
dar um enter aqui. Vamos lá! E ele vai começar a ler, né? Ler o conteúdo dessa imagem e tudo mais. Ó: "Aqui está a transcrição do texto Contido na imagem: Contents, Introduction, Best places for a perfect kebab...". Vamos ver. Nossa! Tá colocando até os pontinhos. Exatamente. É a quantidade de pontos e tudo mais, né? "Best places for perfect...". Então, exatamente o que tá aqui. Agora a gente tem acesso a esse texto, os places, né, que são os lugares e tudo mais. Maravilha, né? Muito, muito! Isso aqui, isso aqui eu uso com uma frequência que vocês
não imaginam, a transcrição. Porque eu pego uma coisa, falo: "Putz! Eu não quero digitar isso de novo". Eu tiro um screenshot ali, jogo no Gemini, ele transcreva para mim. Aí eu copio e colo no Notion em algum outro lugar. Não, mas é extremamente útil mesmo. É, bom, a gente já fez bastante coisa aqui, né? Focando aqui nesse tema de da Turquia e tal. Mas eu tô pensando aqui, eu fiquei muito interessada quando o Luciano comentou sobre aquele Deep Research, de fazer busca ali na internet. Se a gente testar isso agora e colocar um tema bem
atual aí, que esteja no momento, para ver o que acontece. Ex. Que tal em relação ao momento político ali, em relação aos, às taxas, né, que a gente tá vivenciando, as tarifas, né, nos Estados Unidos. Boa. Boa. Vamos lá, então. Clicar aqui para criar uma nova conversa do zero. Uhm. Lembra lá em cima, né? Escolheu o modelo. Não é o 2.0 Flash, é o Deep Research, que é o relatório detalhado. E aqui eu já copiei a o prompt, um prompt básico aqui, mas, ó: "Como as tarifas implementadas pelo governo dos Estados Unidos nos últimos 4
meses", então ele entendeu a partir de hoje, né, do meu quando eu tô mandando isso, "tendem a afetar diferentes áreas do mercado no Brasil? Agronegócio, tecnologia, algum outro? Ou esses dois só?". Acho que os dois, pra gente ver a a mágica do Deep Research acontecendo, são agronegócio e tecnologia. Isso aí. A gente vai enviar aqui, clicar em enviar, e ele vai começar a fazer o que o Luciano tinha comentado, né? Que é um plano de pesquisa, basicamente. Isso. Exatamente. Exatamente. Ó: "Aqui está o plano que eu montei. Me avise se precisa de alguma alteração antes
de eu começar a pesquisar. Ó: Pesquisar sites. Primeiro, como as tarifas implementadas... Pesquise as tarifas específicas. Depois, ele vai identificar quais dessas têm maior probabilidade de impactar o setor do agro no Brasil. Depois, como elas podem afetar A competitividade? Investigar possíveis impactos nos produtos agrícolas". Eh, agora já passou pro setor de tecnologia, né? Que foi o outro setor que a gente pediu. Mesma coisa. "Explorar se existem medidas ou estratégias que o governo e empresas brasileiras podem adotar". Isso é ele pensando em como organizar, como estruturar tudo a busca dele. Exatamente. Exatamente. E uma coisa legal
é que você tem a opção de interagir com esse plano. Por exemplo, se você clicar em "Editar plano", você pode, eh, você pode pedir para ele incluir algum passo ou excluir algum passo e seguir em frente. Entendeu? Legal. Uhm. Eh, eu posso falar: "Pode seguir assim mesmo". Ou se eu tivesse, se eu não tivesse clicado em "Editar plano", eu poderia simplesmente clicar em "Iniciar pesquisa" e boa, né? "Pode seguir assim mesmo". E aí agora ele vai começar a fazer essa Deep Research. E olha, ele tá mostrando o raciocínio de como ele tá fazendo a busca.
Ó: "Estou começando a minha pesquisa para entender o impacto. Próximos passos: Pesquisando em 30 sites". Olha! E são sites, ó: YouTube, Agência Brasil, Veja, CNN... Tem muitas. Exame, Gov.br, governo brasileiro, agricultura.com... Várias coisas. Ó: "Descobri que o governo dos Estados Unidos implementou uma tarifa de 10% sobre todas as exportações brasileiras no dia 2 de abril de 2025". E aí ele vai começar a fazer esse raciocínio, e que a gente nem vai gastar tanto tempo falando sobre isso aqui, porque isso pode demorar muito tempo, né? 10 minutos, 15 minutos e tudo mais. Então, ó, por enquanto,
ó: "Você aumentou para 76 sites". 76. E você tá vendo aqui, tem meio que um processo que ele tá fazendo, né? Ele tá no meio de um processo. Ah, tá rodando. Então, a gente vai parar agora e a gente volta quando ele tiver terminado essa pesquisa, para não gastar o tempo de vocês também. E como eu falei, esse processo aqui demora alguns minutinhos, né, para gerar a Deep Research. E você não precisa ficar olhando pra tela do seu laptop e tudo mais, é, do seu celular. Se você tiver fazendo isso pelo celular, que também tem
a opção por lá, você pode simplesmente fazer o pedido, pedir para ele iniciar a pesquisa. E olha, enquanto isso (não vai dar para vocês verem aí, mas eu recebi aqui um anúncio que é "Relatório pronto sobre o impacto das tarifas americanas no Brasil"). Por Quê? Eu tô logado na minha conta aqui do Google, no Gemini, e também tô logado no aplicativo do Gemini no celular. Então, quando ele viu que terminou de gerar o relatório, ele já me deu uma notificação push aqui no meu celular e e eu, ah, putz, tá pronto já. Eu posso ir
lá ler, eu posso fazer alguma coisa. E ó, terminou aqui, passados alguns minutos, algo em torno de 5 minutos aqui mais ou menos, né? Falou: "Estou à vontade para colocar questões ou pedir alterações". E aí você olha aqui desse lado direito, ó: "Impacto das tarifas". Ele fez um sumário, que é um relatório, com a introdução. "Tarifas implementadas pelos Estados Unidos nos últimos 4 meses". Você vê que tem um botãozinho no final de cada parágrafo? Sim. Aqui, por exemplo, "Saiba mais", que é a fonte de onde ele... Então, ele não tá inventando isso da cabeça robótica
dele. Ele tá pegando na internet, de fontes reais. "As tarifas: impacto no agronegócio". Aqui já é uma outra subárea que vai começar. "Principais produtos brasileiros exportados para os Estados Unidos". Fez tabela. Ó! Isso aqui é uma coisa maravilhosa. Tabelinha ali no meio, ó, com quanto o valor da exportação em Bilhões de dólares. Dá até para exportar ali nas planilhas. Exato. Se eu clico nele aqui, ele criou aqui, ó: "Abrir a planilha". Vamos abrir lá. E ó, é exatamente aquela tabelinha, né? Essa é uma tabela muito pequenininha, mas se fosse uma maior, talvez fizesse sentido essa
exportação. "Competitividade no no mercado americano". Ó! Olha a análise dele! "A tarifa de 10% sobre o café brasileiro também se aplica a outros grandes produtores de café arábica, como Colômbia, Honduras e Costa Rica". É uma coisa muito específica, muito detalhada, a fundo. Ó: "O Brasil pode ganhar vantagem competitiva, uma vez que Vietnã e Indonésia, os maiores exportadores desse tipo, enfrentam tarifas de 46% e 32%". Sim. Olha a utilidade disso no seu dia a dia! Você trabalha no agronegócio, ou em um banco que faz investimentos nessa área, ou algo nesse sentido. E ó, eu tô no
nem na metade do relatório! Você vai até lá embaixo. Realmente é um relatório, né? É um relatório completo. E aqui no final, ele mostra todas as fontes que foram utilizadas, o raciocínio que ele fez, né, que a gente mostrou para vocês lá no começo. E além disso, tem duas coisas Que eu acho que valem muito a pena mostrar, que são integradas com outros sistemas aqui do Google. A primeira a gente já mostrou uma parte dela, que é exportar para as planilhas, mas dá para você exportar aqui em cima para um Google Docs. E olha, ele
gerou aqui o mesmo documento, só que dentro dos Docs. Se você quiser compartilhar ali com o seu chefe, com uma pessoa do seu trabalho, é o relatório completo, né? E já formatado, né? Com as referências ali nos parágrafos. Tem os números, né, que ele colocou ali. É. Olha, tem um aqui, olhando mais para baixo, ó: três. Que são exatamente, são as fontes, né, basicamente, que a gente tinha visto aqui também, né? Ele vai encontrar, por exemplo, aqui, ó: 2, 4, 5. É a mesma coisa. E aqui, ó, nessa tabelinha que a gente tinha visto antes,
indo lá para baixo, você vai ter exatamente qual é a fonte, né? De onde ele tirou essa informação. Se você quiser checar diretamente na fonte, né? Achou que esse quote, nessa citação, bacana? Putz! Eu vou lá direto e pronto! Você tem um relatório aqui, ó, de nove páginas, completinho, para você falar sobre algum tema. Perfeito. Perfeito. Maravilha, Né? Eu tô impressionado aqui. Eu também. E a outra coisa que eu prometi que eu queria mostrar para vocês também, é voltando lá no nosso Gemini, do lado desse botão de exportar pro Documentos Google, né? Pro Google Docs,
tem isso daqui que parece uma anteninha. Que quando você olha, ele dá uma opção de "Criar visão geral em áudio". Isso. Que que é isso, Luciano? Eh, isso é um, é uma ferramenta que o nome inglês se chama "AI Overview", que se popularizou meio que as pessoas chamando de "criar um podcast". Uhm. Sim. Por que que as pessoas chamam "criar um podcast"? Porque o overview, eh, é, é meio buscando facilitar o nosso entendimento do conteúdo. A gente tem um documento aí de nove páginas. Uhm. Se for um assunto que não é próximo a gente, pelas
tecnicalidades do assunto, pode ser um pouquinho chato da gente ler, da gente progredir, da gente absorver conhecimento. O que o AI Overview faz é simular uma conversa entre duas pessoas. Hum. Baseado no conteúdo do documento. Então, por isso que as pessoas acabam chamando de "criar um podcast". Uhm. Sim. Porque é como se fosse as duas pessoas conversando sobre esse assunto. Por exemplo: Fabrício e a Val. E o Fabrício, ou uma das pessoas da conversa, fica estimulando as perguntas: "Tá, mas o que que tem acontecido de taxação dos Estados Unidos recentemente?". E aí a outra pessoa
fala: "Ah, o presidente dos Estados Unidos decretou tanto de tarifa para esse país, para aquele país. Eh, causou bastante repercussão na mídia e tudo mais". "Tá, mas na prática, como que isso impacta o Brasil?". Hum. Então, basicamente, vai seguir pelas informações do documento, no formato de uma conversa informal. Então, se você tá no transporte público, se você tá fazendo uma caminhada, é mais simples de você ouvir e ir absorvendo aquela informação. Perfeito. E gente, você pode ver que, ó, eu cliquei no botão da anteninha, né? Enquanto o Luciano tava explicando, ele tá gerando isso daqui,
porque ele demora realmente uns minutinhos para gerar também, uns 5 minutinhos. Então, a gente volta daqui a pouquinho, quando ele tiver pronto. Boa. Sim. E ó, terminamos aqui, passou uns minutinhos, tá? Algo entre 5 e 10 minutos para gerar o nosso podcast. E aqui, ó: "Brazil Trade Shock Wave". Aqui está sua vista geral, sua visão geral, Né? O overview, como o Luciano tinha falado. Por enquanto, só tem inglês, mas a gente espera que no futuro próximo, talvez tenha outras línguas também, né? Isso aí. Isso aí, com certeza. Então, vamos lá! Vamos dar um play aqui
só para vocês terem uma ideia, uma noção do que que é esse audio overview, né? Que que é esse [Áudio em inglês reproduzindo] "april... recently Brazil 25% US tariff on steel for now. Right. So, our mission today is really to unpack what this could mean for Brazil, specifically agribusiness and tech." Impressionante, né? Eu fiquei ainda mais impressionada do que só o relatório, porque é muito natural, né? Parece que realmente são duas pessoas interagindo ali uma com a outra. Então, assim, sei lá, sem muitas palavras. Exatamente. Isso é uma coisa, essa parte dos do overview em
áudio, que eu uso muito nos estudos, né? Quando você tem uma outra ferramenta do Google, que é o NotebookLM também. Além do Gemini, você pode fazer para relatórios que você mesmo gerou, mas você pode usar para relatórios que já existem também, né? Então, você sobe um relatório lá, um PDF, por Exemplo, e aí você consegue ter um acesso, pedir para ele gerar esse podcastzinho. E você quer ler um paper, por exemplo, né? Da área de ciência de dados aqui da Val. Em vez de ter que ler inteiro, né? Sei lá, 30 páginas, 100 páginas às
vezes, e você nem sabe se vai ser útil pra sua área, você faz uma primeira passada no áudio, né, no podcast. E aí depois você vê: "Putz! Vale a pena! Então eu vou ler inteiro, ou vou ler o tal capítulo sobre essa parte que eu acho que pode ser interessante pro meu trabalho". Então, é uma ferramenta absurda essa daqui do audio overview. Adorei. Boa. Temos a nossa primeira aula, pessoal? Eu acho que sim, né? Tem bastante coisa pra galera experimentar agora. Exatamente. Começar a usar o Gemini, conseguir enviar imagem, conseguir enviar documento, testar o Deep
Research em algum tópico que eles tenham interesse. Acho que já tem bastante coisa para para testar, né? Exatamente. A gente espera, então, pessoal, na próxima aula para fazer aquela questão da engenharia de prompt, né? Com certeza. É. E lembrem-se de acessar por esse link que tá aqui passando na tela, que também tá na descrição embaixo desse vídeo. Não entra direto pelo Gemini, Porque a gente preparou um link especial para vocês aqui, né, quando vocês forem fazer todos esses testes. E lembrando, vocês têm acesso a todas as informações sobre a imersão lá no guia de mergulho.
Qualquer dúvida que vocês tenham, vai estar lá. Participem da comunidade no Discord da imersão, que você vai trocar com outras pessoas que estão aqui com a gente também acompanhando. Você tá com uma dúvida numa parte específica, ou você achou que o seu relatório ficou maravilhoso, você quer compartilhar com o pessoal lá? Isso você vai poder fazer tudo lá no Discord da imersão. E também, claro, como eu falei antes, essa vai ser uma imersão que vai ter prêmios. Vai ter prêmios excelentes que vocês podem ver diretamente lá no site inicial da imersão, que também o link
vai estar aqui embaixo. Mas a gente vai anunciar qual que vai ser o projeto, né, a ementa do projeto, o que exatamente vocês vão ter que fazer, lá na quarta, quarta aula, na quinta-feira. Então, fica aqui com a gente. Espero que vocês tenham gostado dessa primeira aula. Acompanhe amanhã a segunda, né, com aquele foco mais engenharia de prompt, a terceira com foco em outras coisas, Outros produtos envolvidos com o Gemini. E lá na quarta aula, que é a primeira que a gente vai mexer com um pouquinho de código, é lá que a gente vai dar
para vocês o enunciado do projetinho. Boa. Então temos, né, pessoal? Isso. Até amanhã. Bora, galera! Até amanhã. Tchau. Tchau. [Música]