fala lendários começando mais um backstage lendário o meu nome é Pedro goios eu sou R de operações da academia lendária e hoje eu tenho ele aqui Gabriel Marcondes E aí Gabriel bem demais cara bom galera o Gabriel Marcondes que é deira Tech Lead ou seja ele é head de dados na academia lendária então ele estrutura todos os dados da academia dashboards front e backend e ele tá sendo uma peça importante pro crescimento da academia o Marcondes Hoje ele é deir Tech Lead mas ele também é especialista e mentor da academia lendária tem alguns cursos né
Marcones quais cursos você tem hoje na academia hoje eu tenho um curso de etl strx Transform load tem o curso de Python desde o Python básico ensinando desde a lógica de programação até a parte de Python com ia com aplicações com inteligência artificial tem um curso de lchin que é um Framework que também a gente utiliza dentro do Python ou JavaScript E agora tem um curso de reg que é o retrieval argument Generation que é justamente você pegar com os agentes entregando um conhecimento à parte né bacana Marcondes se apresenta aí pra galera fala um
pouco de você para quem não te conhece fala pessoal eu sou o Marcondes como Pedro já trouxe eu sou o deir Tech Lead da academia tenho quase se anos de experiência na área de dados venho aí de uma bagagem né de Inteligência Artificial há muito tempo até antes mesmo da ia generativa então eu venho da antiga ia como a gente chama que seria os modelos preditivos de machine learning né de clusterização então tive experiência tanto como engenheiro de de machine learning lá no começo com uma parte muito acadêmica Então eu tenho artigo meu publicado em
em grandes editais tipo a Sociedade Brasileira de inteligência computacional coisas desse tipo então vim daquele contexto acadêmico de artigos científicos fazer os papers mesmo em seguida comecei a entrar nesse contexto de dados para negócios como trazer insights como trazer resultado para os negócios utilizando dados e com isso eu vim sando desde cientista de dados até peguei uma parte como engenharia de dados para otimização de processos principalmente de cloud depois análise de dados mais puro para entender pô dashboard Como que eu faço um acompanhamento de indicadores como que eu trago esse resultado na ponta final e
voltei a atuar como cientista de dados entrei na academia com essa vertente para ser alguém mais especializado nas llms no finet na parte de trás que tá ali não só o o chatbot que a gente tem ali dentro do GPT por exemplo e vim galgando desenvolvendo esse setor e hoje tô aí na liderança do setor que vem voando ali dentro da academia com a gente trazendo diversos resultados bacana Marcondes o que um setor de dados faz o setor de dados ele é responsável toda a estruturação Então a gente tem que ter uma base Principalmente olhando
a academia onde nós temos diversas ferramentas nós temos diversos tipos de dados o setor de Sales tem dados de vendas tem dados de leads de clientes tem de diversas coisas ali dentro de reuniões Qual que é o processo que você tem dentro de um CRM o setor de marketing tem dados ali da parte de tráfego tem dados dos leads que entraram né o nosso mql SQL todo o processo que nós temos de dentro desse Lead o setor financeiro tem informações da DRE tudo que foi lançado o setor de RH tem todas as análises e principalmente
o que a gente recebe das inscrições o setor de tecnologia tem um mundo ali dentro de custos das nossas ferramentas o quanto que a gente tá gerando principalmente porque nós estamos SAS então todos os setores da das empresas precisa dessa estruturação de dados no segundo momento eu venho fazendo mapeamento de indicadores que a gente tem em cada um desses setores para entender o que que ele precisa olhar o que que o red ali precisa olhar para entender a performance desse setor seja isso performático a nível do colaborador quanto o nível do setor então quando eu
digo é colaborador Qual que é o nível de entrega desse cara o comprometimento a qualidade da entrega dele e ao mesmo tempo a gente tem ali pro setor no setor de marketing é ó como que tá o nosso CPC Como que tá o nosso Roy então eu consigo trabalhar com esses indicadores para ver realmente as performance do setor e tirar essa venda que a gente tem em diversos negócios principalmente no Brasil dados ainda acaba sendo uma coisa muito nova não são todas as empresas que tem uma estrutura de dados muito forte então a gente vem
trazendo a visão e principalmente pegando a parte mais alta da empresa os diretores para que eles não tenham que toda hora descer e ter que conversar para saber coisa simples então o nosso diretor de Finanças ele ter que descer para poder falar com o time de marketing para saber como é que tá as campanhas o nosso diretor de operações ter que descer com o time de Tech para saber como é que tá o desempenho ali do desenvolvimento de uma ferramenta não eu mapeio esses indicadores e chego na ponta final que seria um dashboard que seria
uma visão pra gente trazer esses indicadores de forma rápida para poder ter uma tomada de decisão com mais facilidade e agilidade E aí com isso você cria uma agilidade muito grande na empresa você diminui a quantidade de reuniões que a gente tem que ter que é um ruído muito grande dentro de empresas principalmente eh no modelo Home Office que a gente faz e ao mesmo tempo você traz indicadores de repente as pessoas não estavam lembrando né quando você vai só no feeling que é o que acontece muitas vezes você não tá levando em conta todas
as possibilidades e aí quando você tem isso de forma Clara para ti você consegue ter um ter uma tomada de decisão né dentro da sua empresa de forma muito mais assertiva bacana Marcondes Quais são os profissionais que compõem um setor de dados é muito comum ouvir falar sobre cientista de dados engenheiro de dados tem alguma diferença entre esses dois sim geralmente a base segue três né a gente tem analistas de dados cientistas de dados e Engenheiros de dados vamos lá o engenheiro de dados geralmente é o primeiro ele é o cara que ele vai estruturar
todo o fluxo de dados quando eu digo isso é desde a estruturação do Cloud aonde a gente vai ter um servidor para hospedar isso a estruturação do banco de dados em si Quais que vão ser as colunas Qual que é a chave primária Qual que é a chave secundária que irá conectar as tabelas fazer com que a gente possa usufruir do banco relacional né dentro dessas tabelas depois como que vai ser a entrega disso Qual que é a qualidade desse processamento e velocidade desse processamento então ele cria o backend ele faz o que a gente
não vê acontecer no segundo momento você tem o cientista de dados que ele vai pegar todos esses dados extraídos e ele consegue fazer modelos preditivos para de repente dentro de um negócio eu fazer um forecasting que aí eu prevê qual que vai ser o crescimento da minha empresa qual que vai ser o faturamento dos meus próximos meses baseado num histórico que eu tenho utilizando séries temporais ou diversos outros modelos de machine learning e nós temos por último o analista de dados que é justamente quem já vai pegar esses dados que já foram estruturados vai mapear
ele a nível de indicadores ou seja qual que é o ativo disso De onde eu tiro os insights disso transformo isso muitas vezes em formato de dashboards ou relatórios e oriento os times de O que fazer com esses dados como que eu extraio o ouro realmente desses dados muito bom muito bom Marcondes tem alguns tipos de dados que diferenciam algum tipo de dado vetorial você falou de dados preditivos Então os dados a questão vetorial que é o que muita gente ouve falar é porque hoje a gente trabalhando com llm que é o lar language models
que é igual chat APT é igual os oferecidos pelo Cloud né o haik sonet são os modelos de linguagem natural onde a gente consegue conversar com a inteligência artificial e esses modelos como eles fazem o que a gente chama de pesquisa semântica ou seja ele busca por similaridade a gente precisa salvar essas informações como vetores então a gente precisa de um banco vetorial então numa forma simples de eu te explicar como isso acontece Imagina que uma criança ela não necessariamente sabe ler mas se eu mostrar para ela uma placa de perigo ela sabe que aquele
lugar tem perigo se eu mostro para ela uma placa que tem um alzinho ela sabe que aquilo é academia então com a partir de uma espécie de simbologia eu consigo passar o sentido daquilo sem necessariamente saber ler da mesma forma Eu transformo frases Eu transformo dados em vetores para que a i armazene no formato de Vetor e quando ela vá procurar a sua resposta ela busque por similaridade o que que parece com o que ele tá me pedindo E aí a partir disso ela consegue um aglomerado de dados sintetiza isso trazendo a melhor resposta então
eu posso dentro da ia repente ter cinco livros diferentes como base de conhecimento mas quando eu fizer uma pergunta ela vai sintetizar o que cada um desses livros diz para trazer a resposta mais completa porque ela tá pesquisando numa espécie de sentido ela busca o sentido da frase o sentido da resposta que eu tenho que te dar e é para isso que a gente usa a vetorização e a gente tem os bancos de dados padrões que são os bancos de dados relacionais que todo mundo conhece que é o modelo de tabela igual quando a gente
vê no Excel linhas e colunas onde eu tenho um cabeçalho do indicativo que tem naquela linha daquela coluna e em seguida as linhas muito bom muito bom cara eu costumo falar pra galera que tá aprendendo sobre inteligência artificial que você precisa de três coisas para você poder criar uma ia a primeira delas é você ter uma llm ou seja um modelo grande de linguagem como a Open ai ou até mesmo o cloud você precisa ter um prompt né que é uma instrução que você dá depois que essa ia tá pronta e se você quiser ter
uma coisa mais personalizada você precisa de um banco de dados ou seja uma llm um banco de dados e um prompt Então olha a importância que temo um banco de dados ou seja a llm ela já é um banco de dados próprio que os desenvolvedores lá dessas empresas criaram só que você consegue ter um banco de dados personalizada da sua empresa então na academia lendária hoje a gente tem a lendária que é um agente de suporte que responde às pessoas a gente utiliz a a llm da openi através da api a gente tem o nosso
banco de dados que a gente praticamente transformou todos os nossos cursos em dados através de colunas e q&s e a gente fez um prompt muito interessante para dar uma instrução para ag gente se comportar Então olha galera a importância de vocês saberem de dados para você poder utilizar nesse mundo de Inteligência Artificial Marcondes a galera acha que dados é uma coisa muito complexa que envolve várias coisas Machine learn etc de certa forma eu acredito que envolva isso também mas dados para você hoje é uma coisa que toda empresa deve ter sim com certeza toda empresa
que não olha para dado ela é cega ela tá fazendo toda a operação dela no puro feeling ela acha o que pode de ser aquilo e toma esse tipo de decisão ao longo da minha carreira eu passei por diversas empresas onde eu criei o setor de dados e antes disso elas todas elas tomavam decisões a partir de sentimentos e achismos a partir do momento que você traz esses dados e uma visibilidade Clara as pessoas muitas das vezes percebem que aquele caminho que elas estavam tomando era completamente errado então tem análises de negócios que são extremamente
simples que podem mudar totalmente uma visibilidade um exemplo de isso é por exemplo uma curva ABC uma curva ABC eu pego todos os produtos de uma empresa monto ele no modelo de Pareto onde 80% dos resultados dessa empresa muito das vezes está dentro de 20% dos skus 20% dos seus produtos a partir disso ele consegue entender onde ele deve focar e quais Aonde ele está deixando né o déficit dele de atenção de repente tem produtos que ele tá dando atenção demais é uma curva C ele tá gastando o market dele num produto que não vende
e de repente ele tem produtos ali curva a que ele não tá tendo essa visibilidade Então isso é uma coisa extremamente simples de ser ser desenvolvida e que muitas empresas Hoje não tem essa visibilidade cara muito bom muito bom eu realmente acredito que toda empresa precisa de dados na verdade eu acredito Tenho total certeza que toda a empresa tem dados Você só não tem ele visível e organizado exato então Marcondes eu quero realmente bater nesse ponto como que eu tenho dados visíveis e organizados Então como você disse toda empresa tem dados de alguma forma seja
uma planilha do Excel seja um RP A grande maioria das empresas tem rps tem crms né que são os seus sistemas de empresa seus sistemas de clientes e a partir dele você tá criando um histórico Você só não tá usufruindo dele da melhor forma é mesma coisa da gente pensar que você tem um celular que você pode configurar a câmera dele para filmar em 4K 120 FPS e na verdade você tá ali com ela em Full HD é isso que acontece você já tem esses dados de repente você aí na sua empresa você já tem
o histórico dos seus últimos 5 anos que me permitiria trazer uma previsão das vendas dos seus próximos meses que permitiria que você planejasse melhor o seu PCP ou seja sua produção se você trabalha com uma fábrica você conseguiria planejar melhor o seu marketing entenderia melhor de sazonalidade quais que são as épocas do ano que eu consigo vender mais Quais que eu consigo vender menos quais que são os dias dos meses que isso acontece aonde eu tenho que intensificar o meu time aonde eu tenho que fazer promoções para que eu consiga equilibrar a falta de vendas
que eu tenho ali naquele momento o engajamento captação de leads Então você já tem esse ouro né como muita gente diz o dado ele é o petróleo né da nossa Nova Era é justamente isso você tem o ouro ali você já tem um estudo do seu negócio gigantesco que você não tá usufruindo hoje bacana Marcondes e na prática é muito comum se ouvir sobre etl que é um processo de transformação de dados Como que funciona esse processo de etl então o etl ele é o padrão de dados né ele el é geralmente o primeiro processo
a ser feito que ele vem da sigla extract Transform and load ou seja extrair transformar e carregar esse extrair é tirar esses dados de algum lugar esses dados estão em algum lugar então quando eu falo de uma empresa esses dados podem estar dentro de um RP quando eu falo num CRM eles estão ali dentro eu posso estar falando de redes sociais esses dados podem ser os comentários das suas publicações o comentário dos seus vídeos no YouTube então a gente precisa primeiro escolher Ó de onde vão vir esses dados para trabalho olha ele vai vir do
Instagram eu quero ver um engajamento do meu público Eu Vou extrair esses comentários Então a gente tem a etapa do stract retirei todos esses comentários o Transform é a é a parte de tratamento desses dados é muito importante você ter dados limpos não ter dados ruidosos porque isso vão atrapalhar totalmente o seu modelo e o seu resultado Então vou vou tirar dali comentários vazios pontos de repente emojis se a gente tiver falando de Instagram se eu tiver falando de um RP eu vou tirar células vazias eu vou tirar células que de repente só tem um
ponto se eu estou falando de repente de uma conversa de marketing tem leads ali que colocaram um oi no nome de repente colocar o telefone dele como 9999 pode ser coisas disso um e-mail que não é válido que não tá dentro de um domínio não é um @gmail ou qualquer coisa do tipo então eu faço essa limpeza porque de repente a gente tá olhando olha a gente teve uma captação de 5.000 leads mas na verdade tem 500 leads ali que são Inválidos São pessoas que simplesmente apertaram qualquer coisa no teclado para PR encher para simplesmente
ganhar a isca digital ou qualquer coisa desse tipo mas não é um lead válido pra gente então é muito importante ter essa etapa de transformação e por última a etapa de load que é a etapa de carga para onde eu vou levar isso então no nesse exemplo quando a gente fala num dashboard eu vou colocar isso dentro de um banco de dados para que o dashboard consiga consumir isso ou não eu vou pegar isso vou subir dentro de uma llm eu quero utilizar esses dados como conhecimento do meu modelo do meu agente Então vou carregar
isso dentro da Open ai dentro de um Super Agente dentro de qualquer ferramenta que eu consiga adicionar um conhecimento muito bom muito bom cara inclusive você tem um curso na formação sobre etl né Como que funciona esse curso justamente foi o primeiro curso que eu trouxe assim que eu entrei na academia ele é um curso composto por se eu não me engano 40 aulas Onde Eu Venho explicando de ponta a ponta todo os a introdução O que é o etl o que a gente precisa entender daquilo em seguida eu ven passando por cada uma das
etapas Então vamos entender na teoria o que que é o extract depois a segundo momento vamos ver na prática o que que é o extract como é que eu consigo fazer extrações de um de um RP como é que eu consigo fazer extração de uma rede social como é que eu consigo fazer um scrapping Olha a minha extração ela precisa eu preciso procurar algo que tá dentro do Wikipedia eu preciso extrair uma informação da internet como que a gente faz isso depois em seguida o Transform da mesma forma parte teórica parte prática load da mesma
forma e uma consideração final O que que a gente consegue fazer isso quais que são as aplicações disso dentro do contexto que a gente tem de Inteligência Artificial hoje cara muito bom muito bom eu assisti esse curso tá e cara tá muito bom porque assim a gente que trabalha com inteligência artificial como eu comentei se você não sabe sobre dados cara quase impossível você entender e aplicar ia porque que você falou cara dados é são basicamente um novo petróleo né e cara é isso que eu quero introduzir a gente passou por algumas eras no mundos
ou seja teve a corrida do ouro teve a corrida e eu acredito que agora a gente tá vivendo na corrida dos dados eu vou dar um exemplo prático para vocês a Tesla a Tesla hoje o valuation dela ou seja o valor de mercado dela é maior do que todas as outras marcas de carros como Porsche Toyota juntas não dá nem metade do valor da Tesla mas cara como que a Tesla ela vem de 1% a menos do que todas as outras marcas de carros e ela vale quase praticamente o dobro Então é isso que a
gente precisa entender a tes ela é uma empresa de dados ela não é só uma empresa de carros então por exemplo ela tá criando agora robôs né então fica essa pergunta para você dados são o novo pretório petróleo hoje sim 100% 100% porque tem esse conhecimento imagina o que a gente já gera hoje dentro da economia com a grande maioria das empresas de forma cega tá fazendo tudo no achismo tá fazendo tudo ali naquele feeling a partir do momento que você tiver dados você consegue segmentar nada é tão cego novamente depois que você começa a
utilizar dados eu vou pensar num novo negócio eu tenho todas as informações na internet de quem são Meus concorrentes eu consigo buscar quantos clientes que eles têm de repente quanto que eles vendem a partir disso eu consigo pensar na minha ideia Qual que é o meu diferencial ainda mais usando llm hoje então eu consigo extrair todos os Meus concorrentes entregar para llm ver tudo que eles fazem o que que tá faltando ela me ajuda nisso e agora eu tenho um produto novo da mesma forma que a gente consegue visualizar para dentro do nosso próprio negócio
em cima de tudo que a gente tem ali com o uso da llm entender Quais que são os meus pontos de falha Quais que são os meus pontos de melhoria baseado no histórico Principalmente quando você tem uma ferramenta essa ferramenta ela vem te auxiliando a olhar para trás pela uma periodicidade que toda empresa depois de um determinado tempo ela tem um nível de crescimento um pouco mais previsível startups elas crescem muito no começo mas depois ela vai ter um um crescimento um pouco mais seguindo uma média e aí a partir disso você consegue trazer muita
previsibilidade cara muito bom muito bom você realmente tem um repertório muito grande com dados tá Marcon você passou por grandes empresas Hoje é a nossa referência número um na academia lendária como dados tá liderando um setor aí com algumas pessoas nos dados da empresa inteira e a pergunta que fica para você é imagina que tem dois cenários uma pessoa iniciante hoje tá ela tem dois caminhos para seguir ela se tornar uma especialista em dados e ela se tornar uma generalista em dados Quais são os Os Dois Caminhos fundamentais ou seja uma pessoa que quer se
tornar generalista Qual que é o 8020 para ela aprender e se ela quiser se tornar uma especialista em dados Qual que é o caminho que essa pessoa deve seguir certo uma pessoa generalista em dados ela tem que entender primordialmente de banco de dados que é o que a gente vai utilizar o tempo todo então você vai começar de uma tabela entenda um Excel Como que o Excel funciona eu eu sempre vou partir disso hoje se pula muito essa etapa do Excel mas eu acho extremamente importante que você minimamente D uma revisão Zinha Entenda como que
ele funciona para depois você passar para os bancos de dados SQL e aprender a sua primeira linguagem que seria o SQL que é uma linguagem de consulta de bancos só com SQL Você já consegue trazer diversos insights diversos indicadores Porque a partir de queries eu consigo ter um banco e eu posso procurar Quais que são os meus 10 produtos mais vendidos simplesmente com uma query eu faço isso em cima de um banco eu eu quero o trazer ali com uma lista de quais que foram os produtos vendidos essa semana consigo também quais são os vendedores
com mais venda tudo isso a partir de queries você seja começa a manipular alguns dados que tem muitas empresas que não conseguem fazer entendeu então você consegue fazer isso para depois você pensar se você gosta de Inteligência Artificial e você quer caminhar pra ciência de dados se você gosta de cloud servidores para caminhar para engenharia de dados ou se você gosta dessa parte do Business você quer falar de indicadores você quer desenvolver volver dashboards para você ir pra parte de análise mas todos esses três profissionais eles entendem de bancos de dados entendem de SQL das
estruturas de dados cara muito bom muito bom essa parte de etl é realmente para mim é o básico se quiser aprender sobre dados você tem que aprender sobre etl e fica recomendação o Marcondes tem um curso fenomenal com mais de 40 aulas na formação lendária Marcondes avançando para um próximo tópico que eu sei que você é especialista todo mundo te requisita na academia lendária né quando se trata de reg Cara o que que significa reg reg é de uma sigla retrieval alget Generation que quer dizer a tradução não é tão boa né que seria o
essa esse argumento de pesquisa retroativa Mas não seria isso né no caso é quando eu tenho um agente quando eu tenho uma llm na qual eu preciso fomentar ela com dados que não estão dentro do treinamento padrão então quando a gente tem uma llm Quando você vê o Marc zenck falando a nossa novel llm tem 400 bilhões de parâmetros quer dizer que ele utilizou de dados extraídos das redes sociais dele da internet seja onde for esses dados e treinou o SL llm Então ela é extremamente generalista ele pegou todos aqueles dados e colocaram colocou em
o mesmo local só que ela não tem um conhecimento do seu negócio por mais que ela entende de tudo você pode perguntar quem foi o primeiro presidente dos Estados Unidos ela vai saber te dizer mas ela não conhece seu negócio ela não sabe quem que é de repente a a pessoa que você tá fazendo um clone Então você precisa fomentar ela com esses dados específicos e aí vem o reg que é a maneira desse agente ler estes dados então quando eu vou fazer um agente Olha eu tenho um cliente eu preciso que esse agente ele
é um SDR ele é um vendedor que que o vendedor tem que fazer ele tem que entender do produto desse cliente ele tem que ter o catálogo de produto desse cliente e saber apresentar vou fazer um agente de CS que é um agente de suporte ele tem que entender da documentação do do da minha ferramenta para na hora que a pessoa perguntar ele falar ele saber como sanar todas as dúvidas dessa pessoa olha eu tenho um agente que ele é social Seller ele tem que entender como fazer o score ali do Instagram fazer o score
da rede social para poder ter uma comunicação vou fazer um clone que é o mais comum O Clone é o que mais utiliza drag por causa que eu estou criando realmente um agente baseado numa Persona quando eu vou criar um um clone por exemplo de um nich de um filosofo eu vou pegar todas a a base que ele tem literária então eu pego todos os livros que o nich tem Se o se o niet Já teve alguma entrevista se ele já teve alguma coluna num jornal da época alo algo desse tipo eu trago tudo isso
também utilizo como um contexto e entrego para a inteligência artificial usar aquilo como base de conhecimento como a a a partir desse momento ele deixa de ter aquele conhecimento generalist eu falo ó esquece tudo que a openi te ensinou e seu conhecimento agora é esse então é um exemplo a gente tem o Alan a o Alan a ele é todo o conhecimento do Alan de entrevistas que o Alan deu do curso do Alan com a comunicação dele e aquilo vira um novo conhecimento Aquilo é a consciência que eu entreguei para aquele agente então reg ele
é uma etapa fundamental quando você quer sair dos gpts você tá saindo ali do básico só da instrução onde eu eu digo para ele assumir uma Persona Olha você é um vendedor aja como um vendedor seja persuasivo Mas de repente esse vendedor eu quero que ele tenha um tipo de abordagem diferente que que eu posso fazer eu posso pegar livros que eu Julgo que ser livros bons eu quero entender eu quero pegar o 48 leis do poder e colocar ali dentro Eu quero pegar o armas da persuasão e colocar ali dentro e aí eu dou
isso como contexto e toda vez que ele for pensar sobre essa resposta ele vai utilizar aquilo como contexto cara muito bom velho que introdução boa sobre reg você que tá ouvindo aí se você não sair desse podcast com aplicação prática para implementar reg na sua empresa Cara você não consegue nem prosperar na era da ia você não consegue nada você tá fora esquece e cara para quem quiser aprender o reg na prática eu vi que você gravou recentemente foi nessa semana um curso so reg isso entrou essa semana um curso entrou essa semana cara como
que funciona esse curso o que que tem dentro dele então esse curso de reg ele tem alguns pré-requisitos que são outros cursos que eu tenho Então como que a gente vai partir você veio do curso de etl você já entendeu todo o processo básico de dados Então você vai partir para um segundo curso meu que é o curso de Python que é a linguagem que majoritariamente o pessoal de dados usa tem pessoas que usa R tem pessoas que utilizam outra mas majoritariamente a gente tá falando de 80 90% do pessoal de dados vai utilizar Python
então eu tenho um curso de Python que ele trata desde o começo da linguagem de forma suscinta até mesmo porque a gente tá falando de Inteligência Artificial nossos alunos eles vão aprender a utilizar Inteligência Artificial aqui a gente não tem nenhum tipo de problema de falar não você não pode usar ia para gerar o seu código eu mesmo já não escrevo o começo de um código mais como eu já tenho os modelos de prompt todo o começo da minha ideia ya vai fazer tudo vai importar todas as bibliotecas vai fazer o começo daquele código e
eu pego a partir daquilo e começo a fazer todas as alterações para que ela funcione da maneira que eu quero então eu venho ali para que os nossos alunos Principalmente quando eles gerarem um código com ia eles saibam o que tá acontecendo ali porque o que acontecia muito às vezes aquele código dá um erro e aí ele pega o erro joga no GPT novamente mas ele entra no looping ele não consegue resolver então você precisa ter um entendimento da linguagem para saber o que tá acontecendo ali então eu venho nesse curso principalmente dessa forma e
depois caminhando para as aplicabilidades disso com inteligência artificial então eu mostro como você usar api da openai para que você consiga trazer da Open a não só o chat GPT mas isso para dentro das suas as aplicações se você tem um site você quer que em algum momento ele tenha um chat seu com a utilizando a openi ele vai funcionar eu quero fazer um pós-processamento de dados vou utilizar api da openi e trago também o huging Face que é um Framework que eu adoro que é justamente um Hub aonde a gente tem diversos modelos de
inteligência artificiais treinados para casos específicos então se eu quero um modelo de análise de sentimento tem um modelo treinado só para Aquilo em vez de usar um modelo da da Open ai com bilhões de parâmetros Eu tenho um modelo treinado somente para aquilo eu tenho modelo de classificação de imagem eu tenho modelo de sumarização então eu venho trazendo exemplos práticos ó como utilizar o modelo de classificação do huging Face para encontrar informações de leads dentro de conversas do WhatsApp então você vai extrair as conversas dos seus agentes que de repente tem 30 mensagens mas eu
quero só o Lead quero só o momento na hora que ele me falou o e-mail dele e me falou o nome dele então você usa um modelo de llm para extrair isso que na larga escala principalmente pelo huging Face se open source ou seja ele é de graça você economiza muita coisa porque se você fosse fazer requisições para Open a você teria um gasto enorme principalmente a partir do volume de dados que você ten eh e o próximo que seria o curso de L chain que é a base pra gente chegar no reg o l
chain ele é um Framework que ele é aplicado com o Python então L el é uma biblioteca que você utiliza com python que ele vai te dar umas possibilidades assim ele te abre um leque de llm muito grande onde você vai conseguir controlar certas coisas que ali dentro da Open a você não consegue Então você consegue controlar por exemplo memória desse seu agente quando a gente tá falando de custos de grande operações a gente tem um custo muito grande de contexto lá dentro do do Lang chain Você tem o conversation Memory buffer Onde você consegue
trazer por exemplo eu consigo limitar a quantidade de de mensagens que ele vai lembrar então Ó você só vai lembrar as quatro últimas mensagens do seu usuário não eu consigo limitar número de tokens você só vai lembrar coisas até 250 tokens então quando eu tô perguntando qual que é o seu nome Pedro qual que é seu cargo gestor de automações qual que é sua história e você vem com a história gigantesca de 500 tokens ele não lembra não entra no contexto eu economizo o token com isso e para mim o meu favorito é o summary
memory buffer que toda vez você vai resumir e você traz Aquilo em uma Chun só ou seja em um bloco só então quando você me respondeu que seu nome é Pedro que o seu cargo é o o gestor de growth e que em seguida você tem contou a minha história ele vai guardar de uma forma só resumida que o nome dele é Pedro o cargo dele é isso e a história dele é essa e ele vem Resumindo sempre você economiza no contexto de forma enorme Você tem o que dá nome a ferramenta que é L
chain e esse chain vem de encadeamento onde eu consigo criar uma esteira de Agentes Onde por exemplo na criação do Lab a quando a gente foi fazer aquele 150 né onde eu fiz 150 agentes numa tarde foi num modelo de encadeamento de Agentes onde eu tinha um agente que me dava ideias de setores de empresa que enviava essa resposta para um segundo agente que identificava atividades desses setores de empresas que poderiam ser substituídas ou auxiliadas por EA que enviava isso para um terceiro agente com a descrição dessas atividades que envia para um quarto agente que
transforma essa descrição de atividades em um prompt de agente que envia para um quinto agente que vai me trazer o nome e a saudação desse agente com todos esses outputs eu simplesmente criei uma query que subiu onde a gente criou 150 A agentes totalmente únicos que executam trabalhos de empresas tradicionais que vão te auxiliar durante o seu dia a dia cara Sem palavras para falar isso velho o cara falou de etl de reg Python L chain e agora a gente entrou em multiagentes exato Então olha o nível de profundidade que a gente foi aqui galera
que o marcont tem e coisas que a gente não vê no Brasil cara isso eu estudo para caramba sobre dados programação Isso é coisa que só a galera do Vale tá falando recentemente que é multiagentes ess esse último estago que a gente parou tá e cara recentemente eu vi que tem uma empresa chamada ci do João Moura inclusive o João Moura é um parceiro da academia lendar e essa ferramenta ela surgiu a partir do leng chain também na criação de multiagentes cara o que seria isso multiagentes você falou que tem como criar vários agentes conectar
todos eles e se é possível daqui a pouco a gente ter uma empresa 100% por agentes Exatamente esse é o caminho que a gente vai ter a crei ela vem facilitando o uso do Lang chain é mais fácil de utilizar do que o lchin e ela faz o que no lchin é chamado de router de uma forma muito boa que é um administrador desses agentes Então vamos pensar no setor de marketing no setor de marketing Eu tenho um copywriter eu tenho uma pessoa para poder trazer ideias de nomes por exemplo pro meu produto eu tenho
uma pessoa que faz gestão de tráfego e eu tenho uma pessoa ali que traz por exemplo uma ideia dos meus criativos eu posso transformar cada um desses em um agente porém Nem sempre eu tenho de usar todos então eu crio um administrador quem que seria o gerente Desse pessoal E aí a partir da demanda que eu mando para ele ele seleciona de quem ele precisa e ele consegue entregar o resultado de um para outro então ele consegue manipular aquilo e fazer validações isso é muito interessante porque por exemplo eu posso ter um copywriter Júnior e
um copywriter Senior onde o júnior vai desenvolver ele entrega pro Senior validar se ele achar ruim ele volta para trás e o agente refaz novamente então a gente consegue trazer todos esses processos por quê E aí as pessoas pensaram Mas por que que eu não faço só um agente Sênior de uma vez porque quanto mais eu enxuta esse prompt melhor porque aí meu agente não alucina então eu dei um focado em fazer isso e um outro focado em avaliar e ele retorna para o antigo com notas e pontos a melhorar e o e o o
agente anterior consegue trazer um resultado melhor então com isso você tem um processo de validação e você consegue criar um o setor todo vou te dar um exemplo de aplicação com crei que eu desenvolvi com o JV ali no setor de dados que foi justamente um agente de dados de análise N1 então o que que aconteceu o Zuko me enviou uma pesquisa de satisfação da comunidade onde os nossos alunos respondem o quanto eles estão satisfeitos em diversos tópicos a gente criou um agente para cada tipo de dado por se eu tô olhando para uma coluna
de feedback ali não tem nada numeral Então como que eu olho para isso análise de sentimento então ele vai pegar aquela coluna trazer como análise de sentimento se eu ten uma coluna numeral ela tá falando de valores eu preciso de um agente que ele é mais matemático que ele vai entender ali para trazer as médias para poder trazer a soma de tudo aquilo ali se eu tenho uma coisa temporal evolutiva eu preciso de um de um agente que entenda disso de séries temporais então a gente criou um Hub de 10 agentes que entende de cada
tipo de dados um gerente que quando você sobe a sua planilha ele vai selecionar Qual agente específico vai trabalhar em cada uma das colunas e correlacionar esses dados e gera para você automáticamente um documento em PDF com os seus principais indicadores as suas ações e insights em cima desses dados e já plota um gráfico da visualização que pode ser criada em cima desses dados E aí com isso a gente tirou um problema que eu tinha muito grande que era análise de dados N1 era o pessoal na na empresa chega cara na Analisa essa tabela para
mim eu falar pô cara eu tô gastando um tempo que eu tô criando um projeto muito maior aqui para analisar essa tabela para você deixa eu resolver isso aqui de uma vez e aí a gente criou toda essa esteira com 10 agentes de dados e um gestor ali que consegue identificar Que tipo de dados a gente consegue trabalhar muito muito cara demais cara você deu exemplos muito práticos para quem é uma empresa intermediária Ou seja já tem um nível de faturamento bom e tá querendo estrar o setor de dados E você também deu o exemplo
de empresas já estruturadas que podem utilizar tanto dados como Iá para poder potencializar mais a escala cara você pode dar um exemplo do que seria o 8020 ou até mais o 0,8 que a gente fala aqui na academia lendária que uma empresa que tá nascendo agora precisa ter então Quais coisas são essenciais de dados a gente ouve muito falar sobre Power bi looker Studio Você pode falar um pouco mais disso pra gente posso o essencial é se você não tem dados use os dados dos outros você tem concorrentes esses concorrentes T dados você consegue estudar
o mercado a partir disso se você tá criando a sua empresa agora utilize os dados dos seus concorrentes para você mapear o seu produto você já vai conseguir olha os leads dele Olha o que que o pessoal tá falando na rede social dele olha quantos clientes que ele tem quais os produtos ele tá oferecendo Qual que é a Cadência de desenvolvimento de Novos Produtos que ele tem qual que é uma demanda que de repente você tá visualizando que os clientes dele estão pedindo e ele não tá sanando Venha você e sane entende então você pode
você vai usar os dados das outras pessoas porque você ainda não tem então por que que você vai pensar nisso você ainda não tem esses dados o mais importante é a partir do momento que você criar a empresa estruture esses dados o que acontece muito em processo de startups é vou resolver tudo em planilha de excel vou resolver tudo em sheets e depois some E aí cara Sumiu infelizmente não tem o que a gente faça para poder aparecer Já atendi com consultoria diversas empresas que eles praticamente a gente falava assim cara os primeiros dois anos
de empresa nosso foi apagado porque ou a gente usava um RP muito barato que a gente deixou de usar ele não fez um um Export direito né um backup daquilo tudo ou a gente usava um monte de planilha solta que funcionário foi demitido levou embora que foi apagado Então você tem que estruturar esses dados minimamente num banco de dados ou até mesmo se você utilizar Excel eu prefiro que não porque pode ser apagado mas que você tem um backup disso você tem uma mínima organização para quê você tem esse histórico como eu disse o ouro
é você ter o histórico é você ter os dados coletados E aí no momento que for hábil você vai ter um profissional de dados para poder vir trazer os insights para poder gerar realmente valor com aquilo mas o quanto antes comece a traquear é todas as demandas Já atendi demandas do seu setor que eu te disse isso olha não consigo desenvolver o dashboard agora mas vamos fazer o processo de scrapping vamos fazer o processo de começar a coletar esses dados o quanto antes pra gente já ter o histórico para que no momento que eu vá
desenvolver o dashboard eu já tenho isso muito bom galera olha quanto conteúdo sobre dados o Marcon trouxe aqui des gtl rag Python até finalizando o lank chain então você vê que ele tem um vasso repertório Parabéns Marcos raro ver esse conhecimento no mercado sobre dados e eu fico muito feliz de ter um profissional tão bom quanto você hoje na academia Então cara para finalizar Eu sempre quero encerrar fazendo uma pergunta extremamente importante para cada pessoa que da do da academia lendária que tá indo do ecossistema que envolve a se você p explicar em menos de
um minuto Qual foi a coisa mais que você já fez com i e como você criou ela cara acredito que a mais para mim de dados foi essa esse desenvolvimento dos multiagentes porque é uma demanda que eu tenho há 6 anos é uma demanda minha que eu consigo olhar e pensar em todo tempo que eu gastei desenvolvendo ela há 6 anos e hoje a gente consegue resolver isso em segundos minutos e principalmente vê que o meu escopo ele é um escopo muito mais complicado do que diversas outras pessoas tem setores aí que são coisas P
uma criação de vaga para um RH a gente automatiza isso agora muito fácil uma validação de um currículo automatiza muito fácil então se algo tão avançado que é um setor de dados que eu tô trazendo para ti que tem empresas que nem tem eu já tô conseguindo automatizar Quem dirá um financeiro um RH um setor de vendas um setor de de Então acho que isso explica tudo muito bom então foi essa esse essa esses multiagentes no setor de dados que você criou para dados N1 lá com o JV aqui na academia lendária exato bom muito
bom cara ficamos por aqui galera analisamos mais um backstage lendário com Gabriel Marcon cientista de dados da academia lendária Gabriel Marcondes como que faz pra galera ter acesso aos seus cursos te achar depois Quais são suas suas Fala aí pra galera Então pessoal adquirindo a formação os meus cursos são exclusivos da formação lendária então vocês vão ter acesso ao curso de etl ao curso de Python ao curso de leng chain e reg são mais de 100 aulas que eu tenho dentro da formação e vocês podem me encontrar através do meu Instagram Marcondes pdata Então é
só vocês me seguirem lá venho produzindo conteúdos trazendo insights paraa parte de dados e o que precisarem vou estar à disposição fechou ficamos por aqui galera Valeu Marc é isso Até a próxima valeu