E aí pessoal conseguiram me ouver Bom dia para todos dá um sinalzinho aí para mim que vocês estão me ouvindo pode colocar aí no chat colocar um oi Estamos por aqui legal top top Valeu Flá valeu valeu pessoal bacana Já estamos com 87 pessoas e subindo aqui vamos iniciar aí pessoal em 4 Minutinhos tá Vou pedir para vocês aguardarem em 4 minutinhos a gente começa exatamente às 10:35 vai ser uma palestra bem bacana aí para falar de a generativa 100% André Tolosa bacana bom dia bom dia a todos aí que vai entrando pessoal a gente
já vai iniciar mais uns minutinhos só a gente já inicia bastante coisa aí para falar de a Generativa Já estamos com 114 pessoas bom dia bom dia Lucas Bom dia Ricardo Bom dia para todos aí mais um minutinho a gente inicia mais 30 segundinhos aí a gente inicia colocar em tela cheia aqui para vocês Tô de olho aqui no chat para vocês tá caso venha alguma pergunta vocês podem colocar aqui no chat Então vamos iniciar aqui pessoal Vamos falar aí de a generativa e como ela tem mudado aí as coisas nos últimos tempos né tá
bem rápido aí a evolução então para quem não me conhece o meu nome é Williams stevan Eu trabalho aqui na totos faz 3 anos e antes da totos Aqui eu trabalhei numa empresa chamada eventin uma empresa de Ticket multitenant e antes dela trabalhava numa empresa chamada ne Grid e trabalho muito tempo né com plataformas de dados trabalho com dados Desde 2005 Então faz Algum tempinho aí também sou professor lá na FIAP né no MBA de bi Analytics então também alguns alunos às vezes podem de me conhecer aí e estamos aí trabalho como cientista de dados
leram o time aqui foi convocado aqui na totos para construir uma plataforma de dados dentro da parte SAS né dentro do time de logística E aí dentro dos produtos SAS aqui aonde a gente tá colocando a i generativa para trabalhar conosco aí dando tempo ali no finalzinho eu mostro Um pouquinho para vocês o que que tem dentro do nosso produto e que tá em evolução né tá tudo em evolução e aí a gente vai começar a nossa palestra aqui para alinhar os conhecimentos Agradeço a todos aí pela a presença pessoal fiquem super à vontade aí
para postar suas perguntas à medida que a gente for desenrolando aí a nossa apresentação vamos lá bom começando a falar um pouquinho aqui da i Generativa que que a gente vai tocar né Quais são os pontos né fazer uma breve introdução o que que é e generativa falar de terminologia rede neural tokenização modelos agentes E aí o que a gente tá fazendo aqui abrir o software ali mostrar um pouquinho para vocês do que que a gente implementou bom pessoal desde que os computadores aí foram inventados né a gente se vocês olharem paraa história de Inteligência
Artificial lá desde os primórdios a gente sabe que que os computadores eles são máquinas né de calcular né com um monte de instrução que a gente coloca para ele que são umas máquinas bem glorificadas aí né mas teve uma evolução bem grande né bastante tempo aí Muitas coisas aconteceram na era de de Tecnologia de computação de dados né eu mesmo passei por muita coisa na parte de dados e essa evolução ela veio uma certa velocidade mas deu um Boom recentemente Né O que aconteceu agora com as máquinas né além delas executarem as instruções que a
gente tá acostumado a colocar na hora que a gente tá programando elas aparentemente aprenderam a pensar né então isso é o que tá revolucionando agora né Elas podem realizar trabalhos criativos intelectuais e além de tudo parece que são coisas que humanos sabem fazer né então a gente chama essa tecnologia dela pensar dela escrever ou dela reagir como um ser humano como Iá Generativa eles ficaram mais espertos né então aqui você já vem uma telinha né da IAG Nativa expliquei Pedi para ela assim ó explique para mim como se fosse para uma criança de 10 anos
o que que é você né ah eu sou o seu amigo inteligente é bem interessante isso daqui porque aqui tá no texto né tô interagindo com ele na forma de texto mas é bem interessante também quando a gente pega o celular hoje n para quem baixou a última versão aí do chat GPT né Essa que tá em previu Você coloca ali o microfone e começa a trocar ideia com ela tá bem interessante isso se comportando bem como se fosse um seu amigo né dá uma sensação que você tá realmente conversando com uma pessoa a a
ideia né B basicamente o a a questão aqui na Inteligência Artificial ela que ela tá como um serviço ali pra gente né E ela parece um cérebro né Se você prestar atenção parece que as pessoas agora estão conversando ali com um grande cérebro gigante aquela coisa que Sabe tudo né ele não é perfeito né mas ele é bem capaz assim de realizar muitas coisas pra gente né Tem um conhecimento lá que a gente sabe que é um conhecimento que é exponencial né e e ela tá aqui parece que sempre para ajudar a gente então falando
um pouquinho dessa tecnologia a a gente vai falar um pouquinho de como que ela pode ajudar a nossa empresa como que ela pode ajudar a gente a prosperar nessa Época e aí a gente vai entender um pouquinho né como viver nessa era da Inteligência Artificial pra gente fazer uma analogia aqui bem simplesinha bem bem tranquila mesmo né Eh vou propor para vocês aqui um modelo mental né a gente vai pensar da seguinte forma aqui tá vamos imaginar o seguinte imagina que a gente tem um Einstein um aen lá no porão da nossa casa né tá
lá no cantinho num quartinho lá da nossa casa e esse eisten Basicamente todas as pessoas agora tem um ien dentro de casa né é uma é uma inteligência que tá ali uma pessoa um ser que tá ali né E que é uma pessoa que a gente sempre quis conversar tirar dúvidas falar com a gente né Ele é uma das pessoas mais inteligentes do mundo super Super agradável para se conversar né super inteligente e sempre pronto ali para responder pra gente e esse Einstein que a gente pode conversar ele tem acesso a toda a base de
informações que A gente possa imaginar de de todos os tempos quase aí da da internet então a gente vai fazer essa analogia o legal desse desse Einstein né que tem acesso a todo esse conhecimento humano é que ele acessa ali né à informações de todo mundo e responde pra gente com uma super educação pra gente nunca perdendo tempo respondendo rápido pr caramba né E esse Einstein ele pode assumir papéis né ele pode ser por exemplo um comediante ele pode ser um poeta pode ser um médico Pode ser um treinador pode ser um advogad tem pessoas
que usam ele como psicólogos né para fazer consulta e e conversar bom dia bom dia aí pro pessoal que tá entrando agora então ele pode se tá aí como vários papéis né E você pode conversar com ele tirar alguns tipos de conclusões tal né e o interessante é que esse ele tem alguns tipos de limitações semelhante à limitações humanas que a gente tem Mas qual que é a maior limitação do Nosso Einstein né que a gente vai conversar a limitação pessoal na verdade não tá no ein a limitação tá na nossa na nossa imaginação o
o que que eu posso fazer com esse Einstein né Isso tá muito ligado pessoal com a questão de você falar com os prompts como você digita ou como que você Questiona ou como você pede para ele fazer uma uma atividade a maioria das pessoas até subestima enormemente o Einstein aí por quê Porque às vezes não sab como fazer aí as Verdadeiras perguntas né a gente tá com Einstein lá no porão só que às vezes a gente vai pedir para ele por exemplo ó Analisa aqui esse relatório para mim esse relatório Zinho aqui do ensino médio
ou às vezes você tá chamando o Einstein né que pode ser para você um chefe de cozinha cinco estrelas e aí você pede para ele cortar cebolas né então você tá subestimando ele aí né então quando a gente interage com o Einstein né a gente vai entender que o Promt que a gente coloca ou seja o texto que a gente faz Os questionamentos para ele ele é super inteligente para ele poder nos ajudar e nos dar as respostas que sejam super interessantes pra gente para nos ajudar E aí a gente começa a falar um pouquinho
de terminologias que são importantes pra gente nessa era da ia generativa tá Então a gente fala um pouquinho aí de Inteligência Artificial quando a gente fala de inteligência artificial é bem Mais difícil de definir o que é inteligência para algumas pessoas do que o artificial o artificial é até fácil dessa frase né porque é uma inteligência criada por humanos o que que é artificial uma inteligência criada por humanos né Se a gente for buscar isso no dos dicionários mais famosos do mundo o de Cambridge ele vai ter uma um sinônimo aqui que ele vai colocar
aqui ó uma inteligência fake ou seja uma inteligência falsa aí já não fica tão Glamuroso né pref prefiro até chamar de Inteligência Artificial mas existe essa definição uma inteligência aí criada por humanos fake né a inteligência pessoal Ela é bem complexa da gente definir né o artificial foi fácil mas quando a gente fala de Inteligência é bem difícil né Por né como é que a gente pode dizer que uma pessoa é inteligente Qual que é o processo ou julgamento que a gente faz quando a gente diz ó essa pessoa aqui é Muito inteligente né Por
qu Às vezes a pessoa solta um monte de cálculos para você umas estatísticas lá e aí você diz ah essa pessoa aqui é inteligente né né Então depende muito do contexto do ambiente que você vive né entre outras coisas não são puros cálculos matemáticos né embora a gente tenha e cálculos que são executados através do teste de QI Aliás o teste de QI Ele é bem Bem antigo foi no meu xará aqui o William stern em 1912 que criou esse Teste ele foi evoluindo ele tá bem sofisticado hoje em dia né mas quando a gente
vai falar de inteligência a inteligência na real ela ela abrange outros temas por exemplo como abstração lógica entendimento autopercepção aprendizado conhecimento emocional reflexão planejamento criatividade resolução de problemas pensamento crítico né entre outras coisas então para falar que uma pessoa é inteligente ela pode ser inteligente Pode não ser tão boa numa coisa mas ela pode ser muito inteligente em outra coisa se a gente não não compreende plenamente todas essas possíveis nuances aí da Inteligência humana né Qual que é a validade né do argumento que a gente fala assim ah o chat deft é inteligente né quando
a gente fala ISO Isso depende muito do que a gente conhece né pra gente poder falar que aquilo lá é inteligente né mas as pessoas que trabalham com iá eu por exemplo como Cientista de dados a gente que estuda bastante tempo a gente que passou bastante tempo fazendo algoritmo especialista regressão linear handle Force entre outros tipos de algoritmo né a gente não tá enrolando Geralmente as pessoas quando a gente tá falando de Inteligência Artificial ou dessa tecnologia nova né que teve esse bom que a gente vai falar bastante aí ainda continuando falando da terminologia de
a a ia é uma área que Aborda também a parte de computer Vision né a parte de machine learning e a ia generativa é um campo dentro da ia da onde a gente vai falar de desses modelos que são grandes modelos aí que podem aprender a criar coisas né E esse essa parte de criar coisas que é o g do GPT né que vocês ouvem falar bastante chat GPT mas na verdade o modelo que tá por trás né que a gente chama de llm large language mod né ou grandes Modelos de linguagem que a gente
pode colocar aí esse g de generativo é essa propriedade que ela tem aí de criar coisas pra gente aí que muitas vezes a gente pode falar até que é original embora seja baseado em muitas coisas que ocorreram às vezes essa combinação de coisas que tem no passado mas uma coisa que existe no passado é criar uma imagem nova por exemplo que você nunca viu é esse que dá o contexto de ele ser generativo né bom o chat GPT que a gente Conhece né o chat GPT ele não é o cérebro da coisa né na verdade
o chat GPT é o programa ali né o produto de software né que a gente acessa ali dentro o chat GPT ele faz uso né o GPT ele faz uso do T de transformer o t que existe aqui na letrinha né que foi um estudo desenvolvido P pelo pessoal da Google e a olha como ele é tão recente Esse estudo pessoal ele é um estudo de 2017 nesse estudo que fala attention is all unids tem lá a palavrinha da nova Arquitetura chamada Transformer né durante todo esse tempo a parte de Inteligência Artificial ti teve vários
tipos de arquitetura a gente vai falar um pouquinho daqui a pouco de rede neural né vários tipos de arquitetura mas essa arquitetura do transformer foi aquela que deu bom a Google pegou e lançou esse Esse estudo mas Adivinha quem foi que popularizou ele foi curiosamente pessoal a Microsoft através da Open Eye que conseguiu popularizar Essa esse tipo de tecnologia e pensa só né Colocar inteligência artificial na mão de cada pessoa que queera consultar alguma coisa então hoje você vê que ela tá super acessível né Qualquer pessoa aí pode interagir com uma Iá super poderosa com
um cérebro super gigante ali com ein que tá ali dentro do porão dela e fazer Os questionamentos né então isso é super super super magnífico né O que tá acontecendo hoje hoje isso tá impulsionando muito a nossa área de Pesquisa né porque as pessoas estão buscando atrás as empresas estão procurando isso para ter uma vantagem competitiva ou seja o negócio explodiu né a gente tem todo um Hype né que daqui a pouco ele se balanceia e daqui a pouco ficam as pessoas realmente que acabam ali trabalhando bastante com isso daí ela veio para ficar não
é só um Hype esse tipo de de tecnologia mas o que que acontece nesse estudo né geral pessoal a parte dessa e a generativa de converter Ela começou com a ideia ali de converter ali os textos converter em números transformar eles esses números né e depois eh fazer uma combinação dentro de um banco de dados que daqui a pouco a gente vai comentar um pouquinho mais de um banco de dados multidimensional e colocar e transformar isso novamente em eh palavras pra gente aí aqui com as novidades Eu vi que o Rafael já abriu pergunta ali
no finalzinho Ô Rafael vou mostrar para Vocês uma interação que a gente tá colocando e a generativa e dentro das tarefas de cada produto né porque é um uma vasta gama de produtos que a gente tem aqui dentro da totos a gente tá usando em várias partes não somente para as pessoas interagirem com o chat inteligente com uma inteligência por trás mas como também ele começar a disparar triggers e Acionar e trabalhar como um agente a gente vai chegar lá daqui a pouquinho a gente fala um pouco Mais sobre isso para falar de como computadora
aprende pessoal isso aqui é super super importante tá pra gente falar da nossa I generativa entender como ela funciona a gente vai falar um pouquinho de como que os computadores aprendem a fazer algo Claro Leonardo posso compartilhar apresentação sim tranquilamente tá E essa apresentação ela tá bem bacaninha porque no final tudo que eu vou mostrar aqui eu vou abrir alguns links aqui ela Tá com várias explicações para vocês poderem Navegar e ver tranquilamente a gente compartilha tá então voltando aqui como o computador aprende alguma coisa tá como que esse computador aprende alguma coisa por exemplo
pessoal a gente gostaria de fazer com que ele aprendesse a reconhecer as imagens né tem um tipo de rede neural que a gente chama de convolucional que faz esse tipo de papel um outro tipo de Arquitetura não é aquela do GPT é um tipo de arquitetura chamada a do GPT é o Transformer né e a convolucional por exemplo é usado por por exemplo no mid Journey por exemplo que é uma outra ferramenta de a que nos permite criar imagens né faz uso desse tipo de arquitetura são arquiteturas de rede neural diferente mas quando a gente
vai falar que o computador aprende alguma coisa a resposta tá um pouquinho mais parecida aí do jeito que a gente ensina Uma criança a reconhecer as fotos por exemplo de gatos imagina que a gente tem aqui a professora né ela tá mostrando aqui o que que é gato tem um pássaro tem um cachorro e por aí vai né então da mesma forma pessoal que a gente ensina o mid J é maravilhoso né Eu também acho Ah tô achando muito legal tem muitas coisas muito legais acontecendo aí então o que que acontece aqui eh nessa parte
aqui da professora ensinando o computador também vai aprender da Mesma forma só que a diferença pessoal e é um legal a nuance do que a gente vai falar nesse slide é tão interessante por quando a gente fala de computador para ele poder reconhecer uma imagem para ele a Ender sobre essa imagem a gente tem que fazer o quê mostrar um monte de fotos para pro computador lá pro programa para ele poder reconhecer a gente faz um treinamento massivo de informações para trazer para ele poder compreender então o treinamento quando a Gente fala de de de
de computadores né desses sistemas desses cérebros que são treinados né dessas llms né a gente precisa um treinamento massivo que leva bastante tempo ali para ele ser treinado né então por mais que às vezes a gente fala que os gatos eles podem ser parecidos né Aí cada vez que a gente faz o treino com uma uma criança a gente mostra a foto para ela ela fala assim a gente mostra aqui a foto do do gatinho ela fala cachorro aí você fala assim não Não é um cachorro né isso aqui é um gato a gente corrige
ela aí por exemplo se a gente mostrar uma outra foto pra criança né E aí apareceu aqui uma onça aí de repente você fala olha só que que é isso daqui Aí ela fala assim ah isso daqui é um gato aí tá quase lá porque como o gato é muito parecido ali com o felina ou com o Jaguar né ela vai confundir Mas ela já tá no caminho certo então ela pode confundir a gente corrige ela né mas ela ela já tá no caminho certo da Mesma forma o modelo pessoal de que a gente treina
ele pode até confundir algumas imagens e a cada vez mais ele vai Acer ele vai a gente vai corrigindo vai treinando esse modelo ele vai ter dentro dele algoritmos também que ajudam que ele possa se corrigir aí a gente fala um pouquinho de back propagation para isso tá um pouquinho mais avançadinha ali mas é uma é um processo contínuo de ajustando né esse esse algoritmo para que ele possa acertar Cada vez mais né mas pra gente fazer isso a gente treina ele com muitas muitas e muitas informaç a ironia é que a gente como humano
né a gente precisa de muito menos dados para aprender isso né a gente é muito bom em reconhecer padrões enxergar por exemplo as nuvens no céu quando a gente olha olha ali as nuvens no céu a gente começa a criar imagens e tal né e e já e já entende aquilo né simplificando a gente né capita capta a luz né que entra nos Nossos olhos Aquilo é transformado em impulsos elétricos né e a gente converte aquilo e a gente entende já por trás dos computadores pessoal existe muita matemática mas muita matemática para que ele possa
entender então a gente como humo a gente aprende com as experiências daquilo que a gente tá vendo e interpreta a gente interpreta tão bém pessoal que se a gente Verê uma cena como essa que tá ali do lado direito do nosso slide vocês sabem o que significa Né se a gente Verê a mãe da gente segurando um chinelo O que que a gente faz é deixa eu correr daqui né já nos casos dos computadores pessoal eles aprendem através um processo que a gente chama isso de redes neurais tá então o que que é uma rede
neural bem Como que isso daí funciona né como que uma llm uma uma o nosso cérebro aí do que o Einstein possui ele aprende né como que uma llm que é uma rede neural artificial vai entender isso basicamente pessoal é Um monte de números né um monte de parâmetros que são conectados entre si Então as redes elas lidam com os números entra números e sai números mas nós podemos traduzir isso para que o computador possa entender para que o programa possa entender a gente pode converter texto em números pode converter imagens pixels em números podemos
converter áudio em números vídeo em números isso entra no nosso modelo é processado é convertido novamente e sai A informação pra gente ou seja quando a gente coloca uma frase assim ó pro chat GPT ou para uma outra llm que a gente tá fazendo uma consulta né pode ser o grock por exemplo você vai lá no grock né e faz lá a inferência e faz a pergunta escolhe lá LM ah coloquei o Lhama para responder para mim então fui lá e coloquei cachorro são completa para mim aí ela entra essa palavra cachorro são a gente
tem aqui ó convertido em números entrou aí ela completou Animais Depois disso ela é retroalimentada novamente cachorros são animais completa para mim que E aí vai de novo cachorros são animais que e que são conhecidos por serem o melhor amigo do homem Então nesse processo evolutivo que a gente tá visualizando aqui basicamente né cada palavra né a máquina no final das contas ela se torna uma máquina de adivinhar para ver qual que é a próxima palavra é lógico que ela faz esse tipo de inferência porque dentro Dela ela foi treinada com milhares de palavras dentro
dela tem esse algoritmo essa base multidimensional que trabalha com vetores e ela consegue enxergar Qual que é a palavra mais próxima de acordo com o contexto que você vai colocando para ela então nesses bastidores né a gente pode gerar uma história inteira em cima disso para aparecer continuando aqui não sei se vocês já viram uma rede neural de perto ela funcionando né a Google ela fez um Trabalho bem interessante criando um programa pra gente tem aqui Um linkzinho na apresentação vai ter o link para vocês também para quem é pegar a apresentação que aqui tá
escrito tensor Flow Se eu der um clique aqui ó ele vai sair da minha apresentação tá e entrei aqui na página da onde tem o tensor Flow tá aqui eu posso des Ligar esses parâmetros tirar daqui desligar desse lado aqui dos parâmetros vou desligar esses parâmetros Então tem aqui os parâmetros Então imagina aqui eu tenho aqui uma imagem eu tenho um objetivo tenho aqui olha uma imagem que eu quero que através dos parâmetros que eu for entrando através dos parâmetros que eu for colocando Eu eu ele posso tentar montar Isso pensa numa rede neural como
se fosse aquelas massinhas de modelar que você vai entrando com Parâmetros e você vai ligando os neurônios como se fosse do nosso cérebro perceba que agora ó no fundo a imagem mudou ó eu quero desenhar o que tá em cima embaixo ele consegui se aproximar disso vou ligar os parâmetros posso colocar um neurônio aqui ou dois neurônios colocar mais neurônios mais profundidade e aumentando o número de neurônios isso aqui é o que a gente chama de Deep learning quando a gente vai colocando Camadas na nossa rede neural e aqui dentro vão acontecendo cálculos matemáticos e
a vão retroalimentando os outros pontos para que chegue até construir a imagem que a gente gostaria aqui é uma rede Deal bem simplesinha aonde eu tô colocando vários parâmetros de entrada alguns parâmetros de entrada e coloquei aqui cinco camadas de neurônios então eu tô com 8 x 5 40 neurônios aqui aí nesse momento eu clico aqui no Play e ele vai tentar modelar de Acordo com os cálculos que estão ocorrendo ali para tentar fazer aquelas curvas que estão ali ó você tá vendo as imagens Se moldando ali até chegar num ponto que fica parecido com
a imagem que tá em cima Então isso é a nossa rede neural trabalhando ali para tentar desenhar essa espiral que a gente tá aqui olha tá tá quase bom ó ela tá tem tentando tirar ó Tirando a parte do amarelo que parece uma areia aqui né E vai se modelando então bem interessante Aqui depois vai est lá na apresentação para vocês darem uma olhadinha a ideia né é que ela você vai acrescentando e ela se torne aquela imagem de fundo que tá ali É bem interessante o assunto rede neural porque assim o pessoal às vezes
fala tá legal willam E aí uma rede neural você tá mostrando aí com com com cinco né camadas e com 40 neurônios né mas quando a gente fala pessoal dos parâmetros e a quantidade de inputs pessoal que entra num chat GPT da vida São trilhões de parâmetros que entram para que ele possa ser associado e dar as respostas que existem O legal que eu trouxe esse slide aqui é para você entender que não existe só um tipo de rede neural a rede neural pessoal começou lá atrás em 1958 quando foi criado a primeira rede neural
de um neurônio ali com perceptron super simples né como você tá vendo aqui entrava alguns parâmetros e saí aqui e devolvia mas ele é bem parecido né a Ideia mesmo inspiração aí de um neurônio humano onde a gente tem aqui a mitocôndria aqui tem as asis que são ligadas com outros neurônios que disparam os impulsos elétricos mas existem vários tipos de redes neurais né então a gente tem aqui o nosso perceptron que é essa mais simples que a gente tá vendo de um neurônio só mas a gente tem aqui olha redes ne convolucionais que ajudam
a montar Imagem por exemplo né e várias outras nuances aí das redes neurais mas como é que as redes orais trabalham né se você tá entrando com um texto aí esses textos estão sendo convertidos em números porque é o jeito que a máquina aprende né eles são convertidos em números e esses números entram dentro do nosso modelo são calculados e depois devolvem pra gente um outro texto se a gente olhar aqui um pouquinho mais mais profundamente a gente fala que o texto Ou áudio ou vídeo que a gente tá entrando ele tem que entrar nesse
modelo do transformer né que a gente falou ali da Google é o jeito que a máquina aprende através de uns e zeros então o que que a gente vai fazer para ele falar para esse modelo de machine learning para ele entender a gente tem que converter o texto que a gente tá entrando em números e para converter esses textos em números a gente chama isso de Tokens é um algoritmo que cada llm tem na hora da conversão nesse modelo de transformer para poder converter as palavras que a gente digita que a gente fala as imagens
né ah Williams mas as imagens no São do modelos de rede neural convolucional não somente por exemplo quando você usa ali o o Dali aquele lá dentro do chat GPT se você utilizou já alguma vez dali para gerar imagens Oli que é bem interessante também o Dali ele não usa uma rede o convolucional ele usa O próprio Transformer por quê usa nessa estrutura pega os pixels converte cada pontinho daquele num número e ele entra dentro do modelo nos quando a gente fala ali dos textos né que a gente vai converter eles aí os tokens que
estão aqui é uma forma bem inteligente do algoritmo trabalhar eu coloquei aqui uma imagenzinha para você poder dar uma olhada eu coloquei aqui ó no GPT 4 aqui essa é uma ferramenta da Open vocês podem abrir lá também ter acesso tá que É o tokenizador tá então você coloca assim ó totus is a great Company to work for perceba que ele vai pegar as as palavras que estão aqui e vai converter isso em tokens para entrar no nosso modelo os tokens no final das contas são números tá Geralmente os tokens não são uma letra tá
eles podem ser uma letra também tá mas eles podem ser também uma palavra Então como você vê aqui olhae converteu aqui a palavra totos is pode perceber que o virou um token a virou um Outro token great Company to work for outro ponto e o ponto também é um token Então nesse modelo aqui que é o 3.5 e o 4 do GPT ele coneu dessa forma se você perceber isso é tão interessante porque a ideia de conversão de tokens pessoal poderia ser assim tá eu poderia criar o meu algoritmo de conversão que seria assim ó
cada Token para entrar na máquina né vai virar um número lá dentro poderia ser assim ó ah a letra A é o número um a letra B é o número do a Letra c é o número TR só que não seria tão eficiente né E também não seria tão eficiente criar uma tokenização por palavra porque a gente tem vários idiomas no mundo né então não seria tão eficiente agora por exemplo você tem uma palavra que se chama arquiteto arquiteto em português aquela partezinha chamada kit do arquiteto o kit é uma parte que pode ser em
inglês pode ser um Tok e aí representar o número 525 e esse k que tem na palavra arquiteto que vai quebrar Pra gente português ser utilizado então você pode usar ele em várias linguagens várias vários idiomas isso é muito inteligente esse esquema de conversão de tokenização Olha a mesma frase pessoal só que agora em português PR vocês verem a diferença Então tá aqui ó totos é uma ótima empresa para se trabalhar perceba que em português Ó consumiu muito mais tokens quando vocês vão contratar uma llm ou vocês vão montar o programa de vocês aí tá
Cada modelo perfeito Gilmar foi muito legal que você colocou eu vou vou demonstrar isso aqui tá foi muito legal sua pergunta cada modelo usa sua forma de tokenização sim a resposta é sim você vai ver isso aqui na prática Então a gente tem o modelo aqui o 3.5 o quro usa do mesmo esquema pode perceber que o jeito que ele converte as palavras as frases a entrada ela é eh é do mesmo jeito tá então só que quando a gente usa o idioma Por exemplo Quando a gente tá usando em português percebeu que consumiu mais
tokens quando vocês estão trabalhando um pouco mais lá na frente a gente vai até falar um pouquinho de Agentes eh se você vai começar a construir o seu prompt tá aquilo um prompt às vezes que é um prompt de sistema para dar base para responder para outras pessoas tá você vai criar por exemplo Ah eu quero criar um um GPT para quem usou lá o chat GPT Tem a parte de você poder construir o Seu gpts customizados então você pode criar por exemplo um professor e aí você vai dar uma instrução para ele Ó você
é o melhor professor de português de todos os tempos né quando você dá essa instrução para ele em vez de você colocar em português você colocasse essa instrução por exemplo em inglês você iria consumir menos tokens do que colocar em português mas você poderia colocar essa instrução em português e falar para ele quando responder PR os Usuários responde no idioma do usuário Ah no caso português aí ele responde também e funciona bem porque você economiza tokens essa parte de colocar tokens a gente vai falar aqui no compare eu coloquei dois links na apresentação tá depois
o vocês quem tiver acesso vai poder pegar eu vou clicar aqui no tokenizer para vocês verem essa tela aqui tá vai abrir lá na Open tá E aí a gente tem aqui os modelos que foi aquilo que o G comentou ali na pergunta dele então tá aqui ó o GPT 4 o GPT 4 mini tem o 3.5 e tem o 3 então se eu colocar aqui ó totus is a to work perceba que ficou assim ó oito tokens 30 caracteres mas não é assim que isso vai entrar pessoal lá no modelo do transformer né para
converter depois isso e gerar uma frase pra gente o jeito que vai entrar lá dentro do transformer Vai ser através dos vai transformar em número ó tá vendo aqui ó texto e aqui estão os ids para depois entrar lá naquele banco vai fazer uma situação de embed eu vou até comentar so sobre isso um pouquinho mais lá na frente vai entrar num banco multidimensional onde tá cheio de matrizes né Ele é bem extenso para poder encontrar as palavras associar e devolver a resposta pra gente aqui vocês perceberam que nesse modelo que é o GPT 4
eh e o 4 w mini Ele usou Oito tokens já no GPT 3.5 e no 4 sem o wow aí a gente vai perceber que ficou quatro também no três ó já foi menos eficiente ó nove tokens Se eu colocar aqui eh Parabéns para você eh obrigado por estar participando nesta palestra comigo e aí valeu com o WD Williams Valeu legal então percebam que aqui eu Se eu enviasse isso para ele ou desse uma instrução para ele né e colocasse assim Comente sobre isso né Comente sobre isso pro chat GPT olha quantos tokens eu tô
consumindo 34 tokens Se fosse no gpt3 se eu perguntar no 3.5 28 se eu perguntar no ow 22 então aí vai mudando aí o algoritmo n eles vão melhorando né e cada um deles trabalha de uma forma diferente se você olhar pro Lhama olhar Para outros modelos né e isso é legal também tá para quem tá não tá tão antenado aí né Com todas as ias o que tá acontecendo Eu gosto de usar muito grock aqui eu tô no Browser da tots eu tenho o meu pessoal né que sempre fica alogado deixa eu ver se
aqui legal o me vai tá alogado e vai aparecer aqui não deixa eu abrir o meu pessoal aqui deixa eu colocar gro.com adoro esse esse aqui é legal para você Ficar testando algumas coisas gerando texto tá aqui legal entrando aqui vocês vão perceber aqui os modelos ó na lateral direita tá vendo Então aqui ol a gente tem aqui ó o Lhama o gema Mistral tem o da da Google também então tem vários modelinhos inclusive esses modelos por exemplo o Lhama com 8 bilhões de parâmetros né lembra ali do nosso da nossa rede neural com era
40 neurônios né enfim 8 bilhões de Parâmetros esse aqui e é um modelinho relativamente pequeno se você pega esse aqui inclusive o Lhama de 8 bilhões eu consigo rodar na minha máquina nesse PC nesse nesse notebook que eu tô fazendo apresentação já o de 70 bilhões tem muito mais parâmetros né Muito mais informações eu já não consigo rodar ele na na minha máquina mas ele é bem interessante isso daqui depois vocês tiveram tempo para usar o grock ou para quem nunca utilizou né aí dá para você Trocar os modelos ali e ver as respostas de
formas diferentes do que você vê no GPT né Beleza então a parte de tokenização é essa daqui tá E é o jeito que as palavras vão entrar dentro do modelo né vão ser convertidas essas palavras vai consumir aí os tokens e esses tokens Para Quem Sabe Isso tá muito ligado com aquilo que você paga não não perde a con a a qualidade não Andrei não perde não ele é só é mais eficiente no jeito até de te cobrar do Seu bolso o quanto você paga aí por uma ia Olha que interessante isso daqui Andrei vou
clicar em compare ou compare perceba que eu já deixei aqui Esse site é bem legal context tá no rodapé desse site tem o botão compare aí você entra aqui e olha que legal isso aqui pessoal eu coloquei para comparar deixei de cara aqui tá porque deixei salvo ali na apresentação o link dessa forma o quatro e o 4ro mini porque me chamou muito atenção na hora Que tava preparando a apresentação para vocês então aqui no modelo 4 e no 4 o mini que que mudou né do quatro Pro 4ro Mini primeira coisa pessoal isso aqui
é muito importante janela de contexto tá vendo que eu tenho aqui ó 8.192 eh tokens tá geralmente uma conta de padeiro tá pessoal Olha eu falando de conta de padeiro conta de padeiro é você pegar e multiplicar isso por 0.8 tá mais ou menos tá porque aí o restante pode ser pontos ponto e vírgula aspas coisas Desse tipo na sua frase Mas você multiplica 8192 por por 0.8 E aí são palavras tá são palavras que você teria ali dentro Olha o quanto Aumentou a janela de contexto de 8.000 para 128.000 no GPT 4 mini mas
willans o que que isso muda na minha vida o que que isso muda na minha vida willam muda tudo primeiro por quê esses inputs tá a entrada do seu texto quando você digita lá você começa a conversar com ele a memória dele tá ligada com isso daqui ó Quando você quando você bater o número de tokens na versão 4ro ele já não lembra o que você escreveu lá em cima ele perde a memória isso aqui é como se fosse a memória o cérebro do nosso Einstein tá na versão 4 que ele conseguia memorizar ali ó
era até 8.192 tokens vamos imaginar pessoal que F sem palavras mesmo tá lembra que só pra gente não ter que fazer a conta matemática para multiplicar por 0,80 aí para ter uma ideia de Quantas palavras Nós teríamos mas olha só o quanto Aumentou a nossa janela de contexto a nossa memória né quando a gente tá conversando com ele para ele não esquecer o que a gente tá conversando com ele aumentou para 128.000 é muita coisa não legal a apresentação Rafa é mais ligada a a dados em si apresentar um pouco da i generativa e ao
final mostrar ali o nosso produto tá E aí a gente tem aqui o seguinte ó Maximo output tokens tá a Parte de saída né a gente estava em 8.192 Olha só foi para 16.4 né E aí uma coisa muito importante sobre os modelos ó aqui foi lançado ó o release dele de 2023 2024 e a parte de conhecimento dele vai até 2021 do 4 mas o do om mini até 2023 E aí a parte do dinheiro que é aquela que conta muito pra gente tá quando você tá entrando com o texto o seu prompt ele
computa aquilo que você perguntou e aquilo que sai então a gente tem um input aqui olha com 30 30 por milhão milhão de tokens por milhão de tokens olha no qu mini Olha como tá ficando barato essa guerra que tá ocorrendo entre as llms pessoal isso daqui é super legal pra gente cada vez mais cada vez mais tá ficando mais barato então pensa assim pessoal 1 milhão de tokens pessoal seria aí agora fica fácil de fazer a conta né agora fica fácil de fazer a conta por quê eh 1 milhão de tokens seria 800.000 Palavras
pensa que a bíblia tá pensa naquela Bíblia de Almeida lá você tem aí na sua casa ela tem em torno de umas 800.000 palavras tá então você consegue entrar com uma Bíbia você consegue conversar com ele uma Bíblia sem ele esquecer e você só paga por isso nessa interação 15 cavos de dólar mas perceba que a entrada que você coloca das perguntas ou dos parâmetros para ele responder as perguntas para você né conversar com ele ali o output pessoal Percebe que no 4 Era 6 quando você devolvia falava até 1 milhão de tokens olha quanto
que é agora a saída ó 060 de tokens alguém imagina por que tem essa diferença Por que a entrada é mais barato né do que a saída alguém imagina por que tem essa diferença né entrada e saída a diferença pessoal tá ligado com o processamento energético o que que ele consome para processar aquela informação E trazer para você aliás a parte do meio ambiente aí tá bem crítica né com esses modelos processando tanta coisas aí acontecendo né então bem interessante aí o benchmark Lógico que se você troca aqui os modelos colocar aqui o 3.5 Turbo
ó janela de contexto memória 4.000 né cai bastante aí né o omini ficou bem interessante aí pra gente trabalhar com ele fazer as chamadas e criar os seus programas aí bacana Tô voltando para cá então Pessoal token é fundamental e é interessante entender ele essa janela de contexto aí do que que a gente trabalha para ele responder e o quanto o a versão desse modelo o mini ficou tão interessante aí de se trabalhar deixa eu colocar aqui a apresentação em tela cheia e como que essas lms são treinadas né pessoal igual a gente tava falando
ali da criança né que aprende ali com o gatinho é igual uma criança que tá aprendendo a falar ela ouve as pessoas Em volta começa a ouvir aqueles sons né E aí ela aprende a falar os modelos preditivos né esses modelos de llm eles são treinados com muito texto gente mas muito texto é uma base gigantesca da internet que entra de informação são dentro desses modelos para trazer os dados pra gente e aí esse modelo ele vai aprendendo da seguinte forma vai entrando o texto e tem um algoritmo de back propagation que faz a entrada
e a saída ele vai se Autoajustar mais próximo da resposta que seria correta esse esse texto tá eu até coloquei um link aqui pessoal um repositório Olha só esse repositório aqui que é usado para treinar llms mais de 250 bilhões de páginas durante 17 anos é fri dá dá para ser consultado né são modelos como eu são Dados como esses que entram dentro desses modelos para serem computados e moldados Mas além desse dessa parte do treinamento do próprio modelo em si que Vai entrando esse número de informações o modelo não fica sozinho depois desse desse
desse modelo desse treinamento não supervisionado por seres humanos é o próprio modelo em si o próprio algoritmo matemático a gente tem também um outro treinamento que é por reforço humano então por isso que quando vocês veem eh o modelo por exemplo a gente fala do modelo 3.5 da da openi que diz que ele tinha um cérebro de uma criança de 5 anos e ele foi treinado durante um Determinado tempo eu não lembro se foi um ano o tempo que ele foi treinado mas o quatro ele foi treinado em apenas 4 meses Olha o tempo de
aprendizado para colocar mais informação e e ele ser treinado depois que ele é treinado os humanos os pesquisadores eles começam a fazer perguntas e ver como que esse modelo reage por quê pessoal porque quando entra toda a informação do mundo nesse modelo entram coisas do tipo ó o Williams fazendo a pergunta aqui Ó como posso roubar um banco a GPT não posso ajudar com isso por quê Porque a gente insere isto dentro do treinamento e ele aprende com isso então esse aí pessoal é o nosso tem nós temos o g o t do transformer que
é e o pretrained que a gente coloca aí O o pré-treinamento dele né então ele fica pré treinado para você poder inclusive utilizar com as suas as suas informações no futuro então pessoal a gente tem vários Tipos de llm tá Palm Claudia Mistral Lhama gema grock tal e esses modelos eles variam tá a diferença de um para outro é geralmente a velocidade capacidade custo se pode ser baixado localmente na sua máquina instalado se é open source se não é facilidade no uso se ele é especializado em determinadas coisas ou não por exemplo aqui integrado como
um copiloto né E aí dependendo do que você Quer pagar é o que você tem Você pode ter um modelo bem simples que parece um adolescente ou você pode ter o Einstein Aí dependendo de quanto você pagar né quando a gente compara ali os modelos a gente vê as janelas de contexto e o que ele pode processar isso aqui é interessante pra gente saber o seguinte que o QI humano pessoal uma média na Europa tem em torno de 100 ó Isso daqui é surpreendente ó é essa Nova versão que saiu a Open Eye ou o
preview tá com Q ó de 121 olha as outras e ess vou abrir aqui o link para dar uma olhadinha olha como ele tá aqui olha os demais aqui na curva ninguém tinha passado aqui olha a média da Europa ali esse modelo novo ele é muito interessante a forma que eles trabalharam com isso existe existe uma uma Iá do Brasil Sim viu chama-se eu acho que é Maritaca eu não usei tá ô Milon mas eu sei que existe chama maritaca que é uma que ganhou bastante repercussão aí quando saiu que eles estavam com parando acho
que com 3.5 ou com 4 Maritaca E aí você tem uma historinha dos modelos né E a sua evolução né pra gente pensar que não existe só o GPT né só o chat GPT os tipos de modelos pessoal que a gente tem são esses aqui ó você pode ter um texto para texto tá Você pode digitar um texto e entrar um texto é tá bem perceptível mesmo Andre eu usei bastante agora essa semana achei muito perspectiva a mudança a parte de para quem Coda né quem faz código eu uso bastante Python tá impressionante cara tá
impressionante então você pode texto para texto texto para imagem né então você manda um texto e fala para ele Proc uma imagem você pode usar imagem e falar Pega essas duas imagens achou o marit Colocou até no link aí no chat o link obrigado então aí você tem aqui ó texto para imagem imagem para imagem o combinado e você pode falar dessa imagem converte para um texto também tem modelos que fazem isso você tem modelo que você conversa né Se você pegar aí o baixar o chat GPT aí gratuitamente no seu celular e você conversar
com ele ele converte o que você tá falando para texto e você pode também converter texto para Áudio texto para vídeo então e quando o modelo pessoal ele é capaz de executar mais do que uma função de texto para texto ou por exemplo você conversar com ele ele é chamado de multimodal então por exemplo quando a gente fala com chat GPT ali no no celular você tá usando ele multimodal né ele é capaz aí de fazer as coisas híbridas legal quando você usa ele ali no computador ele gera uma imagem ele não tá multimodal porque
que ele tá Usando o dawi que é outro modelo para gerar aquela imagem pessoal como vocês podem ver essa imagem que tá na tela vocês vão ver que é o meu escritório aqui ó onde eu tô nesse momento aqui ó então eu tava usando a versão de celular aqui e fiz a pergunta para ele Ó nesse ambiente tirei a foto né mandei para ele e falei onde eu poderia esconder as coisas aqui aí ele respondeu assim para mim ó nesse ambiente há vários lugares onde você pode esconder as coisas de Forma discreta nesse ambiente Você
pode colocar dentro de nichos das Prateleiras ó os Lines que existem ali atrás atrás do quadro grande que existe aqui na parede ele falou permite você esconder ess objetos atrás do quadro sem que seja perceptível atrás do espelho na porta do armário aqui tem um espelho ó é um armário espelhado ficou Fantástico falei meu muito bom muito bom quando o pessoal desenhou pessoal Essas llms né a gente coloca mod eles estav num num Auto complete ali né você colocava as palavras ele entrava dava saída que a gente tava comentando ali na conversão de tokens isso
aí só que aí começou a ver muitos usos pessoal para isso né E aí a gente chega no ponto que ele pode exercer papéis quando a gente desenhou os produtos aqui da totos que a gente trabalha ali na Suit logística a gente Fala para ele exercer papéis fala ó você é um agente Logístico você é isso você é aquilo né você não pode falar isso você não pode falar aquo aquilo então a gente coloca para ele exercer esses papéis então ele ajuda muito a gente como professor poeta médico advogado treinador na parte de codificação entre
outros usos mas esse aqui é muito interessante pessoal olha essa imagem da direita pessoal isso aqui é bem impressionante tá isso aqui é bem Impressionante lembra que eu falei para vocês que é um cálculo numa rede neural que você entra com um texto ele processa números acha a próxima palavra é um adivinho ali né na estatística acha a próxima palavra e traz a resposta para você mas já chegou um ponto pessoal que aqui ele já chega num ponto de compreensão esse modelo porque você pergunta assim ó mandei uma imagem para ele o chat GPT recortei
essa imagem aqui e coloquei para ele Ó você tem aqui uma Linha você tem aqui Um objeto na ponta que pode ser um ovo e uma tesoura e coloquei esse desenho aqui ó de uma panela no fogo e perguntei para ele Ó o que você entende dessa imagem e o que que acontece se eu usar essa tesoura a imagem mostra uma tesoura ele respondem a imagem mostra uma tesoura suspensa cortando um fio que segura um objeto parece ser um ovo diretamente sobre uma panela do fogo se você usar a tesoura para cortar o fio O
objeto suspenso cairia na panela isso poderia representar um cenário de ação ou Reação Em que corte cada ou seja na hora que você tá falando com ele além de tudo tem uma compreensão aqui por trás ele não tá só no a Pit ele tá analisando o desenho Tá entendendo que se eu cortar o o o fio ele o ovo vai cair na panela e vai acontecer ali uma causa efeito muito muito interessante isso aqui é muito muito interessante é muito legal Milo que você Comentou aí sobre o EUR robô para quem na hora que a
gente chegar nos agentes eu até comento um pouquinho sobre isso porque os agentes pessoal é o próximo passo quem ouviu o sun altm falando né o cara da do do chat GPT aí da openi ele falou o próximo step é você trabalhar com com os agentes aliás né a gente vem estudando isso nessa parte de Agentes há há um tempinho já né Por quê Porque os agentes pessoal é como se fosse aqueles robôs do Eu Robô para quem assistiu o Filme tem um momento que todos aqueles robôs eles estão parados assim ó estão enfileirados todos
os do filme o robô tá enfileirado aí tem um que se mexe tem um que se mexe seria equivalente a você pegar esse cérebro que é llm pgar essa llm e pôr num corpo robótico pôr no cérebro daquele robô E aí aquele robô foi ligado E aí ele começa a trabalhar como um agente que realiza coisas né É bem essa a analogia legal você trazido aí o Comentário bom então não foi só na capacidade de texto né então a gente tem essas capacidades emergentes que surgiram né que são os papéis aí que são cumpridos Professor
médico advogado treinador tal né e tudo depende pessoal de como você quer que ela se comporte a limitação tá na gente né na imaginação do que a gente pode fazer e do texto que você digita de entrada aquilo que você pede para ela realizar que nós chamamos isso de engenharia de prompt então na Era da ia pessoal os humanos pessoal a gente sempre foi o número um a raça que pensa né durante 300.000 anos aí homo sapiens né a gente há muito tempo aí a nossa inteligência tá aqui essa linha azul ó que tá aqui
mas as nossas capacidades que evoluíram durante tantos anos pensa agora na na na era do computador o computador pessoal com apenas 80 anos e agora com a era da Inteligência Artificial o crescimento tá sendo exponencial cada momento pessoal Sai alguma coisa diferente que você fala assim caramba cara que evolução isso daí que ele tá fazendo né Então nesse momento pessoal a gente era o único que segurava o trofeuzinho aqui como número um né a gente era o melhor centenas de anos agora tem aqui uma imagem né Agora é a nossa vez da vias aí tá
chegando nesse momento né Elas estão essa apresentação não é tão não é tão real que ela vai para aqui ó pra vertical tá por isso que eu P as interrogações aqui Ó ela vai ficar flat vocês tem que pensar que é o seguinte o os modelos por exemplo da Open Eye com aquele paper que saiu dos Transformers ele foi lançado ali em 2017 é até relativamente novo se você for pensar e de lá teve o Boom e essa evolução é como se fosse esse crescimento aqui ó exponencial subindo dessa forma no entanto essa arquitetura pessoal
ela já tá quase no limite por qu não adianta você colocar eh cada vez mais textos você até polui aquilo que tá Dentro dele você tem que arrumar formas de trabalhar de forma diferente com aquele algoritmo tô esperando o próximo paper aí que vai acontecer se Demorou até 2017 para sair um paper da Google de transformer Imagina a gente teria que mudar um pouco essa arquitetura para que ela consiga responder mais e aí ele colocou ó tem uma uma colocação legal aqui ó em tese quanto maior e maior o repertório a pessoa tiver em mente
melhor será sua interação Com a ia e consequente melhor resultado certo is relativo porque às vezes que que acontece principalmente para quem trabalha com machine learning e e algoritmos tá Às vezes você pode colocar mais informações que são redundantes e acabar acabar até influenciando Aquele modelo para ele responder de uma forma que não seja tão boa então se você enfiar tudo que é informação lá dentro e aí de repente você começa a enfiar mais ação Ainda Mais do Mesmo aquilo não vai Fazer com que ele seja melhor então aí a gente entra naquela parte bem
filosófica tá Erick porque a próxima era da ia a gente fala da agi que é aquilo que o Hello musk vem falando e outros estudiosos vem falando né que é onde aí ela por si só ela começa a tomar decisões sozinhas e realizar funções mais capazes do que o ser humano né Eh não sei o h musk achou que a ia dele que eles estão trabalhando lá até o final do Ano que vem chegaria na na agi que seria essa super Inteligência Artificial aí não sei não consigo dizer para onde que tá indo a gente
sabe que a a Nvidia né que a empresa do chips lá né tá usando ia para fazer os chips e aí gerar chips mais poderosos e aí você teria uma outra ia que trabalha com aqueles chips e gera outros chips mais poderosos e assim vai né não sei aí é uma linha eu acho que talvez num próximo paper aí que surja N E mude um Pouquinho da arquitetura Porque hoje a arquitetura que a gente tem é do transformer por exemplo pessoal ela é muito ineficiente Pensa como ela é ineficiente você tem que colocar o texto
do mundo lá colocar todas as imagens do mundo para que ela entenda aquilo que eu como ser humano bato o olho e fala Ah isso é um copo aprendi que isso aqui é um copo gastar muita energia também né a matriz de energia também o pessoal tá Falando até em quântico já de mas eu sei que a nossa evolução pessoal só voltando um pouquinho para cá é começa a viajar nesse assunto então aí Imagina assim ó evolução lenta ó fogo agricultura imprensa máquina a vapor Quanto tempo né pra gente evoluir nisso e quanto tempo levou
esses 80 anos aqui para chegar nesse ponto que a gente tá com a inteligência artificial com esses processadores e a gente ter a evolução que a gente teve agora ela tá bem Exponencial né nessa era Então qual que é o mindset que a gente tem que ter pessoal mindset é o seguinte tem pessoas que vocês podem conversar pessoal pessoas da família de vocês outras outros também que trabalham e tal você conversa com as pessoas tem pessoas que falam assim ó aá não pode tomar meu trabalho O cara tá no momento de negação lá Nem entende
direito ainda o que que é as Tem empresas pessoal que não tá nem olhando Para isso Acha que é somente Hype nós não temos tempo para olhar para i isso aqui é bem perigoso para qualquer pessoa para qualquer empresa por A Iá pessoal pode não tirar o emprego dela mas as pessoas que usam e com certeza irão pessoal eu trabalho aqui na parte de dados e a gente faz muito engenharia de dados a gente tem processos pessoal a gente tem processos que que na engenharia de dados que eu pego o dado bruto do sistema Transacional
levo ele para dentro do meu dat Lake House transformo essa informação rodo entendo o modelo e Gero coloco isso numa ferramenta de Analytics o meu usuário pluga começa a montar os relatórios e e aparece ali o o os os dados mas todos esses processos por exemplo que a gente já executa pessoal no nosso pipeline de dados eles são processos que podem ser o quê tudo automatizado se eu pegar uma ia e falar que ela é um agente que ela é um Engenheiro de dado dá as ferramentas para ela mexer ela dentro e fala para ela
ó pega o dado do ponto a leva pro ponto b transforma nisso e me apresenta o dado assim ela já vai fazer automaticamente o que que vai acontecer com esses engenheiros que estão aqui né e é interessante pensar sobre isso Pânico pessoal tem gente que tá tem tem o oposto né aqu ela fala a meu Deus eu vou perder tudo né ou a empresa lá nós vamos a falência né são os extremos né Que a gente tem o ideal é que você se Coloque mais ou menos no no meio aí né um pensamento positivo vou
aprender a utilizar fazer o uso da ia e tentar ser mais produtivo eu eu não entendi ma a pergunta a se pudesse só refazer essa do 125.000 o que que seria o 125000 só não entendi ali Beleza então pessoal na era da ia a gente tem o qu pessoal ainda a gente tem pessoas pessoal como é que fica os humanos nessa era né médicos Desenvolvedores advogados professores Nossa pessoal eu tô perdendo todo o nosso tempo vamos acelerar um pouquinho vocês podem me dar mais 15 minutinhos pode ser 15 minut vou dar uma aceleradinha aqui para
depois abrir a aplicação Obrigado pessoal super agradeço aí quem não puder ficar nossa super agradeço vocês terem cada que que passou muito rápido eu nem percebi acabei respondendo todas as perguntas que vão surgindo ali desculpa Eu vou acar um pouquinho só para falar o seguinte na era da ia eu vou tirar as animações aqui dos slides a gente já coloca aqui a ideia né que o nosso Mind setet é que a gente trabalhe junto com a ia por qu a gente sempre vai precisar ainda dos seres humanos Enquanto essa ia que existe hoje tá esse
chatas que a gente tem essas llms elas são chamadas de a fracas tá por quê porque elas só sabem executar determinadas tarefas e mesmo assim a gente como ser humano tem Que analisar o resultado do que ela tá trazendo por quê Porque às vezes ela monta um texto para você pessoal pode ser um texto magnífico com informações super verídicas às vezes ela coloca dados ali que às vezes pode não ser pode ser por exemplo ela falar assim ó eh na independência do Brasil aconteceu esse fato esse fato esse fato você vai lendo tudo é verdadeiro
aí de repente ela fala assim ó e a data que ocorreu a independência do Brasil foi no dia 8 de Setembro aí você fala pá tem coisa errada se você tomar aquilo com verdade os meus alunos tá pessoal entregando trabalho para mim eu falei assim gente tá todo mundo fazendo no chat GPT Olha tem coisas incoerências aqui coisas erradas dali daqui né enfim tem que analisar direitinho então a gente Pessoal a gente compensa as fraquezas da ia a gente a gente tem que usar ela como realmente como o pessoal fala como um copiloto como um
um advisor aí que nos Ajuda a tomar as decisões falando sobre produtos e modelos isso aqui é mais só para você entender que pessoal uma coisa é a llm GPT 4 lama tal o chat GPT pessoal o chat GPT a palavrinha chat ela não é a LL a chat é um produto é um programa de software pessoal quando vocês compram ali Ah eu vou pagar o chat GPT Ó você tá pagando pelo programa que faz uso da llm se você quiser colocar o chat o GPT dentro do seu programa né que nem a gente tá
utilizando aqui dentro da Tots né as nossas llms você vai criar o seu produto você vai criar o seu programa você vai acessar esse programa através de uma API e através de um código você acessa lá não é daqueles ó que você pagou Aí você paga por acesso aqueles 15 centavos de dólar que eu tava colocando aquela hora do comparativo então uma diferença é entre produtos e modelos aqui eu vou saltar tá que é mais um exemplo Zinho daquele que eu tava mostrando de código de produto e Modelo e vamos falar aqui da engenharia de
promt tá engen de pron basicamente pessoal é o que você entra de informação se você colocar pro seu chat aí para conversar com ele quero uma agenda pro workshop quero montar esse Trein ó quero montar essa palestra aqui ele vai me vai me trazer uma agenda com os tópicos mas ela vai ele não tem o contexto para poder trazer essa agenda agora você eu falar para ele assim ó me dê uma agenda pro workshop eu estou me reunindo com Uma equipe de liderança de uma empresa de consultoria aeroespacial o objetivo do workshop é descobrir como
eles podem usar A Iá eles são novos nisos vamos ter oito pessoas e será 4 horas ele vai montar uma outra agenda com super contexto com super detalhe isso é um bom prompt Então quando você tá montando e tá conversando com ele você escreve para ele você vai interagindo você vê a resposta você acompanha e você fala não esse ponto aqui não ficou legal aí ele Vai e corrige às vezes ficou tudo ruim você joga fora começa de novo atualiza o prompt e dá a resposta outro jeito de usar ele que é muito legal pessoal
muito legal mesmo você pode fazer o seguinte ó me D uma agenda pro workshop pode me fazer perguntas para mim do que que eu quero fazer nesse workshop ele começa a listar as perguntas quem vai ser o público alvo sobre qual que é o tema sobre isso é um bom Prom você passa detalhes para ele Aqui pessoal cheguei agentes autônomos Top né O que que é um agente autônomo tá pessoal um agente autônomo pessoal nada mais é do que um programa que você alimenta ele para que ele possa executar tarefas por você meu sonho tá
ter um agente que se comporta como Williams e começa a executar as tarefas né então provavelmente vai ser um conjunto de Agentes aí que vai trabalhar imitando Williams né Então imagina que é o iin nosso que você dá uma missão para ele Ó Você você chat GPT ou você lama tem que fazer tal coisa a missão é e você é um escritor e você é um pesqu ador da web Aí ele vai lá e você dá os sites que você ainda quer que ele pesquise são sites específicos porque às vezes você não quer que ele
vai a internet toda você dá ferramenta para ele que é uma IPI ele vai acessar isso que é uma ferramenta para ele poder acessar E aí você vai falar para ele assim ó vai lá pesquisa isso Traz essa pesquisa e faz Um resumo aí ele pegou esse poderia até ser diferente ó um agente que é um pesquisador um programa que vai lá e pesquisa fez a triagem para mim passa isso para um outro agente que é aquele que vai fazer o resumo esse agente que fez o resumo que é o escritor ele vai pegar e
vai fazer um resumo bem bacana para depois você postar nas suas redes sociais mas não vai passar direto para aquele outro agente que já publica na rede social você cria um outro agente Uma outra llm que tá ali que vai ter o quê vai discutir com aquela primeira que gerou o resumo para validar o assunto aí você deixa as duas llms As duas inteligências artificiais ficarem conversando até convencer aquela que não quer que que vai validar o assunto validou passou por ela ela pega isso manda pra outra que vai publicar e vai gerar textos tanto
pro Instagram quanto pro LinkedIn quanto pro seu tiktok e cada texto que ela montar desse assunto Que foi pesquisado ele vai ser diferente porque vai ser focado para aquela rede social a gente tá falando de quatro agentes aí trabalhando de forma diferente então ag gente Pessoal nada mais é do que um programa que você dá instruções para ele para ele se comportar e executar atividades para você como pesquisar na na web Abrir sua conta corrente mexer no seu dinheiro pesquisar fazer um pedido enviar e-mail voltar e-mail são funcionalidades que Você coloca e tudo isso tá
muito ligado com a engenharia de promp de que você faz ou seja as questões que você coloca ele pode ser tanto bom quanto ruim arquitetura só para fechar to mundo finalzinho pessoal E aí eu abro lá o sistema para vocês verem arquitetura de uma de uma de um agente tá quando você programa lá um agente pessoal você vai colocar um cérebro nele lembra do filme é o robô que o colega comentou aí né aí existem empresas nos Estados Unidos Pessoal tem duas bem famosas só não lembro agora o nome delas que estão construindo robôs aguardando
pessoal para colocar esses llms para eles se comportarem como pessoas executarem tarefas Já pensou você pedindo Eh quero comer uma comida indiana você tem um robô desse em casa né com esse cérebro todo e você fala prepara uma comida indiana mas prepara uma comida indiana como aquele chefe x que você conhece que você já ouviu falar que ele É muito sabe muito né sobre esse esse tema então quando a gente fala aqui pessoal dentro de um agente dentro de um agente legal valeu viu mar então o que que acontece eh dentro de um agente pessoal
a gente tem os cérebros né eu coloquei só uns exemplos aqui né porque vocês viram que tem milhares de llms né tem o cloud gente o cloud é muito legal tá o GPT que todo mundo tá acostumado do Gê tá Fantástico para algumas tarefas o Lhama também tá muito legal e e o e a gente chama esses modelos de fine tuned que que é isso pessoal fine tuned esses modelos eles são pré-treinos eles vêm pessoal com uma base dentro deles tá ele vem com uma base de conhecimento quando a gente fala de agente eu dou
uma instrução para esse agente o que que ele vai ser Qual que é a missão dele né o que que ele vai executar é importante que o ag gente tenha uma memória grande por isso que Aquela parte de contexto da llm é super importante esse agente ele consulta a base de conhecimento dele aquilo que ele foi treinado com toda aquela base como vocês viram né tem llms nos exemplos que eu montei que foi com 8 bilhões de parâmetros outras com 7 bilhões 70 bilhões de parâmetros um um chat GPT ou com trilhões de parâmetros né
só que as informações que estão lá não são da minha empresa eu gostaria por exemplo que vocês como clientes ou aqueles que São clientes entrassem lá e falasse assim puxa eu gostaria de falar sobre um problema que eu tô tendo agora no sistema que que a gente pode fazer pessoal montar um agente esse agente ele vai ter acesso à nossa base de conhecimento aquela que já que todo mundo já reportou erro coisas que a gente já corrigiu aqui coloca os pdfs coloca os excels aqui dentro acessa essa base de dados as páginas nossas da da
internet joga nessa base essa nessa base Nós fazemos um processo de eding que é pegar essa base que é PDF Excel os textos tal converter ele pros números e jogar numa base vetorial essa base vetorial pessoal é igual a base de conhecimento dele que tem vetores aonde ele pode encontrar informação e aí a gente dá acesso pro nosso o nosso agente para quando você entrar com a pergunta aqui ele vai buscar na base de conhecimento dele vai olhar você vai dar instrução para ele ó busca na minha base Como preferência verifique se essa questão que
o usuário tá perguntando ela existe e responde com essa informação somente ele não vai usar a base de conhecimento dele ele vai usar aquela linguagem natural para conversar com você mas ele vai pesquisar nessa base que foi edada esse conhecimento que a gente jogou lá dentro então eu dei para esse agente ferramentas para que Ele pudesse trabalhar e executar essas informações pra gente então esse modelo A gente chama ele de prét treinado por quê Porque ele não tem todas as informações do mundo ele não tem minha base de dados lá então eu posso treinar ele
fazer um um um fine tuned que a gente chama de colocar os nossos dados e ele fazer a consulta nessas informações e dar a resposta para vocês legal mostrando aqui pessoal que a gente tá fazendo na nossa aplicação rapidinho deixa eu mostrar aqui o meu ficou uma barrinha na frente Aqui vou entrar aqui deixa eu logar aqui Arena digital bom eu trabalho aqui na logística né pessoal a gente tem Eh toda a Suit logística aqui dentro da Suit logística a gente tem do Suit logística SAS a gente tem n produtos a gente tem o produto
de agendamento que você pode agendar as entregas dentro da tua empresa né você pode adquirir vamos supor que chegou o caminhão lá na portaria da da empresa né aí chegou lá esse caminhão ele vai entrar dentro da Empresa e eu quero que ele passe por pontos de controle dentro da empresa a gente tem aqui o yms aí depois que passou pelos pontos de controle chegou no ponto de controle eu quero ver se esse caminhão Tá ok naquele ponto de controle a lanterna tá ok o para-brisa Tá ok a gente pode adquirir por exemplo o produto
checklist tudo isso são produtos que a gente trabalha aqui com dados eu vou e aí uma vez que passou por esse checklist passou pelos pontos de Controle vamos armazenar Então tá aqui o WMS né então tem n produtos interessantes eu vou abrir aqui o yms O pessoal já tá desenvolvendo não tá com o meu time Aqui tá o íes mas o pessoal tá trabalhando lá já em alguns módulos colocando EA já com chat com EA generativa não sei quando que vão lançar Tô dando de repente tô dando até spoiler aqui então aqui pessoal tá o
produto tá a parte transacional do produto que são essas janelinhas onde a pessoa vai Trabalhar ali no dia a dia e aí a gente tem a parte dos insights logísticos nessa parte dos insights logísticos a gente tem aqui uma ferramenta de Analytics em cima dos dados eu vou clicar aqui para abrir um dashboard com dados de de dados de demo tá então às vezes não faz muito sentido né uma base suja mas eu queria muito comentar com vocês eu sendo pessoal uma pessoa que trabalha com dados Desde 2005 Imaginem Quantos dashboards Quantos Processos de pipeline
de dados eu já não fiz quantas plataformas de dados eu já não fiz quantos dashboards como esse que tá na tela aqui a gente já não entregou aqui em cima ó tem aqui o nosso o nosso dashboard né As pessoas olham os dashboard já Constru milhares assim fal Meu que legal esse dashboard tem informação gerencial Rota e horário radar participação evolução tudo do controle de pátio da empresa muito legal mas quantas vezes vocês mesmo pessoal Não construind o relatório as pessoas falam assim ai eu não gosto desse gráfico de de mapa de calor D stream
map eu gosto de gráfico de barra eu gosto de gráfico de pizza eu gosto tem pessoas até que deixam de olhar aquele relatório porque ela não gosta daquele formato e às vezes também pessoal a informação que ela quer às vezes não tá aqui por mais que a gente fez um super trabalho entrevistou usuários entrevistou o cliente olhou o funcionamento olhou toda A heurística que as pessoas usam para construir os seus dados seus relatórios às vezes não atende agora se você tiver em cima disso uma inteligência artificial conectada na sua base e você poder fazer perguntas
para elas quantos painéis desses eu vou eliminar para aquilo então o que que nós fizemos pessoal nós usamos o DTA o digital trust advisor que está em vários produtos da totos né tem a mesma carinha tem essa bolinha que aparece aqui quando Vocês viram que eu cliquei no dashboard ele já apareceu assim para mim uma mensagem ó você tem novas análises daqui quando eu clico nessas análises abre aqui por trás aqui a gente tem uma llm respondendo pra gente aonde eu posso vir aqui no chat fazer perguntas como também eu posso deixar eh assuntos que
são aqueles principais que as pessoas questionam para ela responder quando eu clico aqui como está por exemplo Como yms pode te ajudar quais são os gargalos Como está a minha operação cliquei tá fazendo a consulta mandando para llm analisando a nossa base que tá embedado ali dentro fazendo a consulta e trazendo aqui a informação dos dados que eu quero eu avancei quebrei todos os horários todos os tempos possíveis Olha lá pessoal isso daqui pessoal essa montagem esse relatório que você vê ele falando tempo médio de entrada tempo médio de saída essa análise aqui ó com
Base nessas informações podemos concluir que o processo de gestão de Patos e portarias relacionad aos processos de carga e descarga ainda apresenta alguns desafi o tempo médio de entrada tá nos últimos 90 dias está alto o chat respondendo ali por traz a lln respondendo para você em cima disso ainda Poderia fazer perguntas questionar ir bem mais além né Isso é muito legal só que hoje por mais que a gente esteja usando ele como um chat que a gente Conversa com ele tem uma llm por trás eh falando né sobre isso a gente vai colocar nos
processos transacionais pessoal para ele indicar né quando você abre lá o transacional fala cara esse camião aqui ó que tá dando problema agora nesse momento ó Seria legal você tomar uma ação ele como agente dis uma ação aí pens que vai acontecer com os humanos aí né Então tudo isso pessoal são interações que a gente vai colocando eu queria pedir desculpa por ter Avançado totalmente em todos os assuntos por último só comentando o que o colega colocou né acabou aqui a apresentação mas esse é os próximos estágios da ia tá EA Estreita ou ia fraca
é o chat GPT as llms como a gente tem hoje próximo passo pessoal e a geral ou forte que é aquela que sabe um pouco mais depois o ma vai fazer mais do que qualquer ser humano junto tudo junto aí a superior e aí depois o próximo estágio que é coisa de filme mesmo a singularidade tá pessoal Aí vira o Nirvana do das ias aí para quem adquiria pegar depois pegar a palestra né que o pessoal deve disponibilizar aí para vocês eu coloquei todas as referências os links tudo que eu preparei para para vocês poderem
acompanhar com mais detalhes e entender um pouquinho mais de verdade pessoal aí eu só gostaria de agradecer e desculpa aí de ter ultrapassado todos os limites aí tá muito obrigado aí pessoal valeu valeu Mesmo por ter participado da palestra o