Fala rapaziada Tô de boa seguinte nesse vídeo aqui a gente vai reagir ao vídeo do Pedro L que o título é porque você não deveria confiar em IAS e se você não me conhece caiu nesse vídeo aqui de para-quedas muito prazer meu nome é Anor hoje eu sou pesquisador em modelo de Inteligência Artificial então em llms Mais especificamente na parte de retrieval mated Generation que é uma parte onde você adiciona dados externos A ia para ela poder responder de forma mais confiável e aqui o Pedro fala justamente sobre confiança na ia Então acho que a
gente vai ter uma reação bem bacana Aí e eu já queria dar alguns avisos antes tá bom o primeiro aviso é o seguinte esse vídeo aqui vai ter um intuito Educacional Tá bom então eu vou parar algumas vezes durante o vídeo eu vou abrir Abas do Google com vocês eu vou desenhar com vocês justamente com o intuito única e puramente Educacional Show de bola então pô eu acompanho o Pedro já tem muito tempo ele faz um trabalho sensacional eu tenho certeza que ele vai falar muita coisa boa aqui nesse vídeo e vai dar espaço pra
gente poder aprofundar um pouco de de bola Então bora lá reagir a esse vídeo aqui tecnologia e eu adoro a tecnologia de inteligência Nossa começou alto hein vamos Deixa eu baixar um pouco aqui artificiais como chat GPT eu já perdi várias horas da minha vida conversando Com ele e testando seus limites para quem não sabe o que eu acho muito difícil hoje em dia o chat GPT é um dos muitos produtos à base de inteligências artificiais que foram disponibilizados pro público nos últimos anos em particular o chat GPT gera textos baseados em entradas de texto
que você escreve quando utiliza ele o chat GPT não é nem de perto a única Inteligência Artificial ou ia que está se popularizando nesse exato momento já Existem Iá especializadas em praticamente qualquer coisa que você possa imaginar não é à toa que praticamente todos os serviços de pesquisa e navegadores de internet adicionaram alguma ia para auxiliar os seus usuários como o Gini do Google ou o CoPilot da Microsoft e até mesmo novas tecnologias extremamente dependentes de as estão sendo anunciadas e buscando investimentos uma que chamou muita atenção recentemente foi a de dois Ex-diretores da Apple
que abriram sua própria empresa a Rio Main vou paus US aqui só para dar um comentário que ele falou uma coisa muito importante que eu bato muito na tecla isso tanto no meu Instagram quanto meu LinkedIn e aqui no YouTube também é que Inteligência Artificial não é somente modelo de linguagem tá então o chat ept ele é um modelo de linguagem que a gente chama de llm mas especificamente llm por llm se você não sabe é large language Model ou Modelo de linguagem de grande escala e grande escala aqui a gente tá falando de número
de parâmetros do modelo Tá bom então geralmente aí a gente tá falando um pouco mais de 10 bilhões de parâmetros para cima a gente já considera ali um llm E aí vai depender de autor para autor hoje a gente já tem modelos aí como o próprio geminii que já tem o do o Gemini do Google né já tem ali mais de um trilhão de parâmetros então o que que é um lar de língua de Moda não é o que que é o modelo grande não tem tanta tanta regra assim tanto que a gente tem basicamente
duas definições a gente tem o slm e os llms então slm é o small language Model ou modelo de linguagem de pequena escala né que seria por exemplo eh a gente pode pegar o lama tem o lama 3.1 de 8 bilhões de parâmetros ele pode ser considerado um slm um modelo de linguagem de pequena escala temos o o gma que é o se eu não me engano tem 7 bilhões o Queen o Queen O modelo chinês ele tem aproximadamente também 7 milhões de parâmetros então tem essas definições né Inteligência Artificial não se restringe a isso
Inteligência Artificial a gente tem generativa que é no caso aqui do chat PT temos e generativas de imagem de vídeo de áudio Então não é somente de texto mas também não se restringe a i generativa temos Inteligência Artificial por exemplo presente um monte de de bancos para poder prever se aquela Transação é fraude ou não você consegue classificar em grandes varejos por exemplo Walmart eles têm dentro né funcionando lá uma inteligência artificial que consegue prever qual que vai ser a demanda do próximo mês isso a gente tem também aqui nas farmacêuticas brasileiras Inclusive eu cheguei
a participar de um projeto que que é justamente disso então para uma grande farmacêutica aqui do Brasil que eles estava querendo fazer a previsão de Quanto de stoque eles precisariam nos próximos meses né e a gente trabalhou nesse projeto enfim já tem inteligência artificial no ramo de segmentação de clientes que foi um ramo que eu trabalhei também eh deixa eu pensar um outro projeto que eu trabalhei em comerce quando você entra no e-commerce aparece lá produtos recomendados para você na Netflix também Inteligência Artificial outro esse é um projeto não trabalhei tá nunca trabalhei na Netflix
Mas um outro projeto que eu trabalhei para e-commerce foi quando você entra no site né pelo menos no e-commerce que eu tava trabalhando eu classificava se você compraria nos próximos 30 dias ou não então dava uma pontuação para você uma probabilidade entre zero e um no caso né para você para no caso para mandar pras pessoas do e-commerce pros donos saber se aquela pessoa compraria provavelmente nos próximos 30 dias ou não resumo de tudo Inteligência Artificial não se Resume a llms e muito menos a charar GPT que é um dos llms então se você chegou
nesse vídeo aqui de paraquedas e tinha essa crença eu já quero que você saia daqui tem ela e eles propuseram um novo produto de comunicação sem telas baseado em Inteligência Artificial o ai pin que soa como I pin em português mas tudo bem o que é que poderia dar de errado bom várias coisas a ideia do aipin eraa ser uma tecnologia de comunicação sem telas ao invés de usar a tela do seu celular Você conversava diretamente com uma inteligência artificial que mediava as interações do aparelho Um dos pontos fortes da divulgação desse produto era você
poder fazer perguntas que seriam respondidas corretamente pela ia e se você sabe cara prometer é a palavra corretamente 100% dos casos do lado de Inteligência Artificial quando você coloca essas duas essas duas frases do lado né 100% correta Inteligência Artificial E hoje é meio que impossível Para todos os casos né sabe pelo menos um pouco sobre I você sabe que essa é uma afirmação tanto quanto exagerada inclusive na própria divulgação do EA pin a ia errou perguntas fáceis em uma das demonstrações um dos criadores Pergunta Onde que ia ser o próximo eclipse e o aipin
responde que seria na Austrália quando na verdade o próximo eclipse seria nos Estados Unidos esse Eclipse inclusive já aconteceu mas isso a gente chama de Alucinação é o termo Técnico que tem quando A Iá ela fala com com muita confiança algo que é errado tá bom então a gente chama Tecnicamente de Alucinação mas aí eu levanto a pergunta se essas inteligências artificiais representam o que existe de mais moderno e tecnológico hoje em dia por que que o a pin errou a resposta é simples mas ela revela uma profundidade Inesperada nenhuma Inteligência Artificial sabe o que
é verdade pelo menos hoje não é possível fazer uma I capaz de entender o Mundo de forma factual como os humanos entendem quando pensam racionalmente ou colocando isso de outro jeito você não pode confiar no chat GPT cegamente ou melhor ainda em nenhuma outra Inteligência Artificial tanto é que a maioria dessas ferramentas tem algum lugar escrito que você sempre deve checar as respostas e você também não pode nem confiar nos humanos que querem te vender de tecnologias baseadas em ias capazes de fornecer informações corretas Mas aqui eu preciso de tem um detalhe aqui que na
verdade tem como você aumentar muito a confiança das ias pelo menos a confiança que você tem das respostas com algumas técnicas específicas e eu vou comentar sobre elas um pouco mais pra frente tá bom deixar uma coisa clara as inteligências artificiais que nós vemos hoje são as ferramentas mais poderosas desenvolvidas na última década e representam o verdadeiro Ápice de todo o conhecimento Humano nós estamos vivendo história p ponto A única coisa é que elas não são capazes de tudo e existe Muita confusão e desinformação sobre Quais são os limites reais dessa nova tecnologia tanto é
que aain uma empresa focada em ia fez uma afirmação incorreta sobre inteligências artificiais com o seu a pin e independente da Razão isso é péssimo pra imagem de uma empresa focada em inteligências artificiais Pedro eu tenho uma dúvida se o chat GPT não sabe Do que ele está falando por que as respostas são tão convincentes essa é uma pergunta muito boa hein essa é uma pergunta muito boa quero ver a explicação do Pedro se você já usou o chat de PT para tentar estudar algo ou para fazer perguntas sobre um tema que você tem interesse
você talvez tenha se surpreendido com uma resposta correta e isso talvez te deixe convencido de que o chat GPT sabe do que ele tá falando Mas esse não é o caso nem de perto tanto Chat GPT quanto outros chats de a capazes de gerar texto atualmente funcionam todos como uma espécie de calculadora de palavras aá Recebe como entrada um texto através de chat como por exemplo uma pergunta o que é o Ciência todo dia o que a inteligência artificial faz então é prever quais outras palavras são as palavras mais associadas com o texto de entrada
baseada em um treinamento extensivo em uma base de dados de textos prévios por Exemplo chat GPT usa muito conteúdo da internet para treinar o seu modelo os detalhes de como isso é feito são complicados demais para esse vídeo eu vou te falar isso tá bom eu vou te falar como isso funciona por trás como ele é treinado e você vai entender perfeitamente inclusive digita aqui nos comentários se vocês querem um vídeo sobre como o chat GPT funciona a parte técnica o importante é que o chat GPT pega um texto de entrada e Com base no
Seu processo de aprendizado cria uma resposta baseada em uma probabilidade e heurística que é uma palavra chique para chute educado ou extrapolação se você preferir e então a pergunta o que é o Ciência todo dia é respondida com o Ciência todo dia é um canal brasileiro no YouTube criado por Pedro lz que populariza conhecimentos científicos com vídeos educativos e acessíveis e não porque o chat GPT sabe quem O sou pessoalmente e sim porque ele associa as Palavras da pergunta com as palavras da resposta baseado nos seus dados de treino tudo que o chat GPT está
fazendo é completar o texto de entrada com mais texto baseado em outros textos com os quais ele foi treinado O que é incrível mas não é baseado em verdade nada nesse processo de produção de novos textos é baseado em qualquer lógica nada garante que o chat GPT vai falar a verdade ou que ele vai sequer tentar falar a verdade da mesma forma que calcula Não sabem matemática o chat GPT não sabe as palavras que ele está escrevendo Por exemplo em 2023 a Microsoft ó eu acho que aqui ele deve falar algum Case né então i
não é mágica mas eu já vou pausar aqui e eu quero vi pro desenho tá eu quero desenhar com vocês agora porque eu vou explicar exatamente como que o chat PT funciona aqui para você poder entender vamos começar primeiro falando o que que é uma inteligência artificial Tá bom então uma inteligência artificial Nada mais é que e vou resumir muito muito muito tá basicamente a gente tem aqui de fora A ia então aqui a gente tem a ia como um todo uma área do conhecimento tá a inteligência artificial ela ela foi definida né esse termo
Inteligência Artificial foi definido por um cara chamado John John Opa ficou errado aqui né ficou feio John mccarthy aqui ó car show de bola esse cara definiu em 19 se o que é inteligência artificial é Uma conferência tá então é uma área bem antiga inclusive as inteligências artificiais de hoje até o próprio chat ept e a maioria delas né as I generativas utilizam uma meio que um como é que eu posso falar uma unidade tá que a gente chama de neurônio artificial então e aí você pode começar a associar os termos né Inteligência Artificial neurônio
artificial o nosso cérebro ele é feito de quê nosso cérebro tem várias eh como é que eu posso falar eu não cara Para definir isso aqui se tiver algum biólogo assistindo Me desculpe mas nosso cérebro ele tem várias células eh que a gente pode chamar de células nervosas né que no caso são os neurônios e esses neurônios compõem o nosso cérebro show de bola tanto que eles pensaram o seguinte tá se a gente quer simular alguma inteligência por parte do computador a gente tem que meio que tentar copiar o nosso cérebro e aí eles pensaram
se o nosso cérebro tem neurônio Vamos tentar colocar um neurônio aqui dentro do computador e aí eles fizeram uma coisa no caso uma coisa não essa unidade né chamada neurônio artificial em 1943 em 1943 a gente já tinha esses neurônios artificiais tipo assim a concepção deles foi criado por um psicólogo que se eu não me engano aí eu não sei quem qual que é qual tá e um matemático a gente tem lá o o Pitz e a gente tem o mulock Warren Pitz e mulock Show de bola Walter Pitz e Warren mulock na verdade então
o psicólogo e um matemático se uniram para fazer o o neurônio artificial ele funciona basicamente assim tá a gente tem aqui o neurônio artificial ele recebe várias entradas e dá uma saída basicamente se você sabe um pouco de matemática ele é uma função matemática tá então ele é uma função matemática que a gente tem aqui uma função que depois é jogada numa Função de ativação que aí a gente coloca aqui fora essa função de ativação mas basicamente é uma função matemática que a gente tem que tenta mapear o funcionamento aqui do nosso do nosso cérebro
show de bola com isso o que que eu quero falar que é bem antigo Não surgiu hoje então se você tá chegando aqui acha que é surgiu hoje não surgiu Mas beleza a gente tem Inteligência Artificial esse campo todo aqui a inteligência artificial a definição dela É área de estudo que tenta simular o comportamento da Inteligência humana Tá bom então é basicamente dessa forma e dentro de Inteligência Artificial a gente tem um campo que a gente chama de ML ou machine learning então aqui a gente tem machine learning que é uma sub área da Inteligência
Artificial Beleza então quando a gente fala de machine learning é o aprendizado de máquina traduzindo né é uma subárea da Inteligência Artificial E agora sim eu quero mostrar para vocês como o modelo de machine learning que o chat ept é um modelo de machine learning Tá bom então como esses modelos aprendem de fato Então vamos descer aqui esses modelos aprendem o seguinte pensa no modelo de machine learning como sendo essa caixa aqui tá então é essa caixa é o nosso modelo de machine learning ele vai receber um monte de dados um monte de dados tá
bom Então olha só tem aqui ó um montão de dados Então vários e vários e vários dados aqui show de bola e aqui que que acontece ele vai ó tá vendo que eu coloquei duas cores diferentes foi proposital coloca aqui e ele vai gerar ele vai aprender os padrões na verdade então quando você joga muitos dados para ele automaticamente ele aprende os padrões entendeu Você não tem que definir nenhuma regra por exemplo vamos supor que você tá tentando fazer uma inteligência artificial que consegue Prever se alguma determinada transação vai ser fraude ou não show de
bola e aí você cria uma regra bom se o valor da transação for maior que maior ou igual a 1 milhão I E aí eu vou colocar um e né grandão aqui e o a média de transações por dia a média de transações diária dele for menor que um por exemplo menor ou igual a um bom provavelmente vai ser fraud E aí você criando essa regra diz que é fraude só que se você chegar aqui e falar pro modelo o seguinte ó essas Aqui esses dados de azul eles não são fraude então não fraude e
você fala para ele ó esses dados aqui de vermelho eles são fraud Então você já tá em indicando para ele Quais características da transação não são fraude você pega históricos de transações que realmente aconteceram então aqui você pega pô transações que não são frud E aí você vê lá tem é como características né como se fosse uma Planilha de excel mesmo com várias colunas e várias linhas e aí você tem na uma coluna sendo o valor da transação uma coluna sendo a média de transações diária daquela pessoa a idade da pessoa enfim você tem várias
informações sobre aquela transação específica tá bom e sobre a pessoa que realizou a transação também né aí você pode pegar vários dados E aí você joga esse modelo e ele aprende automaticamente essas regras aqui essas regras que a gente definiu Manualmente ele consegue aprender sozinho e no final quando a gente mandar uma outra transação aqui que ele nunca viu na vida antes ele vai falar pra gente que não é fraude não fraude por quê Porque ele aprendeu os padrões com base nesses dados e gerou uma saída pra gente isso aqui é o que a gente
chama isso aqui é um dos tipos de aprendizado que umaa tem tá que o modelo de machine learning tem a gente chama de aprendizado Supervisionado Por que supervisionado ano porque a gente tem o rótulo dos dados então a gente sabe quais transações são fraude e a gente sabe quais transações são fraude ou seja a gente Sabe aquilo que a gente quer prever guardem isso no aprendizado supervisionado a gente Sabe aquilo que a gente quer prever E por que que eu tô te contando isso de novo porque agora você vai conseguir entender perfeitamente como o chat
ept funciona então como Pedro mesmo falou ali no vídeo a gente tem pega todos os dados da internet para poder treinar essas iç Tá bom então todos os dados Wikipedia blog e enfim G1 todos os dados da internet até uma determinada data ele pega né esses dados E treina o modelo mas como ele treina esses modelos né pensa o seguinte você concorda comigo que o modelo vai ter contato com a frase por exemplo do Albert Einstein né então várias frases do Albert Einstein o modelo vai ter Contato tanto frases do Einstein frases de pessoas que
falaram do Einstein então ele vai ter contato com isso e vamos supor que uma das frases né que ele pegou da internet foi essa aqui Albert e eu vou copiar essa frase toda com vocês tá porque vocês vão entender o porquê Albert Einstein a Opa Einstein pera aí Einstein que ficou feio né Foi um gênio Então temos aqui a frase Albert he Foi o gênio show de bola o que que acontece o que que o chat PT faz ele vai pegar esse cara ele vai pegar essa frase aqui e vai dividir ela em dois ele
vai dividir l em do só que de um lado ele vai ter o quê Olha só na verdade deixa eu fazer de um de um outro jeito deixa eu selecionar de outro jeito aqui ó vou começar assim ele tem aqui a nossa entrada deixa eu colocar de outra cor também a gente tem aqui a nossa entrada e a gente tem aqui a Nossa saída então o que que a gente tem aqui as transações no caso os dados e a gente tem o rótulo a saída que a gente espera show de bola e aqui nesse caso
ele só espera o quê depois de Albert eu tenho que ter Einstein Ah entendi Anor e agora bom depois de Albert Einstein o que que eu tenho que prever eu tenho que prever foi Ah entendi an e quando eu tenho Albert Einstein foi o que que eu tenho que prever eu tenho que prever Olha só um Hum entendi ano então beleza agora que eu tenho Albert Einstein foi um deixa eu até jogar isso aqui um pouco para cá agora que eu tenho Albert Einstein foi um o que que eu tenho que prever eu tenho que
prever gênio entendeu eu tenho que prever gênio ah noru mas deixa eu só a redar um pouco para cá porque vai atrapalhar meu negócio aqui e agora que eu tenho tudo né eu pô peguei a frase toda e decompos ela em um monte de coisa Né chegou aqui no final não tem mais nada para poder prever agora a gente tem um token especial que a gente chama de Eos ou End of sequenc ou seja final da sequência quando o modelo de a encontra esse token que a gente chama de token de parada ele não gera
mais texto ou seja como que o chat APT é treinado ele pega essas frases da internet e divide elas no Seguinte passo ele pega uma parte desse texto aqui né no caso sequencialmente e fala o seguinte tá eu tenho Albert Qual que é a próxima palavra que vem depois de Albert aqui na frase Einstein então o meu objetivo é prever a palavra Einstein entendeu Ah e agora que eu tenho Albert Einstein Qual que é o meu é o meu objetivo é prever A palavra foi entendeu E aqui ele vai fazendo isso sequencialmente para bilhões e
bilhões de textos da internet então o chat PT Ele aprende os padrões de de poder fazer a previsão só que ele não sabe o que que é Albert ele não sabe o que que é Einstein ele nem sabe quem que é Albert Einstein só que ele sabe que muito Provavelmente depois de Albert vai vir Einstein entendeu tanto que o modelo funciona assim ó você tá gerando texto né então você coloca aqui Albert ó Albert Einstein Einstein foi Opa deixa eu dar um zoom Out aqui foi um e aqui você joga isso pro modelo Você joga
isso aqui PR ia certo você joga isso aqui seu modelo no caso a ia que que ela vai prever ela vai falar o seguinte Olha depois dessa sequência de palavras aqui foi um gênio gênio Tem aproximadamente 47.8 de probabilidade isso aqui é um número chute tá eu não sei qual que é a probabilidade correta e pelo menos o chat é pt ahor mas pô e físico porque Albert ein foi um físico né pode ter Alguns textos na internet então aqui ó físico pode ter alguns textos na internet que tinha a frase Albert você foi um
físico concorda concordo tanto que aqui a probabilidade pode ser 31.9 por. e aqui vai tanto que a gente pode ter uma outra frase aqui com uma baixa probabilidade Albert Einstein foi um e aqui eu posso falar burro alguém alguma frase ironizando chamar o Albert Einstein de burro e a probabilidade aqui é 1% entendeu É 1% então o modelo de machine learning o chat GPT esses modelos de a generativa eles funcionam dessa forma forma desde o seu treinamento desde o seu treinamento até o funcionamento ali na hora tanto que quando você faz alguma pergunta pro chat
deept ele vai gerando texto de pouco em pouco porque ele vai prevendo palavra por palavra até completar tudo e aí o que que ele faz beleza Ele previu aqui gênio Opa Ele previu gênio aqui concorda Vamos supor que foi esse essa palavra que ele escolheu e aí que que vai acontecer ele vai jogar essa frase aqui de novo e vai tentar prever Quais são as próximas palavras com maior probabilidade entendeu E aqui Albert eisen foi um gênio e aqui a gente pode ter por exemplo End of Sequence esse token aqui pra gente poder prever que
tem por exemplo 27 pon 27 por de probabilidade a gente pode colocar aqui eh foi um gênio do por exemplo a Palavra do ou aí eu posso colocar e do seu tempo entendeu alguma frase da internet pode ser isso Albert foi um gênio do seu tempo e essa e essa palavra do tem 5% de probabilidade E aí vai e ele vai fazendo isso iterativamente repetidamente até completar toda a frase o que que é completar toda a frase prevê esse token de parada entendeu então ele vai fazendo isso repetidamente até chegar nesse token de parada e
aí tem uma coisa muito importante até agora eu Falei só de prever a próxima palavra mas a verdade não é a próxima palavra é o próximo token beleza é o próximo token tanto que se a gente V aqui ó deixa eu ver se eu consigo mostrar para vocês tem essa plataforma da Open que chama Token e ela faz a tokenização de algumas frases Então olha só Albert Einstein foi um gênio coloquei aqui olha só como que ele divide ele divide Albert é um token Então tá colorido aqui a espaço Einstein É um outro token então
para ele é como se espaço Einstein fosse só uma palavra entendeu espaço foi outro token espaço um outro token espaço G é um token então gênio não é um token mas o espaço G é um token e anio é o próximo token Ou seja que que ele tenta prever né Depois de Albert a próxima palavra com maior probabilidade é espaço Einstein ou seja o próximo token com maior probabilidade é espaço Einstein ah depois de Albert e depois de espaço Einstein Qual que é o Tokem mais provável de vir espaço foi entendeu E aí ele vai
fazendo só que o chat PT Ele não enxerga esse texto aqui que você passa ele enxerga isso aqui uma sequência de tokens tá vendo no caso aqui de números então ele enxerga números que você passa e esses números representam justamente ali é a sua frase beleza e esses números eles são gerados a partir de uma técnica que a gente chama de eding beleza esses números são gerados a partir de uma técnica que a Gente chama de eding e o eding é é uma discussão um pouco mais longa eu ia desenhar aqui mas eu vou preferir
mostrar aqui um desenho para vocês em badings Vamos pesquisar e represent deixa eu ver representation deixa eu colocar aqui pra gente poder achar alguma imagem boa em badings essa imagem aqui é muito boa essa aqui ó dá para acho que vai dar para mostrar bem vamos vamos chegar aqui para poder mostrar para vocês Eh ó olha só isso aqui é muito bom ele pega a palavra Men e transforma em um pensa que é uma lista de números tá bom isso aqui é uma lista de números e essa lista de números ela é posicionada em algum
lugar no espaço tá quando a gente tá falando por exemplo de modelos que transformam uma frase ou uma palavra em um vetor ou seja em uma lista de números a gente tá falando de modelos de edging beleza tem esse nome mais técnico chamado de Eding eding modelos de eding e o único propósito deles é transformar uma sentença textual ou seja uma frase em uma lista de números com um objetivo essa lista de números tem que representar informação semântica então a a gente tem que armazenar de alguma forma o sentido daquela frase ou o sentido daquela
palavra nesse caso aqui o eding faz isso você pode pensar Nossa mas como que ele faz isso olha aqui tá Vendo que de homem para mulher a gente tem um vetor a gente tem essa linha aqui tá vendo emp pontilhada nem sei se tá tá dando para ver direito deixa eu tentar copiar essa imagem e colar aqui no scol draw tem como paste deixa eu ver se tem como nunca fiz isso não nó tem como que isso ô o computador é bom demais você tá tá doido aqui vai dar para desenhar certinho ué ó deixa
eu colocar aqui para vocês tá vendo Aqui a gente tem homem e a gente tem mulher né aqui em cima e a gente tem aqui rei e rainha só que se eu desenhar em cima dessa imagem aqui por exemplo deixa eu pegar essa essa linha mais grossa aqui ó vou desenhar esse vetor aqui tá vendo se eu pegar esse cara deixa eu ver se eu consigo fazer isso né consigo Hum vou ter que desenhar tudo junto tem problema não ó aqui ó nó ficou bonito vou pegar essa Seta e vou colar aqui você pode ver
que É aproximadamente a mesma coisa tá vendo É aproximadamente a mesma coisa ou seja a distância e a direção de homem para mulher é a mesma distância e direção de rei paraa rainha entendeu Então ele consegue armazenar essa informação semântica e aí por que que eu falei quase a mesma porque Queen não necessariamente o significado é só rainha pode ser a banda do Fredy Mercury Queen concorda e tem várias outras né enfim tem se eu não me engano tem tem Até um filme chamado Queen eh tem várias coisas que a gente pode interpretar como Queen
como King também como o próprio Burger King então a distância não vai ser a mesma mas é muito parecida ele tenta armazenar essa informação semântica entendeu então é basicamente dessa forma que o chat GPT gera esses números e consegue prever essas probabilidades então meio que o Pedro falou que se vocês quisessem né comentar no vídeo dele aí ele fara em outro vídeo Mas eu já expliquei um pouco aí de como funciona para vocês lançou uma inteligência artificial estilo chat GPT para ajudar no seu programa de pesquisa o ping e logo esse ajudante de pesquisa começou
a receber inúmeras críticas por dar respostas incorretas e não só isso mas quando a i era avisada que ela tinha errado ela tendia a ficar irritada e brigar com o humano corrigindo ela ou seja aá interpretava que brigar com alguém quando essa pessoa te corrige era Uma reação provável baseada nas palavras da correção e considerando como as discussões da internet acontecem isso faz todo sentido O problema é que o que a ia estava prevendo não era útil pra função que ela tinha que desempenhar a ia chegava ao ponto de assumir nomes alternativos para si mesma
e começar conversas que eram basicamente desconectadas da sua função inclusive expondo supostas instruções secretas que a própria Microsoft dava ao chat o chat Talvez tenha até revelado supostas conversas privadas de outros usuários nos testes do jornalista Kevin Rose a nova tecnologia de busca inteligente da Microsoft falhava tanto em executar o seu trabalho quanto em manter a segurança dos seus usuários o que baseado no que já se sabia sobre o limite das ias era meio que o esperado eas que geram um texto não sabem o que é verdade e pior elas nem sabem que não sabem
o que é verdade o chat GPT e as Outras ias vão produzir conteúdo incorreto com a mesma confiança com que elas vão escrever conteúdo correto o chat GPT não se importa se as palavras que ele escrever são verdade ele só se importa se as palavras estão correlacionadas de acordo com o seu modelo interno alucinações que geram ostas incoerentes ou erradas são meio que esperadas e E aí tem uma coisa que eu vou pausar rapidinho porque eu esqueci de fato de explicar para vocês Porque o modelo ele não prevê sempre ele não escolhe sempre essa essa
próxima palavra o próximo token com a maior probabilidade necessariamente até porque senão ficaria muito engessado então tem alguns parâmetros do modelo por exemplo a temperatura temperatura que ela justamente e ela fornece uma maior possibilidade de palavras então por exemplo modelos com uma temperatura baixa eles tendem a Gerar respostas mais Precisas mais como é que eu posso falar sem ter tanta criatividade assim mais factual que a gente chama Tecnicamente mais determinística beleza e quando a gente aumenta a temperatura por outro lado a gente deixa a a mais criativa O que que significa ao invés de ter
três setas aqui com possibilidade de palavras a gente começa a ter por exemplo sete setas então ele tem mais palavras para poder escolher aqui e não só a temperatura controla isso mas Tem um outro parâmetro também que a gente chama de Top P que aí ele pega por exemplo ah se o top P for por exemplo 90 né no caso é de zer a 1 então 0.9 ele vai pegar somente as palavras que tem uma probabilidade de 90% ou mais para ser prevista entendeu então você meio que consegue controlar essa criatividade do modelo para ele
poder prever as coisas beleza só esqueci de falar isso e agora que eu lembrei Isso é uma limitação da tecnologia de Inteligência Artificial e a são ferramentas e não Mágica o problema acontece justamente quando humanos tratam essa ferramenta como se fosse mágica que é o que acontece quando uma Iá de processamento de textos é colocada como uma mediadora de verdade em um site de pesquisa Inclusive a maior parte das I de pesquisa foram lançadas como uma resposta ao sucesso do chat GPT e não porque a ferramenta estava bem desenvolvida ou era útil foi uma decisão
Financeira por parte das empresas e não uma inovação tecnológica tanto é que em 20222 funcionários do Google avisaram a empresa que lançar uma I de pesquisa de forma apressada poderia acabar gerando uma impressão negativa exatamente o que aconteceu no ano seguinte Inclusive essa é a hora perfeita para Av vou deixar o Jabá rolar porque eu tô reagindo ao vídeo Então vamos ver o Jabá aqui que mesmo com todas essas falhas você pode aprender a Extrair o melhor possível dessas ferramentas e se você quiser um lugar para começar eu recomendo a lura eu fiz esse curso
aqui e valeu muito a pena eles estão dando um desconto de 15% para quem assiste o Ciência todo dia então se eu fosse você eu não perdi essa oportunidade e clicava no link aqui da descrição e agora a pergunta que fica é como fazer uma I sabe a verdade mesmo com os enormes avanços feitos em aplicações de Inteligência Artificial Nos últimos anos já faz quase uma década que um modelo realmente novo de treinamento de inteligências artificiais foi lançado e esse é o modelo Transformer que é a base do chat GPT Nossa o Pedro ter falado
isso nesse vídeo me surpreendeu porque o transforme é uma coisa mais técnica tá bom e geralmente o Pedro ele tem a intenção de trazer um conteúdo não superficial tá pelo contrário Mas o conteúdo um pouco mais leve pro pessoal então isso aqui me Assustou um pouco mas o Transform ele surgiu em 2017 por esse paper aqui is all you need tá e desenvolvedores do Google lançaram esse esse artigo chamado attention is all unid propondo essa arquitetura que eles chamaram de transformer e essa arquitetura ela começou com o propósito de ser justamente paraa tradução então tradução
por exemplo do português pro inglês tradução do alemão pro inglês e e só com esse propósito só que aí os Pesquisadores pegaram essa nova arquitetura que tipo assim foi melhor que muita coisa que a gente tinha até 2017 eles começaram a ver que tinha umas aplicações muito boas que essa arquitetura era muito boa e a basicamente essa arquitetura aqui tá o Transformer ele é isso aqui tanto que aqui você pode ver o output das probabilidades ele recebe aqui ó a o texto que você manda para ele tá vendo Então input depois ele transforma ele Faz
aquele eding pega o seu texto se transforma em uma lista de números Então tá tudo aqui todo o funcionamento eh o chat GPT Hoje ele é baseado nessa arquitetura tá a maioria das inteligências artificiais que você tá vendo hoje e as generativas de texto elas são baseadas nessa arquitetura tá Não exatamente essa arquitetura mais mais baseadas e bom surgiu aqui em 2017 e aqui tá 2023 mas foi lançado em 2017 tá bom é que teve alguma Teve alguma Atualização por aí deixa eu ver se eu acho o é provavelmente aqui ó tá vendo Vocês conseguem
ver é um paper de 2017 tá vendo Então basicamente é isso surgiu aqui pô fiquei surpreso do Pedro ter falado e de todos os outros modelos similares pelo que nós sabemos do modelo atual tentar ensinar a verdade para uma inteligência artificial vai ser um desafio e tanto e Talvez seja até impossível ou pior talvez simplesmente não seja tão útil assim então aqui vai a Pergunta é possível fazer uma ia que vai dar respostas verdadeiras perguntas ou pelo menos que seja capaz de servir como uma mediadora do que é verdade ou não durante para alguns tipos
de perguntas sim uma pesquisa e eu vou explicar isso daqui a pouco existem alguns desafios no caminho o primeiro desafio é técnico existe mu informação necessária para tentar estipular o qu verdadeira uma afirmação é isso envolve tanto o contexto da pergunta quanto informações Técnicas que muitas vezes estão implícitas só alimentar uma inteligência artificial com artigos de física não vai fazer aí aprender física tudo que isso vai fazer é ensinar a inteligência artificial a replicar o tipo de palavras que aparecem em artigos de física alguns experimentos tentaram usar textos comentados por especialistas como base de dados
e nesses textos a veracidade e os detalhes de afirmações numa área são complementados com explicações Contextuais feitas por especialistas por exemplo um experimento tentou ensinar radiologia para uma Iá E esses resultados tiveram um sucesso moderado a ia radiológica era capaz de dar informações corretas Mas sem os detalhes práticos necessários para ser realmente útil para radiologistas no fim a ia Só servia como um texto de referência extremamente complicado ao invés de uma ferramenta verdadeiramente inovadora a ia sabia da área de Radiologia Mas ela Não tinha o tipo de experiência que torna um radiologista experiente tão valiosa
de Na verdade tem inclusive algumas competições que empresas pagam muito dinheiro deixa eu colocar aqui e xray olha para você ver tem algumas algumas competições que empresas mesmo pagam um valor muito alto para pessoas poderem a partir de um de fotos então a gente pode ver aqui ó olha só tem fotos e aí eh vários cientistas de dados né pessoas que treinam essa ia eles treinam Modelos para poder identificar então aqui ó identificar um nódulo uma pneumonia por exemplo Com base no Raio X torácico né aqui do do tórax da pessoa e aí você pode
ver por exemplo que a gente tem por exemplo vários códigos aqui de pessoas fazendo isso Inclusive eu posso pegar aqui ó most voltage o mais votado Olha só treinando uma simples é rede neural convolucional para poder fazer isso então você pode ver aqui que ele Analisa todos os dados ele consegue Pegar aqui as imagens no final ele prevê as probabilidades aqui então olha só ele tá prevendo que deixa eu ver se eu acho aqui ó Qual que é o desempenho do modelo né de machine learning ali no no problema e aqui você tá vendo ó
ele falando que deixa eu ver Deixa eu ver se eu acho algum resultado aqui basicamente esse gráfico representa o resultado tá esse gráfico que a gente chama de rock al esse gráfico aqui a gente chama de curva rock na verdade a Métrica a gente chama de rock alk tá E aqui é basicamente isso então tem as que servem para identificar show de bola então identificar por exemplo pneumonia identificar por exemplo e como é que eu posso falar o que tava aqui né tipo nódulos né nódulos então tem as que fazem isso hoje só que a
experiência prática elas não TM elas não sabem o que significam aquilo entendeu não sab O que que significa por exemplo um nódulo e na verdade ela consegue prever as Probabilidades para poder chegar numa definição de nódulo mas ela não sabe intrinsicamente o que é como um médico sabe beleza outra forma a ia conseguiria passar numa prova teórica de Radiologia Mas não seria nem um pouco seguro deixar ela controlar um equipamento radiológico de fato Então vale pensar será que se a gente treinar essa mesma ia de Radiologia em muitos mas muitos dados Será que ela não
pode acabar se tornando Útil até porque Um dos fatores mais determinantes na qualidade de uma ia é a quantidade de dados disponíveis durante o seu treinamento Então qual é o limite da inteligência das inteligências artificiais as evidências que nós temos Desculpa Pedro vou te interromper Porque tem uma coisa muito interessante é um gráfico muito interessante para vocês terem aí que é esse gráfico aqui ó pensa que aqui a gente tem a olha só aqui a gente tem a performance da Ia performance se da ia e aqui a gente tem a quantidade de dados beleza performance
da a quantidade de dados e a gente tem duas curvas essa curva e essa curva aqui qual que é a diferença delas essa aqui é dos slms e essa aqui é a curva dos llms que a gente discutiu mais cedo então quanto maior a quantidade de parâmetros que você tem no modelo e quanto mais dados você tem muito provavelmente o Desempenho delas vai melhorar cada vez mais entretanto para modelos com por exemplo 8 bilhões de parâmetros apenas ele você pode fornecer mais dados que a performance vai ficar meio que estagnada entendeu não vai conseguir Se
você não aumentar junto a quantidade de parâmetros do modelo também beleza Inclusive a título de curiosidade Eu já falei isso mas o Gemini do Google ele tem mais de 1 trilhão de parâmetros então mais de 1 Trilhão o gpt3 o TR ele tem 175 bilhões de parâmetros hoje a gente já tá no GPT 4 o né então gpt3 aqui a gente tem eh no caso com 175 bilhões de parâmetros só que qual qual que é uma coisa muito importante aqui que eu gostaria de falar para vocês esses modelos menores a gente utiliza muito no dia
a dia por qu eles têm um tempo de respostas mais mais rápido né comparado aos llms porque eles São menores Então são mais eficientes eles são mais baratos de poder utilizar em aplicações show de bola e uma coisa muito importante galera com o prompt certo você consegue extrair muita coisa engenharia de prompt não é bobagem Tá bom se você faz o prompt correto para I você com consegue obter dela respostas muito boas muito muito boas tanto que várias aplicações que eu construo hoje de modelo de linguagem eu utilizo por exemplo lama de 8 bilhões de
parâmetros Por é muito barato Primeiro de tudo é muito rápido para poder dar respostas e ele atende algumas necessidades que eu tenho durante o dia a dia então por exemplo para construir um chatbot complexo Claro que eu não vou utilizar um modelo de 8 bilhões porque ele não vai me suprir tanto só que para por exemplo poder classificar algum texto o modelo de 8 bilhões já me serve muito e só que eu tenho que saber dar o promp de correto inclusive se você tá assistindo Antes do dia 26 de outubro de 2024 esse vídeo a
gente vai fazer uma masterclass ao vivo de engenharia de prompt tá aqui no primeiro link da descrição para você poder acessar e se você tá assistindo depois ela ficou gravada e você pode reassistir é uma masterclass onde eu vou dar material prático de engenharia de prompt aula de engenharia de prompt também tudo sobre engenharia de prompt vai estar nessa aula tudo que você precisa saber inclusive Como você Consegue atacar as ias para poder vazar o prompt delas show de bola então primeiro link da descrição você vai conseguir pegar e acessar essa masterclass de areia de
prompt show de bola então lembre-se sempre slm são muito bons para aplicações só depende de como você faz o prompt contam para um resultado meio pessimista a taxa de aumento de inteligência em ias cresce de forma mais devagar com o aumento de dados do que o ideal ou seja dobrar os Dados que uma ia tem acesso não dobra a inteligência dela é preciso uma quantidade exponencialmente maior de dados para dobrar as capacidades de uma ia então criar uma ia extremamente inteligente pode exigir uma quantidade de dados maior do que é disponível em muitas áreas de
aplicação e mesmo que esse desafio tecnológico seja superado por algum modelo novo Nós não sabemos como garantir que yas V continuar operando de forma segura e robusta por Longos períodos uma IAC segura significa que ela não vai tomar ações que possam causar danos diretos sei lá tipo ensinar um adolescente empolgado a fazer uma bomba com produtos de limpeza em casa ou que um carro autônomo não possa ser confundido por grafite simples na rua ou por um hy colocado no capô dele uma iass robusta significa que ela vai continuar operando como o esperado mesmo sem supervisão
humana como por exemplo não entrar em padrões de Alucinação como o Chat de pesquisa do Bing costumava fazer atualmente não existe nenhum método bem determinado para garantir que uma ia vai se manter segura e robusta em situações inesperadas o que na prática significa que quase toda ia realizando uma função importante vai precisar de supervisão por um ser humano qualificado então mesmo que uma ya fosse treinada para fal falar verdade e tivesse sucesso razoável em fazer isso não dá para garantir que esse continuaria sendo o caso para todos Os cenários possíveis as informações só seriam confiáveis
se aprovadas por um especialista na área e nesse ponto é mais fácil e rápido perguntar para especialista diretamente além do problema tecnológico e de segurança existe um último problema no caminho que é o próprio significado de verdade a palavra verdade deve ser uma das palavras mais filosoficamente complicadas que existem e escolher uma definição consistente de verdade vai ser Um passo fundamental para treinar uma I para falar o que é verdade o que é um problema porque verdade é algo extremamente contextual por exemplo as três leis de Newton guardem isso contextual eu vou explicar para vocês
como você pode utilizar o modelo de linguagem para dar respostas extremamente confiáveis tá bom extremamente confiáveis só que o chat ept quando você utiliza o modelo de linguagem né um llm que prevê Probabilidades claramente ele pode errar porém algumas coisas que eu vou explicar para vocês daqui a pouco você consegue extrair informações muito boas da muito muito boas e ela tem uma taxa de acerto gigantesca são verdade elas são fatos da física a única resposta correta é que é complicado em um sentido absoluto as três leis de Newton não são verdadeiras porque nós sabemos que
existem situações em que elas não descrevem corretamente a Natureza mas em um outro sentido sim dentro dos limites de aplicação das leis de Newton elas descrevem tão tão bem quanto é possível a natureza o quão verdade são as leis de Newton depende do contexto da pergunta as leis de Newton não valem em situações que envolvem partículas quânticas Mas elas funcionam perfeitamente bem para uma maçã caindo na terra e isso é um fato sobre a física uma área do conhecimento relativamente direta a maior parte das verdades Científicas vem com asterisco sobre contexto situações válidas e quais
são os limites do que nós entendemos sobre o mundo ao nosso redor coisas que um cientista treinado vai aprender muito bem tanto por isso estudar a área quanto também por ganhar experiência atuando nela com outros cientistas Então nesse sentido verdades científicas T um grande elemento social e são resultados de colaboração e discussão entre colegas o conhecimento de um cientista é Extremamente dependente da sua experiência prática algo que não é exatamente possível de se reproduzir durante o treinamento de uma ia uma ia capaz de entender o contexto do conhecimento humano com esse refino seria uma excelente
candidata a uma Iá geral capaz de executar até mesmo as tarefas para as quais ela nunca foi treinado Aí vou dar uma definição aqui a gente tem basicamente três tipos de a hoje tá Inteligência Artificial restrita Inteligência Artificial geral que é o que o Pedro tá falando e super Inteligência Artificial a inteligência artificial restrita são todas que a gente tem hoje elas são muito boas em tarefas específicas Tá bom então o chat PT é muito bom em gerar texto o mid Journey é muito bom em gerar imagens tarefas específicas quando a gente tá falar Inteligência
Artificial geral a gente tá falando de um campo teórico onde as inteligências artifici tem o Mesmo poder cognitivo de um ser humano então tudo que um ser humano consegue fazer de forma cognitiva aá também conseguiria beleza e a super Inteligência Artificial é a Skynet né são as ias mais inteligentes que os seres humanos Atualmente as pesquisas sobre as não indicam que nós estamos melhorando em criar ias mais verdadeiras a posição mais razoável é um leve pessimismo sobre um aumento drástico nas capacidades de ias não existe nenhum Caminho Óbvio para criar uma Iá que entende minimamente
de lógica e ciência de forma mais profunda e geral então ou nós temos que superar os desafios no caminho ou encontrar formas de contornar essas limitações aí que tá A Iá não precisa entender o que que ela tá falando para poder ser boa tá e eu vou explicar isso para vocês e é justamente nisso que parte da pesquisa em ia se dedica no fim de 2023 a Open aa que é a empresa por trás do chart GPT deixou Vazar que eles estavam trabalhando em um modelo novo chamado q estrela o modelo q estrela teria como
função resolver problemas matemáticos for mais incluindo provar resultados matemáticos que o modelo nunca tinha nem visto durante o treinamento basicamente o que eles queriam fazer era ensinar uma Iá a pensar com lógica matemática e se nós quisermos ensinar ias a pensarem com mais verdade e mais lógica a matemática é um excelente ponto de partida verdades Matemáticas são provadas por lógica rígida e não tem todas as nuances mais elaboradas das outras ciências provar resultados matemáticos novos de forma consistente exigiria um entendimento verdadeiro de lógica por parte da ia algo que nenhuma ia mais geral consegue fazer
atualmente e hoje no dia em que eu estou gravando esse vídeo nós ainda não sabemos muito sobre o que estrela o que nós sabemos e que vem a partir de rumores eu preciso deixar isso claro é Que ele é uma tentativa séria de fazer inteligências artificiais poderem pensar sobre as suas próprias respostas mas até a gente conseguir superar tantos desafios técnicos quanto os desafios de segurança não vai ser possível acreditar no chat GPT em nenhuma outra ia só que o que mais me fascina nessa história toda é que tentando criar uma Inteligência Artificial capaz de
entender o que é verdade mas sem querer estamos esbarrando em coisas que nós precisamos Descobrir sobre nós mesmos e o que que dá para nós seres humanos a capacidade de pensar na opinião de vocês algum dia nós vamos ter inteligências artificiais conscientes digita aqui nos comentários eu tô doido para ver pessoal show vídeo excelente aqui vou dar meu like vou inscrever no canal aqui do Pedro excelente vídeo explicou de uma forma muito muito boa e agora vou explicar para vocês duas coisas a primeira delas é o que que é essq estrela tá eu sei que
Muita gente ficou curioso e eu vou explicar também a parte do da confiança que você pode dar PR aá que eu falei que eu ia explicar deixei aqui pro final do vídeo pra gente poder aproveitar bem show de bola então vou começar pelo q estrela o q estrela é basicamente uma combinação de kill learning então aqui a gente tem ó k learning O que que é o kill learning como você pode ver aqui deixa eu ver se eu consigo achar aqui show de bola aqui a gente tem um exemplo Muito bom que eu gosto de
dar esse exemplo aqui inclusive para poder explicar sobre aprendizado por reforço lembra que a gente falou de aprendizado supervisionado olha só a aula voltando lá no começo aprendizado supervisionado a gente tem um outro tipo de aprendizado que as ias conseguem ter que é o que a gente chama de aprendizado por reforço Então a gente tem esse outro tipo de aprendizado que é justamente Utilizado no Q learning e esse Q do q learning ele é o qu do que estrela Beleza e como que funciona basicamente pensa que você tem um agente inserido em um ambiente Tá
bom então Agent e environment show de bola esse agente imagina que é o Mário beleza é o Mário que a gente tá o Mário Bros que a gente tá conhecido ninguém vem perguntar no comentário que Mário tá bom e a gente tem um ambiente o ambiente é a fase do Mário beleza e quando o Mário ele faz Ações dentro do ambiente ou seja ele anda ele pula naquele tubo para passar de fase ele bate naquele bloquinho para poder pegar moeda ou ele vai anda direto ali bate na Tartaruga e morre né então com essas interações
essas ações que o Mário faz dentro do ambiente ele é punido ou recompensado a gente define isso né então a gente fala para ele assim ó Mário Isso é uma função matemática tá bom mas é como se a gente falasse para ele Mário Se você bater na Tartaruga e morrer você vai perder 500 pontos Mário se você pular no bloquinho e pegar a moeda você vai ganhar 600 pontos e aí você vai falando para ele como que ele é recompensado E como que ele é punido a cada ação que ele toma entendeu E a partir
disso ele aprende então isso é o que o learning show de bola é basicamente nesse sentido é um é um aprendizado por reforço aqui reinforcement learning show de bola e aí o objetivo é você maximizar a quantidade De pontos que ele tem então por exemplo se ele ganha 600 e perde 500 ele fica com 100 Opa é bom só que eu vou tentar evitar perder esses 500 para poder maximizar o meu resultado ou seja ficar com 600 no final ao invés de só 100 entenderam é basicamente isso que acontece E aí esse é o quê
E aí tem esse algoritmo chamado de a estrela que é um algoritmo de ordenação show de bola e aqui a gente pode ver ó deixa eu pegar aqui alguma imagem para poder mostrar Para vocês é é um algoritmo de otimização também tá de otimização e deixa eu ver aqui algoritmo de busca é usado para várias e várias coisas deixa eu pegar algum exemplo Bacana aqui para poder mostrar para vocês deixa eu ver é que a gente tem um algoritmo de Dix aqui mas é um pouco mais complicado para explicar isso aqui é basicamente o seguinte
é um algoritmo que a gente consegue meio que olhar pro próximo passo sem dar o próximo passo para poder Chegar no caminho que a gente quer então aqui a gente tá saindo desse ponto e o algoritmo ele ele consegue identificar né Qual é o caminho mais curto para poder chegar no ponto verde e aí ele consegue meio que olhar qual que é o se o próximo passo vai ajudar ele nesse objetivo ou não Ou seja que que a gente tem aqui com base nesses rumores né que a inteligência artificial da Open ai tá que a
Open ai tá fazendo com essas iç eles estão juntando tanto o k Learning tanto o k learning com o algoritmo a estrela ou seja para fazer o q estrela e aí o que que eles querem bom eles querem fazer com que aá aprenda por reforço Inclusive tem uma parte de aprendizado por reforço no chat GPT mas eu não vou explicar isso aqui hoje tá bom se vocês quiserem tem uma aula minha ao vivo aqui no canal vai lá na aba de ao vivo tá ou live aqui do canal que vocês vão ver uma aula minha
de de 3:30 sobre os fundamentos da Inteligência Artificial então basicamente o que que eles querem eles querem que a inteligência artificial ao resolver problemas ela seja punida quando fizer Passos errados e seja recompensada quando fizer Passos certos ou seja um pouco aqui de que o learning E aí entrando no a estrela ele quer chegar na solução da maneira mais rápida possível olhando se o próximo passo que ele der naquela solução naquele raciocínio vai ser bom ou não para chegar na resposta Final de forma mais rápida então ele tá juntando um algoritmo de otimização com algoritmo
aqui de aprendizado por reforço para poder chegar e fazer aquelas soluções matemáticas é para mim foi genial essa sacada que eles tiveram de fato aí Se isso for verdade pô ão de parabéns foi realmente genial isso aí você tá doido e agora explicando sobre a confiança a confiança das ias que é o que eu queria explicar para vocês de fato tá tem uma parte da ia e essa parte É o que eu pesquiso academicamente sobre tá a gente chama de hag hag é o o que eu falei PR vocês retrieval augmented Generation então aqui ó
é ya aqui ó hag ai né Deixa eu colocar Ai aqui que é hag Cadê retrieval augmented Generation show de bola é basicamente isso deixa eu pegar esse diagrama aqui da WS que eu acho que vai dar para explicar bem para vocês aqui a gente tem basicamente o seguinte galera agora que Eu aprendi a fazer isso né pô minha vida facilita muito então vamos chegar aqui vamos colar isso aqui tranquilinho que aí eu vou explicar para vocês olha só temos aqui então rola o seguinte a gente tem aqui a pergunta que o usuário faz o
prompt que ele manda para ia beleza só que o que que acontece esse prompt que ele manda aqui ele vai para um ele é embedado né então Sabe aquele embed quando a gente transforma uma lista de números para armazenar Informação semântica a gente faz isso com o prompt aqui do usuário show de bola e aí a gente manda esse prompt já com transformada em uma lista de números pro que a gente chama de banco vetorial aqui como vocês estão vendo ó knowledge sources ou seja as fontes de conhecimento a gente verifica aqui na no banco
de conhecimento se tem algum documento relevante para aquela pergunta que eu fiz ou seja vamos supor que você tem aqui um documento gigantesco da sua Empresa Então você tem informação do endereço da empresa informações confidenciais que se você perguntar pro chat PT ele não sabe tá bom então você tem várias informações aqui da sua empresa Beleza e você pega isso e transforma tudo isso aqui em um banco de conhecimento show de bola e aí que que você vai fazer você vai transformar isso aqui em um edging em beding Então olha só você vai transformar todo
esse documento em uma lista de números e aí Tem várias técnicas para poder fazer isso Tá Mas também se eu for explicar tudo vai Pô vou ficar 3 horas aqui explicando para vocês nesse vídeo mas basicamente ele corta esses documentos em algumas partes faz o embedding dessas pequenas partes aqui e manda para esse banco de conhecimento então ele vai fazer o seguinte ó ele vai retornar para mim No caso quando eu fizer essa busca pelas pelas informações relevantes ele vai retornar para mim os k trechos no Caso aqui esse é um trecho Esse é um
trecho e esse é um trecho ele vai retornar os k trechos mais similares à pergunta que eu fiz semanticamente falando entendeu então ó toda vez que eu fizer uma pergunta ele vai traz por exemplo eu vou colocar que ele vai trazer dois tá ele vai trazer os dois documentos mais relevantes aqui pro prompt que eu fiz então aqui a gente tem os dois documentos ó vindo aqui os dois documentos mais semelhantes tá bom a Pergunta que eu fiz e ele vai utilizar esses dois documentos como contexto pro meu prompt então se eu pergunto por exemplo
qual o endereço da empresa XY Z essa empresa foi fundada hoje e eu coloco pro GPT lá um documento que fala qual que é o endereço ele vai conseguir responder eu falo ó tem uma empresa chamada xz Aí lá embaixo no prompt tá escrito assim a localização da empresa xz é na rua tal tal tal endereço tal tal tal ele vai conseguir responder porque Essa informação tá no prompt só que se eu perguntar diretamente IPT sem nenhum contexto ele não vai saber entendeu então esse ha que a gente tá falando ele serve justamente para poder
trazer informações para tentar reduzir a Alucinação do modelo e não só isso quando a gente tá falando e aí eu posso entrar em várias coisas aqui por exemplo Olha só vou mostrar aqui de é de bônus né esse artigo aqui Lost in the midle ele fala o seguinte basicamente quando Você tem um contexto muito grande aqui ó tá vendo o total de documentos que eu trouxe né Total retrieved documents isso aqui Você lembra que a gente Trouxe dois aqui né nesse caso e a gente tá falando aqui ó 20 documentos que foram trazidos quando a
gente tem informação relevante num contexto muito grande ou seja quando a gente coloca um contexto gigantesco para ele sem ter que fazer essa busca sem trazer os documentos mais semelhantes né mais similares a gente Fica com um contexto gigantesco é como se a gente colocasse todo esse documento aqui todo esse documento sem ser as partes dele diretamente lá no contexto Ou seja a performance cai bastante como vocês podem ver aqui no gráfico Inclusive essa linha aqui é sem nenhum contexto Ou seja quando você fornece um contexto muito grande para Iá a performance Dela pode ser
até pior do que sem nenhum contexto então por isso que a gente tem que trazer o mínimo de Contexto só que contém dado que esse contexto que a gente trouxe nesses poucos eles conté todas as informações que a gente precisa para poder responder a pergunta entendeu então é para isso que hag serve e isso torna as eas muito mais confiáveis por se a gente quer perguntas por exemplo sobre a empresa que abriu a gente só fornece o documento para ela aplica toda essa técnica aqui né e depois pergunta entendeu porque ela vai ter as informações
necessárias para Poder responder ela vai reduzir muito a taxa de Alucinação show de bola E aí tem uma outra coisa também que ajuda bastante nessa parte de Alucinação que é o que a gente chama de Agentes e agentic agentic workflows workflows agentes nada mais são que llms ou seja modelos de a aqui a gente eu vou colocar aqui ai tá bom modelo de Inteligência Artificial que Ele tem acesso por exemplo o Google ele tem ferramentas para ele poder resolver aquela aquela pergunta específica Ele tem acesso aqui a por exemplo código Python código Python Por que
código Python ah por causa dos Por exemplo quando eu pedi para ele gerar um gráfico o modelo de linguagem ele não sabe gerar um gráfico só que quando eu venho por exemplo e peço pro pro Python a partir de um Código geral gráfico ele consegue entendeu então um agente de a ele consegue acessar ferramentas específicas para poder resolver o problema em questão entendeu Além disso ele consegue pensar se aquela resposta que ele deu foi suficiente ou não para poder chegar no resultado então ele consegue meio que raciocinar naquilo entendeu para poder chegar na resposta final
ele dá uma resposta só que aí ele pode pensar o seguinte não essa resposta não foi boa Deixa eu pensar de novo então agentes ainda reduzem mais e aqui eu vou mostrar porque que essa parte matemática ela é um problema tá quando eu ver aqui no tokenizer da Open ai eu vou pesquisar eu vou colocar o seguinte ó 394 mais por exemplo Deixa eu pensar deixa eu colocar aqui a calculadora não sei se tá aparecendo para vocês mas 394 mais 689 + 689 tá mais 689 é igual a 1083 olha aqui o seguinte um token
é 394 Outro token é espaço mais outro token é espaço outro token é 689 outro token é espaço igual outro token é espaço e outro token é 108 e tem um token sozinho que é três ou seja pro modelo 1083 não é um número são dois tokens o token 108 e o token 3 então por isso ele peca muito em cálculos matemáticos beleza ele não sabe que de fato é um número para ele é tudo token e ele tenta prever o token mais provável de vir entendeu Por isso que ele é ruim para poder fazer
cálculos Matemáticos né só que quando a gente tem essas inteligências artificiais e elas percebem Opa eu tenho que fazer um cálculo se eu tenho que fazer um cálculo isso a gente consegue definir dentro dos agentes a gente fala o seguinte cara eh Se você precisar de fazer algum cálculo matemático chama essa ferramenta aqui e essa ferramenta pode ser um código em Python e quando a gente faz um código em Python não tem como errar é um código entendeu E ele vai necessariamente Fornecer a resposta correta então é basicamente isso um agente de a reduz muito
a taxa de alucina e os agentic workflows eles funcionam basicamente quando você tem vários agentes que podem se comunicar entre si entendeu então esses agentes aqui eles podem inclusive delegar funções então aqui você tem por exemplo um analista de dados se você tem uma empresa né aqui você tem um copywriter Copywriter aqui você pode ter um gestor de tráfego gestor de tráfego Então você tem agentic workflows onde vários agentes podem se comunicar entre si entendeu então isso reduz ainda mais a taxa de Alucinação porque se ele não souber algo ele pode delegar para alguém que
tem a função específica e esse alguém que tem a função específica é no caso um outro agente entendeu Então galera a confiança que você tem nas ias Ela depende muito De como você vai utilizar se for só o chat GPT aí de fato a confiança você não pode esperar tudo dela porque ela ela tem até acesso a algumas ferramentas né Como o próprio interpretador Python lá dentro que você é se você pedir para e para fazer questões matemáticas muito complexas Muito provavelmente ele vai chamar o código em Python se você pedir pro chat PT fazer
uma busca ele consegue hoje fazer buscas no Google entendeu então meio que é um agente tá meio que é Um agente só que ainda não confie 100% por quê Porque não é um agente tão bem construído como o que você constrói ele de fato com código e bem mais robusto ele é show de bola então basicamente é isso novamente a gente tem a Master clash engenharia de promp se você quiser aprender a parte mais importante para poder se comunicar com as inteligências artificiais e tem muitas técnicas tá então meta prompting Chain of touch three of
touch e tem ali é prompt de Estimulação direta tem prompt injection que a gente consegue atacar as ias para poder vazar informações e por que que eu vou te ensinar isso para você aprender a proteger as suas aplicações também tá eu vou te ensinar a atacar para você saber proteger as suas aplicações Então quando você criar a sua E é isso que eu faço com com as minhas aplicações eu tento atacar o máximo para poder vazar algum tipo de informação não vazou show de bola porque eu protegi com prompt também Beleza galera Então tá aqui
no primeiro link da descrição para você poder assistir Tá bom se você quiser assistir ao vivo tá assistindo antes do dia 26 você pode comprar o ingresso para poder assistir e se você é tá assistindo depois do dia 26 de outubro de 2024 você pode assistir a gravação aqui tranquilamente show de bola então é isso se você gostou do vídeo não se esqueça de se inscrever aqui no canal e deixar o like estamos junto e até o próximo vídeo