[Música] Próprio, onde eu atuo na área de processo civil e direito administrativo. Também sou autor de vários artigos e capítulos de livro. Tem o meu livro que foi publicado pela Editora Tótem, também sobre esse tema que a gente vai conversar um pouquinho hoje, que é o uso da tecnologia, ou, melhor dizendo, da inteligência artificial no processo ou no poder judiciário. Aqui na nossa disciplina, o foco mesmo vai ser o uso do que a gente chama de sistemas de linguagem generativa. Esse nome complicado, ou cheio de glamur, na verdade, só significa um sistema que é
capaz de gerar texto. Como no direito, a gente trabalha nossa matéria, que é a linguagem, são as palavras, os textos. Esses sistemas têm um impacto muito grande hoje na nossa atuação, seja como advogado, seja no poder judiciário. Hoje, dia 18 de março, e ontem foi lançada uma resolução do Conselho Nacional de Justiça, regulando, ou melhor dizendo, atualizando o uso de inteligências artificiais no poder judiciário. Para quem quiser dar uma olhada depois, salvo engano, é a resolução 651. Então, o que eu quero dizer para vocês: esse uso desses sistemas, dessas tecnologias, hoje é inevitável para a
gente do direito. A gente não consegue fugir delas, a gente não tem como existir sem compreendê-las no ambiente jurídico. A ideia a partir dessa disciplina é que vocês consigam fazer um uso adequado dessas ferramentas. Tá certo? Então, eu vou compartilhar aqui a minha tela para a gente começar especificamente falando já de um desses sistemas, e eu vou entrar aqui para vocês, que é o mais famoso deles, que é o ChatGPT. O que eu vou falar sobre o ChatGPT, ou com a tela do ChatGPT aberta para vocês, se aplica a qualquer outro modelo de linguagem, a
qualquer outro sistema de inteligência artificial generativa. Pode ser o Cloud, o Gemini, o Pilot, todos eles. A gente vai aplicar o mesmo raciocínio, a mesma compreensão que teremos a partir da tela do ChatGPT, vale para qualquer outra tela, para qualquer outro sistema. E aí, só uma última observação antes de iniciarmos: eu queria que vocês ficassem muito à vontade para mandar mensagens, seja no chat, ou levantar a mão se quiserem fazer comentários ou tirar dúvidas. Fiquem à vontade para interromper, ou chamar, que sempre que possível, estarei de olho aqui no chat e vou lendo o comentário
e fazendo menção. A presença vai ser no final da aula, tá, Rose? Só avisando. Então, gente, a primeira coisa que eu queria mostrar aqui para vocês é que, quando vocês abrirem o ChatGPT, vocês vão se deparar com essa tela, a menos que já estejam logados. Pensando que vocês nunca usaram o sistema, vocês vão se deparar com essa tela e têm a possibilidade de permanecer desconectados, o que significa que podem usar o sistema sem fazer qualquer login. Você vai logar, vai falar com ele e poderá mandar qualquer mensagem que desejarem, tá, inclusive comandos. Ele vai te
responder, né? Porém, para a gente usar bem, usar melhor ou ter melhores resultados, eu recomendo que vocês façam login. Então você vai entrar aqui, ele vai abrir uma nova tela. No caso, você pode criar a sua conta aqui em "Cadastrar" ou pode digitar seu e-mail e tal. Eu vou continuar com o Google, que é meu jeito mais rápido de logar. Clico aqui e ele já vai abrir a minha conta no ChatGPT. E aí já posso usar. A partir daqui, meu rosto do meu perfil, tá? O que eu quero começar a falar para vocês é uma
ressalva que eu acho que é importante: todos têm essa compreensão adequada de como esse sistema funciona. Todo sistema hoje de inteligência artificial funciona a partir de uma primeira compreensão, que é a de que é inteligência artificial todo sistema capaz de executar uma atividade que era considerada, até então, exclusivamente humana. Nesse caso específico do ChatGPT ou de qualquer outro GPT, a gente está falando da escrita. Como ele é capaz de gerar escrita, consideramos que ele é um sistema de inteligência artificial. Porém, o que eu quero explicar para vocês é que ele escreve, mas ele não escreve
da mesma forma que a gente. Por que isso? Porque esses sistemas de inteligência artificial não sabem o conteúdo das palavras, eles não têm consciência daquilo que estão escrevendo. Eles funcionam da seguinte forma: são treinados a partir de grandes quantidades de texto, quantidades absurdas de texto, né? Eu diria milhões de livros que são usados para treinar esse sistema, e por meio de cálculos matemáticos ele aprende como se escreve. Só que ele aprende decorando, praticamente, como é que as palavras são seguidas umas pelas outras. Então, ele vai aprender, por exemplo, que depois da palavra "guarda" normalmente vem
"roupa", ou "guarda-sol", ou "guarda-chuva", ou "guarda de trânsito", ou qualquer outra perspectiva. Então, ele começa a fazer associações entre as palavras, e passa a fazer essas associações de forma estatística ou calculada. Ou seja, ele começa a adivinhar qual é a próxima palavra, e assim vai construindo os textos que apresenta para a gente. O que ele faz chamamos de generalização de padrões e um cálculo estatístico dos possíveis resultados. Então, imaginem, se estou falando que estou andando na rua e que do nada começou uma... Grande chuva, ele provavelmente vai associar com a palavra "guarda" e com a
segunda palavra, que é "chuva", a partir do contexto que eu estou dando para ele. Mas ele não sabe o que nenhuma dessas palavras significa; ele não tem nenhum valor moral, nenhum valor ético, nenhum compromisso. Eu digo sempre: nenhum compromisso com a verdade. O que ele faz, basicamente, é um jogo, entre aspas, de adivinhação, tá certo? É claro que isso é uma espécie de simplificação, porque, obviamente, esses modelos são muito mais sofisticados do que apenas isso, mas a forma como eles funcionam é basicamente assim: uma generalização de padrões e um cálculo de posição do texto para
a complementação do texto, tá? E assim ele vai construindo esse texto, sempre adivinhando como se fosse a próxima palavra, tá? Por isso eu digo para vocês: esses textos não têm compromisso com a verdade; eles não têm valor moral ou ético intrínseco, tá? E aí é importante que a gente tenha sempre a supervisão humana, tá atenta. A gente precisa estar o tempo todo revisando esses textos, avaliando os resultados, conferindo cada um dos resultados que estão sendo apresentados para a gente, tá certo? Porque a inteligência artificial funciona a partir dessa generalização de padrões e desses valores estatísticos,
eh, e é isso que a gente tem que ter em mente quando estamos usando esses sistemas: que a nossa responsabilidade permanece. O resultado depende da nossa avaliação, do nosso cuidado, tá? Ah, acredito que alguém levantou a mão já, então, hã, acho que a Suzana levantou primeiro e depois é o Leno. Pode falar, por favor, Suzana, ou não levantou? Foi só uma... foi só sem querer. Bem, então, Leno, pode falar. Se tudo levantou a mão porque queria fazer um comentário, fica à vontade. Positivo, positivo, professor. No caso, a Suzana levantou a mão antes de o senhor
entrar; ela já estava com a mão levantada. Professor, o seguinte: eu tenho uma dúvida. Eu gostaria de saber se o chat GPT tem a condição de aprender. Digamos que ele é treinado, mas a partir desse treino, a partir do momento do nosso uso, se ele consegue aprender e ir melhorando, digamos assim, tá? Eu já te adianto que sim, tá? Ele tem essa capacidade; é o que chamamos de "machine learning" ou aprendizado de máquina, ou "deep learning", que é um aprendizado profundo, tá? Eu não vou entrar em detalhes com relação a essa conceituação por conta do
foco da nossa aula, mas sim, à medida que ele é utilizado, os dados que alimentam esse sistema são usados para treinamento e ele vai se sofisticando. É por isso que, bem aqui, por exemplo, a gente tem modelos diferentes de funcionamento, tá? São modelos cada vez melhores ou com alguma, eh, perspectiva, digamos assim, ou, ah, quase especialidade dentro de cada um deles, tá? Então, sim, ele é capaz, mas vamos ver o que ele tem para dizer para a gente, né? Então ele vai falar: "Olha, sim, eu consigo aprender sobre suas preferências, áreas de atuação e projetos
ao longo do tempo, armazenando essas informações no meu contexto para oferecer respostas cada vez mais alinhadas com as suas necessidades. Isso me permite refinar minhas sugestões, adaptar a linguagem conforme o seu estilo e antecipar as suas demandas com maior precisão, se houver algo que você deseja e tal", tá? Então, ele é capaz sim de fazer isso, né? O que me preocupa ainda mais, né? E aí eu faço essa, ah, eu destaco isso para vocês porque, quanto mais ele aprende, o que eu espero: melhores são as respostas que ele apresenta, mas maior é o risco de
eu ser convencido por ele de que algo está certo quando, na verdade, é uma informação falsa. Então, é por isso que eu digo para vocês que esses sistemas... Vamos colocar aqui: você pode explicar estatística com uma... tá? Então, o problema que eu quero destacar para vocês nesse início, nesse primeiro encontro, nesse primeiro momento de uso dessas ferramentas, é que ele não tem compromisso com a verdade; ele não tem compromisso com o conteúdo que ele apresenta para a gente. Ele nem sabe o conteúdo que ele está usando; ele só conhece padrões e ele repete esses padrões.
Então, a ideia de aprendizado que a gente tem, humano, de aprender sobre determinada coisa, de compreender sobre determinado assunto, de saber, por exemplo, que o melhor time de futebol do Norte é o Remo, é algo que é humano, é a gente que aprende isso, né? É a gente que desenvolve esse aprendizado. E não é diferente do que a máquina faz. O que a máquina faz é, de fato, generalizar um padrão a partir dos livros, ou dos documentos, ou de qualquer outro tipo de dado que ela foi alimentada, e ela reproduz isso. Claro que ela se
aprimora ao longo do tempo, né, como o Leno perguntou, mas ela não aprende ou compreende como a gente aprende e compreende. Ela não decora conceitos; ela não entende; ela não tem noção de significados; ela não tem valores morais e ela não tem compromisso com a verdade. Isso é o mais importante, tá? Então, eh, já vou passar a palavra. Valdemir, ela coloca aqui, né? Por isso tem esse aviso aqui embaixo: "O chat GPT pode cometer erros; considere verificar informações importantes", tá? E ele comete esses erros justamente pela forma como ele funciona; é inerente ao funcionamento dessas
máquinas. E aí, o que é complementar, que para mim torna ainda mais preocupante esses possíveis erros, é o fato de que ele é construído para escrever bem. Esse sistema é construído para produzir bons textos pra gente, para ele escrever bem quando a gente pergunta. Ou seja, ele entrega uma informação falsa e ele entrega essa informação... Falsa com aparência de verdade, porque ele é produzido para funcionar dessa forma. Então, a gente tem que tomar muito cuidado quando estamos usando esses sistemas, porque nós, humanos, somos responsáveis pelo resultado. Nós somos responsáveis quando usamos, copiamos e colamos uma
informação, ou quando lemos uma informação e tomamos essa informação como verdade. A gente precisa sempre verificar o resultado, verificar a informação que o chat apresenta para a gente, tá certo? Pois não, Valdemir, pode falar. Professor, então, se uma inteligência dessa não tiver travas, ele pode trazer, por exemplo, conteúdos misóginos, conteúdos racistas? Sim, com certeza. Hoje em dia, a maioria absoluta desses sistemas, para não dizer todos, porque sempre pode haver uma exceção, já tem travas para evitar que esses conteúdos aconteçam. Inclusive, mesmo que você provoque, ele vai se recusar a fazer determinadas falas ou a falar
sobre determinados assuntos; ele é programado para isso. Mas a gente tem um problema aí, que é o risco dessas ferramentas serem treinadas por dados que já são... enfim, e aí eles vão reproduzir determinadas coisas sem que a gente saiba que ele está sendo misógino, machista, tá? Então, só para citar um exemplo aqui para deixar isso mais claro para vocês, e aí eu passo a palavra para o Daniel: aconteceu na Amazon uma seleção sobre gerentes ou CEOs, né? E aí a Amazon criou um sistema de inteligência artificial, alimentou esse sistema de inteligência artificial com diversos currículos
de diversas pessoas no mundo inteiro, de todos os gerentes e CEOs do mundo, para que o sistema identificasse quais seriam os melhores candidatos dos currículos que eles estavam recebendo. O que aconteceu? A inteligência artificial fez uma associação, uma generalização de padrões que foi negativa, porque a absoluta maioria dos currículos do mundo inteiro eram de homens brancos de uma determinada idade. De tal modo que o sistema começou a automaticamente descartar currículos de mulheres, porque ele aprendeu que fez uma generalização de padrões, que a maioria sendo homem branco, todos os outros que não fossem ele, jogava fora
automaticamente. Isso aconteceu, depois foi descoberto, foi corrigido, mas a questão é exatamente essa. Às vezes, a gente nem sabe que isso está acontecendo. O Leno está falando em relação às imagens e é verdade, aconteceu. Tem um documentário específico sobre isso, o nome é "Coded Bias", tá? Que é bem interessante. Vou escrever aqui no chat para quem tiver interesse. Eu acho que tem na Netflix, tá? Que fala sobre isso. É uma pesquisadora, ela estava salvando no doutorado dela. Não vou lembrar se é doutorado ou pós-doutorado, e ela estava desenvolvendo um filtro para imagens, né? E aí,
basicamente, ela era uma mulher negra e, ao desenvolver esse filtro, quando foi fazer testes, ela viu que os filtros do Instagram, do Facebook, etc., só identificavam rostos de pessoas brancas, né? Então, durante a pesquisa dela, descobriu e foi quem conseguiu ir quebrando esse racismo que estava embutido no sistema, tá? Então, existe esse risco também, tá? Mas o risco que eu quero que vocês foquem agora no uso desse sistema é a confirmação, a verificação de tudo aquilo que vocês usarem e de todas as respostas que o sistema der para vocês, tá? Antes de ler aqui, o
Daniel pediu a palavra. Pode falar, Daniel. Boa noite. Eu ia perguntar, você falou aí dessa questão do "machine learning" e tudo mais, se a gente consegue—eu não diria criar filtros, mas personalizar esse aprendizado dentro de um padrão que a gente, como usuário, pudesse predeterminar, uma espécie de personalização do aprendizado do... Tendo em vista, vamos dizer assim, determinadas prerrogativas pré-determinadas do usuário, teria como fazer isso? Sim, Daniel. No decorrer das nossas próximas aulas, eu vou passar isso para vocês, tá? Alguns vocês vão ler muito por aí o que o pessoal chama de "engenharia de prompt". Eu
não gosto de usar esse termo, porque, para quem é da área de tecnologia, "engenharia de prompt" é algo muito mais sofisticado do que o que a gente faz aqui quando eu escrevo e dou um comando, né? Mas a "engenharia de prompt" é o termo que vocês vão ler em todo lugar e a gente pode, por meio desses prompts, desses comandos, fazer isso que você está me pedindo, me perguntando, tá? E aí, nas próximas aulas, eu vou passar mais detalhes sobre isso para vocês, inclusive dicas de como fazer um passo a passo, tá? A gente vai
aprender a fazer essa personalização que você está me perguntando de várias formas, tá? Tem as formas mais básicas e as formas mais avançadas. Então, a gente vai poder dizer como a gente quer que ela responda, pode entrar ela com textos nossos para ela aprender como a gente escreve, pode dizer para ela o tom que a gente quer que ela adote. A gente pode dar um estilo de escrita mais formal, menos formal, rebuscado; escrever como Guimarães Rosa, enfim. Tem várias formas diferentes de fazer e de usar esses sistemas e de personalizar também, tá? Mas eu vou
mostrar tudo isso para vocês no decorrer dos nossos próximos encontros. Fiquem tranquilos. E o que eu quero agora é chamar atenção para vocês para nossa responsabilidade, para que a gente já tenha isso bem fixado e passe os próximos encontros todos sabendo disso, com essa preocupação no uso, porque é muito empolgante. A ideia é essa, tá? O sistema é muito bom. Vocês vão perceber que quanto mais vocês usarem, melhor fica. Mais refinado ele vai responder e a gente vai ter resultados melhores. Mas se a gente não tiver a noção muito fixada do risco que... A gente
corre de informação falsa, de informação inventada, o que a gente chama de alucinação. A gente pode usar essas ferramentas de forma indevida, ou seja, inadequadamente, e aí é melhor não usar do que usar de forma indevida, tá bom? Ah, então bora só ler rapidamente. [Música] E aí, eu vou já passar a palavra, alguém mais levantou, mas vamos ver a metáfora que ele usou, tá? Pense na IAG generativa como um grande padeiro que nunca provou pão, mas leu milhares de receitas. Ele não sabe exatamente como o pão deve ser, mas, com base nos padrões que viu,
pode misturar ingredientes e propor uma nova receita que pareça correta. Às vezes, o pão sai perfeito; outras vezes, pode faltar sal ou fermento e, por isso, a supervisão humana continua essencial. Essa metáfora ajuda a entender que a IA não tem uma consciência própria e nem criatividade autêntica, mas sim uma habilidade avançada de combinar e gerar informações estatisticamente plausíveis, tá? Então, eu só quero que vocês saibam que, todas as vezes que vocês estiverem conversando com esses sistemas, eles estão respondendo a vocês a partir de estatística, quase que um jogo de adivinhação de palavras. Então, depois dessa
palavra, qual é a que vem? Tá, qual é a que vem depois, né? E assim ele vai construindo esse texto que ele está apresentando pra gente. É claro, gente, que é um sistema muito mais sofisticado que isso. Não à toa, eles valem aí centenas de milhões de dólares, né? E tem equipes gigantescas, CPUs e HD gigantescos de processamento. Porém, para os nossos fins aqui de aula, de estudantes de direito, isso é suficiente. Com isso, compreendendo isso, vocês têm uma noção exata de como ele inventa, de por que ele inventa e dos riscos que vocês correm
no uso dessas ferramentas, tá? E vocês também estão capacitados para lidar com qualquer sistema que a gente tem hoje no poder judiciário, tá? Deixa eu dar uma olhadinha aqui no chat, que eu vi que tiveram várias mensagens. Ok, se o sistema aprende com o tipo de usuário, como a sua linguagem, as respostas podem ser idênticas entre os usuários. Não, tá? O Melquizedec perguntou aqui. Não, Melquizedec, inclusive se eu fizer a mesma pergunta para ele várias vezes, ele sempre vai responder de forma diferente, porque, como é um processo muito complicado de adivinhação de palavras, ele vai
normalmente construir de forma diferente as mesmas perguntas. Então, bora perguntar aqui para ele: "Ah, o que é dano moral?" Tá, então, dano moral é a lesão de direitos da personalidade, como honra, dignidade ou integridade psicológica, que causa sofrimento à vítima e gera direito à reparação. Eu vou mandar a mesma pergunta para ele, vamos ver o que ele vai responder agora. Como está ao vivo, talvez ele mude, vamos ver. Não deu certo. Dano moral é a violação de direitos da personalidade que causa sofrimento, humilhação ou abalo psicológico à vítima, gerando direito à indenização. Então, percebe que
ele mudou, né? Um pouquinho. E ele faz isso, inclusive, para errar. Então, pode ser que você faça a mesma pergunta para ele duas vezes; na primeira vez ele te deu uma resposta certa e na segunda ele deu uma resposta errada. A gente brinca dizendo que, se você faz dez vezes dez perguntas diferentes para um ser humano, ele pode saber oito dessas perguntas e errar duas. E para a máquina, você pode fazer dez vezes a mesma pergunta e ela pode acertar duas e errar oito, porque a forma como ela responde é esse padrão estatístico. Por isso,
eu repito para vocês: ela não tem compromisso com a verdade, ela não tem valor moral e é muito importante que vocês confiram as respostas de cada pergunta, tá bom? Ah, não sei usar a... a gente vai aprender, tá? Rose, fica tranquila. Estou curiosa para conhecer as formas de personalizar ou customizar os sistemas. Fica tranquila, Claudete, eu vou mostrar isso para vocês num passo a passo para a gente não se atropelar e conseguir usar da melhor forma. No MP, temos colegas que estão desenvolvendo várias ferramentas nesse sentido para auxiliar nas atividades, perfeito? Rita, esse é o
futuro, querendo ou não, é o futuro, tá, gente? É essa a ideia da disciplina: que vocês estejam preparados para lidar com esse futuro, preparadas também para lidar com esse futuro e que, se quiserem ficar de fora do uso, tudo bem, mas ao mesmo tempo vocês vão saber quando alguém está usando, como está usando e saber como lidar com os possíveis problemas do uso dessas ferramentas, tá? Então, isso é o que eu queria definir com vocês com relação ao funcionamento da IA, né? É como ela funciona. Todos esses sistemas de linguagem generativa que são usados hoje,
seja nesses sistemas de privado, GPT, Cloud, Gemini, CoPilot, seja nos do Poder Judiciário, que vocês vão ser afetados por eles no futuro também, funcionam da mesma forma. Eu vou colocar aqui o nome só para vocês saberem: G Soft, Google Cloud, tem o Grok, eu acho que é a 5X, Twitter. Cada um desses aqui, tá, pessoal, é um sistema GPT diferente, tá? Então, é a mesma coisa, é um sistema de linguagem generativa, só que de uma outra plataforma. Então, a gente tem o CoPilot da Microsoft, a gente tem o Gemini que é da Google, a gente
tem o Cloud que é da Anthropic, a gente tem o Grok que é do Twitter, eu acho que se escreve assim. Eu tenho dúvidas sobre a forma Grok, mas são sistemas diferentes que fazem a mesma coisa, tá? O que eu digo para vocês é: usem o que vocês gostarem mais, façam testes, vejam que a interface funciona melhor para vocês. Eu, pessoalmente... Uso o chat GPT porque eu tô acostumado a usar o chat GPT. Mas é a mesma coisa para todos. Tudo isso que eu tô falando para vocês aqui vale para qualquer um deles, tá? É
o que normalmente se recomenda. Se vocês forem falar com, forem ler artigos científicos ou alguns autores, eles falam do Gemini da Google. Perdão, marquei o errado, é o Cloud da Anthropic, tá? Dizem que é o melhor que tem para assuntos jurídicos. Os autores, eu digo, eu tô seguindo aqui o professor Jer Nunes e o professor George Marmelstein, tá? São duas referências que eu tenho na área do processo, e eles citam esse sistema. Apesar da menção deles, como eu falei para vocês, eu permaneço no ChatGPT porque eu fiz um teste nos dois e, como eu vi
pouca diferença, eu continuei usando o que eu tô acostumado. Por isso, eu digo para vocês: usem qualquer um, o que vocês gostarem mais e o que vocês sentirem que tá apresentando resultados melhores. Por isso, o objetivo dessa aula é que vocês entendam, dessa nossa aula inicial, que vocês entendam os sistemas para que vocês tomem decisões capacitadas, sabendo o que vocês estão fazendo e não simplesmente decorando o comando de Ctrl C e Ctrl V e pegando resultado, tá? Ah, gostei muito do DPSC, muito legal, tá? Tina, o JEP SEIC, gente, é um modelo chinês. Vou colocar
aqui para vocês: JEP SEIC chinês, tá? É o mais recente deles. Foi lançado agora, no mês de… eu acho que foi em final de fevereiro, foi… não sei se foi fevereiro ou março, mas foi esse ano agora, fevereiro ou março. E, assim, os testes que fizeram com ele, Tina, o resultado dos testes do modelo foi muito próximo dos demais, tá? Então, ele teve um resultado muito parecido. Se você gosta de usar, continua usando, não tem problema. Mas tecnicamente falando, ele tem a mesma capacidade dos demais. A diferença que ele teve, que foi o que chamou
muita atenção e gerou todas aquelas notícias que as empresas perderam valor de mercado, foi a confusão lá que a gente viu nos jornais. É que ele faz a mesma coisa que todos os outros custando muito menos, tá? Então, só para vocês terem uma ideia de escala, não são valores exatos, tá, gente? Mas de escala, o Deep divulgou que ele fez a mesma coisa que os outros custando 5 milhões de reais, e os outros sistemas custaram 100 milhões. Então, o que ele disse foi: “Olha, eu faço a mesma coisa que todos os outros custando 20 vezes
menos.” E aí, isso gerou uma crise nos investidores porque todo mundo começou a desconfiar e falou: “Pô, eu tô investindo dinheiro aqui pagando tudo isso e vocês estão me dizendo que precisam demais?” E aí tá vindo o pessoal lá da China e falando: “Não dá para fazer a mesma coisa custando muito mais barato.” E aí foi o boom que aconteceu com o uso do Deep SEIC, tá? Foi essa a grande diferença que o Deep SEIC trouxe quando ele surgiu. Tá, mas com relação a desempenho, ele é muito próximo dos outros. Como ele se... [O texto
foi muito extenso, portanto, não foi possível pontuá-lo na íntegra. A parte em que foi interrompido sugere o término da transcrição e oferece a continuidade para o usuário. Se desejar, posso prosseguir com mais detalhes ou concluir outro trecho.] Viés mais forte ou mais fraco, eu não tenho. Não tenho nenhum estudo científico, nenhum teste que comprove isso de forma inequívoca. Então, eu recomendo que vocês façam os testes e usem aquele que vocês se sentirem mais confiantes ou mais felizes com os resultados, tá? E aí, antes de passar a palavra, que eu vi que levantaram a mão aqui,
eu queria mostrar a questão dos dados sensíveis para vocês, tá? Dados sensíveis, gente, na LGPD, têm várias classificações. Com relação à LGPD, a Lei Geral de Proteção de Dados, tá? Na LGPD, eu vou escrever aqui só para vocês entenderem. A gente tem várias classificações de dados, tá? Os mais importantes são os dados sensíveis. Dados sensíveis são dados que podem levar à discriminação. Então, são dados sobre raça, gênero, classe social, altura, peso, idade, esse tipo de coisa, tá? Para se proteger da melhor maneira possível, hoje o que a gente precisa fazer é, no ChatGPT, na tela
principal do chat, você clica aqui na sua foto, no ícone do seu perfil. Você vai aqui em configurações, vai abrir essa nova janela. Você vai aqui em controlar dados e, bem aqui, você vai ter "melhorar o modelo para todo mundo", tá? Essa opção você deixa no meu, já tá, né? No de vocês, todos vai estar ativado. Ele vem por default ativado; no meu já tá desativado porque eu já desativei. Mas a primeira coisa que vocês precisam fazer, depois de logar no sistema, é vir aqui em controlar dados e desativar. Porque, olha só o que ele
diz: se você deixar isso ativado, você permite que o seu conteúdo seja utilizado para treinar os nossos modelos, aprimorando o ChatGPT para você e todos os outros usuários. Tomamos medidas para proteger sua privacidade. Saiba mais, tá? A minha recomendação para vocês, gente, com certeza o ChatGPT tem quantidades inesgotáveis de dados para treinamento. Ele não precisa dos nossos, então desativem isso aqui para lidar com os dados de vocês ou dos clientes de vocês de forma mais segura, tá? Então, vou voltar aqui. Depois que vocês fizerem o login, a primeira coisa que eu quero que vocês façam
é clicar no perfil, na fotinha aqui de vocês. Vai ser um ícone, a foto, qualquer coisa. Vai em configurações, controlar dados, melhorar o modelo para todo mundo e deixem desativado isso aqui, tá? Esse é o primeiro passo para proteger dados sensíveis, tá? Complementar a isso, eu recomendo que vocês façam a anonimização dos dados ou simplesmente apaguem os dados. Então, se você vai jogar uma petição inicial no ChatGPT, você apaga o nome da pessoa, você apaga o CPF dela, você apaga o endereço, porque não vai mudar o resultado; continua sendo o mesmo para você. Mas, aí,
você apagando, você não alimenta o sistema com esses dados, tá? Isso é só apagar. Anonimizar é usar um outro sistema de inteligência artificial para ele apagar por você, tá? Você tem essa possibilidade também de fazer isso. Você procura no Google e vai achar, aí, sistemas de anonimização. A questão é achar um confiável, porque, querendo ou não, você vai estar jogando para esse sistema e seus dados. Então, na dúvida, a forma mais fácil e mais direta é apagar, tá? Se for muita coisa, um documento muito longo, você não vai lembrar ou assim por diante, aí você
procura um sistema de anonimização para usar. Mas a base é isso aqui, né? Configurações, controlar dados, melhorar o modelo para todo mundo e deixar desativado, tá bom? Essa é a base; com isso, vocês vão estar protegendo os dados sensíveis dos clientes de vocês e os de vocês, tá certo? Ah, legal! Obrigado, Edson, por mandar o link. Daniel, não vi isso, mas assim, se você perguntar para ele se a China é uma ditadura, ele não responde. O mesmo se você perguntar ao GPT se o Trump é fascista, ele briga com você. Fiz esses testes. É, pois
é, Tina, eu não entro por esse caminho exatamente. Por isso, tá? Tem um estudo científico, eu posso compartilhar depois com vocês, que faz basicamente comparações entre todas as IAs e essa perspectiva de possíveis vieses políticos, sociais, qualquer coisa. E esse estudo diz que todas elas possuem isso. É um estudo científico, foi feito com testes e resultados testados metodologicamente. Todas elas apresentam esses problemas, tá? Então, por essa perspectiva, eu nunca recomendo uma ou outra, porque para mim, enfim, baseado em questões científicas, todas elas apresentam esse mesmo defeito, tá? Giov, você tá com a mão levantada. Não
sei se você quer fazer algum comentário ou se você levantou sem querer. Não, professor, sobre a questão das informações que a inteligência te fornece, né? No meu trabalho em particular, eu costumo usar uma vez ou outra. O que me chamou atenção acerca disso e aproveitando o seu comentário sobre a confiabilidade dos dados: eu pedi um mês retrasado para a IA fazer uma fundamentação de um recurso e ele me deu um artigo totalmente diferente da Lei de Licitações. Então, assim, se eu não tivesse o conhecimento de causa, talvez eu iria enveredar por um erro muito grave.
E como se trata de uma fase recursal de um processo licitatório, eu até poderia pegar para algum empresário, porque eu trabalho com órgão público. Eu sou pregão de órgão público e ia pegar uma peça do Tribunal de Contas ou algo do gênero. Então, se eu não tivesse conhecimento de causa, talvez eu iria enveredar por um erro gravíssimo. E tava assim, com uma capa de verdade, muito convincente, digamos assim. Entendeu? Então, era só para compartilhar essa experiência mesmo e reforçar aquilo que o senhor disse em relação à... Confiabilidade dos dados, perfeito! Giovani, muito obrigado! Eu atuo
também em licitação, Giovani, na minha área, e eu já peguei uma decisão exatamente como tu tá me falando. Aí eu fui ver os acórdãos, né, que a decisão citava do TCU, e eles eram todos inventados. O que me chamou a atenção é que o primeiro deles, o número da decisão, era 1, 2, 3, 4. Aí eu falei: "1, 2, 3, 4? Será que é 1, 2, 3, 4 mesmo?" Aí eu fui fazer a pesquisa e vi que eram todos inventados. Aí eu mandei um e-mail para a CPL e falei: "Olha, aconteceu isso. Eu acredito que
todas as decisões que vocês usaram tiveram que ser retiradas. Não sei como eles fizeram, sinceramente." Não foi a minha CPL, tá? Só para deixar claro isso. Não, que bom! Que bom que eu não despachei. Eu só comparei mesmo. Não, mas é isso. É isso. É porque realmente a pessoa usa sem saber. Ela é convencida de que aquilo tá certo, porque parece muito, muito certo, muito correto. Porque o sistema é feito para parecer assim. Ele é programado para escrever. Ele é feito para escrever, então ele escreve muito bem. Então, além de inventar informações, ele mente muito
bem. E aí a gente é convencido. Então, é essa ressalva que eu quero que vocês tenham o tempo inteiro para tomarem cuidado com essas informações falsas, erradas, essas invenções que a IA faz, que são o que a gente chama de alucinações, tá? Então, no dia a dia de vocês, vocês vão ouvir falar disso, vão ler em algum lugar. Mas deixa eu mudar só a palavra: explique sobre as alucinações, tá? Então, as alucinações no uso da IA, elas são essas mentiras que o chat faz, essas invenções, e ele faz isso porque, como eu falei para vocês,
como ele adivinha palavras, às vezes ele adivinha errado. E, na verdade, ele não tá interessado se ele tá adivinhando certo ou não. Ele tá seguindo uma programação. E aí, mais uma vez, por isso eu digo para vocês: ele não tem compromisso com a verdade. Ele é programado para entregar um texto, e ele vai entregar esse texto que você tá pedindo, se tá certo ou não. É nossa responsabilidade conferir esse resultado sempre com muita atenção. Como o Giovan acabou de falar, às vezes ele inventa artigo de lei. Às vezes ele cita o artigo correto e diz
um conteúdo totalmente errado, que não tem nada a ver com o que tá lá. Então, é muito importante que a gente tome muito cuidado no uso dessas ferramentas, tá? Já teve advogado que foi multado no Tribunal de Justiça porque ele apresentou uma petição e usou como fundamento uma decisão falsa que foi inventada pelo sistema, tá? E já aconteceu que um juiz deu uma decisão, mais de uma inclusive, e fundamentou a decisão dele com decisões falsas que foram também geradas pelo sistema. A gente não vai fazer isso, tá? Então, a aula de hoje, o momento, é
só para destacar isso para vocês, essa importância do cuidado. Inventa até referências! Se você pedir, ele vai inventar. Às vezes ele inventa o nome do autor, às vezes acerta o nome do autor e inventa o nome da obra. Às vezes ele acerta o nome do autor, inventa e acerta o nome da obra, mas erra o ano e erra a edição. Inventa que um conteúdo tá dentro daquele livro e, na verdade, esse conteúdo não tá naquele livro. Ele cita uma página. Então, tomem muito cuidado quando forem usar esses sistemas, tá? Porque toda informação que ele apresenta
pode ser falsa, pode ser uma alucinação, tá? Então, vamos ver como ele conceitua isso aqui: no contexto da IA, alucinação refere-se à geração de informações falsas, imprecisas ou inexistentes. Isso ocorre porque a IA não sabe, no sentido humano, mas prevê palavras e respostas com base em padrões estatísticos, aquilo que a gente acabou de conversar. Quando não encontra um dado exato, ela pode criar uma informação plausível, mas incorreta, sem perceber o erro. Isso é especialmente perigoso no direito, onde a precisão é fundamental. Uma IA pode gerar jurisprudências que nunca existiram, citar leis equivocadas ou interpretar normas
de formas distorcidas. O problema surge porque, muitas vezes, a resposta parece convincente e bem estruturada, induzindo o usuário ao erro, né? Então, ela não só apresenta uma informação falsa como ela nos induz a um erro. Metáfora para simplificar: pense na IA como um aluno brilhante, mas que, quando não sabe a resposta na prova, em vez de deixar em branco, inventa algo que parece certo. Se o professor não revisar com atenção, se a gente não revisar com atenção, pode acreditar na resposta e tomar decisões erradas. Assim, no direito, é essencial que advogados e juízes utilizem a
IA como ferramenta de apoio, mas sempre revisando e validando as informações antes de usá-las em peças jurídicas, pareceres ou argumentações, tá? Então, eu digo sempre: hoje a gente só é substituído pela IA se a gente quiser! Isso diz muito mais sobre a nossa postura como profissionais do que sobre a capacidade desses sistemas, porque eles ainda não são suficientes para nos substituir, e nem tão perto disso, tá? A ideia da disciplina no desenvolvimento desses próximos módulos é mostrar para vocês como usar essa ferramenta como apoio, como auxílio, mas a gente não é substituído; pelo contrário, a
gente tem que saber mais do que ela para que a gente consiga avaliar quando alguma coisa tá falsa, como Geovan fez, né, e conseguiu evitar um problemão, tá certo? Professor, no caso de usar a IA para ler processo e resumir, ele pode errar? Se sim, como? Ótima pergunta, Tina! Muito obrigado pela tua pergunta, e a gente vai aproveitar ela para entrar... Num próximo conceito que eu quero apresentar para vocês, já pra gente caminhar aqui pro encerramento da nossa aula, só confirmar aqui que horas a gente encerra, tá? 9:15, que é o de janela de contexto,
tá? Eh, no caso da tua dúvida, Tina, a IA pode errar de diversas formas, tá? Então, eu vou citar, primeiro, o que a gente já aprendeu, né? Ela pode errar porque ela pode inventar informações que não estão no processo e dizer que estão. Porque, como ela faz essa adivinhação de palavras, em um determinado momento ela pode esquecer ou confundir. Eh, eu tô usando palavras humanas, mas não é assim que ela funciona, lembrem, tá? Mas ela pode esquecer ou confundir e dizer: "exists um carro preto que bateu num carro branco", e o teu processo ser sobre
inscrição indevida no Serasa, não tem nada a ver, mas ela vai, por algum motivo, alucinar e trazer essa informação, tá? Então, essa é uma primeira questão: ela pode colocar informações que não tão lá, tá? A segunda é que ela pode pegar as informações que estão lá e mentir para ti, entender errado, tá? E aí ela vai te dizer que não houve inscrição indevida no SPC, no Serasa, quando, na verdade, houve, sim, inscrição indevida no SPC, no Serasa, tá? Eh, ela pode, como Jovan citou, pegar um artigo de lei e inventar que aquele artigo diz determinada
coisa que ele não diz, ou citar equivocadamente um artigo que nem existe de uma lei que também não existe, tá? Então, são várias as possibilidades de erro no uso dessas ferramentas, não só para processos, mas para qualquer outro tipo de uso, tá bom? E aí, para concluir, gente, eu queria que vocês conhecessem esse conceito aqui, que é o de janela de contexto, tá? A IA, ela tem duas questões que complementam isso que a gente acabou de aprender, que é ela tem uma capacidade de processamento, tá? Significa dizer que ela funciona até um determinado limite de
páginas. Então, se você tá lidando com um processo, Tina, que tem 100, 200 páginas e manda para a IA, por exemplo, ela pode decorar, vamos dizer, depende, cada IA tem uma capacidade de processamento diferente, mas ela pode conseguir trabalhar com até 80 páginas, por exemplo. Ou seja, ela esquece 120 e ela apresenta um resumo para ti que vai parecer que são das 200 páginas, mas, na verdade, ela não vai te avisar que ela fez isso. Ela só levou em consideração 80 de 200 páginas, entendeu? Porque a janela de contexto dela, a capacidade de processamento dela,
é de 80 páginas, entendeu? Então, todo o sistema que a gente usa de linguagem generativa, que gera texto, ele tem essa limitação, tá? Ele tem essa janela de contexto, que é basicamente quanto ela é capaz de ler, entender e entregar como resposta para a gente. Então, a gente tem que tomar muito cuidado, porque quanto mais informação a gente dá, melhor a resposta, mas, ao mesmo tempo, a informação dela faz ela esquecer o que ela tava tratando lá no início, entendeu? Então, a janela de contexto é importante que vocês entendam porque ela limita a capacidade de
processamento das informações e, ao mesmo tempo, ela é importante porque a gente dá, literalmente, o contexto para que a IA responda pra gente, tá? Então, eu vou colocar aqui, explicar agora o conceito de janela de contexto, tá? Eh, e aí a gente vai ver como é que funciona, né? A janela de contexto refere-se ao limite de informações que uma inteligência artificial pode processar simultaneamente ao gerar uma resposta. Em modelos como o ChatGPT, a IA não lembra tudo que já foi dito, mas apenas considera um trecho específico de palavras ou tokens dentro dessa janela, tá? Então,
eh, ela pode, por causa disso, esquecer informações fundamentais, ao mesmo tempo que ela pode estar inventando informações que nem estavam lá, tá? Então, eh, é por isso que, no início dessa nossa aula, né, nesse nosso primeiro encontro, eu queria que vocês tivessem essa noção exata dos riscos que a gente tá enfrentando no uso dessas ferramentas, da importância da nossa responsabilidade de conferir os resultados e de verificar individualmente. Existem alguns usos, e no futuro eu vou mostrar melhor para vocês, que é mais negócio a gente fazer do que pedir para ela, porque dá tanto trabalho conferir
o resultado que não é viável ficar usando isso no nosso dia a dia. Eh, e aí a Sônia perguntou: "Neste caso, é melhor resumir por página um processo muito longo e sempre revisar?" Pode ser, tá, Sônia, só que, aí, é o que eu falei, acaba te dando tanto trabalho que talvez seja mais negócio tu mesmo olhar e já ir fazendo ali umas anotações tuas com relação ao resumo. Porque aí tu vai ter que pegar, digamos, de 10 em 10 páginas, de 20 em 20 páginas, e ir revisando as 20 páginas que eu dei. Agora, ele
apresentou um resumo adequado, não todas as informações que eu queria que estivessem, porque perceba, quando ele resume, ele pode escolher deixar de fora uma informação que era muito importante, que você sabe que é muito importante, mas que ele não sabe. E aí ele faz o resumo para ti, vai estar perfeito, bem escrito, tudo lá direitinho, mas deixou de fora a parte do comprovante do SPC e do Serasa que registrava que, de fato, aquela pessoa tinha tido o nome dela indevidamente protestado. Por quê? Ele faz isso porque ele funciona dessa forma, ele faz associações, e essas
associações podem ser certas ou erradas. Então, a gente tem que tomar muito cuidado, entendeu? É uma forma de fazer, mas a gente tem que tomar cuidado, tá? Eh, as limitações são maiores ou menores de acordo com a IA, sim, tá? Meu kiz deec, tá? Se ela for paga, ela tem uma limitação maior, né? Então, ela aguenta mais páginas. E se ela não for paga, ela tem uma limitação menor, tá? Mas, ainda assim, essas limitações hoje não alcançam muitas páginas, tá? Então, não adianta mandar para ela, por exemplo, o CPC todo em PDF, que ela não
vai conseguir. A gente ainda não tá nesse nível dela conseguir processar tudo isso. E mesmo que ela estivesse, o que eu tô dizendo para vocês não é só sobre essa limitação de capacidade, mas é o fato de que a gente tem que saber, porque ela pode deixar coisas de fora, ela pode inventar informações ou ela pode fazer associações equivocadas, tá? Então, a gente precisa analisar. E aí aqui a pergunta da Tina: "Então, temos que ler as 1000 páginas, não tem jeito." É, Tina, eu recomendo que você tenha o domínio sobre a situação sempre, tá? Se
você não quiser ler as 1000, leia pelo menos algumas páginas para ter uma ideia do que você tá fazendo. A responsabilidade, no final, é sua. Se você acha que naquele caso não dá para ler as 1000, não tem jeito. A única forma é usar I. Ah, não vai dar tempo? Faça como der, né? Eu vou mostrar para vocês a melhor forma de reduzir esses riscos nas próximas aulas, mas você tem que saber os riscos que você tá correndo ao fazer isso, ao não ler as 1000 páginas, sabe? É essa reflexão que eu quero que vocês
façam sempre quando vocês estiverem usando. Então, se eu sei o que tem, o que é importante, o que não é, eu consigo avaliar, mesmo sem ler as 1000 páginas. Agora, se eu não sei, aí qualquer resultado vai parecer bom para mim, porque ela é, como eu disse para vocês, feita para escrever bem, tá? Temos como conferir a capacidade de cade? Tipo, quantas páginas? Sim, tá? Vou mostrar agora para vocês como fazer isso. Então, vamos só finalizar aqui lendo essa metáfora e aí eu vou responder a pergunta da Ana para liberar vocês dentro do horário. Pessoal,
metáfora para simplificar: pense na janela de contexto com a memória de curto prazo de um advogado durante um julgamento. Ele pode lembrar dos últimos argumentos feitos na audiência, mas se a sessão for muito longa, pode precisar revisar suas anotações para recuperar informações ditas no início. Da mesma forma, a IA pode esquecer partes antigas da conversa se a interação for extensa demais, tá certo? Ah, e aí a Ana Favacho perguntou para a gente: "Tem como saber a capacidade?" Tem, tá? Ana, vou mostrar para vocês uma forma, mas dá para pesquisar no Google também. Então, a gente
pode simplesmente perguntar: "qual?" Então, aqui, ele suporta até 128.000 tokens, e aqui ele já vai fazer para a gente uma referência: então, 1000 tokens equivalem aproximadamente a 750 palavras em português. Com 128.000 tokens, posso lhe dar com cerca de 96.000 palavras, o que corresponde a um livro extenso. Se a conversa ultrapassar esse limite, as informações mais antigas podem ser descartadas, então, se houver algo essencial, é bom reforçar ou resumir pontos-chave ao longo da conversa, tá? Quantas páginas? Agora, simplificando aqui: então, aproximadamente 320 páginas, tá? Pessoal, gente, por experiência, eu digo para vocês: não dá. 300
páginas é muito menos que isso. Passando de 100, ele já começa a esquecer muita informação, muita coisa importante. Então, assim, já fiz vários testes, várias avaliações. A minha sugestão para vocês de uso é de diminuir isso para no máximo 100 páginas. Mais do que isso, ele perde muito a qualidade do trabalho, perde muita informação, pode começar a alucinar, fazer associação, inventar informação. Então, tomem muito cuidado! E é o que a Lilian falou: às vezes dá mais trabalho do que fazer logo a tarefa, tá? Então, eu vou mostrar nas próximas aulas para vocês como fazer isso,
como usar isso da melhor forma possível, como tomar cuidado com esses riscos, como fazer tudo isso correndo o menor risco possível, tá? Ah, e como executar tarefas cada vez mais complexas usando esses sistemas. Tá bom, mas isso aí vai ser cena dos nossos próximos capítulos. Ah, fica para as nossas próximas aulas. Eu queria só, por favor, que vocês mandassem no chat o nome completo de vocês para eu registrar a presença de quem tiver por aqui hoje, tá bom? E no mais, muito obrigado pela atenção de todos vocês. Espero que tenham gostado da aula e a
gente se vê aí na nossa próxima aula. Deixa eu ver aqui: dia primeiro de abril, tá? Dia da mentira. É isso, pessoal! Feita, mandando aí a chamada. Vocês podem sair da sala, fiquem à vontade, tá bom? Obrigado, boa noite a todos e a todas! E até breve! No dia da mentira a gente vai falar do chat GPT que mente também, né? Complicado isso! Isso é a alucinação, é a mentira dele. Boa noite, professor! Tchau tchau, boa noite, gente! Obrigado, deixa eu ver... Boa noite, professor! Podem sair da sala, tá só aguardando para ver o pessoal
registrar a presença aqui que eu tenho que deixar gravado, mas fiquem à vontade. Boa noite, pessoal! Boa noite, professor! Valeu, obrigado! Boa noite! Obrigado. Esquece do porco, professor! [Música]