Em um vídeo, prédios altos aparecem cobertos de neve até o topo. Pessoas deslizam lá de cima como se o concreto tivesse se transformado em um imenso escorregador de gelo. >> Em outra imagem, uma mulher negra aparece aos prantos ao ser presa pelo Ice, o serviço de imigração dos Estados Unidos.
Em um terceiro vídeo, um carrinho com um bebê desliza em direção à água. Segundos antes da queda, [música] ele é salvo por um cachorro caramelo. Todos esses vídeos apelam a emoção, seja ela de espanto, [música] de revolta ou de comoção.
E a reação imediata de milhões de pessoas é clicar em compartilhar nas redes sociais. Eles têm uma característica em comum. Todos foram criados por inteligência artificial numa revolução que acelerou em maio de 2025 com o lançamento de uma nova ferramenta.
>> O vi 3 ou [música] V 3 é um marco na história da qualidade de geração de vídeos. Ele consegue gerar vídeos realísticos [música] de qualquer tipo de situação que você quiser, só apenas digitando comando de texto. Em setembro, [música] foi a vez da Open AI, criadora do chat GPT, ampliar o acesso ao Sora, seu modelo de gravação de vídeos.
O resultado foi imediato. As criações em massa se multiplicaram. >> Hoje a gente vive uma revolução por dia.
>> São vídeos pensados para o consumo rápido e descartável. Uma forma de entretenimento que dura [música] apenas o tempo de um scroll. De acordo com uma reportagem do The Guardian, um em cada cinco vídeos do YouTube exibidos para novos usuários já é gerado por inteligência [música] artificial.
Esse grande volume de conteúdo de IA que inunda as redes sociais ganhou até um nome, Slop. Numa tradução livre seria algo como entulho ou sobra digital. Slop, inclusive foi eleita a palavra do ano de 2025 pelo dicionário Maryan Webster.
Não é só entretenimento. Esses vídeos estão mudando uma coisa muito profunda em todos nós. A confiança naquilo que nossos olhos vem.
Ver para crer já não basta. [música] é um tipo de conteúdo que também vem sendo usado para reforçar estereótipos, intensificar a polarização política e criar deep fakes, especialmente de mulheres. >> Um levantamento feito pela agência Bloomberg revelou que o Grock publicou [música] cerca de, presta atenção, 6700 imagens [música] identificadas como sexualmente sugestivas por hora.
Isso num único dia, 6700 [música] imagens por hora modificadas com conteúdo sexual. [música] Esse número corresponde a 85% de todas as imagens geradas pela [música] ferramenta nesse período. >> A realidade ainda existe, mas agora encontrá-la exige mais contexto, mais verificação e mais atenção.
>> Da redação do G1. Eu sou Natusaneri e o assunto hoje com Rafael Colombo é >> e a e o colapso do que parece real. Neste episódio eu converso com o Roney Domingos, repórter do Fato ou Fake do G1 e com David Nemer, antropólogo da tecnologia [música] e professor da Universidade de Virgínia, nos Estados Unidos.
Segunda-feira, 2 de fevereiro. Davi, é impressionante a quantidade de vídeos feitos por inteligência artificial, né, e que fazem parte do nosso dia a dia, são distribuídos nas redes sociais, cada vez mais críveis, voz, imagem. Quando é que isso escalou para essa qualidade do que é produzido, daquilo que é oferecido às pessoas e que sugere uma realidade absoluta?
e nos obriga a cada vez ter mais instrumentos para conseguir separar no virtual o que é real do que é falso. Quando é que aconteceu o tal do pulo do gato, Davi? >> O salto aconteceu entre 2023, 2024 com ápice, claro, em 2025, né?
E o motivo técnico foi a transição dos modelos de difusão simples para modelos que combinam transformadores, né? ou seja, modelos transformadores que é a mesma arquitetura que o Chat GPT usa com as redes de difusão. Ou seja, houve aí um grande avanço tecnológico.
Antes a IA entendia a imagem, mas não a física do movimento, né? Modelos como Sora e V passaram a treinar em volumes massivos de dados audiovisuais da própria integração, né, entre modelo de texto, imagem, som. Então, realmente ali aprendeu como, por exemplo, a luz reflete, como a gravidade atua e o volume desses vídeos explodiu porque o custo computacional caiu e o acesso também foi muito democratizado nesse sentido, né?
muitas APIs e muitas ferramentas de livre acesso. E as plataformas, claro, jogam aqui um papel importante porque elas recompensam esses tipos de conteúdos chamativos, né, absurdos, emocionais, que é o o ISLOP. Então ele encaixa perfeitamente nesse ecossistema, né, para capturar essa essa economia da atenção, para capturar atenção do usuário que eles são perfeitos para rolar feed, gerar clique, engajamento e não necessariamente para informar.
Então não é só que a tecnologia melhorou, mas que ela ficou barata, rápida e também perfeitamente ajustada aí pra lógica das plataformas. >> Isso se transforma em algo popular. De que maneira, Davi?
quem é que ou quais os grupos, em que segmentos, esse instrumento começou a ser utilizado ao ponto de as pessoas perceberem que ali tinha alguma coisa interessante para elas também eh começarem a usar e a partir daí houve uma progressão absolutamente enlouquecida disso, né? >> Olha, Rafael, não tenho um único vilão, mas dentro da minha pesquisa eu eu consegui identificar três grupos principais, né? O primeiro são as fazendas de conteúdo, eh, que buscam monetizar rápida via as redes sociais, vias plataformas, eles, né, elas criam vídeos bizarros, né, que são os slots para prender a atenção, gerar seguidores e gerar receita publicitária.
Eles também fazem isso para começar eh contas com muitos seguidores, porque depois eles eventualmente vendem essas contas para algum interessado. Isso é principalmente importante. acontecem exatamente nesse momento, porque a gente tá em momento eh eleitoral, né?
Então, com certeza eles tentam ter uma vantagem eh vender essas contas para alguém ter a vantagem eleitoral. O segundo grupo são os operadores políticos, né? e a campanha de influência que entram vídeos manipuladores para atacar adversário, inflamar polarização, desacreditar instituições ou espalhar a boa e velha desinformação.
E o terceiro grupo são os cybercriminosos, né, que eles ficam mais focados em em golpes financeiros e extorção, principalmente fazendo vídeos, né, Iis Lopes de de fakes pornográficos, né, vídeos falsos pornográficos para fazer o que a gente chama de sextorção, né, que fazer extorção por gerar eh vídeo pornográfico. Então, a pessoa consegue pegar uma foto, uma foto que a gente posta na rede social, pedir paraa inteligência artificial tirar a roupa dessa pessoa, colocar um biquíni. E aí não é só das mulheres, é das mulheres e das crianças, o que é ainda mais perigoso.
>> Tem se tornado cada vez mais comum. a as grandes empresas de tecnologia, elas têm cada vez menos uma preocupação eh em proteger os seus usuários e cada vez mais uma preocupação em treinar esses grandes modelos de inteligência artificial para fazer todo tipo de coisa. E aí a segurança vai embora, a privacidade vai embora e tudo que a gente posta na internet fica sob risco de ser usado para fazer esses treinamentos.
Davi, eu quero perguntar a você sobre o que parece inofensivo, se de fato é inofensivo, né? Todos nós já nos deparamos, já recebemos, muitos de nós já compartilhamos um vídeo criado por inteligência artificial com um animalzinho de estimação, um cachorrinho ou um gatinho fazendo alguma graça, alguma criança bonitinha fazendo alguma coisa que todo mundo acha maravilhoso, não é? Tem os vídeos ligados ao humor também e a gente olha, acha curioso, acha engraçado, acha bonitinho, compartilha e compartilha para cinco, depois para 10, para 15, para 20.
Isso é de fato inofensivo. A gente tá só passando tempo ali compartilhando alguma coisa que a gente acha bonitinha e quer que a nossa família conheça também ou tem algum mecanismo por trás disso movimentando alguma alguma outra engenharia que a gente não sabe exatamente qual é, mas boa coisa, não é? >> Pode haver diversas intenções por trás disso, né?
Por exemplo, se a gente compartilhar um vídeo, por exemplo, pro WhatsApp e é só o arquivo do vídeo, ou seja, ele não é um link, não vai para uma conta numa rede social, o perigo disso é tá normalizando o consumo desse tipo de conteúdo. E ao normalizar o consumo desse conteúdo, onde que não há qualquer informação sobre fonte, né, não há qualquer informação sobre eh verificação se o que tá sendo falado ali é real ou não. E aí quando for compartilhado um link com esse conteúdo já normalizado, as pessoas recebem esse link e começam a seguir essas contas, começam a acreditar eh no no conteúdo que rolam nessas contas e aí sim no futuro próximo começar a consumir um conteúdo dessa conta que não necessariamente vai ser um gato fofinho, mas pode vir com uma conotação política ou com uma própria desinformação para um certo ganho.
E aí, como essa conta já tá aceita, já tá confiada, as pessoas começam a confiar em qualquer tipo de conteúdo ali compartilhado. Esse é o grande perigo. >> Tem o reforço do estereótipo também, não é, Davi?
Há um tempo atrás, eu acho que essa onda passou, mas ela é relativamente recente. Foram feitos vários vídeos com referências a idosos. Então, o era idoso caindo num buraco, era idoso dizendo que ia gastar o dinheiro da aposentadoria no jogo do tigrinho, dizendo que ia comprar cachaça em circunstâncias variadas, na academia, enfim, esse tipo de piada reforça algo que a sociedade tem tentado vencer, né, que são exatamente esses estereótipos, né?
>> E aí os estereótipos eles nunca são bem-vindos, né? Recentemente nós tivemos o caso da própria Casa Branca ao compartilhar uma foto de uma pessoa negra, uma mulher negra e utilizou a Iá para reforçar uns estereótipos que eram reforçados na época do black face, né, do Jim Crone nos Estados Unidos, >> mostrando aí um claro ato de racismo, porque traz através da Iá, o reforço de de estereótipo quando no Black Face forçava que as pessoas negras eh eram só emoção, não agia com racionalidade, eh emoções fortes, né, com sempre chorando, sempre muito rindo. E isso de fato vem de contra todo o processo educacional para evitar não só a questão do estereiótico, mas também como a utilização maléfica, né, da IA para para esses fins.
>> Davi, quem tem a imagem de alguma maneira desvirtuada por inteligência artificial tem algo a fazer? >> Tem sim, Rafael. É importante trazer esse ponto aqui à tona, porque recentemente a gente teve esse debate sobre ferramentas de alterando imagens reais de pessoas, especialmente para fins sexualizados, né?
O que cria aí um risco concreto da violação de direitos fundamentais. E no Brasil há um amplo ah um amplo amparo legal. Claro, por exemplo, a gente tem o artigo 5º da Constituição que garante a inviolabilidade da intimidade e da imagem, né?
Os artigos 139, 140 do Código Penal que prevê crimes como injúria e difamação. Em casos de relações íntimas, né, também pode se encaixar aí na questão da Lei Maria da Peha, que reconhece esse tipo de prática como forma de violência doméstica, moral e psicológica. O próprio Marco Civil da internet, que é uma lei específica pra internet que nós temos no Brasil, também é central aqui.
Ele garante as vítimas o direito de exigir a remoção imediata de conteúdos íntimos divulgados, sem qualquer tipo de consentimento, né? Pode chegar até responsabilizar as plataformas caso não haja a remoção. E claro também que som-se a lei geral de proteção de dados, né?
de EPD, que exige eh base legal e consentimento pro uso de dados pessoais e biométricos, ou seja, o rosto da pessoa, né? Então, eh, é preciso ter muita cautela ao utilizar essas imagens das pessoas, porque apesar de não termos aindra uma lei específica para regular o uso da IA, nós temos leis já que protegem as pessoas dessas violações >> e invariavelmente as mulheres são as principais vítimas, né? >> Exato.
>> Davi, eu não eu não posso deixar de abordar aqui na nossa conversa a eleição, né? Semana que passou a ministra Carmen Lúcia, presidente da Justiça Eleitoral, fez um discurso, enfim, projetando as eleições agora em outubro. São eleições gerais, presidência, Senado, governos estaduais, Câmara.
E ela manifestou ali claramente a preocupação com o avanço, o aprimoramento da inteligência artificial utilizada para desvirtuar disputas, para enganar eleitores, porque o tempo é muito curto. Entre o espalhamento de um vídeo falso e a confirmação de que aquele vídeo é falso, de que o candidato não falou o que dizem que ele falou, que aquilo nunca existiu, muitas vezes acabou a campanha eleitoral, né? Nós estamos preparados para lidar com isso?
O que é que você prevê para esse ano aqui do ponto de vista eleitoral? >> Olha, Fel, é preparado? Eu acredito que não, porque o volume de vídeos de aul desinformação que é criado eh a nosso sistema eh judiciário, né?
Não, e nem as plataformas conseguem conter. O TSE já passou 12 resoluções em que tenta regular a utilização de A nas eleições, por exemplo, não é não é permitida a utilização de deep fakes pelas campanhas eleitorais. todo material utilizado com o IA deve vir com selo, eh, advertendo, né, quem quem tá ali exposto a esse conteúdo.
Porém, isso é para as campanhas oficiais e para quem não tá envolvido nessa campanha oficial, né, fica com essa certa sensação de liberdade que pode fazer o que quiser. Infelizmente a justiça não consegue eh atender a demanda devido a facilidade, né, e a popularização dessas ferramentas, assim como não há qualquer tipo de interesse das próprias plataformas que pertencem as à as grandes empresas de tecnologia, a conter esse tipo de conteúdo, porque é o que gera mais eh cliques, é o que mais gera engajamento, é o que mais prende as pessoas nas suas plataformas, porque aí sim elas vão ficar expostas aos anúncios, que é o que realmente traz dinheiro para as plataformas. Então, é preciso que tenhamos aí uma colaboração dessas plataformas, como eu falei, acho difícil, eh, um TCE proativo, assim como uma campanha de conscientização sobre o os as problemáticas e utilizar essas ferramentas, né?
Para encerrar nosso papo aqui, quando a gente fala do cotidiano, do dia a dia, o que que essas empresas poderiam fazer que elas não estão fazendo para tentar diminuir o impacto negativo da utilização indevida dessa tecnologia? >> Primeiramente, ter um entendimento de quem são dono dessas dessas contas que estão compartilhando esses esses conteúdos, né? É um conteúdo que utiliza a imagem de terceiros, tem autorização, não tem autorização.
Eles não conseguem nem mesmo, por exemplo, atender os seus próprios termos de utilização da plataforma, né, que eles têm, eles não conseguem atender, né? A gente sabe que não é possível compartilhar eh vídeos com violência animal, por exemplo, eh suicídio, porém eh infelizmente esses vídeos acabam eh aparecendo no feed das pessoas. Existem inclusive ferramentas de inteligência artificial que hoje estão conectadas diretamente a redes sociais que acabam facilitando e ajudando.
Se a pessoa tiver com uma intenção ruim ali, ela tem uma facilidade muito grande, né? Isso tem se tornado cada vez mais comum. das redes sociais, todas elas têm um marcador já ali que aquele conteúdo foi gerado com iá, mas eu acho que ele é muito discreto, a maioria das pessoas não conseguem perceber isso.
Então, o que acaba acontecendo é que as pessoas que utilizam eh essas plataformas e acessam esses conteúdos que precisam fazer algo para que essa desinformação não ah se espalhe, né? Por exemplo, é sempre importante desconfiar de vídeos que causam choque imediato, ou seja, emoção forte é sinal clássico de de manipulação, né? É sempre importante a pessoa procurar a fonte original, né?
Quem postou primeiro é confiável? Seas imagens do de um evento, fazer o que vocês jornalistas fazem bem e bastante, que é triangulação de fontes, ou seja, eh, se há um vídeo do eventos, vai ter outros dados, vai ter outras informações, será que elas realmente se encaixam, né? E também desconfiar de de cenas perfeitas demais.
E o contexto aqui vai importar muito. Ou seja, quando os olhos não conseguem mais identificar a imperfeição, o contexto vai ditar o que é real, o que não é. Então, no mundo desses vídeos sintéticos, a confiança desde que está na imagem e ela volta a estar nas instituições, no jornalismos, nos processos de aplicação.
Ou seja, as plataformas também podem ajudar a dar preferência ao jornalismo sério para que justamente venha o evento eh eh reportado de maneira correta, né, e não ah cheia de desinformação. Acho que é dá para começar por aí. Davi, muito obrigado pela sua participação aqui no assunto e até a próxima.
>> Obrigado, Rafael. >> Espera um pouquinho que eu já volto para falar com o Roney Domingos. Rony, queria aproveitar para prestar um serviço para todo mundo que tá nos acompanhando aqui no no assunto e começar com a sua experiência nesse trabalho de identificar o que é verdade, o que não é verdade.
Você você está no fator fake, né, que é o serviço de checagem aqui do do grupo Globo desde o início, julho de 2018. Eu queria que você fizesse um paralelo pra gente, Roney, sobre o material que vocês checavam aquela altura do campeonato e o material que vocês checam atualmente. O nível de sofisticação do que é do que é checado por vocês aumentou muito, o volume aumentou muito.
Queria que você nos nos fizesse esse paralelo entre 18 e agora. No início a gente recebia no Fato Fake, a gente recebia muitos vídeos que eram adulterados, encenados ou tirados de contexto. De 2023 para cá, a gente começou a receber cada vez mais vídeos produzidos com inteligência artificial e o grau de sofisticação e o volume aumentaram exponencialmente nesses anos com a entrada de novos geradores de vídeo, né, que aumentou bastante essa produção e naturalmente o tráfego também desse material.
Essa sofisticação, Roney, ela fez inclusive com que nós que trabalhamos com notícia cotidianamente sejamos obrigados a sermos mais atentos com vídeo, áudio, porque de fato o nível de sofisticação atingiu o grau que bera a perfeição, não é? Infelizmente muitas vezes utilizada pro mal, né? E só olhando ou ouvindo não é possível dizer se um vídeo ou um áudio é falso ou verdadeiro.
Então eu queria que você contasse para quem tá nos acompanhando quais são as ferramentas que vocês usam para identificar a veracidade ou não de um de um determinado material que vendo ouvindo parece verdadeiro, mas não necessariamente é. >> Existe uma corrida, a gente está sempre buscando ferramentas novas. e elas vão aparecendo na medida em que a tecnologia vai avançando.
E essas ferramentas são capazes de identificar alguns sinais de aqui de que aquele material foi produzido com inteligência artificial. Só que a gente precisa checar também se a ferramenta acertou. Então a gente tem que sempre consultar diversas ferramentas, um mesmo vídeo em diversas ferramentas para ver se os resultados são convergentes, se todas elas apontam que aquele material foi produzido com IA.
Depois disso, a gente também sempre cerca tudo isso com uma apuração jornalística clássica, consultando fontes, eh, para saber se aquelas imagens têm uma coerência, se elas têm nexo com a realidade. Então, um especialista pode explicar se aqui se aquilo que tá sendo visto ali tem alguma algum vínculo com o real. E aí, muitas vezes nessa apuração jornalística, a gente começa a ter cada vez mais certeza de que aquele material não poderia, aquela imagem não poderia ter acontecido.
Aquele material é falso, é material produzido por IA. Eh, daí a importância da gente consultar sempre especialistas e fontes oficiais. >> Muita coisa roda o tempo todo, especialmente em redes sociais, não é, Roni?
Muita gente compartilha, recebe vídeo, áudio e fica na dúvida. Isso aconteceu, não aconteceu e não tem a condição de fazer a peneira, né? Avaliar se aquilo de fato aconteceu ou não com todos esses instrumentos que nós temos aqui, né?
Existem dicas que as pessoas podem utilizar para saber se receberam um vídeo verdadeiro ou produzido por inteligência artificial, se aquilo de fato aconteceu conforme tá descrito no vídeo recebido ou se é alguma mentira compartilhada milhares de vezes. Que que você pode dizer para quem tá nos acompanhando? >> A IA, a inteligência artificial, ela sempre deixa ainda deixa alguns rastros, né?
Então, ainda é possível perceber algum sinalzinho ali. Vale sempre a pena ficar bem atento aos detalhes, porque esses rastros podem denunciar ali aquele material falso. Uma outra coisa que a gente sempre faz também é checar os comentários daquela publicação, porque muitas vezes os comentários ajudam a esclarecer um um ponto que a primeira vista não ficou evidente.
Também o perfil de quem publicou, porque se for a publicação original, muitas vezes o próprio perfil diz que ele é especialista em produzir aquele tipo de conteúdo, que o conteúdo é por IA. E eventualmente até a plataforma sinaliza que aquilo ali é um material sintético. Então, vale a pena sempre dar uma investigada nesses sinais iniciais.
Depois, se esse material, se essas imagens forem surreais demais, né? Se elas eh estiverem mostrando alguma coisa que nunca foi vista ou que seria muito difícil ver, então vale a pena sempre colocar cautela na mesma proporção do quanto aquilo é inusitado. E aí outra dica que vale sempre é ter cuidado com com as emoções, né?
Alguma coisa que fica inspirando medo, que fica inspirando o ódio, e ou que busca atingir a imagem ou a reputação de alguém. precisa ser olhado com bastante cautela antes de ser compartilhado ou antes de a gente acreditar naquilo. Também vale muito quando alguém utiliza determinada imagem sintética para vender algum produto milagroso.
Então, se se aquele discurso que tá vindo junto com a imagem, tá tentando vender alguma coisa que nunca foi vista antes, também vale a pena eh levar em consideração, ou seja, analisar com bastante cautela, não consumir aquele conteúdo de uma maneira imediata. Roney, muito obrigado pela participação e volte sempre aqui ao assunto. >> Obrigado, foi um prazer.
>> Este foi o assunto, o podcast diário disponível no G1, no YouTube ou na sua plataforma de áudio preferida. Comigo [música] na equipe do assunto estão Mônica Mariote, Amanda Polato, Sara Rezende, Luís Felipe Silva, Carlos Catelã e Luís Gabriel Franco. Neste episódio colaborou também Paula Paiva Paulo.
Eu sou o Rafael Colombo e fico por aqui. Até o próximo assunto.