Um dia você acorda e descobre que uma enorme parte dos empregos simplesmente deixou de existir, especialmente as carreiras mais especializadas e bem pagas, substituídas por sistemas de inteligência artificial. Ao mesmo tempo, decisões de vida ou morte antes restritas a chefes de estado, passaram a ser calculadas por algoritmos. E a humanidade passa a viver sob o medo constante de uma guerra nuclear que pode ser desencadeada não por um general, mas por um Iá.
Parece o cenário apocalíptico de um filme de ficção científica, mas é a descrição exata da nossa realidade e a curto prazo, projetada pelo próprio CEO de uma das maiores empresas de inteligência artificial do mundo. E essa previsão catastrófica ainda foi reforçada por pesquisas recentes. Enquanto isso, o Pentágono já estava travando uma guerra contra a empresa de inteligência artificial Antropic e trazendo à tona leis que estavam paradas desde a Guerra Fria.
Se antes muitos temiam perder o emprego para a inteligência artificial, agora o medo vai muito além da extinção das profissões. É o medo da extinção da própria humanidade. Descubra agora neste vídeo com a Brasil Paralelo como e se a inteligência artificial vai redefinir o destino de todos nós.
A previsão assustadora do início desse vídeo não veio de um teórico da conspiração, e sim do próprio criador de uma das inteligências artificiais mais usadas do mundo. Dario Amodei, CEO da Antropic, é uma das vozes mais respeitadas e cautelosas do mundo tecnológico. Ele foi um dos criadores originais do Chat PT, mas deixou a Open AI justamente por temer que a corrida pelo lucro estivesse atropelando as barreiras de segurança.
Dario já vem há muito tempo denunciando os potenciais perigos da IA. Ao fundar a Antropic, ele criou o modelo Cloud, baseado em uma IA constitucional. O sistema incorpora princípios éticos programados para recusar tarefas ilegais, desenvolvimento de armas ou atividades letais.
Mas a inteligência dessa máquina chegou a um nível alarmante. Em entrevista ao 60 Minutes da CBS, ele disse: >> "A Modei também fez um alerta. A tecnologia tem o potencial de eliminar metade dos empregos de colarinho branco, o que elevaria o desemprego para a margem de 10 a 20%.
O efeito dominou do desemprego seria devastador e não atingiria só aqueles que ganham mais. Quem explica como isso afetaria as camadas mais populares da sociedade é o educador, financeiro e investidor Leandro Ruchel. Se hoje esse mercado 10%, né, de todo o mercado de trabalho dos Estados Unidos, eles representam esses trabalhadores que ganham mais 50, 60% de todo o consumo.
E aí eles acabam impactando a fatia inferior, porque esses e trabalhadores de colorinha azul, né, os blue colors, acabam prestando serviço para white color. E aí a gente tem o quê? A gente tem um colapso da economia como um todo.
>> Além dos alertas de Amodei, um relatório publicado pela Citrine Research, que ganhou um apelido sombrio de relatório do fim do mundo da IA, provocou forte reação no mercado. Com o título original de crise global de inteligência de 2028, o documento projeta um cenário devastador a curto prazo, uma autêntica espiral da morte para a economia global. A tese é relativamente simples.
Se você tem esses sistemas, esses modelos que são cada vez mais avançados e que conseguem eh fazer qualquer tipo de trabalho, mesmo trabalhos complexos, a um custo que vai para zero, né, no limite, você vai ter a substituição de pessoas, inclusive pessoas que estão em cargos mais elevados, com salários mais elevados por essa tecnologia. E essa substituição eh faz com que essas pessoas que perdem o emprego não têm mais a capacidade de comprar, de consumir. E o consumo, basicamente é o grande motor de qualquer economia, especialmente esses cargos, né, que pagam mais.
O relatório abalou o mercado financeiro. Em Wall Street, ações de gigantes da tecnologia e de grandes corporações financeiras despencaram, refletindo o medo de que a revolução da inteligência artificial possa desencadear uma crise de proporções inéditas. O economista Fernando Uich, no entanto, discorda desta previsão.
>> Eu não acredito neste artigo, neste cenário aterrorizante que gera uma depressão econômica. e o mercado vai derreter e é desemprego em massa. Não, eu não vou por essa.
Para mim, o cenário é muito mais otimista, é de boom de produtividade e de enriquecimento econômico. E só apenas mais um ponto, porque esse também é muito válido e passa batido pelo artigo pessimista da CU Research, que é a questão dos próprios agentes de IA, que eles já tomam como premissa que eles continuam sendo altamente utilizados, o custo ridículo, como eles comentaram aqui num dos pontos que o custo do comput token vai cair para o custo marginal da eletricidade. Olha, pode cair bastante, mas qual é aí a viabilidade econômica exata hoje dia?
Nem sabemos. As empresas principais estão ainda subsidiando o uso desses agentes, dos chatbots, os principais aplicativos é do Cloud, é do Open AI, é Grock, é do Gemini, nem sabemos ainda onde é que é o ponto de equilíbrio econômico pras próprias empresas provendo essas ferramentas. Então, o quanto que realmente as empresas vão poder usar no futuro, ainda não sabemos.
>> Mas o desemprego em massa não é o maior risco que a humanidade parece enfrentar. A história que você está acompanhando agora é um exemplo claro de como decisões tecnológicas e políticas podem moldar o futuro da humanidade. Para entender um mundo onde algoritmos podem decidir o destino da economia e da paz mundial, você precisa de uma fonte de informação que não dependa desses mesmos gigantes.
Na Brasil Paralelo, nossa independência é o que nos permite investigar as engrenagens do poder sem filtros. E para você ter acesso ao nosso ecossistema completo de filmes, originais e cursos, estamos na semana do consumidor, com uma condição histórica até 55% de desconto na sua assinatura. Clique no link da descrição ou aponte o celular para o QR Code na tela.
Garanta o menor valor do ano e nos ajude a continuar fazendo o trabalho que poucos têm coragem de fazer. Se o apocalipse financeiro é apenas uma hipótese, o que pode acontecer quando os sistemas de altíssima capacidade de processamento, desprovidos de compreensão do mundo físico e da vida humana, são colocados no comando de decisões de guerra? A resposta veio em simulações recentes e não é otimista.
Quando colocadas no comando de simulações geopolíticas para administrar crises entre países, as inteligências artificiais escolhem o ataque nuclear em 95% das vezes. Sem o entendimento real do que é a morte ou a diplomacia, a máquina enxerga a aniquilação em massa apenas como mais um recurso tático e não hesita. E mesmo diante desse risco, Donald Trump deu um ultimato perigoso, não só para a Antropic, mas para a humanidade.
O Pentágono está exigindo acesso irrestrito à tecnologia da empresa para uso militar, ordenando que todas as salvaguardas de segurança do sistema Cloud sejam derrubadas. >> Agora, a essência da disputa agora, que já vem se desenrolando há alguns meses, é por conta do seguinte. Em julho do ano passado, a Antropic assinou um contrato de 200 milhões de dólares com o Pentágono, que vem usando as ferramentas da empresa e é a única que se tem notícia que realmente está provada pelo Pentágono para ser usada.
Então, a única de IA. As outras estão tentando, mas ainda não conseguiram. E segundo Pentágono é a melhor, eles detém a melhor tecnologia e por isso o Pentágono está usando.
Mas o a controvérsia toda começou mais recentemente porque Antropic não quer permitir que os seus modelos sejam usados para monitoramento de larga escala de americanos, como a gente sabe que já foi feito no passado. todo aquele a aquele escândalo do da NS que foi divulgado pelo Edward Snalden. Lembram do Edward Snalden?
Pois é. Então, Antropic tem esse receio de mau uso, monitoramento completo e vigilância dos americanos e também não quer que os seus modelos sejam usados para armas autônomas, ou seja, aquelas que podem ser manuseadas e disparadas sem nenhum controle, sem nenhuma interferência humana. Esse é um grande perigo e eles têm esse receio, por isso não querem que os seus modelos sejam usados para isso.
E o Pentágono não quer nenhuma restrição, quer que ele tire todas, que antró que remova todas as proteções para que o modelo seja usado. >> Mas se a máquina é tão letal quanto testada, por que alguém tentaria remover suas travas de segurança? A resposta está na corrida bélica global.
É exatamente essa capacidade de processamento implacável que chamou a atenção do exército dos Estados Unidos. Diante da recusa da Antropic em remover travas que impedem seu modelo de operar armamentos letais sem supervisão humana, a retaliação do governo foi drástica. Washington ordenou que todas as agências federais americanas paralisem imediatamente o uso de quaisquer programas da empresa.
Em sua rede social, Donald Trump justificou o boicote afirmando que os Estados Unidos não permitirão que uma empresa de tecnologia dite as regras de engajamento dos militares americanos, ressaltando que essa autoridade pertence aos líderes das Forças Armadas. O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça", declarou o presidente. A pressão americana ilustra o maior dilema de segurança do século XX.
O governo exige transformar no centro nervoso de sua defesa a mesma tecnologia que desenvolvedores tentam conter para evitar tragédias. Entregar o comando estratégico a algoritmos preditivos que em testes falham em reconhecer o dilema do uso de ogivas nucleares é uma aposta de alto risco. Em sua análise do caso, Fernando Uich concordou com os receios da Antropic.
Do ponto de vista do risco nuclear, as conclusões são perturbadoras e realmente é extremamente perturbador e por isso que é um enorme perigo, especialmente no estádio atual em que se encontra as ferramentas de A, que são fantásticas, são potentes, mas não são plenamente confiáveis, ainda alucinam, ainda cometem erros e aplicar esses modelos em monitoramento em massa, vigilância ou pior ainda, em cenários de guerra, em armas autônomas. Pô, imagina como isso pode escalar. Olha o cenário de incerteza e imprevisibilidade agora num num cenário hipotético, um conflito, cara, é realmente é o perigo de uma tecnologia como essa.
E por isso eu concordo com os receios da Antropic também. >> A sobrevivência a IA armada não depende da tecnologia em si, mas da governança humana. O fato de empresas de tecnologia estarem resistindo ativamente a pressões governamentais e aceitando perder contratos bilionários para defender o conceito de humane.
A regra de que um humano sempre deve tomar a decisão final sobre o uso da força letal mostra que a sociedade possui defesas e vozes contra esse risco. Resta saber se essas vozes irão resistir à pressão. Enquanto isso, resta apenas o questionamento.
Se a economia conseguir sobreviver à inteligência artificial, será que a humanidade conseguirá sobreviver a uma inteligência artificial armada? Decisões como estas, que envolvem o uso militar de IAS e o futuro dos nossos empregos, costumam acontecer longe dos olhos do público. Se você quer deixar de ser refém das narrativas e entender de fato como o poder e a tecnologia operam no mundo de hoje, o seu próximo passo é tornar-se um membro da Brasil paralelo.
Além de documentários investigativos, nossa plataforma oferece mais de 100 produções originais, filmes premiados e cursos exclusivos nas diferentes áreas do conhecimento. Aproveite a semana do consumidor. Assinando agora pelo link na descrição ou pelo QRcode na tela, você garante até 55% de desconto em nossos planos.
Não deixe para depois, pois essa condição pode sair do ar a qualquer momento. Clique no link agora ou aponte o seu celular para o Qcode na tela. Torne-se membro e nos ajude a continuar fazendo o trabalho que poucos têm coragem de fazer.
Participe da semana do consumidor e ative todos os seus bônus agora mesmo. M.