a Open ai tá testando uma função onde o chat GPT não só escuta e fala mas também vê aquela demonstração de Maio que mostrava que com a câmera do celular ele podia analisar a seu redor em tempo real e responder baseado no que tá vendo tá chegando no Messenger agora tem vídeochamada em HD barulho de fundo filtrado e fundos de a personalizados a writer lançou um modelo que se ajusta em tempo real o Google deepmind lançou a ia que corrige erros e turbina o desempenho ao quer botar o chat GPT na escola e muito mais
vamos ver tudo que tá acontecendo no mundo da Inteligência Artificial hoje no nosso I update Bora lá a meta tá dando aquele upgrade esperto no Messenger né e Dessa vez parece que eles estão Apostando em tudo que a gente quer mesmo tá que é personalização qualidade praticidade vamos entender o que tá rolando né então Primeiro eles têm ag agora os planos de fundo para vídeochamadas gerados por ia então isso é muito legal porque não é só ah bota uma imagem bonitinha lá né aá tá criando cenários realmente únicos tipo um fundo que combina com seu
humor ou um tema ali da sua reunião né então se você tá num Papo descontraído né você coloca um fundo ali mais colorido e animado né Você tá no meio de uma reunião de trabalho você coloca uma coisa mais sério mais clean né então isso aí dá uma Vibe totalmente personalizada pra suas chamadas né E vamos combinar que quem é que não ama esconder ali aquela bagunça do quarto de um jeito aí que ninguém vai ver e super estiloso né então e aí vem o negócio das chamadas em HD né que é para quem cansou
de se ver ali pixelado e travando na hora da videochamada né a qualidade melhorada vai fazer todo mundo parecer que tá usando câmera de cinema tá tô exagerando né mas você entendeu e junto com isso os recursos de supressão de ruído são o golpe ali final no caos do fundo né então não vai ter mais esse negócio de cachorro Latin indo vizinho martelando E sabotando ali a sua reunião né o Messenger Vai automaticamente filtrar esses barulhos para você parecer como se estivesse num estúdio mesmo né agora olhando o pacote completo né a meta tá tentando
consolidar o Messenger como a plataforma de vídeochamadas casuais e profissionais também né mas o desafio deles vai ser convencer a galera usar isso quando tem outras ferramentas tipo Zoom né o Google Meet no mercado a personalização e a integração com as redes sociais podem ser sim um diferencial mas só se o desempenho for realmente Top né então para quem já usa o Messenger esses recursos vão ser aí um presentão pra galera né e para quem ainda não usa Talvez seja aí a hora de dar uma chance Quem sabe né Bora testar aí essas novidades E
falando em novidades Eu sempre trago tudo em primeira mão aqui para vocês na nossa série A update que tem todos os dias e eu trago tudo sempre fresquinho tudo que tá acontecendo no dia sobre inteligência artificial e tecnologia por isso se você ainda não é inscrito aqui neste canal por favor se inscreva agora e Ative o Sininho para receber uma notificação toda vez que estiver um vídeo novo e se você se torna membro do canal você vai ver os vídeos do i update primeiro do que todo mundo assim como fez o kéber Rangel e é
o mais novo membro aqui do canal queria agradecer por você se tornar membro e agora você também vai fazer parte da galera que vê os vídeos antes de todo mundo então agora antropic tá tentando resolver um dos grandes dilemas aí do mundo da ia né que é avaliar direito o que o modelo realmente sabe ou consegue fazer que vamos combinar né que as métricas tradicionais tipo a pontuação de benmar não tão contando aí a história toda né porque é Como avaliar mais ou menos um jogador de futebol só pelos gols sem considerar o passe a
defesa a visão de jogo né Então tá longe de ser completo Então o que eles fizeram Foi criar uma estrutura estatística para medir as capacidades dos modelos de uma forma mais Ampla e precisa né então ao invés de só jogar uma pontuação ali genérica e dizer ah esse foi melhor do que aquele A ideia é entender melhor como o modelo tá performando em diferentes tipos de tarefas então ele tá indo por exemplo bem Em lógica né mas tá meio capengando ali na criatividade né Tá acertando em língua inglesa mas tá enrolando ali no português então
é uma avaliação aí muito mais detalhada né E essa abordagem também facilita a comparação entre os diferentes modelos de linguagem né né hoje em dia é meio confuso ali saber o que que é melhor né porque cada modelo é bom em umas coisas e ruins em outras né então com essa proposta aqui dá para criar uma régua mais clara né que mostra a força e a fraqueza mas de uma forma um pouquinho mais justa Agora pensa no Impacto disso né porque essa avaliação mais precisa ajuda tanto quem desenvolve os modelos quanto quem usa né os
desenvolvedores podem saber exatamente onde focar para melhorar né enquanto nós os usuários aqui conseguem escolher o modelo certo paraas suas necessidades sem ficar ali no marketing né de quem grita mais alto mas ó isso aqui ainda tá no começo tá implementar isso de uma forma prática e acessível pode ser um desafio né porque envolve muitos dados muitos cálculos né e tudo mais mas se der certo isso aqui pode mudar o jeito com que a gente entende escolhe e ar né mais transparência mais eficiência e quem sabe até mais confiança Então vamos torcer para esse avanço
aqui virar padrão e a nant que tá querendo levar a realidade aumentada no nível hard aí com esse modelo dia a tá porque eles basicamente pegaram milhões de escaneamentos que os jogadores enviaram quanto jogavam Pokémon go né e transformaram Isso numa mina de ouro para treinar aia então é como se eles estivessem criando o mapa 3D super Ultra detalhado no mundo real né só que com inteligência para entender e interagir com ele o objetivo aqui é criar um sistema que entende o espaço físico n né tipo A Iá vai saber que um banco numa praça
não é só um pedacinho ali de madeira né mas um lugar onde as pessoas se sentam ou que uma escada é uma coisa para subir né não para atravessar e isso pode mudar completamente o jeito que a gente usa a realidade aumentada né porque imagina um Pokémon aparecendo perfeitamente ali atrás de uma árvore né ou um portal integrado no cenário como se fosse real né então dá até para pensar em novos tipos de jogos e aplicativos que se adaptam ao ambiente de verdade né agora isso aqui não é só sobre diversão né essa tecnologia também
pode ser usada para outras coisas né tipo criar mapas super detalhados para quem precisa de acessibilidade ou até para ajudar os robôs a Navegar nos Espaços humanos sem parecer ali perdidos né então A ideia é ter um mapa digital Vivo e isso é uma ideia super poderosa né Mas por outro lado tem a questão da privacidade porque essas digitalizações vieram dos celulares da Galera então aant que precisa aí garantir que esses dados vão ser usados de uma forma ética e segura né porque a transparência vai ser essencial aqui também então isso aqui pode ser um
divisor de águas né pra realidade aumentada e até I de navegação no mundo real se a nante que acertar aí a mão eles vão transformar o Pokémon go de um joguinho aí viciante para plataformas de inovação tecnológica Então vamos ficar de olho nisso tá E olha essa novidade aqui do writer né eles estão dizendo que o modelo consegue aprender em tempo real e ainda fica mais eficiente sem precisar daquele treinamento pesado que geralmente consome tempo grana e uma energia assim absurda né A ideia é ser uma coisa Auto evolutiva né então é tipo o modelo
virar um aluno ali super aplicado que aprende sozinho enquanto ele trabalha então por exemplo se ele erra ou percebe que ele pode melhorar em alguma coisa ele já ajusta o funcionamento ali na hora mesmo sem precisar de um exército de cientistas para reconfigurar tudo aquilo né então isso pode economizar um tempão e deixar as respostas e as soluções mais certas né conforme o contexto vai mudando então a cereja do bolo aqui é a eficiência né os llms normalmente são monstrinhos ali que comem a memória e o processamento como se não tivesse amanhã então se esse
novo esquema aí da writer fizer mesmo que tá prometendo a gente pode ver modelos mais leves mais rápidos né Isso é ótimo Tanto para quem usa quanto para quem mantém ali as operações funcionando né n e o lado crítico é que tudo isso é muito legal mas dá aquele medo básico de sistemas cada vez mais autônomos fazendo mudanças que a gente nem percebe e nem entende ali 100% né E também tem o desafio ali de garantir que esses aprendizados em tempo real sejam Seguros né e não crie ali soluções que na pressa ali para se
adaptar né eles acabem causando mais problema do que solução mesmo então esse modelo Auto evolutivo tipo llm ganhando um cérebro mais esperto né uma disposição de atleta dá para fazer muito com isso mas é bom ficar de olho aí para garantir que esse show aí siga controlado né então vamos acompanhar e olha essa parceria aqui da Open ai com a common sense media né que é uma baita jogada aí para ajudar os professores a entrar de vez no universo de ia sem se sentir assim tanto perdido né o curso gratuito sobre o g o chat
GPT tá vindo aí para resolver dois problemas de uma vez só tá que é primeiro ensinar como a ia funciona de um jeito simples e prático e segundo quer mostrar que dá para usar essa tecnologia como malada no ensino né E não como um Bicho de Sete Cabeças a ideia principal aqui é descomplicar o uso do chat GPT para quem tá na linha de frente né ou seja pros professores então muitas vezes eles nem sabem por onde começar Ou acha que a ia é uma coisa só para quem manja mesmo de programação né Mas com
esse curso aqui o objetivo é mostrar que dá para usar o chat GPT para planejar as aulas né criar exercícios personalizados ajudar a responder as dúvidas dos alunos até incentivar o pensamento crítico tipo Ok o chat ptu essa deu essa resposta mas como a gente pode eh saber se isso aí tá certo ou não outra sacada legal aqui é que o curso Foca no Ensino Fundamental e Médio Então tá de olho aí em ajudar as crianças e adolescentes a crescerem aí já entendendo como usar a tecnologia de uma forma mais responsável e também ética né
então não é só vamos aprender com a ia mas vamos aprender sobre a ia né Isso é essencial aí no mundo onde a tecnologia tá em todo canto já né mas muita gente ainda tem meio que medo receio de usar ia em sala de aula né seja por medo de substituir o professor spoiler tá não vai substituir ou pela questão da segurança e da privacidade do aluno né por isso que é importante que o curso também fale sobre essas preocupações de uma forma aberta Mas no fim essa iniciativa pode ser um divisor de águas para
modernizar o ensino e aproximar a galera jovem da tecnologia de um jeito saudável e educativo né Então vamos torcer para esse curso aí pegar e abrir as portas para um mundo mais te que friendly nas escolas agora essa novidade aqui do Alpha cubit né é um Marco aí na corrida da Computação quântica que assim para quem não tá por dentro né o maior problema dos computadores quânticos hoje é que eles são super sensíveis né até um espirro ali perto deles pode ferrar completamente os cálculos né e o Google deepmind mandou muito bem aí lançando essa
ia que basicamente funciona como um médico para esses erros porque ela percebe detecta ali né corrige e ó vida que segue tá o negócio mais insano aqui é a taxa de redução de erros né porque diminuir 6% já seria top né mas com 30% em relação aos métodos mais básicos Isso muda o jogo completamente né porque no mundo da Computação quântica cada décimo de por cento conta né e o esquema de aprendizado deles é genial né primeiro treina com ia em simulações tipo uma aula prática depois joga ela ali no mundo real para lidar com
o hardware quântico de verdade então O resultado é que ela consegue manter a precisão em mais de 100.000 operações mesmo treinada só com 25 agora o ponto alto aqui para mim é o fato deles quererem liberar o Alpha cubet como open torce né então isso é muito legal porque a comunidade inteira pode pegar esse avanço e dar aquele Boost coletivo né porque mais cabeças pensando ali é igual a mais inovação né só que claro que ainda tem chão a computação quântica não vai dominar tudo amanhã ainda Precisa de estabilidade escabilidade aquela coisa toda né Mas
com isso a gente tá vendo que os computadores quânticos não são só uma promessa aí distante eles podem revolucionar áreas como descobrir novos remédios ou prever mudanças climáticas de um jeito mais rápido e preciso né Então tá percebendo aí né o futuro batendo aí na porta Então vamos ficar de olho aí porque essa revolução vai ser gigante então agora essa novidade aqui bombástica né que foi descoberto é que a Open ai tá testando uma função onde o chat GPT não só escuta e fala mas também vê isso significa que com a câmera do seu celular
ele pode analisar ali aos redores em tempo real e responder baseado no que ele tá vendo Então você mostra uma coisa pra câmera né tipo um objeto na sua mesa né ou a vista da sua janela no vídeo de demonstração aqui é o cachorrinho e o chat GPT não só vai identificar o que é mas também consegue bater um papo sobre aquilo né então isso é um salto enorme porque a gente tá acostumado com Alexa Siri né e outros assistentes virtuais ali só no áudio agora adicionar a visão é praticamente transformar o chat GPT num
ajudante presente ali de verdade quase como se tivesse alguém ali com você na verdade essa tecnologia aqui não é super novidade né lá em maio vocês lembram que a openi já tinha feito uma demonstração desse recurso né o que eles mostraram foi totalmente impressionante né EA conseguiu reconhecer os objetos descrever oos cenários até dar opiniões sobre o que tava sendo mostrado Já pensou quantas possibilidades isso abre Né desde ajudar alguém a montar o móvel até corrigir o jeito que você dobra as roupas né Porque sim eu sei que a gente deixa umas baguncinhas por ali
né só que naquela época era só uma prévia mesmo né poucas pessoas tiveram acesso durante os testes Alfa mas agora os códigos na versão Beta mais recente estão mostrando que o recurso tá praticamente pronto para sair do forno aí se você tá lá pensando né Beleza mas como que isso funciona vou te explicar né esse recurso vai usar a câmera do seu celular do seu tablet do seu computador né para capturar as imagens em tempo real daí o modelo de analisa o que ele tá vendo né e usa todo o conhecimento dele para responder de
uma forma natural como se estivesse conversando né então por exemplo você tá na cozinha você pode pegar ali mostrar uma receita e ela vai te ajudar a entender o passo a passo ou até sugerir ali as substituições dos ingredientes né você vai começando ali mostra né no pela câmera do celular em que ponto você tá se a massa né tá no ponto e as próximas coisas que você tem que fazer se você tá viajando você mostra ali um ponto turístico e o chat PT já vai te contar a história por exemplo do lugar como se
fosse um guia turístico ali para você né você tá numa outra casa né se foi num airbnb por exemplo não sabe o botão que você tem que apertar do controle remoto por exemplo ele vai identificar aquilo e vai te guiar no que você tem que fazer agora imagina isso integrado ao modo de voz avançada né onde o chat GPT Já conversa de um jeito super natural como se fosse uma pessoa falando mesmo né você não precisa digitar nada só vai falar e mostrar então a coisa vai ficar muito mais fluída né e a integração de
visão e de voz transforma aá numa coisa muito mais humana né então é como se o assistente ganhasse olhos para ver o mundo junto com você e isso não é só legal é super útil também né Isso também vai ter um impacto enorme pra acessibilidade porque uma pessoa com deficiência visual por exemplo ela pode apontar a câmera para alguma coisa ouvir a descrição do que tá vendo e Pronto né então o momento desse esse lançamento é muito estratégico né A openi não tá sozinha aí nessa corrida lá no evento Google io o Google Apresentou um
projeto chamado projeto Astra que também tá explorando a integração de visão e voz nos seus assistentes os Gigantes da tecnologia estão numa disputa e acirrada para ver quem entrega a ia mais completa e mais útil esse recurso aí de câmera ao vivo pode dar uma vantagem enorma enorme para Open ai sair na frente né Além disso o mercado tá caminhando para isso porque em 2025 a gente provavelmente vai ver aí um Boom de Agentes de I multimodais Então são os modelos que conseguem ver ouvir falar e agir de uma forma super intuitiva então lançar uma
coisa assim agora não é só um passo à frente mas é quase uma preparação aí pro futuro e o que que vem depois disso né porque a integração de voz é só o começo né gente aí ela tá ficando cada vez mais parecida com a gente né Isso significa que em breve ela também vai poder agir por exemplo ela poderia conectar essas capacidades visuais aos dispositivos inteligentes né como os robôs e as casas automatizadas Então imagina que você mostre a bagunça ali da sua sala e a ia não só percebe vê ali as coisas como
também organiza um plano para você arrumar ou até aciona um aspirador de pó ali robô né então Parece coisa de filme mas é esse o caminho mesmo tá gente claro que qualquer tecnologia assim tão avançada sempre tem o lado que a gente precisa ficar de olho também né principal preocupação nessas coisas aí de visão de ver também é a privacidade né porque se a ia tá usando a câmera para garantir que as imagens captadas vão ser protegidas e como a gente pode garantir que as imagens que estão sendo pegas ali vão ser protegidas e não
vão ser usadas de uma forma que não deveriam né então a pna e as outras empresas de a vão ter que investir pesado aí nos sistemas de segurança e deixar Claro PR as pessoas como esses dados vão ser tratados a transferência vai ser essencial aí para ganhar com confiança das pessoas e esse recurso de câmera ao vivo então é mais um passo para tornar A Iá cada vez mais integrada no nosso dia a dia né combinando a visão e voz o chat GPT pode virar uma ferramenta indispensável não só para resolver os problemas mais práticos
mas também para criar uma experiência de interação muito mais rica e humana e a gente tá vivendo aí um momento incrível onde a tecnologia tá deixando de ser só uma ferramenta e tá se transformando numa verdadeira aí parceira do cotidiano né Então vamos ficar de olho aí nesse lançamento porque o futuro tá batendo aí na nossa porta e pelo visto ele já tá enxergando muito bem clica aqui nesse card para saber mais sobre tecnologia e inteligência artificial Eu Sou a Paula Bernardes e até o próximo vídeo