Então bora começar com a Suzana então isso então qual era o principal problema ou desafio que a Suzana enfrentava antes de implementar a solução da Nieto eh eles tinham problemas para achar a documentação do maquinário que eles iam fazer manutenção eles tinham problemas para fazer os procedimentos antes de parar né os procedimentos de parada os procedimentos de segurança os procedimentos de E reinicialização então assim Eltin um problema para achar o maquinário dentro do maquinário achar Como qual que era o checklist que era o próximo passo né primeiro achar o que que é ah essa máquina
tá com defeito ou esse sensor tá com defeito ou esse registro precisa ser trocado beleza Qual que é o procedimento para fazer isso esse o grande problema deles nesse caso foi bem interessante a Suzano a gente trabalhou com o ntech Discovery a gente fez uma sessão de li inception com design Thinking para mapear qual ia ser o MVP o que a gente ia entregar participou área de negócio deles participou ti deles participou eu Rafa Costa para a mitzo para pra gente fazer isso tudo dentro da Microsoft ficamos 8 horas dentro da Microsoft fazendo isso criando
MVP criando material depois que a gente criou o material a gente passou a desenvolver o MVP em cima desse material então assim foi bem interessante porque foi muito rápido o desenvolvimento a apresentação do do das dos procedimentos operacionais deles c e o resultado foi muito bom eles tinham sete Engenheiros para procurando os procedimentos operacionais sete o sete começaram a fazer outras coisas mais focado na planta e menos focado em ficar procurando procedimento operacional por o cara chegava lá e falava assim qual que é o procedimento tá direto na no site e o site já guspia
para eles tudo certinho né então ficou bem bem legal isso aí legal e quais foram os principais pontos de dor que a n identificou no mapeamento dessa demanda eh a origem dos dados deles Aonde eles armazenavam a a informação eles armazenavam num sistema de de muito antigo de de gestão de eletrônica de documentos certo e a gente acabou fazendo eles passarem para um datalake Então pegamos esses documentos deles jogamos todos no datalake Porque não são documentos que mudam todo dia é um documento que como é uma planta nova que a gente fez eh essa planta
ela tava com todos os procedimentos zerados assim era tipo versão final versão final não vai ser alterada em do anos a gente Manteve lá o Jed para eles fazer alterações bonitinha mas fez um uma catapulta para dentro do do datalake então er Ava lá todo dia o datal que ela perguntar se teve alguma alteração Azur function fazia isso aí puxava para dentro do do dat Lake da Microsoft e lá a gente fazia isso com a indexação com o azure ai search junto com o open para fazer o generativo boa então as tecnologias que foram utilizadas
Microsoft foram Microsoft né dat Lake ali da da da Microsoft function para buscar os documentos que executava todos os dias para ver se tinha alguma alteração alguma coisa jogava dentro do dat do datalake o datalake da Microsoft gen2 azu search e o open se fosse utilizar isso na plataforma gcp do Google I ser dataflow ou Cloud function manter mesma linha de de pensamento Cloud function Cloud Storage vertex a com search e com o Gemini pro 1.5 boa eh qual foi a experiência da equipe da Suzano ao começar a usar a solução da nío eles gostaram
assim eles tiveram um susto primeiro que funcionou essa era a dúvida deles que se se ia funcionar ou não ia funcionar então eles curtiram que funcionou nessa parte do curtiram que funcionou eles eles gostaram da da ideia de de usar para mais coisas criar outras coisas contratos e tal então aí surgiu novas demandas mas infelizmente a gente parou só aí parou só nessa parte ia ser interessante voltar lá e conversar com eles de novo sobre isso pararam de pararam de gastar tempo procurando procedimento operacional isso é melhoria de de de qualidade de trabalho boa e
o processo de implantação dessa solução então foi feito ali com o nich Tech Discovery né a gente fez ali a rodada de workshop de brainstorming de criação desenvolvimento ali da da arquitetura do mpp inteira legal foi 10 dias de discovery e foi mais 10 dias para implementação da ia muito rápido né Eh então como esses resultados impactaram os negócios da Suzana em termos de eficiência e produtividade e Quais mudanças ou melhorias foram notados foram os né o pessoal pode fazer outras coisas a melhoria do trabalho a melhoria do trabalho né a redução do tempo deles
em ficar buscando documento e a facilidade deles em achar esses documentos acho que era o pior pior fator era achar o documento Então teve melhoria na na parte de trabalho deles não sei não sei qu ificar o quanto que o o cara passou a trabalhar em outras coisas e não nisso mas eram sete Engenheiros fazendo isso e de repente não tem não precisa mais de sete Engenheiros precisava de um dois os outros Engenheiros podiam fazer as outras coisas que eram para eles fazerem eles não tinham o que fazer isso e mais das outras coisas boa
a usando é de papel e celul Ah tá é de papel e celulose né boa celulose boa tem mais alguma coisa que você queira acrescentar sobre esse cas Esse foi esse foi foi tranquilo de trabalhar bom então gravado B vamos para Fiat estelantes estelantes qual deles o esse de Vamos pegar vamos pegar o de chef TV que esse esse foi muito legal boa então qual era a dor da descompartilhar tela po po descompartilhar Não de boa pode pode deixar não tem problema não porque tá pegando aqui tá travando o vídeo ah então tá pera aí
então hum boa isso então qual era Qual o problema isso o problema deles era o quê eles precisavam identificar as pessoas que não tinham eh treinamento para est carregando coisas caixa pacote e gerava lesão na nas costas era pra área de segurança do trabalho a gente fez isso a gente utilizou todo o o o as câmeras de TV mesmo Tod cft TV da da fiet para identificar a postura do cara como é que o cara tava andando então ah carregava a caixa aqui carregava a caixa aqui carregava a caixa aqui então a gente colocou um
algoritmo para est identificando Como que o cara andava com a caixa como o cara tava andando na verdade para ver se ele precisava de um de um treinamento identificava a pessoa porque a câmera er de alta definição mesmo então identificava a pessoa identificava a área onde a pessoa tava Da onde ela saía para onde ela ia tipo de caixa que ela tava levando at a gente conseguia informar pro pessoal de segurança do trabalho se ele tava carregando de forma correta ou não então assim acompanhava ele verde se ele estava carregando correto acompanhava ele vermelho se
ele tivesse carregando a caixa de forma incorreta isso foi passado pelo pelo pessoal de segurança do trabalho qual queer forma correta Qual a gente gravou a forma correta de carregar é a forma errada de carregar e apresentou isso pro machine learning a gente trabalhou aí com machine learning E aí foi interessante porque a gente trabalhou com Google hum boa eh e quais foram os principais desculpa qu tensor Flow a gente trabalha com tensor Flow certo e pegando as coisas a a as informações via pbub e dataflow foi bem a gente apresentava no site o cara
visualizava no site em tempo real se o cara tava vermelho ou verde muito legal e quais foram os quais foram os principais pontos de dor que a identificou no mapeamento dessa demanda a fonte de dados existiam câmeras que não funcionava tava lá só de enfeite Ah que bom vi a gente descobriu isso e eles descobriram isso também que a câmera tava lá só de enfeite daí depois el corrigiram isso e foi foi embora resolveu né na verdade não é que tava só de enfeite é que era uma câmera que tinha uma resolução ruim Tava mal
instalada tava num lugar errado a gente só falou assim ó arruma ali arruma esses dados pra gente não arruma a câmera arruma esses dados pra gente que a gente consegue mostrar para vocês boa eh Então as tecnologias Google em vez de pegar o cara de frente ou pegar o cara de costas tinha que pegar de lado pra gente identificar como ele tava pegando então assim tinha câmera que vinha de frente tinha uma câmera de lado a de lado tava posicionada muito para baixo a gente só pediu para eles morarem pra gente conseguir acompanhar o cara
de lado bom ver se o grande grande ponto aí de de de mudança que a gente pediu com eles que nem foi uma dor tão grande assim né na verdade a se você for ver a dor de negócio deles era grande porque tinha muito afastamento negócio era grande lão de de esforço repetitivo lá eles tinham bastante afastamento reduziu não sei quanto tá não sei quanto eh a gente não fez o acompanhamento depois de quanto reduziu mas assim a pessoa ficou muito feliz em conseguir identificar as pessoas que estavam fazendo as as as atividades erradas entendeu
boa as tecnologias Google que foram utilizadas então foram foi data Flow as data Flow e tensor Flow bo E se fosse da Microsoft quais a gente poderia ter considerado para esse caso o o o na época seria o azure machine learning Hoje seria o azul ai tá Seria data Factory e o dat Lake pra gente colocar informação lá boa e qual foi a experiência da da stelan ao começar a usar solução da estelantes mudar o nome mas é iado com a a nível de assertividade a gente chegou em 98% de assertividade do cara carregando caixa
Às vezes a caixa era muito pequena ele identificava mesmo assim a caixa pequena cara carrado caramba mas assim quando era caixa muito grande e aí o negócio pegava ficava para trás na caixa isso estava totalmente errado totalmente errado abaixa errado n cois um monte um monte de coisas ali que dava pra gente trabalhar melhor no caso deles estava tava só impactando o processo de implementação da solução então foi ali pegar as imagens das câmeras treinar o algoritmo como que foi um pouquinho do processo foi implementado você deu uma travada César Opa foi em 4ro dias
eu não sei por que tá travando tá aparecendo aqui para mim que tá com problema na rede deix ver se eu troco de rede tá acho que foi será melhorou Melhorou de uma melhorou boa então vamos lá processo de implementação então foi em quatro semanas né quatro dias quatro dias foi em quro dias a gente a gente foi para lá para Betim fez a implantação em quro dias aí enquanto o Wilson O Wilton é Wilton Wilson Wilson não lembro mais o nome do do rapaz desculpa Ele tava fazendo a implantação eu tava fazendo o levantamento
do outro Case era de rotas acompanhamento de rotas esse a gente fez remoto mas esse a gente foi para Betim para conhecer os caras para ver como é que era tal para trabalhar com eles nesses quatro dias a gente fez a implantação lá com tensor Flow com tudo tava algoritmo lógico a gente já levou um algoritmo pronto para eles já para fazer isso então entrou já treinou o algoritmo com as imagens já fez o negócio funcionar e já apresentou funcionando muito rápido muito legal Foi muito rápido eh come teve um trabalho por trás teve um
trabalho por trás esteve teve duas semanas de trabalho por trás que a gente criou o algoritmo um algoritmo nosso mas implantação quro Dias quiser falar foi três semanas para fazer todo o projeto boa eh como esses resultados impactaram os negócios da estelantes em termos de eficiência e produtividade e Quais mudanças ou melhorias foram notados redução de afastamento das pessoas por ler e e o que eles notaram assim é é falta de Treinamento das pessoas Isso é uma falta de capacitação das pessoas para trabalhar com carga com transporte de carga e eles deram esses Treinamentos e
foi um um fator depois que a gente ainda acompanhou por causa do da Rota por causa do do outro projeto a gente acompanhou um pouquinho mas não tava ligado diretamente mas o pessoal elogiou bastante a a solução boa e aí consequentemente né com menos afastamentos eles vão aumentar ali a produtividade prod produtividade muito eficiência boa então tem mais alguma coisa que você Quira acrescentar Red reduziu a despesa não o custo reduziu a despesa afastamento é despesa Não é custo sim a para falar deles a gente pode passar pro outro também que também foi um desafio
Legal boa também da estelantes né isso que foi o o planejamento de Rota deles não foi planejar a rota que o cara vai seguir com a o cegonheiro não é isso é planejamento de carga do cegonheiro paraa rota que o cara vai seguir que que acontece quando carrega o se banheiro eh coloca lá os carros que vão ser entregues nas concessionárias então às vezes tem dois três jips que vão ser entregues lá tem três quatro Unos que vão ser entregues em outra certo e eles têm que ficar tirando todos os carros C para tirar aquele
carro que tá na frente que vai ficar naquela concessionária daí colocar todos os carros de novo nisso podia acontecer e risco podia acontecer amação POD acontecer um monte de coisa e o carro é inutilizado depois disso tá o que que acontece se ele chega na na concessionária com risco eles devolvem pra fábrica e o carro fica lá não é consertado fica lá e vai para leilão depois entendeu E assim às vezes é risquinho no para-choque coisa do tipo mas isso é um desperdício é uma perda que eles têm né sim qual que é a ideia
colocar os os carros na ordem que eles vão ser descarregados então na ordem inversa de de de de Rota primeiro o mais longe depois o mais perto a gente fez isso a gente criou um algoritmo que identificava dentro das notas fiscais que estavam indo para aquele cegonheiro Quais eram das da mesma concessionária qual concessionária ele ia passar primeiro pelo roteiro que que ele tinha já tinha um roteiro de entrega eh vai primeiro para essa depois para essa depois para essa e a gente fazia a carga certinha falava para para as pessoas ol e esse essas
notas fiscais primeiro essas notas fiscais depois essas notas fiscais depois entregava pro cara assim a lista do que tinha que colocar muito bom e quais foram os principais pontos de dor que a Nito identificou no mapeamento dessa demanda era essa perda de tempo primeiro tempo para entrega a perda de de informação que eles tinham de Ah por que que o carro amassou foi problema do se banheiro foi problema de motorista foi o desperdício CTO e a falta de eficiência né na na entrega isso foi Acho que o principal foi falta de eficiência pudesse dizer alguma
coisa nisso eu seria isso boa e quais tecnologias a gente usou e quais outras poderíamos ter considerado para esse caso a gente utilizou Cloud Storage do Google e tensor Flow para tá fazendo o algoritmo tá lendo isso então assim e e o o o dataflow a gente Puxava a nota fiscal jogava no Cloud Stage no Cloud storage tava T Flow T Flow Lia e entregava de volta pro pro pro Storage já a lista certinho que a gente apresentava num num num leitor os notos fcis certinhas do jeito que tinha que ser colocado dentro do seiro
e funcionou 100% de de acuracidade vai vamos dizer assim sim el não perdiam tempo em ficar olhando a a o roteiro em relação ao que eles trabalhavam ao que eles iam fazer de carga já guspia certinha a carga do jeito que tinha que ser legal não precisava ficar quebrando a cabeça ali a eficiência foi altíssima ain o tempo de carga do cegonheiro foi alto reduziu né tempo de carga reduziu o tempo de carga do cegonheiro reduziu o tempo de descarga do cegonheiro reduziu o tempo de trajeto do cara era chegar descarregar e sair aí então
assim reduziu eh reduziu as perdas com amassado risco coisa do tipo então assim eles ganharam bastante com isso na na na na questão de de custo muito em cima de custo então foi bem interessante muito bom e a gente demorou três semanas para fazer também boa rapidão também né ão também eh qual foi a experiência da da estelantes ao começar a usar a solução da Nel o pessoal de de eh eu esqueci o nome eles tinha um nome certinho lá para o pessoal é pessoal de carga de cegonheiro é o pessoal de eu esqueci o
nome não vou lembrar agora eles reduziram muito tempo para ficar preparando as cargas isso aumentou eficiência deles No Dia Em vez de fazer oito cegonheiros que era o que eles faziam mais ou menos passou a fazer 12 C e não fazia mais porque não cabia mais no pátio não faziam mais eram 12 às vezes às vezes 14 dependendo do do tipo de carga era muito rápido passava as notas já sai certinho a carga muito bom eh bom então isso já responde ali né como esses resultados impactaram os negócios da estelantes em termos de eficiência e
produtividade e Quais mudanças ou melhorias foram notados Ah não precisava ir pro escritório para fazer isso de fazia remoto ali no celular isso é uma outra coisa boa Legal tem mais alguma coisa que você queira acrescentar sobree que não esse aí é isso boa estantes é outra que é boa a gente voltar a conversar com esse bastante coisa é dá para otimizar bastante coisa ainda né ah tem muita coisa muita coisa você tem uma área de inovação muito boa lá também poxa legal hein vale a pena é boa o que que tem e para em
cima d estelantes o que que tem sofisa detecção de fralde com dat Bricks exatamente a sofisa a gente começou a a a gente identificou lá para eles eles tinha uma deficiência de identificar fraude eles identificavam as fraudes 24 horas depois que aconteceu então não tinha processamento o cara fazia na máquina delee tivesse carregando vasis ali que impediam de rodar em tempo real que que a gente fez muita a gente foi na origem do dado certo na origem do dado transacional lá de de de conta bancária puxava os dados em Streaming para dentro do databricks no
databricks a gente começou a trabalhar lá com a parte de de eh detecção de fraude do ML do do ML Flow Flow ml Flow ml do do do próprio databits a gente montou o algoritmo dentro de detecção de fraude e de 24 horas passou para 5 minutos então assim o transacional eraa 5 minutos por que o transacional demorava tanto não é que demorava tanto eles não quiseram colocar em tempo real tanto a gente poderia colocar em tempo real aconteceu a fraude pronto já já avisava certo ou até a gente pensou até com ele assim em
impedir que acontecesse por exemplo o cara nunca faz esse tipo de transação de repente ele fez esse tipo de transação bloqueia antes de terminar não faz pede um um cria um processo para autorização Mas a gente não chegou nesse nível a gente chegou só no nível de cada 5 minutos detectava a fraude apontava gerava um relatório para eles visual certo com databricks e porbi legal então o problema pior o principal problema da da sofisa era essa questão de eh detectar a fraude muito depois dela já ter acontecido né Eh a gente identificou ali então que
eles tinham esse problema de não ter eh fluxo de dados em tempo real ali e tudo mais essa foi Esses foram os não tinam capacidade computacional para fazer isso porque eles faziam isso dentro do data center datas aí a gente jogou pra nuvem para est trabalhando com azuri com databrick dentro do azu E aí é de novo Eh datalake dentro do a gente usou só a solução databricks tá não usou nada do azui só a plataforma azul mesmo para para est hospedando o databits mas tudo foi dentro da solução então o dat Lake foi dentro
do databricks a detecção de fraude foi dentro do databricks todos os pipelines de transformação de dados foi dentro do databricks e o endp foi dentro do databases só o Power bi conectava nesse endpoint para mostrando onde tava as as as fraudes boa se fosse eh quais outras tecnologias a gente poderia ter considerado para esse caso Google na verdade se fosse mesmo azul AZ vamos lá como foi databricks só azure o que que eu poderia colocar eu poderia colocar data Factory azu function eh azui para tá fazendo muito mais rápido do que o datab faz C
sinapse para tá transacionando e fazendo transformação só o sinapse já resolvia muita coisa sinapse US i já ia ser uma solução top no Google seria dataflow pubsub eh plud Storage e mais um aqui que eu não lembro agora h ó Vert fazer detecção boa eh e qual foi a experiência da sofisa ao começar a usar a solução da Nel susto primeiro que funcionou em 5 minutos certo e que a gente virou e falou para eles não querem colocar em tempo real eles falam vai funcionar em tempo fale funciona funciona em tempo real a gente até
fez Streaming para eles lá mas aí eles voltaram atrás por custo ah tá eu ia perguntar mas por que gente eles iam ver ali na hora custou custou não não não viabilizou para legal eh o processo de implementação da solução então foi né Eh foi quatro semanas a gente fez ent treinar o algoritmo criar criar o algoritmo treinar algoritmo pôr na regra de negócio puxar os dados quatro semanas pranto e reduzir o tempo deles de de busca n de atualizar essa parte de de anomalia detecção de fralde como esses resultados impactaram os negócios da sofis
em termos de eficiência e produtividade e Quais mudanças ou melhorias foram notados produtividade de 24 horas para eles avisarem o cara para avisar no mesmo dia depois de 5 minutos cara ficou feliz para caramba e o cliente da Turquesa também Sim foi bem bom isso muito bom tem algo mais que você queira falar sobre esse Case não esse esse foi foi isso a gente ainda tá num processo de implementação de coisas novas lhais mas é só pro ano que vem para 2025 boa só um pouquinho eu preciso ver alguma coisa da da [Música] só um
segundinho [Música] [Música] s e eu preciso passar um Hum só passar uma mensagem pro Arnaldo aqui um segundo tá bom Bora H Bora eh o próximo é Petrobras eh geração de nafta machine learning IOT então qual qual era o principal problema ou desafio que a Petrobras enfrentava dar uma olhada nele antes da gente falar tá vamos pular ele então vamos pular tá Light implementação de Modern bi ISO lá foi um projeto foi um projeto bem interessante porque eles não tinham informações a principal dor deles era não ter informações sobre os consumidores e sobre o consumo
eles tinham que ficar caçando em banco de dados um monte de coisa em vários bancos de dados um monte de coisas Qual foi o processo que a fez Juntou todas as origens de dados puxou todos esses dados para dentro de um datalake trabalhou com esse datalake para gerar uma base de dados um dat House pegou esse dat House apresentou no por foi esse o processo que a gente fez só que você pensa o seguinte não é um processo simples você fazer isso para acompanhar consumo de energia eh para 20 milhões de de usuários a Lite
tem 20 milhões de usuários para você separar esses esses 20 milhões de usuários eh você tinha que pegar e e ver quem é empresa quem não é quem é indústria né tá usando quem é restaurante eh vários várias classificações de empresa até chegar no consumidor que são o CPF o CPF eles tratava meio que largado entendeu mas assim tinha indústria que consumia um monte então eles tinham que que ver não não deixar faltar energia para eles e fazer uma previsibilidade de consumo certo Para quê Para saber se o transformador vai aguentar se vai ter energia
suficiente se eles não vão eh casar o apagão ou coisa do tipo então assim a gente puxava essas informações todas juntava apresentava no power bi basicamente isso então foi o quê data eh data Factory data Factory a gente foi pro dat Breaks do dat braks a gente foi pro orb legal e se fosse outras tinha skq Ah tá só como dat house se fossem outras tecnologias que a gente poderia ter considerado seria data Flow Cloud Storage Big query ler seria isso mas sim de todos certo a os principais pontos de dor que a Nito identificou
no mapeamento dessa demanda foi os dados todos desorganizados mesmo então não tinha uma ordem nos dados e não tinha dono dado você imagina governança ninguém sabia quem era o dono ou como se trabalhava com ele ou porque tava sendo feito um backup todos os dias ao meio-dia assim tinha informações que eles não sabiam porquê a gente acabou trabalhando bastante com eles no apoio à governança em criar uma matriz rá para cada banco de dados a gente tinha um responsável tinha um aprovador tinha o cara que era informado tinha toda toda a parte do rass a
gente fez com eles então assim além foi Além só de fazer um um processo de ingestão e apresentação do dado e o que que eles economizaram tempo de busca dessas informações né ele conseguia ver as informações na Cara Del de consumo e de faturamento n fo faturamento eh então isso foi eh o foram os resultados ali da Light né em termos de eficiência e produtividade e as mudanças ou melhorias que foram notadas e que eles conseguiam ali fazer a gestão de energia visualizar mais fácil e tinha um seu service para tá trabalhando criando coisas novas
aí teve recuperação de de cliente e devedor mostrava quem tava devendo quanto tempo tava devendo aí fazia proposta de acordo para melhorar para eles fazerem proposta de acordo então assim várias várias coisas assim bem bem mais fáceis para eles visualizarem boa tem Tem mais alguma coisa que você quer acrescentar sobre esse eu vou precisar parar tá eu vou ter que me preparar para outra reunião agora uma reunião com o serran e com o ministério de planejamento boa boa sorte eh a gente fez cinco hoje então