Olá com a plataforma aberta devemos iniciar as configurações pipeline começando pelo seu nome então ao criar um novo Canvas um novo pipeline na plataforma nós devemos clicar no botão salvar e definir nome descrição e o projeto aqui o nome coloquei o nome que foi padronizado apresentado pelo slide colocamos scheduler best practices R traço nome sobrenome no meu caso best prone Dan logo depois nós configuramos o Trigger então nas configurações do Trigger Vamos acessar essa aba aqui deveremos escolher o Custom scheduler após escolher o Custom scheduler devemos definir a ch Expression para 1 hora da manhã
de todos os dias o Expression correspondente a a esse timeone justamente 00 interrogação Aster asteres enta aos 0 segundos aos 0 minutos todos os dias a 1 hora nós vamos iniciar esse esse pipeline vamos executar esse pipeline Ou seja todos os dias 1 hora da manhã o pipeline iniciará a sua execução configurando nome e Trigger do pipeline nós começamos a fazer nosso desenvolvimento para isso eu separei aqui dois eh Stick Notes pra gente dar uma olhada Ah nós temos que sincronizar dois sistemas temos aqui que buscar registros de um sistema a logo depois fazer outros
tipo de transformações Vamos focar nesse caso primeiro buscar registro de um sistema a e aqui falando sobre o sistema a já temos entp já temos credenciais de acesso à direita e Vamos iniciar essa configuração então na plataforma para buscar esse registros do sistema a nós vamos vamos buscar o componente hash V2 para fazer uma chamada mpi conectar o Trigger ao componente e aqui iniciaremos a configuração pause e tem que fazer a configuração por conta própria aqui eu vou colocar o nome do componente como consulta aos registros colocar um nome descritivo e aqui na URL temos
as credenciais de acesso que passamos no slide para poder acessar esse serviço então eu coloquei nesse Chick note Qual que é o end Point Lembrando que durante o desenvolvimento nós podemos utilizar esses valores estáticos para poder fazer os testes mas o ideal e a boa prática é que usemos globals e accounts para fazer todo esse gerenciamento na plataforma então a medida que formos testando vamos utilizar os valores estáticos mas ao final da Integração toda a integração deve ser entregue com global e account com esses valores globais dinâmicos Ah para que a gente não tenha que
fazer uma manutenção não centralizada Começando aqui então por buscar esse endp vou copiar esse valor vou colar aqui na minha URL aqui embaixo antes de qualquer outra configuração eu vou em Advance settings e vou habilitar Aow in secure end Point com inv certificates Inválidos Vou confirmar e ainda não vou colocar as credenciais de acesso eu quero ver se esse end Point está funcionando então eu venho no test mode e clico em executar aqui a gente percebe que o end Point nos retornou uma resposta temos aqui que a ap que não foi encontrada Se colocarmos ap
aqui vamos ter outro erro que é as credenciais de acesso estão inválidas isso significa o end Point que informamos está funcionando nós podemos continuar nossas configurações aqui agora eu vou colocar justamente apq e as credenciais de acesso nos accounts mas anteriormente né eu vou colocar direto nos headers para demonstração depois no futuro eu coloco de maneira eh dinâmica por meio de globos e accounts então aqui eu vou colocar uma apiq e esse valor é justamente também tá aqui no nosso Stick note vou copiar esse valor colar aqui vamos ter também dois parâmetros que são user
e password password aqui temos um do admin para user e 1 2 3 4 para password admin e 1 2 3 4 Opa e user admin password que saiu 1 2 3 4 assim nós finalizamos a configuração do meu Ash V2 com stepn URL os headers da requisição os accounts e o método é get para buscar todos os registros vou confirmar novamente e vou executar e ver se meus registros serão retornados temos um status 200 uma mensagem ok e dentro do nosso Body temos um Array chamado daa com vários registros vamos ver quantos registros São
temos aqui cerca de 30 registros aparentemente bom sendo assim o primeiro passo que foi buscar os registros e buscar os registros de um sistema a já está funcionando eu vou cortar ele mas antes de continuar para o próximo passo a gente precisa aplicar as boas práticas de desenvolvimento que já são aplicáveis nesse momento como por exemplo globus accounts que veremos mais tarde mas principalmente validar chamadas externas então aqui a gente está fazendo uma chamada externa com o rest V2 a gente precisa verificar se deu erro ou se deu sucesso caso dê algum erro nós vamos
retornar um caso um uma mensagem de erro em caso de sucesso nós vamos continuar pro passo anterior então vamos fazer essa validação por meio de um componente denominado Choice e con juntamente com a utilização de logs então aqui Choice e eu vou pegar aqui um log para poder verificar se deu sucesso ó ou se deu falha juntamente com a mensagem então a primeira condição é a condição de sucesso que eu vou colocar como mod Rise porque a gente vai colocar condição de erro que nós vamos definir se deu erro a partir de um atributo no
na nossa Jon chamado error então no caso de sucesso é quando não encontramos o caso de erro por isso que ele o aise vou apenas confirmar e agora eu vou configurar o caso de erro que veremos uma Jason pef Expression então aqui que é o caso de erro nós verificamos que é um erro quando dentro do meu Jon de entrada estiver presente um atributo denominado error dessa forma então pra demonstração desse atributo eu vou cortar esse componente vou provocar um erro e a gente vai ver esse atributo no nosso payload e a partir dele então
vou colocar aqui um número um aleatório antes do http Vou confirmar e vou fazer uma consulta resultado da consulta Ele trouxe aqui uma chave erro e é nessa chave que estamos validando para decidir qual é o cinho de sucesso qual cinho de erro caso essa chave esteja presente nós vamos continuar aqui e vamos uma mensagem de erro caso contrário the rise Nós iros caso de sucesso e faremos todo o resto do nosso fluxo normalmente então aqui eu vou retirar aquele número um do início do nosso Point ele volta ao normal agora nós podemos continuar a
configuração então configurando o log Vamos colocar de maneira descritiva também mesmo nome do log é o nome da condição então aqui o log vai ser o log de erro vou colocar o log level como erro e vou escrever uma mensagem que é erro ao consultar registros assim quando estivermos na aba de monitoramento conseguimos entender qual que foi o problema Apenas pelos logs confirmar agora eu vou configurar o log de cima Esse log vai se chamar sucesso o log level dele vai ser apenas uma informação aqui na mesma lógica do anterior sucesso ao consultar registros confirmar
e aqui a gente tem o seguinte a gente precisa configurar uma de saída caso de erro pois se ele chegou aqui nós não conseguiremos continuar no fluxo já que não tem dados para serem enviados para um sistema B nós deveremos interromper o fluxo para isso eu vou utilizar um componente chamado troll eu vou colocar umas informações nele então aqui vou buscar um componente denominado TR para interromper o fluxo do meu pipeline no caso de erro e aqui dentro do troll eu vou colocar um padrão antes disso eu preciso para colocar esse padrão eu vou criar
um Jon customizado Vou colocar aqui essa opção que é criar erro customizado e aqui dentro desse Jon esse bo aqui nós vamos escrever um Jon customizado para que ele seja padrão para todo o meu pipeline aqui temos definido um padrão que utilizaremos para todo utilizado nessa integração vamos ter o atributo mensagem informando o que aconteceu o erro procurando por uma chave error no nosso Jon caso ela não tenha nós colocaremos como erro desconhecido então para isso estamos utilizando a função defo novamente utilizando a função defo nós conseguimos verificar se existe um valor uma chave chamada
error no nosso payload caso exista ele assume o valor dessa propriedade caso ele não exista ele coloca o valor presente no segundo parâmetro da função que vai ser erro desconhecido por fim nós estamos passando o pad ou seja o Dion de entrada que chegou no trow para entender melhor o que aconteceu pod nominar o step name como erro ou consultar registros consultar registros Vou salvar e aqui a gente tem dois casos ao testar ess novamente nós caímos no caso de sucesso é porque ele não não disparou o troll então eu já sei que tá aqui
mas para confirmar nós podemos acessar mensagens atualizar e aqui temos o seguinte em consulta aos registros foi retornado esse Jon com todas as informações dos registros depois passamos pelo Choice e aqui o Choice nos resultou o log de sucesso então paramos aqui então então sabemos que fomos pro caminho de sucesso por conta da boa configuração dos nossos logs na plataforma no ambiente desenvolvimento caso eu fizesse o contrário e provocasse aquele erro novamente vou colocar um novamente na minha URL vou confirmar vou executar para gerar um erro que foi o mesmo erro que encontramos temos a
mensagem padronizada feita pelo troll a mensagem é erro ao consultar registros do sistema a ele encontrou um atributo erro no pel load então ele colocou esse valor pra gente mostrando qual que era o problema e também tem o atributo p load mostrando qual que era a mensagem que chegou eh saiu desse componente e entregou para o troll então Se nós formos para mensagem novamente atualizar temos a consulta os registros que deu erro mas ela trouxe esse Jon de saída pra gente Esse Jon de saída foi para o log percebemos que é o log de erro
e esse gão de saída do log ele entrou pro Nosso trow Erro encontrou a chave error fez aquela manipulação da mensagem e colocou toda esse diame de saída como o payload assim a gente tem uma coisa mais descritiva consegue buscar no nosso fluxo eh diretamente o para resolver o problema e etc então assim nós vamos conseguindo aqui validar a chamada externas para esse caso específico eu não vou cortar fazer o cortezinho porque vamos ter mais chamadas externos nesse fluxo Então a gente vai sempre ficar de olho Ahã Vamos agora pro próximo vídeo que falaremos sobre
fazer as transformações de cada registro e depois enviar cada Registro para o sistema b então completamos a primeira parte e nos vemos nos próximos vídeos