cette vidéo je vais te montrer comment je scrappe des données depuis un site Internet ça peut être très utile pour récupérer une adresse mail pour récupérer des adresses vers des réseaux sociaux pour récupérer la liste des tarifs d'un concurrent récupérer une description détaillée de ce que fait une entreprise il y a plein de raisons pour laquelle scrapper un site peut être intéressant pour ton business pour le business de tes clients ça fait partie des prestations que je propose aux entreprises avec qui je travaille donc je me dis que ça peut t'intéresser si toi aussi tu as envie de vendre des automatisations et si par contre tu as une entreprise et que tu veux savoir comment récupérer des informations chez tes concurrents ou sur n'importe quel site alors cette vidéo est faite pour [Musique] toi commençons par te montrer un exemple donc j'ai pris des carrosseries sur camp pour l'exemple donc l'objectif ce serait potentiellement d'aller récupérer un numéro de téléphone récupérer une adresse mail selon le type de business on peut également essayer de récupérer le LinkedIn en l'occurrence moi je me dis que pour des carrosseries et bien essayer de récupérer par exemple une page Facebook ici donc pour ça tu vois ici dans le cadre de cette vidéo j'ai listé six entreprises donc ces six carrosseries justement qui sont basées sur quamp et l'objectif ça va être d'aller récupérer une adresse mail un numéro de téléphone et une URL Facebook la colonne statue elle elle va uniquement me servir à une fois que j'ai récupéré les données on va écrire terminé et du coup on saura que on ne doit plus aller essayer de récupérer des données sur ce site c'est toujours intéressant de mettre une colonne statue si toi actuellement tu utilises pas Google sheet mais que tu as un CRM que tu as ATABLE il est bien sûr possible de faire la même chose je te rassure pour récupérer ces informations et bien on va aller sur make. com make. com si tu ne le sais pas c'est l'outil qui permet d'automatiser énormément de choses dont le scrapping donc voilà à quoi ressemblera notre automatisation je vais te mettre un lien dans la description pour que tu puisses la télécharger hein je vais la montrer ici étape par étape mais voilà à quoi elle ressemblera tu peux la télécharger pour gagner du temps tu peux la télécharger pour éviter de faire des erreurs je sais qu'il y a des formules si par exemple je vais ici tu vois il y a une formule un petit peu compliqué au moins si tu la télécharges tu pourras directement t'assurer que tu as pas fait d'erreur pour la recopier donc une fois que tu l'as téléchargé tu cliqueras ici sur les trois petits points puis importe blueprint et ici le choisir un fichier tu auras plus qu'à aller récupérer le fichier que tu viens de télécharger voilà donc sur ce moi je vais créer un nouveau scénario et ensemble on va créer ce système de scrapping donc quand tu as créé un nouveau scénario normalement tu arrives sur cette interface là en cliquant sur le plus ici on va d'abord aller récupérer nos lignes dans Google sheet donc je vais taper Google sheet il est là et ensuite je vais aller dans search rose ici j'ajoute le module ici tu vas devoir te connecter si tu ne t'es jamais connecté à Google sheet et bien normalement tu devrais avoir un bouton Créer une connexion et tu devrais en cliquant sur Créer une connexion avoir ça donc tu vas ici cliquer sur sign in with Google un popup devrait s'ouvrir tu as plus qu'à donner les différentes autorisations et normalement le pop-up se ferme et tu auras accès à la même interface que moi ensite on va venir récupérer notre spreadsheet ID donc c'est simplement le nom du spreadsheet enfin du Google sheet qu'on vient de créer donc moi j'ai dû l'appeler carrosserie il est là va choisir le nom de la feuille donc si tu as nommé tes feuilles tu devrais retrouver la tienne colonne range on va laisser juste à Z je pense que c'est pas très on a pas beaucoup de colonnes et dans filter c'est justement là qu'on va pouvoir spécifier donc là le statut le statut on va vérifier qu'il n'existe pas donc en fait ce filtre il nous permet de vérifier et de récupérer uniquement les carrosseries pour lesquelles on a déjà scrappé les informations tout simplement et la limite et ben on va pas mettre de limite pour l'instant quoi que pour cette vidéo on peut mettre une limite deux pour ne pas récupérer toutes les données ça ne sert à rien de tout récupérer mais toi tu as pas besoin de mettre de limite al ici on a un petit point rouge souvent avec Google sheet c'est simplement qu'on doit réouvrir le module et qu'on doit de nouveau cliquer sur OK et normalement l'erreur voilà disparaît très bien donc là si je fais un run one pour tester qu'est-ce qu'on va récupérer ben on va récupérer deux résultats normalement voilà dans la partie output qui signifie la sortie on a récupéré deux bundles des bundles qu'est-ce que c'est ce sont simplement des packs de données en l'occurrence ici on a récupéré le contenu de la colonne A pour nos deux bundles on n pas récupéré d'autres informations puisqueactuellement dans notre Google sheet si on va là on a effectivement que la colonne A qui est remplie dans les autres on a rien une fois qu'on a ça et ben on va lancer un module HTTP c'est ce module HTTP qui va nous permettre de récupérer le contenu des sites internet donc on va ajouter le module make request dans l'URL on va venir ajouter justement le contenu de notre colonne A dans lequel on a l'URL du site et je crois que c'est tout pour ce module très bien si je fais un test normalement le module HTTP devra être exécuté deux fois voilà il y a bien un de ça veut dire qu'il est exécuté deux fois opération une qu'est-ce qu'elle nous renvoie et bien c'est surtout la partie data qui nous intéresse la variable data elle nous renvoie tout le contenu HTML du site qu'on a récupéré petite interruption dans cette vidéo je te mets un lien calendly dans la description où tu peux réserver un appel de 15 minutes l'objectif de cet appel c'est qu'on puisse discuter de ton projet actuel soit tu as une entreprise et tu souhaites l'automatiser mais tu sais pas trop par où commencer soit tu veux lancer un business d'automatisation mais mais pareil tu sais pas trop par où commencer tu as plein de questions et cetera réserve ton appel c'est gratuit franchement ce sera un plaisir de discuter avec toi et on est reparti pour la vidéo il y a moyen que tu ne comprennes rien du tout à tout ce charabia et c'est bien normal justement l'objectif du NO code et l'objectif de mec c'est de rendre tout accessible et en plus moi je suis là pour t'expliquer donc c'est parfait dans notre Google sheet on veut récupérer une adresse mail un numéro de téléphone et une URL Facebook l'avantage de ces trois informations c'est que ce sont trois informations qui sont reconnaissables je vais m'expliquer une adresse mail qu'est-ce que c'est c'est un mot ensuite un arase un nom de domaine tout simplement et un nom domaine c'est quoi c'est un mot point et une extension doncc.
fr et cetera ça c'est très reconnaissable tu es d'accord avec moi quand on te donne un paragraphe et bien tu peux très rapidement retrouver l'adresse mail on est d'accord par pour un numéro de téléphone on sait que c'est une série de chiffres en l'occurrence nous on récupère que des sites français ça veut dire qu'on peut très rapidement tu sais selon les pays parfois le numéro de téléphone il peut être un peu différent mais pour les numéros de téléphone français c'est très facilement reconnaissable soit c'est + 33 et ensuite on a une série de chiffres souvent c'est le même nombre de chiffres en plus soit ça commence par un zéro et c'est le même nombre de chiffres aussi quand tu as l'URL de Facebook une URL comme tu le sais et bien c'est un nom de domaine il y a un slash et ensuite il y a une série de de paramètres on appelle ça et bien en fait on a juste à récupérer chaîne de caractère dans laquelle on retrouve facebook. com pour récupérer l'url de facebook donc c'est tout simple et pour récupérer ça bien sur mec on va utiliser un module qui s'appelle text parser alors textper c'est l'application mais le module qui nous intéresse c'est matchp pattern advanced et le pattern c'est justement ce que je te disais tout à l'heure par rapport à l'adresse mail c'est d'abord un mot un arobas puis un nom de domaine et bien simplement nous on va lui donner des patterns alors pour des patterns soit tu peux aller demander à chat GPT directement donc moi je vais ouvrir chat GPT pour te montrer comment je fonctionne même si j'ai déjà les formules et en fait on va lui demander donne-moi un regex alors c'est ce qu'on appelle un Redex c'est comme un c'est c'est un pattern mais il y a plusieurs plusieurs mots pour pour définir ça donne-moi un regex qui permet de récupérer une adresse mail dans un texte voilà et donc là il va nous donner ce regex là on a plus qu'à le copier on retourne sur mec et on le met dans notre pattern ici ensuite le texte et bien le texte c'est juste la variable data qui vient de notre module HTTP qu'on a mis juste avant très bien global match global match en fait si on veut récupérer plusieurs adresses mail on va cocher cette case en l'occurrence nous notre objectif c'est de récupérer une adresse mail donc on va juste laisser no et je pense qu'on est bon très bien si on fait un runw donc là en fait ça me sert à rien de récupérer deux sites je pense que je vais juste mettre limite 1 ça sert à rien de mettre deux ça ira plus vite mais l'objectif c'est que par la suite ben en fait on met aucune limite comme ça ça ira récupérer toutes les informations de tous nos sites ici on a une petite erreur parce que normalement il faut pas terminer un un scénario par un module text parer on va mettre run anyway c'est pas grave on est en période de test et voilà donc on a bien une réponse est-ce qu'on a récupéré une adresse mail effectivement tu vois fallback match ça veut dire qu'il a récupéré il a bien trouvé des résultats et il a trouvé carrosserie@c-sud.