Questions Dataflow sur Dataverse

Étiquetté : ,

  • Questions Dataflow sur Dataverse

    Posté par R3dKap sur 13 septembre 2022 à 7h46

    Quelqu’un s’y connaîtrait-il en Dataflow avec Dataverse ?

    Mes questions…

    1. Est-ce que l’on peut paramétrer un dataflow pour qu’il fasse de l’annule-et-remplace ? C’est à dire qu’il vide la table cible avant de la remplir…

    2. Si je lance un Dataflow 2x de suite, est-ce qu’il va me créer des doublons ou il fait bien de la synchro (ne crée que ce qui a besoin d’être créé, ne modifie que ce qui a besoin d’être modifié) ?

    3. Je sais que Dataflow ne gère pas les tables avec des relations N-N mais je suppose qu’il sait gérer les relations 1-N exact ? Si oui, y a-t-il quelque chose de particulier à faire ou auquel il faut faire attention pour que ça marche bien ?

    Merci 😊

    PostID=ZCTKnIyS9jBkZgF

    DavidZed a répondu Il y a 4 mois, 2 semaines 1 Membre · 5 Réponses
  • 5 Réponses
  • DavidZed

    Membre
    13 septembre 2022 à 8h44

    Hello R3dKap ,

    1: Oui, ça se passe au niveau du mappage, il faut cocher la case :

    Par contre cela rend obligatoire la création d’une clé dans ta table dataverse.

    2: toujours en se basant sur le principe que tu crées une clé pour ta table, ce qui va se passer quand ton dataflow va tourner :

    • s’il ne trouve pas la clé, il crée un record

    • s’il la trouve, il met à jour

    • Si tu as coché l’option citée plus haut et si un record de la table n’est pas dans la sortie de requête, il est supprimé de la table

      3: là encore, il faudra marquer une colonne comme key dans la table destination du lookup que tu retrouveras dans ton volet de mappage

    Ici c’est un lookup vers la table Accounts, dont la colonne COD_PRESTA a été marquée comme clé:

    CommentID=GnCCh3ST3qmolUM, PostID=ZCTKnIyS9jBkZgF

  • R3dKap

    Membre
    13 septembre 2022 à 20h44

    DavidZed merci pour ton retour…

    1. J’avais bien vu cette case à cocher mais je ne la comprends pas comme toi pour le coup : pour moi elle veut dire que les lignes de la source qui n’existent plus sur la cible seront supprimées de la cible -> alors que moi je veux totalement vider ma table cible avant qu’il n’importe les lignes de la source en tant que nouvelles lignes

    2. Ok je vais checker les clés 👍

    3. Vu. Je vais tester ça aussi…

    CommentID=MhuS0TU3YcLzRIt, PostID=ZCTKnIyS9jBkZgF

    • DavidZed

      Membre
      14 septembre 2022 à 5h48

      Si c’est un impératif de faire une purge & import, c’est faisable via un power automate qui vide la table suivi de l’action “Refresh a dataflow”

      Le soucis c’est sur de gros volumes de données, tu auras potentiellement de la donnée inaccessible entre le début du remove all et la fin du refresh du dataflow.

      Alors que via la méthode décrite en 1, une fois le dataflow terminé, chaque ligne de la table sera soit une nouvelle ligne, soit une ligne mise à jour intégralement, le reste aura été supprimé. Avec l’avantage que ta donnée est 100% disponible durant toute l’exécution pour le même résultat au final.

      SubCommentID=0D3MROnodQ80UAo, CommentID=MhuS0TU3YcLzRIt, PostID=ZCTKnIyS9jBkZgF

  • R3dKap

    Membre
    14 septembre 2022 à 7h48

    DavidZed sais-tu s’il existe un moyen de transporter un Dataflow d’un environnement à un autre ?

    Car j’ai des données de PROD que je vais saisir en DEV (pour mes tests) et que je veux ensuite transporter en REC puis en PROD.

    Du coup je comptais créer mon Dataflow sur REC pour y importer les données de DEV.

    Et ensuite comment faire pour recopier ce Dataflow de REC vers PROD pour y importer aussi les données de DEV ?

    CommentID=cu56wqw4V3l4ZX4, PostID=ZCTKnIyS9jBkZgF

    • DavidZed

      Membre
      14 septembre 2022 à 8h05

      Une fois créé, on peut rattacher un dataflow existant à une solution : Add existing > Automation > Dataflow

      Mais je t’avouerai que je n’ai pas poussé plus loin l’utilisation de la fonctionnalité, je gère généralement mes dataflows hors solution.

      Pour dupliquer rapidement un dataflow sur un autre environnement, je viens copier l’ensemble de la requête en mode advanced editor :

      Et je la colle dans une nouvelle requête vierge sur l’env de destination

      Tu peux procéder ainsi pour changer tes sources de données en fonction de la situation / de l’étape de ton dev

      SubCommentID=bV1FN6OP3YkMTm8, CommentID=cu56wqw4V3l4ZX4, PostID=ZCTKnIyS9jBkZgF

Connectez-vous pour répondre.