Renaud Harduin
R
Renaud Harduin
Ses blogs
Business Intelligence Blog
This Blog is dedicated to Business Intelligence technology, in particular on SAS9 and SQL Server 2005.
Ce blog est dédié aux technologies Décisionnelles et de Business Intelligence, et en particuliers à la SAS9 et SQL Server 2005.
Articles :
66
Depuis :
14/01/2005
Categorie :
Technologie & Science
Articles à découvrir
Dans la série des addin interessant, on a un petit nouveau http://www.codeplex.com/olappivottableextend je crois que je vais m'en servir pour mon lab du club bi. (merci de l'info à m. thiphaine / mvp lead & l. billon).
Toujour sur le périmètre de la recherche des dépendances de tables, je fait un petit point intermédiaire de manière à les restituer dans mon ihm. le plus simple est de les afficher dans un treeview. pour résumer, lorsque du clic sur le bouton "analyse" de l'ui, je force pour l'analyse sur une base sample de ms comme suit : ___ private void a
Je vais vous proposer une série de sample afin d'illuster l'utilisation de smo (sql server management object) dans le cadre d'un système de sauvegarde de données de base à base, en suivant l'arbre des dépendances (techniques ou fonctionelles) du modèle physique. j'aurais pu faire un simple package ssis à cet effet, mais dans la pratique les
Ssis api #5 : ajout des sort component et liaison aux prédécesseurs
Nous avons donc rajouté notre source vers la table factinternetsales, ainsi qu'un multicast après celle-ci. la boite multicast a pour objet de dupliquer les flux. dans un premier temps nous allons lui attacher un tri afin de faire une jointure avec les produits liés. et passer de : au dataflow suivant : ajout de la source de données produit. la
Sur la base de la proposition, l'ajout de récursivité va permettre d'analyser dynamiquement l'arbre : ____ private list < tablepath > lookforchilds( tablepath root , tablepath parent) { list < tablepath > ltp = new list < tablepath >(); datatable dt = _database.tables[parent.tablename,parent.schema].enumforeignkeys(); foreach ( datarow dr in dt.r
Dans la suite des essais sur smo, mon idée est de générer dynamiquement un package qui exporte les données en analysant les dépendances (fichier plat/ole db etc..). sur la base de quelques conseils avisés, je me suis orienté vers un sample microsoft qui détaille comment créer dynamiquement un package ssis d'export. sur codeplex : http://sq
Dans notre processus, nous souhaitons exporter des faits, ainsi que les données de références qui y sont rattachées. cela suppose donc de gérer deux flux : un qui pilotera l'export des produits un qui sera le « dump » des faits dans cette optique, un multicast nous permettra de rattacher 2 flux à notre source. sa définition est assez trivi
Commençons par les basiques. la première étape consiste tout simplement à créer un objet package et à lui ajouter : - un data flow (objet pipeline) - un connection manager qui contiendra la définition de notre base et à le sauvegarder. je crée donc une classe export : using system; using system.collections.generic; using system.linq; using
Dans le précédent article, j'ai créé mon package et lui ajoutais un data flow (mainpipe). nous allons maintenant aborder l'aspect accès aux données dans ce billet. au sein de l'etl microsoft, nous définissons des connectionmanager dont l'objet est centraliser, de manière générique, les définitions et l'accès aux sources de données (et
Smo sample # 2 : balade dans les api / récupérer pour une table, les tables dépendantes
Toujours dans la série smo, je souhaite maintenant créer un arbre objet qui me donnera pour une table, sa clef (primaire ou composée), les tables qui dépendent de cette pk directement . j'ai donc rajouté à mon objet tablepath une méthode analysedatabaseby : 132 public tablepath analysedatabaseby(string tablename,string schema) 133 { 134 /* s
English
Deutsch
español
italiano