Pas encore inscrit ? Creez un Overblog!

Créer mon blog
Marius LOWE

Marius LOWE

DBA-Data Analyst-Data Engineer
Tags associés : big data

Ses blogs

GLOBAL INFORMATION SYSTEM

Mieux piloter la strategique de l'entreprise pour une meilleur prise de decision
Marius LOWE Marius LOWE
Articles : 27
Depuis : 27/12/2015
Categorie : Technologie & Science

Articles à découvrir

Chargement  des données dans l'entrepôt Hive en tant que SCD Type 1.

Chargement des données dans l'entrepôt Hive en tant que SCD Type 1.

Dans cet article, nous chargerons les données client dans l'entrepôt Hive en tant que SCD Type 1. Cette fois, nous suivrons une approche différente pour mettre en œuvre la stratégie d'insertion/mise à jour ou de fusion à l'aide de Hive QL, plutôt que de l'utilitaire de fusion SQOOP. En utilisant Sqoop, nous allons maintenant charger les don
Configuration des répertoire HDFS, l’optimisation de Sqoop Metastore, Oozie et Hive.

Configuration des répertoire HDFS, l’optimisation de Sqoop Metastore, Oozie et Hive.

Dans ce lab, nous allons démontrer un cas typique d’utilisation analytique des ventes et des stocks de voitures. Téléchargez les exemples de fichiers de données pour cet exercice. Il existe un fichier de données contenant des attributs de date afin de créer une table de dimension de DATES conforme. Indépendamment de cela, il existe 4 fichi
POURQUOI DOCKER

POURQUOI DOCKER

L’installation et la configuration de package/logiciel sont une problématique omniprésente dans la gestion du SI. Ces processus, bien qu’existants depuis la création de l’informatique, restent une activité complexe : Gestion des dépendances – l’installation de Oracle database nécessite un JDK Gestion de version – Tomcat 7 nécessi
Implementation Data Lake avec Hadoop

Implementation Data Lake avec Hadoop

Dans cet article de plusieurs séries, nous allons apprendre à mettre en œuvre un Data Lake à l’aide d’Apache Hadoop, un Framework logiciel open source basé sur Java pour un système d’information fiable, évolutive et distribuée. Apache Hadoop aborde les limites de l'informatique traditionnelle, aide les entreprises à surmonter les vé
Configuration de workflow Oozie

Configuration de workflow Oozie

Dans cet article, nous allons créer un workflow oozie pour orchestrer le chargement quotidien de la table de dimension "Showroom" et la table de fait "Sales" de la source MySQL vers HDFS à l'aide de Sqoop, suivi du chargement de données de HDFS vers un entrepôt Hive à l'aide de Hive, puis archiver. Se connecter à l’interface Web Ambari, ave
Implementation Data lake hadoop : Chargement des fichiers de données dans  HDFS.

Implementation Data lake hadoop : Chargement des fichiers de données dans HDFS.

Maintenant que notre système source OLTP fictif et notre structure de répertoires Hadoop HDFS sont prêts, nous allons d’abord charger le fichier de données «Dates» dans HDFS, puis dans une table Hive. Se connecter à la console ssh avec l'utilisateur edw_user, Placez le fichier de données du système de fichiers local dans le répertoire d
QlikView intégré à Hortonworks Data Platform (HDP).

QlikView intégré à Hortonworks Data Platform (HDP).

Dans cet article, nous allons décrire une Procédure de découverte et de visualisation des données dans HDP(schéma sales_analytics de Hive) à l'aide de QlikView. Qlik fournit une solution de Business Intelligence (BI) appelée QlikView. QlikView fournit de nombreuses fonctionnalités autres que les rapports et tableaux de bord BI classiques. L
Implémentation Hadoop DataLake "Configuration HDP"

Implémentation Hadoop DataLake "Configuration HDP"

Nous allons dans cet article accéder à la ligne de commande de la Sandbox HDP, à l'interface utilisateur Web Ambari, à Hive & Ranger pour créer un utilisateur pour notre configuration d'implémentation. Une fois que la sandbox et/ou le cluster HDP est opérationnel, utilisez n’importe quel outil client SSH préféré pour vous connecter à l
Une brève introduction sur la plateforme Oracle Analytics Cloud et Oracle Day By Day.

Une brève introduction sur la plateforme Oracle Analytics Cloud et Oracle Day By Day.

A. C réation d'une instance de serveur OAC Nous allons créer une instance OAC à partir de zéro. Nous allons ensuite nous connecter à une source de données Cloud et créer un modèle de schéma en étoile à l'aide du Cloud Data Modeler. En utilisant ce modèle, nous ferons une analyse simple et des invites connexes pour filtrer ses données.
Flume et Hive pour l’analyse de données twitter

Flume et Hive pour l’analyse de données twitter

Dans cet article de blog, nous apprendrons comment diffuser des données Twitter à l'aide de Flume. Pour télécharger des tweets depuis Twitter, nous devons d'abord configurer l'application Twitter. Cliquer sur ce lien pour plus d’infos : https://docs.inboundnow.com/guide/create-twitter-application/ Une fois que l’application a été créée,