Archive

Posts Tagged ‘Business Intelligence’

Homsys devient Viseo

April 22nd, 2014 No comments

Près de 4 ans après avoir rejoint le groupe Viseo, les équipes Homsys ont le plaisir de vous annoncer leur changement de nom :

MARQUE UNIQUE DU GROUPE

Cet alignement nous permet de gagner en visibilité sur notre marché et de mieux promouvoir notre expertise en Business Intelligence avec plus 200 consultants dédiés au décisionnel.

Avec 1 100 collaborateurs répartis sur 4 continents et un chiffre d’affaires supérieur à 100 millions d’euros, VISEO accompagne ses clients dans la mise en œuvre de projets complexes. Son positionnement unique lui permet d’apporter une réponse globale à tous les enjeux numériques qui impactent les systèmes d’information, les métiers ou les organisations.
Pour plus d’information, rendez-vous sur www.viseo.com

Homsys et Informatica, leader mondial des plateformes d’intégration de données

December 21st, 2012 No comments

Interviewé à l’occasion de l’Informatica Day le 4 octobre 2012, Yves Cointrelle présente le partenariat avec Informatica et sa représentation en France sur l’ensemble de l’offre Informatica (y compris des offres méconnues telles que Data Replication). Voir la vidéo : http://www.youtube.com/watch?v=rJJqC3w5K1s

Homsys est partenaire d’Informatica depuis plus de 10 ans. La relation est née au sein du département décisionnel d’Air France peu de temps après l’implantation de l’éditeur sur le marché français.

« Notre devoir de conseil est d’orienter nos clients vers les technologies les plus fiables et les plus robustes. Au-delà de l’alimentation de systèmes décisionnels, la valeur ajoutée de PowerCenter est aussi mesurable dans les projets de migration et de consolidation de systèmes, ou encore d’urbanisation de systèmes d’information. » Yves Cointrelle, Directeur général d’Homsys.

Informatica ILM Test Data Management

November 9th, 2012 No comments

Dans cet article, nous étudierons la solution ILM d’ Informatica – Informatica Test Data Management.

Nous décrirons un process d’utilisation sur un exemple concret.

Nous donnerons à notre sens les points forts et les points faibles du produit.

ILM est un acronyme anglais faisant référence à la gestion du cycle de vie de l’information.

L’ILM se définit comme une réflexion globale sur la gestion rationnelle du patrimoine d’information de l’entreprise en fonction de la valeur de l’information et du coût de son stockage.

Une démarche d’ILM permet d’appliquer des règles de stockage différentes selon la valeur de la donnée à sauvegarder, afin d’adapter au mieux les critères suivants :

  • utilité de la donnée
  • exigences de sécurité : intégrité, confidentialité et disponibilité des données
  • exigences réglementaires sur les données
  • temps d’accès aux données
  • coût de stockage

Dans les années 2004-2005, le marché de l’ILM semble porteur…

L’ILM concerne surtout les grandes entreprises. Toute société engagée dans des processus de certification se voit contrainte de faire appel à l’ILM pour répondre aux obligations de traçabilité et d’archivage légal.

Les fonctionnalités des produits spécialisées ILM sont exclusivement orientées vers des solutions de stockage. Une poignée d’acteurs significatifs se partage le marché avec des solutions complètes de bout en bout (EMC, HP, IBM, Sun, Network Appliance).

Mais, il reste que le marché de l’ILM ne peut se suffire aux seuls projets d’archivage en raison peut être du coût de moins en moins onéreux des périphériques de stockage.

Février 2009 : un nouvel arrivant sur le marché de l’ILM pour une nouvelle vision ?

En Février 2009, Informatica acquiert l’éditeur Applimation (Informia) pour 40 millions de dollars.

La suite ILM d’ Informatica s’affirme en s’étoffant d’une palette d’outils hétéroclites et de nouvelles fonctionnalités.

Aux modules d’archivage Data Archive et Data Validation Option déjà présents dans sa suite ILM viennent s’ajouter une suite de logiciels hétéroclites, qui regroupés ensemble, offre une plate-forme complète d’outils dédiés à la Gestion du cycle de vie de la donnée.

architecture tdm

               source : ILM TDM Student Guide

Avant le rachat d’Applimation (Informia), Data Masking Option (DMO) et Data Validation Option pouvaient être vendus séparément et intégrés dans l’ETL PowerCenter par l’acquisition d’une licence supplémentaire.

Aujourd’hui, leurs acquisitions individuelles ne sont plus permises. Le client doit acheter le pack Informatica ILM Test Data Management (TDM).

Les produits de la suite Applimation (Informia) ont été intégrés dans la suite ILM d’Informatica dans Informatica ILM Test Data Management (voir tableau ci-dessus).

Aujourd’hui Informatica ILM TDM fait partie intégrante de la solution complète d’ILM d’ Informatica.

 

Les composants logiciels d’Informatica ILM Test Data Management (TDM)

Informatica ILM – Test Data Management  est un sous – ensemble de la suite d’Informatica ILM.

Informatica ILM Test Data Management (TDM) est composé de 3 briques logicielles :

  1. Data Subset pour extraire et fournir des échantillons de données à partir d’un modèle relationnel en respectant l’intégrité référentielle
  2. Data Masking : pour masquer des données sensibles  et confidentielles d’un échantillon de données pour les fournir à un tiers
  3. Data Discovery pour explorer et découvrir les champs de tables éligibles au statut de clé primaire, ou de clé étrangère d’un modèle relationnel qui en est dépourvu.

 

Comment cela marche ?

Les services d’ILM Test Data Management sont pilotés par ILM server : c’est le service applicatif qui gère les interactions entre le client ILM TDM (ILM Workbench)  et les services applicatifs de PowerCenter et de Data Explorer

  • Les services Data Explorer vont gérer les opérations de découverte et de profilage des données (Data Discovery)
  • Les services de PowerCenter vont gérer les opérations d’extraction des échantillons de données (Data Subset) et leur masquage (Data Masking)

architecture_tdm_2

Source : User Guide ILM TDM 9.3

 

Comment utiliser Informatica ILM Test Data Management ?

Prenons comme exemple fictif, le cas de l’entreprise WEAVETECO.

Cette société veut mettre en application une politique de sécurité très performante pour masquer les données sensibles lorsqu’elle diffuse des données pour ses environnements de développement et de qualification.

Elle va utiliser les services de la plate – forme d’ILM Test Data Management.

Le projet de la société WEAVETECO (distributeur de contenus vidéo payants) va s’effectuer en 4 étapes distinctes :

  • Data Import Process
  • Data Discovery Process
  • Data Subset Process
  • Data Masking Process

 

Le Data Import Process

La première étape consiste à identifier les données que l’on veut importer.

La société WEAVETECO souhaite extraire de son Datawarehouse l’ensemble des informations concernant les clients et les factures clients.

Un nouveau projet CRM est en cours et elle doit fournir aux équipes de développement et de test, un échantillon de données cohérent et fiable.

Les données nécessaires pour construire cette base CRM s’appuie sur deux Datawarehouse. Ces deux modèles de données sont alimentés par des traitements Informatica PowerCenter. Leurs métadonnées sont donc disponibles à partir du Repository PowerCenter.

Le rapatriement des métadonnées dans Informatica ILM Test Data Management va pouvoir être opéré avec le client ILM Workbench.

  • A partir du client ILM TDM – (ILM Workbench), les métadonnées du Repository PowerCenter relatives aux modèles de données du DataWarehouse Client et du Datawarehouse Factures clients sont importées dans le Repository ILM
  • Le service ILM Server transfert les métadonnées du Repository de PowerCenter dans le Repository ILM.

 Le Data Discovery Process

La seconde étape consiste à identifier les clés primaires ou étrangères potentiels des deux Datawarehouse.

Problème : les deux équipes de développement travaillent sur deux modèles de données différents mais complémentaires. Chaque SSII maitrise parfaitement son modèle de données mais il ne connait pas très bien le modèle de données de l’autre SSII.

  • la SSII A travaille sur le Datawarehouse Clients
  • la SSII B travaille sur le Datawarehouse Comptabilité

Le chef de projet CRM souhaite :

  • identifier les interactions entre les deux Datawarehouse
  • identifier les données confidentielles dites sensibles

La découverte des clés primaires et des clés étrangères va pouvoir être opéré avec l’outil Data Discovery.

  • A partir du client ILM TDM – (ILM Workbench), il est nécessaire de se connecter aux deux Datawarehouse pour récupérer les métadonnées.
  • L’outil détectera les clés primaires ou les clés étrangères potentielles entre les différentes tables.
  • Par exemple : identifier que la clé primaire de la table client du Datawarehouse Client est identique à la clé primaire de la table factures clients du Datawarehouse Comptabilité.
  • Il appartient ensuite au chef de projet CRM de suivre ou non les recommandations de l’outil Data Discoverypour appliquer ou non les clés primaires ou étrangères sur  les tables des deux Datawarehouse.
  • Le service ILM Server a envoyé une requête au Data Integration Service pour extraire le profil des données de chaque table. Le Data Integration Service a ensuite chargé le profilage de chaque table dans le Repository du Profiling Warehouse.

Le Data Subset Process

La troisième étape consiste à créer un échantillon de données regroupant les données des deux Datawarehouse Clients et Comptabilité. Cette dernière étape s’effectue en trois phases.

i.        Le chef de projet CRM doit  identifier les tables des deux Datawarehouse qu’il va devoir sélectionner pour son propre modèle de données CRM.

Exemple : sur la centaine de tables de fait et de dimensions qu’il a pu identifier sur les deux modèles de données avec Data Discovery. Seuls 15 tables de dimensions et trois tables de fait sont nécessaires pour créer son modèle de données CRM.

ii.        Le chef de projet CRM doit appliquer des contraintes d’intégrité sur les colonnes des tables qu’il a pu détecter dans le Data Discovery Process. Il doit ensuite sélectionner un échantillon de données en créant un subset basé sur un critère de sélection.

Exemple : sélectionner les tables des deux modèles  qui constitueront son modèle relationnel CRM final et appliquer un critère de sélection sur la région des clients

iii.        Le chef de projet CRM doit générer un traitement PowerCenter qui va alimenter son modèle relationnel CRM.

La génération des échantillons de données va pouvoir être opéré avec l’outil Data Subset.

     i.        A partir du client ILM TDM – (ILM Workbench), il faut créer une application Test Data Management et y incorporer le modèle de données relationnel CRM dans des entities et des groups.

  • Une entities définit un ensemble de tables reliées entre elles par des liens physiques ou des contraintes logiques (clés primaires et étrangères)
  • Un group est un ensemble de tables n’ayant aucun lien physique entre elles ou pour lequel il n’y aucune règle de Data Masking.

ii.        Data Subset va appliquer un critère de sélection pour extraire un échantillon de données (subset).

iii.        Le chef de projet CRM va implémenter son application Test Data Management en créant un plan à partir duquel il va générer un workflow PowerCenter pour alimenter son modèle cible CRM.

  • L’ILM Server stocke les objets créés avec le Workbench (applications, entities, groups, rules, policies, plans) dans le Repository ILM.
  • Lors de la génération du workflow à partir du plan, le Powercenter  Repository Service se charge de stocker  le workflow et ses composants dans le Repository PowerCenter.
  • Enfin c’est le Powercenter Integration Service qui exécute le workflow pour charger les données dans la base cible.

Le Data Masking Process

La troisième étape consiste à masquer les  informations de l’échantillon de données extrait des deux Datawarehouse.

Certaines informations de l’échantillon de données sont très sensibles. La direction de WEAVETECO souhaite que les données qui seront transmises aux équipes de développement et de qualification soient masquées  afin de conserver une totale confidentialité.

Dans la partie Discovery Process, le chef de projet CRM a appliqué les clés primaires et les clés étrangères sur son modèle de données CRM.

Une autre tâche lui incombe. Il doit anonymiser les données confidentielles. Il note que certaines données sont très sensibles (Ex : n° de client, nom, prénom, n° de carte bleu, n° de téléphone, email de contact, date de naissance, montant des factures, genre du film).

Les difficultés auxquelles il doit faire face sont les suivantes :

  • conserver une intégrité entre les données : son modèle CRM doit respecter une intégrité référentielle et les données doivent garder une homogénéité globale entre elles.
  • propager la clé primaire dans le modèle : la clé primaire de certaines tables se base sur le N° de client et cette donnée est présente dans plusieurs tables du modèle CRM final sous forme de clé étrangère
  • gérer le masquage des champs composés : certains champs dont le N° de client résulte d’une concaténation de plusieurs champs qui sont eux-mêmes anonymisés en amont.

Exemple : le N° de client est la concaténation de la première lettre du prénom, du nom patronymique, des 5 derniers chiffres du téléphone et de la typologie du sexe

Ci-joint un exemple final de masquage de données.

COLONNES Données réelles Données masquées
N° DE CLIENT NTARKOPY524691 CDOVIETRI513892
PRENOM NORBERT CARMEN
NOM TARKOPY DOVIETRI
SEXE1 pour Homme2 pour Femme 1 2
TELEPHONE 01 43 25 24 69 07 34 45 13 89
VILLE PARIS (75) HAUTS DE SEINE (92)
DATE DE NAISSANCE 28 – 01 – 1955 12 – 03 – 1982
N° de C.B. 0123 4567 8901 8765 0145 4578 3201 4545
EMAIL NORBERT.TARKOPY@MAFRANCE.COM CARMEN.DOVIETRI@MAGUITARE.FR
FACTURE 234 EUROS 6 EUROS
NOM DU FILM LES PLAISIRS D’EMMANUELLE LA CONQUETE
GENRE DU FILM EROTIQUE DRAMATIQUE

Le masquage des données va pouvoir être opéré avec l’outil Data Masking.

  • Le client ILM TDM – (ILM Workbench) permet de sélectionner les champs candidats au masquage et de les déclarer comme sensibles (sensitive).
  • Après avoir sélectionné les données dites sensibles, il faut leur appliquer des règles de masquage de données (rules, policies)
  • L’ILM Server stocke les objets créés avec le Workbench (rules, policies) dans le Repository ILM. Lors de la génération du workflow à partir du plan, le Powercenter  Repository Service se charge de stocker  les règles de masquage dans le Repository PowerCenter.

 

Quels sont les points forts et les points faibles d’Informatica ILM Test Data Management ?

Points négatifs :

  • IHM du client ILM Workbench difficile à appréhender en raison des menus   contextuels nombreux
  • Mise à jour et suppression de TDM vers PowerCenter : en cas de nouvelle génération de workflow par ILM, il est fortement conseillé de supprimer l’ensemble des métadonnées PowerCenter déjà présente. ILM TDM n’effectue pas de suppression au préalable. Le processus peut s’avérer fastidieux dans un mode développement évolutif.
  • complexité du modèle de métadonnées de l’ILM Repository

Points positifs :

  • intégration des produits ILM dans PowerCenter
  • communication entre les Repository ILM, PowerCenter et Data Explorer
  • recherche et exploration facile dans les métadonnées ILM
  • richesse des algorithmes de masquage
  • réutilisation facile des règles de masquage au sein de l’entreprise
  • masquage des données par pattern
  • génération des rapports sur les données sensibles
  • génération rapide des traitements PowerCenter à partir d’un plan ILM TDM

Conclusion :

Avec l’arrivée d’Informatica, les produits ILM semblent avoir trouvé un nouveau vecteur de croissance. Le marché de l’ILM ne semble plus cantonné au seul problématique d’archivage ou de stockage.

La contribution judicieuse d’Informatica est d’avoir à mon sens intégrer de nouvelles fonctionnalités à l’ILM comme l’anonymisation des données (Data Masking), l’exploration des données (Data Discover)  ou l’échantillonnage des données (Data Subset).

L’association de ces trois produits hétéroclites dans une suite logicielle compacte a redonné un nouveau souffle à l’ILM en trouvant une véritable synergie.

Articles sources de l’article :

Définition ILM :

Applimation Informia – Enterprise Application Data Management :

Fonctionnalités d’ILM TDM :

Prospectives sur le marché de l’ILM :

Génération de fichiers multiples à partir d’un mapping PowerCenter

February 10th, 2012 No comments

Objectif : générer, au travers d’un mapping PowerCenter, plusieurs fichiers de sortie qui ont pour nom la valeur contenue dans un fichier en entrée.

Exemple :

image

Construction du mapping : le mapping doit contenir au minimum les objets suivants :

  • Un objet « Source » : permet la définition des données en entrée.
  • Un objet « Expression Definition » : permet la définition de variables nécessaire au split des données en entrée.
  • Un objet « Transaction Control Transformation » : permet la génération des différents fichiers de sortie.
  • Un objet « Target » : permet la définition des fichiers de sortie.

clip_image002[4]

Définition des objets :

  • L’objet « Source » : dans cet exemple, il est supposé que le nom des différents fichiers de sortie est situé en début de ligne (colonne NOM_FIC).

clip_image004[4]

Il est également supposé que cette colonne est séparée du reste de la ligne par un caractère présent une seule fois par enregistrement.

image

  • L’objet « Expression Definition » : Dans l’exemple suivant, l’objet contient :

En entrée :

    • NOM_FIC : contient le nom des fichiers de sortie tel que donné par le fichier source
    • RESTE_LIGNE : contient le reste de l’enregistrement
      En intermédiaire :

    • Curr_Name : permet de stocker le nom de fichier de l’enregistrement précédent.
  • En sortie :

    • NOM_FIC_OUT : contient le nom complet des fichiers de sortie (répertoire + nom du fichier)
    • RESTE_OUT : contient le reste de l’enregistrement avec suppression des espaces en fin d’enregistrement.
    • Prev1_Out : contient le calcul de la variable Curr_Name
    • Prev2_Out : contient le nom du fichier de sortie tel que donné en entrée

clip_image002[6]

  • L’objet « Transaction Control Transformation » :

C’est dans cet objet que se réalise la génération des multiples fichiers de sortie. Dans l’onglet « Properties », il faut renseigner l’attribut « Transaction Control Condition ». Dans le cas où le nom de fichier courant est différent du nom de fichier de l’enregistrement précédent, il faut signifier la rupture avec la commande TC_COMMIT_BEFORE. Dans le cas contraire, il faut utiliser la commande TC_CONTINUE_TRANSACTION pour stocker les enregistrements jsqu’à la prochaine rupture.

N.B. : pour optimiser les performances et minimiser la log, il faut avoir en entrée un fichier trié sur le nom de fichier.

clip_image004[6]

  • L’objet « Target » :

Afin de signifier que le nom des fichiers de sortie est passé en paramètre, il faut cliquer sur le bouton « Add Filename column to the folder ». Il faudra renseigner le nouveau champ « FileName » avec la variable en sortie du « Transaction Control Transformation » qui contient le nom des fichiers.

image

Aucune particularité n’est nécessaire en ce qui concerne la configuration de le Session.

Formation en soirée « SSAS avancé », le 19 octobre à Paris

September 20th, 2011 No comments


Venez rencontrer les équipes Homsys à l’occasion de cette Formation !
Au programme : échanges avec nos experts, ateliers et bonnes pratiques.

Homsys vous propose de participer à ses Formations en Soirée avec une session à Paris « SQL Server Analysis Services (SSAS) avancé », le mercredi 19 octobre à partir de 18h30.

Cette formation vous donnera un aperçu des fonctionnalités avancées d’un cube Analysis Services. Vous y apprendrez notamment :

  • Les relations évoluées (référencé, many to many)
  • Le paramétrage des agrégations et des partitions
  • La création d’indicateurs MDX
  • La création d’actions (notamment drillthrough)
  • La gestion des traductions
  • L’implémentation des perspectives
  • A savoir déployer et sécuriser les données dans Analysis Services

Pré-requis : vous disposez déjà d’une première expérience BI et connaissez les bases de SSAS (création de la Data source View, création d’une dimension, création d’un cube simple).

Rendez-vous dans nos locaux, au 38 rue de Ponthieu – 75008 Paris.

Pour en savoir plus : site Homsys

Pour vous inscrire* :
– Mail : klalandre[at]homsys.com
– En ligne : sur le site Homsys

*Participation gratuite après confirmation par Homsys.

La Business Intelligence de demain aura la smart attitude

July 25th, 2011 No comments

Mieux piloter pour mieux décider. Les outils décisionnels ont le vent en poupe à chaque strate de l’entreprise. Mais à l’heure où rapidité, flexibilité et contraintes budgétaires priment, les exigences s’affirment : il faut savoir faire plus avec moins et mieux, et désormais en toute sécurité.

Temps réel, appliances mixtes et in-memory, gestion de référentiels, modules et fonctionnalités orientées utilisateur final, mobilité et nomadicité, traçabilité et sécurisation des processus… Revue des tendances pour optimiser le monde de la Business Intelligence.

Le temps réel appliqué à la Business Intelligence

Autrefois mensuelle et hebdomadaire, la fréquence de rafraîchissement des systèmes décisionnels est désormais quotidienne. Dans le même temps, les outils de reporting démontrent leur capacité à se substituer aux dispositifs traditionnels pour générer des rapports sur les applications.

Répliquer, synchroniser les données pour effectuer analyse et reporting en temps réel provoque l’avènement d’outils et de solutions mixtes. Leur mission : autoriser une utilisation hybride des outils décisionnels, pour capter et accéder à la fois aux bases de données de pilotage ainsi qu’aux données opérationnelles et de production.

D’une logique pull, on passe à une logique push : la captation des données sur l’application source peut se faire en temps réel, puis être répliquée sur un système cible, lequel devient à la fois un outil de reporting et la source de construction d’agrégats orientés décisionnel. A cette fin, les technologies non intrusives impactant faiblement les performances systèmes peuvent s’allier aux appliances Business Intelligence (couple logiciel et matériel destiné à fournir de hautes performances en stockage et en rapidité de restitution des données) pour assurer une gestion de bout en bout des services.

La gestion de référentiels pour apporter cohérence et qualité aux données

La gestion des données est capitale et déjà l’une des fonctions primordiales des Directions Informatique au sein des entreprises : garantir la qualité des données circulant au sein du système d’information, et plus particulièrement du système décisionnel, est vital.

Avec l’arrivée de modules de gestion des données référentielles et de gestion de qualité de données (data quality), la mise au point d’une codification unique permet de réconcilier et de consolider l’information. Le but : disposer d’un outil pour gérer des références croisées et de solutions de normalisation des données. Associées à la gestion de la qualité des données, ces solutions appelées Master Data Management permettent de mettre en œuvre un cercle vertueux d’amélioration constante des données de référence depuis le back-office jusqu’à son exploitation décisionnelle.

Des outils mash-up au service de l’utilisateur

Avec les agrégateurs et les simplificateurs de vie digitale, le particulier a déjà l’habitude de construire son propre tableau de bord. Texte, pilotage décisionnel, tableaux de bord, applicatifs… Les outils frontaux de Business Intelligence doivent s’intégrer à une interface Web pour donner accès à des modules d’analyse, de reporting et de dashboarding.

Avec ces nouveaux objets intelligents, chacun pourra construire et personnaliser sa solution selon sa consommation et sa propre logique business. Mieux : via des mécanismes de recherche de proximité, les objets intelligents composant l’interface seront capables d’interagir entre eux et les systèmes comprendront intuitivement l’utilisation des modules pour proposer un espace de travail s’adaptant à la récurrence des besoins.

La révolution dans la consommation de l’information

Le monde de la Business Intelligence implique peu de saisie : il s’agit surtout de visualiser analyses, reporting et tableaux de bords. L’écran des smartphones est trop restreint pour consommer des quantités d’informations conséquentes ; avec les tablettes numériques, la révolution est en marche.

Emergence de solutions « mash-up », accès à l’information en temps réel, nomadicité grandissante des utilisateurs… En tirant partie des fonctionnalités de mobilité et des capacités propres des nouveaux terminaux, la consommation de l’information de Business Intelligence et l’accès à un environnement de travail personnalisé seront bientôt possibles en tout lieu et à tout moment. Le concept d’Information Anywhere tant annoncé est à portée de main

L’émergence de services de convoi de données, conséquence de la révolution de la Business Intelligence

Cloud computing, solutions SaaS, travail collaboratif 2.0… Avec l’éclatement des systèmes d’hébergement, on assiste à un éparpillement des données et à une dispersion d’informations sensibles sans précédent. Pour que la Business Intelligence connaisse la révolution qu’elle mérite et que les tendances d’aujourd’hui deviennent la réalité de demain, il est nécessaire d’assurer la traçabilité et la sécurisation des données.

L’idée : la mise au point d’un service de convoyage de données de bout en bout pour assurer le bon acheminement et la traçabilité des données depuis le système source jusqu’au système cible, ainsi que la sécurisation de l’ensemble des processus. La dernière étape pour garantir à la Business Intelligence d’avoir la « smart attitude », à l’image d’outils d’aide à la décision et de création de reporting toujours plus intelligents.

Retour sur PowerCenter 8.6

July 19th, 2011 No comments

Le 23 mars 2011, Informatica annonce la disponibilité de la version Informatica 9.1

Les versions PowerCenter 8.1.x, 8.5.x, 8.6.x ne seront plus supportées après le 31 Décembre 2011, mais il sera toujours possible de souscrire à un pack d’extension de maintenance.

Quel bilan peut – on tirer de PowerCenter 8.6 ?

PowerCenter 8.6. est devenu une plate-forme unificatrice qui rend interopérable ses acquisitions technologiques sous formes de briques logicielles :

Real Time Edition (Striva) : accès aux données en temps réel et sur Mainframe
Data Quality (Similarity Systems) : redressement de données et profiling
Identity Resolution (Identity Systems) : recherche et rapprochement  de données d’identité
B2B Data Exchange (Itemfield) : traitement des données non structurées (Ex : PDF, HL7)
– partenariat et accord O.E.M. avec Intalio : gestion des processus métiers (B.P.M)

Ces briques logicielles ont été interfacées avec PowerCenter 8.6.

Informatica 9 relève le défi d’intégrer l’ensemble de ces nouvelles technologies dans un produit unique.

Il existe dorénavant une console unique d’ administration pour Data quality, PowerCenter, Power Exchange et une interface de développement commune pour pouvoir supporter les transformations de PowerCenter et de Data Quality.

Formation en soirée « Introduction à SSAS » le 28 juin à Paris

June 21st, 2011 No comments

Venez rencontrer les équipes Homsys à l’occasion de cette Formation ! au programme : échanges avec nos experts, ateliers et bonnes pratiques.

Homsys vous propose de participer à ses Formations en Soirée avec une première session à Paris « Introduction à SQL Server Analysis Services (SSAS) », le mardi 28 juin à partir de 18h30.

    Cette formation a pour objectif de vous donner les bases afin de bien démarrer un projet Analysis Services. Vous y apprendrez :

  • A comprendre l’utilisation de SQL Server Analysis Services pour vos futurs projets d’analyse décisionnelle avec notamment ses forces mais aussi ses faiblesses
  • A maîtriser la création de cubes multidimensionnels avec BIDS
  • A être en mesure de modéliser et de réaliser des dimensions et des mesures dans une solution Analysis Services
  • A savoir déployer et sécuriser les données dans Analysis Services
  • A utiliser Analysis Services au travers de la puissance de navigation offerte par Excel 2010

Pré-requis : vous disposez déjà d’une première expérience BI

Rendez-vous dans nos locaux, au 38 rue de Ponthieu – 75008 Paris.

Pour en savoir plus : site Homsys

Pour vous inscrire* :
– Mail : klalandre[at]homsys.com
– En ligne : sur le site Homsys

*Participation gratuite après confirmation par Homsys.

Construire un tableau de bord rapidement avec BusinessObjects Dashboards 4.0

June 8th, 2011 No comments

La nouvelle version de Xcelsius, intitulée SAP BusinessObjects Dashboards, permet de créer rapidement des tableaux de bord alimentés par des univers ou des requêtes BW. Dans cette vidéo, Laurent ALLAIS, expert en solutions décisionnelles, montre la démarche de création d’un tableau de bord, de la mise en forme des éléments du tableau, l’alimentation jusqu’au partage dans le portail web.

Pour visualiser la vidéo, cliquez ici.

Intégration SAP BusinessObjects Business Intelligence 4.0 et SAP BW

May 30th, 2011 No comments

La nouvelle version de SAP BusinessObjects permet d’accéder facilement aux données stockées dans SAP NetWeaver BW. Dans cette vidéo, Laurent ALLAIS, expert en solutions décisionnelles, vous fait découvrir les nouvelles fonctionnalités, le positionnement de l’outil ainsi qu’une démonstration sur l’intégration entre les outils de reporting de BusinessObjects et les requêtes BW.

Pour visualiser la vidéo, cliquez ici.