Archive

Posts Tagged ‘Microsoft’

Quoi de neuf en BI avec SQL-Server 2014 ?

August 26th, 2013 No comments

Comme le temps passe !
Déjà une nouvelle version pour la plate-forme BI de Microsoft…
Mais que réserve donc la nouvelle mouture 2014 de SQL-Server ?
Et bien finalement pas grand chose. Et c’est tant mieux ! Parce qu’avec la sortie de SQL-Server 2012 l’an dernier et d’Office 2013 cette année, cela nous laissera un peu le temps de respirer.

Comme vous l’avez déjà probablement entendu, Microsoft a annoncé la version 2014 de sa suite BI au TechEd. Mais il a prévenu qu’il n’y aurait aucun changement majeur sur les 3 “pilliers” de sa suite BI (SSIS, SSAS & SSRS) ni même sur PowerPivot, à part quelques corrections de bugs.

Ceci dit, cela n’empêchera pas quelques améliorations notables et autres compléments qui pourraient s’avérer utiles dans vos projets BI.

Les évolutions successives de SQL-Server

Amélioration du “In-Memory”

Cela ne sera une surprise pour personne que la firme de Redmond continue d’investir massivement sur le stockage “en mémoire” tant c’est la tendance ces derniers temps. Voici les deux derniers volets de cette stratégie venant avec SQL-Server 2014 :

  • Nouveau stockage “in-memory” [/Nom de code Hekaton]: Cette nouvelle option de stockage en mémoire permettra d’héberger des tables SQL-Server directement “en mémoire” pour améliorer les performances de restitution. Même si c’est essentiellement pour un usage OLTP, cela pourrait être utile pour des cas précis de BI, comme par exemple pour améliorer les temps de chargement ETL en utilisant des tables de staging “in memory”.
  • Amélioration des indexes “ColumnStore”: C’était la grosse nouveauté de la précédentes mouture de SQL-server en terme d’indexation. On pourra désormais mettre un jour ces indexes, et donc on n’aura plus à supprimer puis recréer les indexes “ColumnStore” en cas d’ajout de données. (Pour un exemple d’utilisation de ces indexes pour améliorer les ETL jetez un œil à ce blog).

“Big data”

Il y a de nombreux échanges sur le sujet “big data”, notamment sur les deux technologies suivantes:

  • HDInsight: Il s’agit du terme marketing de Microsoft pour désigner son offre de type Hadoop pour des serveurs Windows. C’est à dire un framework destiné à faciliter la création d’applications distribuées et “scalables” et permettant aux applications de travailler avec des milliers de nœuds et de très gros volumes de données. En gros tout est distribué, du stockage aux traitements. (Un exemple d’usage sur ce post avec des traitements MapReduce complexes).
  • Polybase: La dernière version de Microsoft Parallel Data Warehouse (PDW) a été enrichie pour permettre de “requêter” des données basées sur du Hadoop, via une  nouvelle technologie appelée Polybase. (Une technologie que David Dewitt de chez Microsoft a décrit en détails lors de la SQL Pass 2012.)

Pour terminer, on annonce la première CTP1 publique dans quelques semaines.

Source :

Elaboration Budgétaire et Reporting financier : les clés pour réussir rapidement votre projet d’élaboration budgétaire !

November 29th, 2012 No comments

Séminaire co-organisé par Cegid, Homsys et Microsoft le jeudi 6 décembre à Paris.

Inscrivez-vous sans tarder… et découvrez comment simplifier et automatiser vos processus de pilotage.

  • Consolidez rapidement vos élaborations budgétaires
  • Structurez des processus simples, évolutifs et administrables
  • Partagez les indicateurs et les alertes, prenez les bonnes décisions

Avec le retour d’expérience de la Mutuelle d’Épargne, de Retraite et de Prévoyance CARAC.

Pour en savoir plus et participer gratuitement au séminaire*, cliquez ici !

*attention, nombre de place limité

Le programme de Microsoft pour 2012 [2/2]

February 2nd, 2012 No comments

On en saura sans doute beaucoup plus à l’occasion des Microsoft Techdays 2012 (prévus les 7,8 et 9 Février prochain), mais voici déjà une brève présentation des différents produits et évolutions qui vont désormais constituer l’écosystème BI autour de SQL-Server 2012. SQL-Server “Denali” – c’est son nom de code – est prévu en version commerciale pour la fin de l’année. (Pour l’heure il n’est disponible qu’en Release Candidate depuis le site officiel). Petit tour d’horizon en deux parties.

Ce billet est la suite d’une première partie publiée le 27 Janvier qui présentait les nouveautés 2012 du SGBD SQL-Server, de Integration Services et de Analysis Services ainsi que le nouveau BI Semantic Model (BISM).

Aconcagua

Kilimandjaro 5891m, Denali 6194m, est-ce que l'Aconcagua, plus haut sommet d'Amérique Latine avec 6962m sera le petit nom de la prochaine version de SQL-Server ?

2.1/ Reporting Services

SSRS ne contient pas d’innovation majeure dans sa mouture 2012. Cela fait déjà plusieurs versions que Microsoft n’en fait plus sa priorité et cette outil à l’interface “old school” sera vraisemblablement remplacé prochainement. On attend par exemple toujours de savoir comment il pourra se connecter aux BISM, Microsoft n’étant pas très bavard sur le sujet.

Pour l’heure deux améliorations sont à noter:

  • Une meilleure intégration dans Sharepoint: celle-ci est grandement simplifiée
  • Un système d’alerte utilisateur:  SSRS possède maintenant un système d’abonnement plus efficace et mieux adapté aux besoins des consommateurs de rapports. Il est dorénavant possible de créer des règles qui alerteront vos usagers en fonction du mouvement de vos données dans vos rapports.

2.2/ Power View / Crescent

Power View (nom de code Crescent) est un outil permettant de visualiser les données, de partager rapidement les analyses et de créer des animations de rapports en quelques clics, facilitées par l’utilisation d’un ruban proche d’Office 2010.

Techniquement, Power View permet de manipuler des données dans une interface Silverlight intégrée à SharePoint. Power View s’appuie sur la nouvelle couche sémantique BI (BISM) et utilise un nouveau modèle de données de type tabulaire, utilisé par Power Pivot, et désormais greffé à Analysis Services.

Les analyses Power View se conçoivent comme des animations et peuvent être “publiées” au format Web ou Powerpoint.

Une démo Power View en vidéo:

2.3/ Powerpivot V2

Avec SQL-Server 2012, Powerpivot change de dimension. Avec la version 2008-R2 Powerpivot V1 était surtout un gros plug-in Excel. Aujourd’hui, ce n’est plus seulement un outil autonome, c’est aussi un client et un outil de conception de modèle d’analyse BISM en mode tabulaire. La nouvelle version de l’addin s’aligne avec les projet SSAS Tabular de Visual Studio. Enfin, Powerpivot utilise aussi le langage DAX (qui ressemble à du code de macro Excel) pour accéder aux données.

Principales nouveautés:

  • Création de KPI : permet de définir des objectifs aux mesures et une iconographie pour représenter l’atteinte ou non de ces objectifs
  • Tri des membres en fonction d’une autre colonne
  • Vue en mode Diagramme (comme dans Visual Studio)
  • Table de temps : permet de définir une dimension comme “temporelle”
  • Perspectives : permet de définir des “vues” différentes sur le modèle (ex : mesures et dimensions pour les commerciaux et pour le marketing) ; équivalent aux perspectives d’Analysis Services
  • Etc…

Voir aussi cette vidéo en ligne sur Powerpivot.

2.4/ Dependency Services / Projet Barcelona

SQL-Server 2012 propose aussi un outil additionnel qui vaut le détour. Issus du projet “Barcelona” Dependency Services comment ce composant additionnel permet d’aider à la traçabilité des données ou encore de maintenir une documentation à jour sur un processus d’intégration de données. L’idée est de tracer toutes les dépendances des données entre les composants d’une solution BI (sources, SQL, packages SSIS, rapports, modèles PowerPivot, etc.).

L’objectif est de pouvoir répondre à des questions comme : que ce passe t-il si je supprime cette colonne ?

Cet outil permet de générer des métadonnées, sous forme de tableaux ou de schéma qui peuvent ensuite être publié sous forma de pages web.

Voir aussi cette vidéo de présentation de Dependency Services.

2.5/ Parallel Datawarehouse / Projet Madison

Comme pour la version 2008-R2 SQL-Server inclue une offre Parallel Datawarehouse  (ex-projet Madison) qui lui permet de muscler son offre sur le segment du datawarehouse en dopant les performances et la capacité de données traitées.

Il s’agit d’une appliance couplant SQL Server à la technologie de Datallegro – une société rachetée en 2008 par Microsoft – qui vise les méga entrepôts de données. Datallegro fournit une version massivement parallèle (MPP pour Massive Parallel Processing) de SQL Server à même d’être déployée sur un grand nombre de nœuds serveurs afin d’accélérer le traitement des requêtes. Plusieurs partenaires matériels de Microsoft, dont Bull, Dell, HP, EMC et IBM, devrait dans un futur proche proposer des configurations prêtes à l’emploi autour de cette version de SQL Server.

Ces appliances permettent respectivement d’accélérer la mise en place d’un projet de datawarehouse (en fournissant hardware et SQL server pré-installé et optimisé pour un usage décisionnel) et d’assurer des performances optimisées sur des très gros volumes.

2.6/ Windows Azure

Windows Azure est la solution “cloud” de Microsoft. Elle permet d’héberger, exécuter et gérer des applications et données dans le ou les centre de données Microsoft de son choix (dont 2 en Europe).

Windows Azure

Schéma de fonctionnement de Windows Azure, à quand une solution BI complète dans le "cloud" ?

Concernant la business intelligence, Windows Azure n’offre pas encore de solution complète. Si une base relationnelle est disponible dans le nuage (SQL-Azure) avec des fonctionnalités de serveur de rapport qui seront accessible via BIDS 2012 (Business Intelligence Development studio), il faudra attendre encore un peu pour voir une suite BI complète déployée sur Azure. Pour l’heure la seule solution consiste à héberger les données sur les datacenters Microsoft et d’utiliser le connecteur AppFabric pour connecter son propre système d’information aux ressources hébergées chez Microsoft (comme le propose cette société).

Ainsi donc s’achève ce tour d’horizon des nouveautés SQL-Server 2012. Si certaines paraissent être plus de l’ordre du gadget, il y a néanmoins de nombreuses innovations majeures, que ce soit en terme d’outils ou de fonctionnalités, faisant de 2012 une année charnière dans le développement de la BI version Microsoft. On pourra cependant regretter que la firme de Redmond “tâte le terrain” dans toutes les directions dans le but de tester le marché et le besoin, plutôt que d’indiquer clairement la démarche dans laquelle elle souhaite se positionner à l’avenir.

Liens utiles :

Le programme de Microsoft pour 2012 [1/2]

January 27th, 2012 1 comment

On en saura sans doute beaucoup plus à l’occasion des Microsoft Techdays 2012 (prévus les 7,8 et 9 Février prochain), mais voici déjà une brève présentation des différents produits et évolutions qui vont désormais constituer l’écosystème BI autour de SQL-Server 2012. SQL-Server “Denali” – c’est son nom de code – est prévu en version commerciale pour la fin de l’année. (Pour l’heure il n’est disponible qu’en Release Candidate depuis le site officiel). Petit tour d’horizon en deux parties.

Mont McKinley ou "Denali"

Le mont McKinley, ou "Denali" en langue locale athapascane, plus haut sommet d'Amérique du Nord, culmine à 6194m

1.1/ SQL-Server 2012 aka “Denali”

Pour sa mouture 2012 de SQL-Server, Microsoft met en avant 2 fonctionnalités nouvelles pour son SGBD:

  • Le AlwaysOn qui est une solution de reprise en cas de sinistre (disaster recovery plan) afin de garantir une haute disponibilité de la base de données. Cette fonctionnalité est sensée garantir un “failover” deux fois plus rapide en cas de sinistre. Voir cette vidéo de présentation.
  • Les ColumnStore Index (projet “Apollo”) pour proposer de meilleures performances sur des requêtes de type jointure en étoile. Ces indexes colonnes viennent enrichir la liste des solutions d’optimisation et de tuning existantes sur les précédentes versions (indexes, indexes cluster, statistics…). Plus d’info dans ce livre blanc sur les bénéfices d’Apollo.

On notera aussi d’autres innovations intéressantes sur SQL-Server 2012:

  • Le Change Data Capture (CDC) qui supporte maintenant les bases de données Oracle
  • Le SSMA (SQL Server Migration Assistant), qui permet d’automatiser la migration de base de données non SQL Server vers SQL Server
  • Juneau: une nouvelle interface de développement rassemblant Visual Studio et Management Studio dans la même IDE
  • La fonction FileTable permettant de créer un objet base de données lié à un fichier localisé dans un dossier du système de fichier.
  • Etc…

1.2/ BI Semantic Model (BISM)

La vraie nouveauté conceptuelle de SQL-Server 2012 est l’arrivée du BI Semantic Model (ou BISM). Il s’agit là d’un vrai modèle Business de l’entreprise qui vient rassembler et enrichir les précédentes notions d’UDM (SSAS) et de report model (Report Builder).

Ce modèle est composé de 3 couches:

  • une couche d’accès aux données offrant un accès en ROLAP, MOLAP, Vertipaq (nouveau serveur OLAP en mémoire, faisant partie du projet Apollo), ou direct query
  • une couche Business logique qui offre une structuration des données soit en OLAP via SSAS et MDX ou bien via powerpivot et DAX
  • une couche data model qui supporte les données tabulaires et multi-dimensionnelles

Ces BI semantic models pourront être créés à partir de Visual Studio ou de PowerPivot.

Vous l’aurez compris, Microsoft tente une nouvelle fois de présenter une alternative métier crédible à la  notion d'”univers” cher à Business Objects. En l’intégrant avec toutes ses technologies existantes (ce qui n’était pas le cas de feu les report models), il semble cette année mettre toutes les chances de son coté. A voir si les BISM tiennent le choc sur le gros volumes.

A noter qu’il n’est pas prévu pour l’instant de possibilité de migrer des UDM en BISM.

BI Semantic Model architecture

Le BISM dans le nouveau écosystème SQL-Server 2012

1.3/ Integration Services

Les nouveautés 2012 concernant l’intégration de données sont articulées autour d’outils complémentaires à SSIS: Data Quality Services et le déjà célèbre Master Data Services.

  • Data Quality Services (DQS): c’est un outil destiné à maintenir et améliorer la qualité des données de l’entreprise en provenance de sources tierces (clients, fournisseurs, …).
    • DQS permet aussi la modélisation métier des données. Par le biais d’une interface client il sera possible de créer des bases de connaissance (type thésaurus).
    • Ces bases contiendront des règles d’épuration, de validation ainsi que les données de référence. DQS est aussi un outil précieux pour le recherche de doublons et dans l’évolution des bases de connaissance.
    • Enfin, les différentes règles de nettoyage pourront être utilisées au niveau les flux de données dans Integration services (SSIS) via un nouveau composant.
  • Master Data Services (MDS) qui existait déjà dans la version précédente de SQL-Server a été grandement amélioré. Il permet de définir les données de références, de gérer les métadonnées. Grâce à son intégration comme plugin d’Excel, il permet de filtrer et modifier les données avant de les visualiser dans Excel. On regrettera qu’il n’existe apparemment toujours pas de système de “lock” pour gérer les accès simultanés…

1.4/ Analysis Services

SSAS est indiscutablement le parent pauvre des nouveautés de cette version Denali. Tellement pauvre que dans la foulée de la présentation l’an dernier son sort a agité la blogosphère spécialisée (voir cet article entre autre). De nombreux experts ont caressée l’hypothèse que Microsoft soit en train de s’employer à mettre son moteur OLAP sur une voie de garage.

Il est vrai que le manque de souplesse des modèles UDM sous-jacents à SSAS a souvent été pointé du doigt tant il représentait une difficulté à résoudre les problématiques métiers les moins standards. Cela a conduit les experts du monde entier à “tordre” l’outil dans tous les sens afin de faire rentrer une logique métier calquée sur du relationnel, dans une modélisation multi-dimensionnelle.

C’est dans cette perspective qu’il faut voir l’arrivée de BISM, Vertipaq et DAX. Ces outils sont destinés à compléter SSAS plus qu’à le remplacer. Car comme cela a été exprimé plus haut, les volumes très importants de données nécessiteront toujours de “dénormaliser” et de passer en dimensionnel. Ces “concurents” au couple SSAS/MDX permettront juste de se simplifier la vie pour modéliser des problématiques métiers relationnelles sur des volumes faibles.

La suite de cet article sur les nouveautés de SQL-Server 2012 sera publiée début Février. Au programme: Reporting Services, Crescent, PowerPivot, Barcelona et Azure !

Liens utiles :

Nouveautés Power Pivot-Tri par colonne

September 15th, 2011 No comments

Une autre nouveauté de PowerPivot est la fonction « sort by Column » (en français « tri par colonne ») .

Dans la première version de Power Pivot le tri des données se faisait par ordre alphabétique, ce qui était adéquat pour les noms, la description des produits mais pas pour des mois ou des jours de semaine. La solution de contournement dans la V1 consistait à associer un nombre devant le jour de semaine, comme vous pouvez le voir :

Grâce à la V2 cette fonction devient possible avec le « tri par colonne ».

Pour obtenir :

Retour vers la synthèse des nouveautés de Powerpivot V2.

D’autres articles à venir sur les autres nouveautés…

Elaboration budgétaire : RV Homsys et Cegid le 7 juin chez Microsoft à Paris

May 19th, 2011 No comments

Les outils ont gagné en simplicité et s’intègrent étroitement aux environnements bureautiques (en particulier Excel !), les projets sont désormais plus courts et maîtrisables.

NEO SECURITY, 1er groupe français de sécurité avec 7000 collaborateurs, a ainsi industrialisé le processus budgétaire de ses 40 agences en quelques mois seulement, de juin à septembre 2010.

Homsys, Cegid et Microsoft vous invitent à partager ce retour d’expérience sur la mise en œuvre de l’application Yourcegid Performance Management, au cours d’un petit-déjeuner le 7 juin 2011 à Paris.

En savoir +

Inscription en ligne

Webcast PowerPivot révélé

March 19th, 2010 No comments

Nous vous l’avions annoncé : Alexis Sacksteder, directeur technique Homsys Paris, “a révélé” PowerPivot pour Excel, le nouvel outil BI en mémoire de Microsoft, à l’occasion des derniers Microsoft TechDays !

Comment concevoir vos tableaux de bord grâce à l’add-in PowerPivot pour Excel? Comment créer un modèle à partir de sources de données hétérogènes ? Comment ajouter simplement des calculs métiers complexes avec DAX ? Quelle utilisation du datamining est possible avec PowerPivot ?… Visionnez le webcast de la session “PowerPivot révélé” animée par Alexis Sacksteder, le 9 février 2010.

L’ensemble des présentations et webcasts desTechDays 2010 sont disponibles en ligne.

Microsoft TechDays 2010

February 2nd, 2010 No comments

logo techdays10Homsys participe aux temps forts BI de la 4ème édition des Microsoft TechDays, qui se dérouleront les 8-9-10 février au Palais des Congrès de Paris : lancement de SQL Server 2008 R2 et de SharePoint 2010.

Un programme de 3 conférences plénières et plus de 300 conférences techniques et workshops attend les quelque 16 000 visiteurs attendus.

La journée du mardi 9 sera plus particulièrement consacrée à la Business Intelligence. Durant la session du début d’après-midi ‘PowerPivot révélé‘ (14h30-15h30), Alexis Sacksteder, directeur technique Homsys IDF, abordera en détail la conception des tableaux de bord grâce à l’add-in PowerPivot pour Excel, le nouvel outil Business Intelligence en mémoire de Microsoft. Créer un modèle à partir de sources de données hétérogènes, ajouter simplement des calculs métiers complexes avec le nouveau langage DAX et pourquoi pas utiliser le datamining avec PowerPivot… Cette session sera l’occasion également de partager avec l’assistance les bonnes pratiques d’utilisation de PowerPivot.
En savoir plus.

Informations et inscriptions aux Microsoft TechDays 2010 sur le site officiel de l’événement : www.mstechdays.fr.

Homsys fera gagner une XBOX 360 Elite Value ! Rendez-vous “au village SQL Server” dans la zone “Développement et base de données” : stand D29.

La gestion des logs avec SSIS

February 1st, 2010 4 comments

Pouvoir être en mesure de suivre la bonne exécution des traitements batch SSIS est primordiale.

Plusieurs solutions permettent de répondre à ce besoin de suivi :

  1. La méthode manuelle : Management Studio propose un historique d’exécution des jobs
  2. L’utilisation de tâches SQL permettant de renseigner une table de log
  3. L’utilisation des logs standards SSIS

La solution 2. est très souvent rencontrée sur les projets par simple méconnaissance de la 3.

Cet article décrit donc comment mettre en place en quelques minutes un suivi des traitements SSIS performant.

L’activation des logs s’effectue pour chaque package dans le menu SSIS\Enregistrement (Logging en version anglaise)

Les étapes à réaliser sont les suivantes :

  1. Choisir dans la liste déroulante type de fournisseur, où seront stockés les logs (base de données, fichier XML,…) puis cliquer sur le bouton Ajouter. Personnellement, je préconise le stockage SQL Server qui permet une exploitation aisée de ces données
  2. Cocher la case à cocher devant le nom du package
  3. Activer la case à cocher devant le fournisseur SQL Server
  4. Sélectionner la base de données hébergeant la table de log

clip_image002

Remarque : Il n’est pas possible de choisir le nom de la table dans laquelle les logs seront stockés. SSIS 2005 les stocke dans la table sysdtslog90, SSIS 2008 dans sysssislog.

L’onglet Détails permet ensuite de spécifier le niveau de finesse dans le suivi des traitements :

Afin d’éviter des logs trop volumineux, je recommande de tracer uniquement les événements suivants :

  • OnPreExecute : Trace le début d’exécution des différentes tâches présentes dans le niveau Flux de Contrôle
  • OnPostExecute : Trace la fin d’exécution des différentes tâches présentes dans le niveau Flux de Contrôle
  • OnError : Trace toutes les erreurs survenues aux niveaux Flux de contrôle et Flux de données

clip_image002[5]

Les principaux champs de la table de logs sont les suivants :

  • Event : événement qui a généré le log (OnPreExecute, OnPostExecute ou OnError)
  • Computer : ordinateur qui l’a exécuté
  • Operator : utilisateur qui l’a exécuté (permet par exemple de différencier une exécution automatique effectuée par l’agent SQL Server d’une exécution manuelle de rattrapage)
  • Source : étape du flux qui a généré le log
  • SourceId : Identifiant de l’élément (package, tâche de contrôle…) ayant généré le log
  • executionId : identifiant unique de l’exécution
  • Starttime : début de l’événement qui a généré le log
  • Endtime : fin de l’événement qui a généré le log
  • Message : détails de l’événement (notamment les messages d’erreurs sur l’événement OnError)
    En quelques clics nous avons ainsi paramétré le stockage de l’information relative à l’exécution des flux SSIS. Ces données peuvent maintenant être requêtées en SQL ou utilisées via du reporting.

    A noter qu’une ligne est écrite dans la table de log pour chaque événement: début d’une tâche, fin d’une tâche ou erreur. Les données doivent donc être manipulées pour obtenir une ligne du type: nom de la tâche, date de début, date de fin et statut d’exécution.

    Homsys propose ainsi un ensemble de tableaux de suivi développés sous Reporting Services. Cet aspect sera présenté dans un prochain article…

Cadran magique, boussole d’or ou roue de la fortune ?

December 15th, 2009 No comments

Nous sommes tous familiers du “Magic Quadrant” du Gartner Group qui régulièrement positionne les offres des éditeurs selon une habile échelle qui “comme à l’école des fans” permet à chacun d’expliquer que tout le monde a gagné.

Les petits éditeurs sont des valeurs qui montent et qui existent puisque telle une déclaration que n’aurait pas reniée Sartre “j’existe puisque je suis dans le Cadran magique”.

Les poids lourds ont comme principal enjeu tels des Tryphon Tournesol de se trouver les plus au Nord-Est du cadran et surtout les plus détachés de toute âme à proximité.

Je me suis amusé à suivre l’évolution de ce jeu de marelle sur  5 ans, que constate t’on ? :

Au même titre que les marchés automobiles, sidérurgiques, textiles ou pharmaceutiques, les leaders d’il y a 5 ans sont devenus de plus en plus gros, de plus en plus pérennes, ont croqué les petits, les moyens puis se sont mangés entre eux pour devenir incontournables. On appelle cela une maturité de marché, une rationalisation de “l’industrie” du logiciel. Ces nouveaux Tycoons proposent désormais de larges gammes de produits depuis l’utilitaire jusqu’à la berline de luxe en passant par la low cost et la luxueuse ostentatoire.

Quelle place reste t’il aux émergents ? La même stratégie que pour tout acteur de petite taille positionné sur une industrie mature : “faire différent”. Dans l’industrie logicielle cela se traduit par mieux, plus performant, plus pertinent, plus innovant, plus agile ou moins cher. On constate dans ces mêmes cadrans l’entrée-sortie de nombreux éditeurs qui soit se sont fait croquer par l’appétit féroce des mastodontes soit ont disparu corps et biens dans la cohorte des éditeurs qui comme au cinéma ou dans la musique “n’ont pas trouvé leur public”.

Les mutations des marchés déjà concentrés nous apportent cependant quelques enseignements qui vont à court ou moyen terme s’appliquer au marché de la Business Intelligence.

Au chapitre des points négatifs

  • Le consommateur voit ses choix se restreindre au sein de gammes éditeurs élargies,
  • Une politique de conquête cross référence se met en place dans une stratégie de captation maximale du client,
  • Les clients captifs (ERP & BI) voient leurs marges de négociation diminuées,
  • les politiques de prix sont dictées non pas par la valeur ajoutée du produit mais par la nécessité de rembourser les acquisitions en augmentant notamment les taux de maintenance,
  • Les éditeurs tentent d’aligner leurs prix avec la concurrence,
  • Les distributeurs voient leurs marges et territoires se réduire, ils sont préservés sur les seuls segments laissés à l’abandon par l’éditeur,
  • La réduction du nombre d’acteurs du CPM (Gestion de la performance) risque d’augmenter les coûts de licence de ces produits,
  • L’innovation n’est plus le moteur, elle passe après la rationalisation.

Les points positifs

  • Les contrôles de qualité et intégration logicielle sont améliorés,
  • Le support mutualisé est souvent de meilleure qualité et plus rigoureux,
  • Pour les clients prêts à accepter toute l’offre, des gains sont à attendre notamment sur les packages analytiques entre ERP et BI,
  • La tarification pour les grands clients peut réduire la BI à une “feature” d’une négociation globale licence incluant des licences ERP, Middleware, et bases de données réduisant drastiquement le coût de la licence utilisateur,
  • La concentration de gros acteurs peut favoriser l’apparition d’acteurs émergents détenteurs de technologies innovantes ou issus du monde libre,
  • Des éditeurs “low cost” vont tirer leur épingle du jeu avec l’émergence  notamment du monde libre  et  le renforcement de Microsoft.

En conclusion, on peut considérer qu’il ne reste plus que 5 grands éditeurs mondiaux dans le domaine de la BI dont SAS reste à ce jour le seul “pure player” global et indépendant. IBM, SAP et Oracle ont besoin de rembourser leurs acquisitions en maintenant un niveau de prix relativement élevé ce qui laisse un boulevard à Microsoft et à l’Open source pour maintenir des exercices de démocratisation en dynamitant le rapport coût/performance des infrastructures. Le Magic Quadrant ne risque-t’il pas demain de démontrer que la Business Intelligence est devenue une roue de la fortune à 5 cases occupées par des leaders bien décidés à  intégrer les clients et prospects dans une portion de leur camembert désormais devenu de la taille d’un Brie de Meaux ?

A vos posts pour en débattre.