vendredi 30 décembre 2011

Fin d'année en fanfare pour le blog 6 IT


Comme vous pouvez le constater sur cette courbe, la fin de l'année 2011 s'achève en fanfare pour le blog de 6 IT, en passe de dépasser les 2000 visites sur ce mois de décembre.
L'article concernant le top 10 des KPIs Supply Chain (http://blog.6it.fr/2011/12/top-10-des-kpis-supply-chain.html) y est pour beaucoup.

Espérons que le CA 2012 de 6 IT  suivra la même courbe  ;-)


lundi 19 décembre 2011

Top 10 des KPIs Supply Chain

Suite à une petite étude menée sur les réseaux sociaux (Viadeo et Linkedin) parmi les professionnels de la Supply Chain, voici une synthèse des réponses obtenues.
J'ai classé les KPIs selon 3 catégories, dans l'ordre d'importance des réponses :
  • Qualité 
  • Efficacité
  • Financier
Dans la partie Qualité, on retrouve bien sûr le taux de service (qui pourrait bien être également un indicateur d'efficacité).
Le taux de service peut être décliné à toutes les sauces : en amont (taux de service des fournisseurs par exemple), en aval, concerner le respect des délais, des quantités, les manquants et la qualité des produits livrés.

Lié au taux de service, on va retrouver le taux de ponctualité, qu'on applique souvent aux transports.

On surveille également les taux de retours client, taux de litiges, taux de casse, taux d'erreurs pour vérifier la qualité des préparations et livraisons.

Côté RH, on va également surveiller les taux d'absentéisme, taux d'Accident du Travail et leur gravité.

Dans la partie Efficacité, on retrouve en tête la productivité, mais aussi les indicateurs Transport : taux de remplissage des remorques, taux de kilométrage à vide.
Côté RH, évolution de la répartition personnel intérimaire / personnel interne, le taux d'heures supplémentaires et côté Transport la répartition temps de travail / temps de conduite / temps d'attente.

Concernant les stocks, on surveille le taux de rotation, couverture, rupture, et la fiabilité des inventaires.


Enfin, pour les Finances, on retrouve les indicateurs classiques de surveillance des coûts, RH (en distinguant personnel intérimaire et interne) et Matériel (locations, entretien, Gas-Oil, ...).

Un indicateur hors catégorie, mais lié à tous les autres : le CO2 consommé, que ça soit au  niveau Transport, Production ou Entreposage.
Et sa répartition par km parcouru, par type de produit, par colis, ....

Pour tous les indicateurs, on surveille la fiabilité des prévisions par rapport au réalisé.

N'hésitez pas à commenter, donner votre top 10, ....

Et bonnes fêtes à tous !
Rendez vous en 2012

dimanche 18 décembre 2011

Bilan IT 2011


En tout début d'année 2011, je me suis essayé au traditionnel exercice de prévision des tendances IT à venir durant l'année : http://blog.6it.fr/2011/01/2011-mobile-web-et-collaboratif.html





Et après tout, je ne me suis pas trop mal débrouillé :
  • Adoption des terminaux mobiles en entreprise
    (notamment les tablettes, pour les commerciaux et dans les entrepôts)
  • Montée en puissance des solutions en mode Cloud
    A ce propos, je vous prépare un article de démystification, au sens propre du terme, pour ne plus prendre pour argent comptant ce que vous racontent les annonces marketing et les commerciaux
    rendez vous à la rentrée 2012
  • Adoption des standards HTML 5 au détriment des solutions propriétaires
    => Microsoft a abandonné Silverlight et Adobe commence progressivement à migrer ses outils de Flash vers HTML 5
  • Réaction de Google vis-à-vis de Facebook et Apple
    => Sortie de Google+ et Google Music

Rendez-vous dans quelques jours pour étudier ce que nous prépare 2012 ...

dimanche 4 décembre 2011

Business Intelligence et KPIs : de l'innovation au menu

Je viens de tester la nouvelle version de Digdash et voici un résumé des nouvelles fonctionnalités, dont l'une me semble très intéressante et pleine de promesses.
Pour ceux qui ne connaissent pas encore Digdash, vous pouvez consulter un article comparatif de Digdash et Qlikview, qui vous donnera un aperçu de ses caractéristiques : http://blog.6it.fr/2011/04/comparatif-digdash-qlikview.html

Tout d'abord, l'apparition de fonctionnalités qui permettent à Digdash de rattraper son retard en termes d'ergonomie :
  • Touches et icônes permettant de parcourir l'historique de navigation dans les tableaux de bord et dans les filtres (page ou état précédent, page ou état suivant, effacer les sélections, enregistrer une sélection)

  • A noter la possibilité d'utiliser les touches de raccourci du navigateur (Alt + flèche droite ou gauche et les icônes correspondantes)

  • Ajout d'une icône dans un filtre si une sélection est active sur ce filtre
  • Nouveau type de tableau avec arborescence sur les dimensions

  • Ajout des tris sur l'ensemble des colonnes des tableaux et tableaux arborescents

Passons maintenant à l'innovation.
D'abord une fonctionnalité qui apparaît sur un peu toutes les solutions en ce moment : l'aspect collaboratif des tableaux de bord, c'est-à-dire la possibilité pour les utilisateurs de poser / partager des commentaires sur les indicateurs :

  • sur un tableau de bord
  • sur un graphique ou un tableau d'un tableau de bord
  • relatif à un filtre d'analyse (pour l'année 2010, pour la région Ile-de-France, ...)

Et le meilleur pour la fin : Digdash offre maintenant la possibilité d'effectuer des requêtes en langage naturel sur les données et indicateurs disponibles, comme vous le feriez dans Google.
Digdash profite à plein de son référentiel d'indicateurs et de dimensions disponible, en plusieurs langues, pour analyser le texte des requêtes.
Des mots clés tels que "top 5 / top 10" ou "en colonne / en secteur" sont pris en compte.


Le texte est bien sûr analysé dans la langue de l'utilisateur.
Le logiciel propose plusieurs graphes correspondant à la requête, l'utilisateur en choisit un et peut ensuite le sauvegarder et le personnaliser dans son tableau de bord.
Cette fonction va rapidement évoluer avec notamment la possibilité de définir des synonymes des termes utilisés dans le référentiel des indicateurs (CA = ventes = Chiffre d'affaires = ....).


Le pack Performance va bien sûr profiter de toutes ces évolutions.
http://performance.6it.fr/


lundi 21 novembre 2011

Nouvelle génération d'outils BI : Attention de ne pas mettre à dos utilisateurs et DSI

Depuis l'arrivée de la nouvelle génération d'outils de Business Intelligence, Qlikview en tête, on a de plus en plus tendance à lire des articles ou des discours marketing selon lesquels ces outils "libèrent les utilisateurs des contraintes de la DSI" ou "donnent de l'indépendance aux utilisateurs" ou bien encore "sont tellement simples qu'ils sont à la portée de n'importe quel utilisateur d'Excel".

On peut lire également que ces nouveaux outils ont un effet négatif, qui est de mettre la DSI dans l'embarras, au vu de la facilité qu'on les utilisateurs à analyser les données du SI, sans vraiment avoir besoin de la DSI, alors qu'auparavant ("avec les anciens outils") on ne pouvait pas faire le moindre rapport sans passer par l'informatique.

Mes cheveux se hérissent à chaque fois que je vois des messages de ce genre.
Bien sûr, on ne peut pas en vouloir aux services marketing, c'est leur métier et leur raison d'être de faire passer des messages attractifs aux directions métier qui sont, in fine, les financeurs des investissements IT.
Mais mon rôle de consultant est de prendre du recul par rapport à ces discours marketing et de conseiller mes clients.

Les objectifs des outils BI (ou décisionnels) sont de plusieurs ordres :
  • donner une vision unifiée des données de l'entreprise et des KPIs qui en découlent, afin que les décideurs ne perdent pas de temps à savoir qui possède le chiffre juste
  • Fournir aux utilisateurs qui ont besoin de prendre des décisions des indicateurs fiables, et donc basés sur un référentiel (clients, produits, ...) fiable 
  • Fournir une vision historique des données, permettant d'en tirer des corrélations ou des modèles afin de "prédire" l'avenir.
  • Et bien sûr, donner aux utilisateurs un outil le plus simple d'emploi possible

Le sujet n'est donc pas qui, de la DSI ou des utilisateurs, doivent prendre le contrôle des données, mais d'assurer la qualité des données, une condition préalable à la mise en place d'indicateurs fiables pour l'ensemble de l'entreprise.

Quelle que soit la qualité de l'outil, si les données sources des indicateurs sont de mauvaise qualité, les indicateurs seront de mauvaise qualité ("garbage in, garbage out" : de la m.... en entrée, de la m.... en sortie). Et peu importe si les graphiques sont super sympas, et si l'utilisateur peut parcourir ses données de manière associative. Si les données du SI n'ont pas été qualifiées, nettoyées, les décideurs ne pourront pas prendre de bonnes décisions.

La nouvelle génération d'outils de BI apporte sans conteste une plus grande facilité de manipulation des données et des indicateurs, la possibilité de les consulter sur les nouveaux terminaux mobiles, leur disponibilité sur le Web et leurs fonctions collaboratives apportent de nouvelles perspectives aux entreprises et à leurs partenaires.

Mais ces nouveaux outils ne dispensent pas des tâches en amont qui, au vu de la complexité des SI aujourd'hui, ne peuvent pas être assurées par les utilisateurs seuls.
Il faut bien mettre en place des binômes entre utilisateurs et DSI, en utilisant des outils performants, chacun pour leurs tâches de prédilection :
  • ETL pour assurer qualité et alimentation des données, sous la responsabilité de la DSI
  • Dashbording/Reporting pour l'agrégation, la restitution et l'analyse des indicateurs qui en découlent, par les utilisateurs

Qu'en pensez vous ?


mardi 15 novembre 2011

Supply Chain : tendances Process & IT aux Etats-Unis

Il est quelquefois important de sortir de sa bulle et de regarder ce qui se passe à l'extérieur.
Les tendances venant des Etats-Unis sont assez souvent précurseurs de ce qui va se passer en Europe.

Je vous ai donc concocté une synthèse de 2 articles parus sur le site "Logistics Management" (http://goo.gl/WPwzG et http://goo.gl/yFtur) étudiant les tendances constatées dans les activités Supply Chain en 2011 aux Etats-Unis, du point de vue des process et des investissements IT.



Première grande tendance observée : la consolidation des actifs :
  • diminution du nb d'entrepôts
  • amélioration des process d'entreposage / de la productivité / réduction des effectifs
  • baisse des investissements dans l'automatisation et la mécanisation, car l'occupation des entrepôts est meilleure, donc les coûts d'occupation diminuent et le besoin d'outils de densification du stockage est moins primordial
  • poursuite des améliorations devt durable, recyclage, éclairage, ...

Seconde tendance : mise en oeuvre de process pour la prévention des catastrophes (suite au tsunami au Japon) :
  • redondance des réseaux d'approvisionnement
  • externalisation / redondance des systèmes informatiques / Déploiement des SI dans le Cloud

Coté Transports, l'augmentation importante des coûts des carburants aux Etats-Unis ont conduit les entreprises américaines à s'intéresser de près aux solutions d'optimisation d'itinéraires et de localisation des entrepôts.

Coté purement IT, les investissements RFID sont à la baisse (tendance déjà observée en 2010), en faveur de solutions plus conventionnelles pour le stockage, le picking et le réapprovisionnement, probablement également à cause des coûts de cette technologie.

La mobilité est par contre à l'honneur, notamment dans les entrepôts : utilisation des tablettes en forte croissance.

Les outils de Business Intelligence quand à eux sont de plus en plus utilisés comme outils pro-actifs : les possibilités des outils de traiter de plus en plus de données permettent d'analyser les données du passé et de détecter des corrélations ou des modèles permettant de "prédire" l'avenir.
La Business Intelligence doit également devenir collaborative : les outils doivent permettre de partager ces informations avec les sous-traitants, notamment les transporteurs, afin d'optimiser leur process et diminuer leurs coûts.

Finalement, rien de bien nouveau par rapport à ce qui se passe chez nous ...

Qu'en pensez vous ?

mercredi 26 octobre 2011

La crise revient ? Préparez la !

De plus en plus de signes avant-coureurs nous annoncent une prochaine vague de crise ou tout au moins une plus grande frilosité des acteurs économiques et un ralentissement des échanges.
Le premier signe a été la chute du marché boursier qui anticipe en général d'au moins 6 mois les premiers effets.
Les métiers, les emplois et le marché de la Supply Chain sont bien sûr directement impactés par la réduction des échanges commerciaux.
Mais plutôt que de courber le dos, il est temps de prendre les devants et de mettre en place les actions et les outils qui vont permettre de la gérer au mieux

Baisse de la demande donc pression plus forte sur les prix des prestations Transport et dans une moindre mesure des prestations Entreposage.

Il va donc falloir tenter de conserver la marge opérationnelle, durement acquise. Et comment optimiser la marge si ce n'est en agissant sur les coûts ?
  • Coûts de revient du matériel => optimiser leur taux d'utilisation et stopper au plus tôt des contrats de location inutiles
  • Coûts de personnel => optimiser l'utilisation des personnels intérimaires et réduire les heures supplémentaires si elles ne sont pas indispensables
  • Coûts de stockage => optimiser la rotation des stocks et le taux de remplissage
  • ... ... 
Mais pour pouvoir agir sur ces leviers, encore faut il en avoir une vision exacte, cohérente et globale pour l'ensemble de l'entreprise.
“On ne peut améliorer que ce qu'on peut mesurer”
ou bien selon Sénèque :
“Il n'est pas de vent favorable au marin qui ne sait où il va

Et pouvoir simuler plusieurs scénarios afin de choisir le plus adapté à la situation.

Ce sont là les objectifs des outils de pilotage de l'entreprise.
  • Collecter, assembler et agréger les données de l'entreprise
  • Au passage, contrôler et nettoyer les données et Constituer un référentiel fiable des données de l'entreprise (Clients, Produits, Fournisseurs, ...)
  • Conserver l'historique de ces données pour pouvoir l'analyser et en tirer des enseignements pour l'avenir (Cycles des ventes, ...)
  • Fabriquer rapidement des analyses et tableaux de bord
Avec le pack Performance, installez en quelques semaines un outil partagé pour l'ensemble des décideurs de l'entreprise, au niveau opérationnel (Sites, Agences) et au niveau stratégique (Direction générale, financière, opérationnelle, RH).
Partagez une vision commune de vos indicateurs et prenez des décisions basées sur des données fiables.

Notre outil est packagé avec les indicateurs de la Supply Chain : Enteposage, Transport, Finances, RH
Il est multilingue, multi plate-formes, multi clients


Visitez notre site
Manipulez notre application de démonstrationhttp://performance.6it.fr/
Contactez nous

vendredi 7 octobre 2011

Les KPIs, version collaborative

Le sujet nous tient à coeur, nous en avons déjà parlé à plusieurs reprises :
Une nouvelle génération d'outils d'analyse / BI / Aide à la décision est apparue ces dernières années et est en plein essor en ce moment : Qlikview, Prelytis, Digdash, Bime, Roam BI, Tableau, ...
Leurs principales caractéristiques sont :
  • de fournir des tableaux de bord réactifs et interactifs pour l'utilisateur
  • d'être disponibles plus ou moins nativement en mode web et sur tablettes et/ou smartphones
  • pour certains, offrir une très bonne simplicité et productivité dans la conception des tableaux de bord
Je vais cette fois ci faire un focus sur l'aspect collaboratif des outils de Business Intelligence.
Cette fonctionnalité, voire même le concept, est aujourd'hui très peu présente dans les solutions sur le marché.
Les outils sont conçus pour être utilisés dans l'entreprise, pour ses utilisateurs.
Le partage des indicateurs avec les partenaires de l'entreprise se fait souvent manuellement, par extraction des données ou des rapports sous Excel ou en PDF et envoi par mail vers les partenaires.
Au mieux l'opération est automatisée.
Il est également possible d'ouvrir le portail de la solution aux partenaires qui peuvent se connecter et accéder à leurs KPIs. Encore faut il que cela ait été prévu dans la structure des données et dans les rapports ou tableaux de bord (restrictions d'accès aux données notamment).

Concernant les activités de la Supply Chain, l'aspect collaboratif des outils est à mon sens primordial pour offrir  une véritable valeur ajoutée à leurs services.
Dans le cas des KPIs, je vais prendre l'exemple des donneurs d'ordre, qui ont besoin de piloter leurs flux Transport.
Soit ils délèguent le pilotage à un prestataire "pilote de flux", soit ils l'assurent eux même, avec une cellule dédiée.
Dans tous les cas, les donneurs d'ordre ont besoin d'indicateurs sur le coût de ces transport et leurs performances (économique, qualitative, écologique).



Il y a aujourd'hui 2 façons de procéder :
  • les transporteurs se connectent sur un portail du donneur d'ordre (ou du pilote de flux), lié en général à un TMS et ils saisissent un certain nombre d'informations, enrichies par le donneurs d'ordre.
    Les données du portail sont récoltées pour fournir les KPIS nécessaires au donneur d'ordre (ou le portail fournit ces KPIs).
    Si le transporteur a de la chance, il a accès lui même à certains KPIs.
    Mais les transports assurés pour ce donneur d'ordre ne sont qu'une partie de ses activités.
    Le transporteur ne peut donc pas dans ce cas consolider ses KPIs pour l'ensemble de ses activités (ses clients).
  • Le donneur d'ordre demande à ses transporteurs de lui fournir les KPIs dont il a besoin, ou les données permettant de produire ces KPIs.
    Chaque transporteur se débrouille pour produire les KPIs demandés, avec le risque d'erreur que l'on peut imaginer.
    Le donneur d'ordre doit ensuite consolider manuellement les KPIs.
Chez 6 IT, nous avons imaginé une autre solution : 
  • les transporteurs utilisent un outil simple leur permettant de produire leurs KPIs, pour l'ensemble de leurs activités (clients),
  • ils peuvent donner un accès à leurs donneurs d'ordre aux KPIs qui les concernent;
    cela permet aux donneurs d'ordre, sans manipulation, d'avoir une vision consolidée des KPIs de leurs transporteurs
  • Chacun peut, au passage, commenter les tableaux ou indicateurs pour une période, un transporteur, un client, ...
  • On peut également imaginer la possibilité de suivre certains indicateurs en particulier et d'être alerté au franchissement de certains seuils
On peut imaginer la même chose entre les prestataires logistiques (entreposage) et leurs clients.

Ainsi, à partir d'une même plate-forme, et des mêmes données, l'ensemble des acteurs de la Supply Chain accède de manière simple et sécurisée (chacun ne voit que les données qui le concernent) à ses KPIs.

L'idée vous séduit elle ? Y voyez vous des inconvénients ?

Faites nous partager vos opinions ...

mercredi 5 octobre 2011

Méthodes agiles et projets BI

Tout le monde est maintenant à peu près convaincu que les anciennes méthodes de gestion de projet (cycle traditionnel - analyse, conception, développement, tests, livraisons - le tout durant entre 6 mois et 2 ans) ne sont plus adaptées aux contraintes économiques des entreprises et sont sources de dépassement de budget et de délai, et surtout de conflits.
La bonne manière de travailler semble être de :
  • prévoir une liste de fonctionnalités (backlog) et d'estimer le budget correspondant
  • définir des sous ensembles de ces fonctionnalités, avec un cycle de livraisons fréquent (qq semaines)
    => l'utilisateur peut concrétiser son besoin et réagir rapidement
    => on décide de modifier certaines fonctionnalités, d'en ajouter ou d'en retrancher
    => on ré-estime le budget et le planning
    si il dépasse ce qui était prévu (ce qui est majoritairement le cas), on a 2 choix : 
    • conserver le budget initial => il faut enlever d'autres fonctionnalités ou les retarder (les placer sur le budget de l'année suivante)
    • accroître le budget (c'est souvent la première solution qui est choisie)
  • industrialiser les développements et les livraisons pour que les livraisons ne soient pas chronophages mais de qualité
Ces méthodes commencent à se répandre de plus en plus dans les services informatiques des entreprises, les sociétés de services, et de manière moins visible chez les éditeurs (bien que les nouvelles applications web aient tendance à suivre ce rythme élevé de livraisons fréquentes, initié par Google depuis qq années).

Il me semble que les projets concernant le décisionnel, qui souffrent d'une réputation de projets lourds et coûteux, auraient tout intérêt à rapidement adopter ces méthodes, d'autant que les nouveau outils BI me semblent plus adaptés (cf. l'article sur ce sujet : Les nouveaux outils de pilotage de l'entreprise).
De la même manière que pour les projets de développement classiques, la rigueur dans la conception et le développement, l'outillage et l'industrialisation des développements et des livraisons sont les conditions du succès.
Prenons un projet "classique" décisionnel :
  • des besoins identifiés avec les utilisateurs : comment les valider si ce n'est en leur mettant sous les yeux un tableau de bord affichant les indicateurs
    => identifier le domaine fonctionnel prioritaire (en général celui qui va faire gagner rapidement de l'argent à l'entreprise) et dans ce domaine les indicateurs critiques (idem)
    => construire le modèle de données
    => identifier les données source
    => construire l'alimentation
    => construire le tableau de bord, les rapports
    => les montrer aux utilisateurs
  • Réactions, retours des utilisateurs : 2 cas :
    • nouveaux indicateurs, nouveaux axes d'analyse
      => rebelote : analyse des données sources, modif du schéma du datawarehouse, modif des alimentations, modif des tableaux de bord
    • détail supplémentaire dans les tableaux ou ajout de donnée déjà présente dans les tables du datawarehouse : la modif peut même se faire "en live" avec l'utilisateur
Tout ceci, bien outillé, normé, industrialisé, peut se faire rapidement, je dirais même plus rapidement qu'un projet classique car 
  • les modèles de données décisionnels sont plus simples que les modèles des applis transactionnelles
  • le "code source" est structuré par les outils et on peut en général rapidement identifier les impacts d'une modification   
Il est évident que pour livrer le plus rapidement possible quelque chose de concret aux utilisateurs, il est préférable de s'appuyer sur des modèles déjà conçus, voire de s'appuyer sur des tableaux de bord déjà développés pour la phase d'identification des besoins des utilisateurs, sur lesquels ils vont pouvoir concrétiser leurs idées et réagir.
Cela fait aussi l'objet d'un article récent sur le blog : Un outil décisionnel disponible en quelques semaines ?
Et c'est le principe de base du pack Performance, dédié aux métiers de la supply chain : http://www.6it.fr/static9/pack-performance.htm

samedi 17 septembre 2011

Déferlante annoncée de tablettes sous android


Après un début laborieux, et une contre attaque d'Apple sur les brevets pour limiter l'invasion Android sur les tablettes, on devrait assister d'ici Noël et surtout dans l'année qui va suivre à une déferlante de tablettes sous le système d'exploitation Android.
Et on devrait assister dans le même temps au début d'une baisse des prix des tablettes Android.

Carrefour annonce pour Noël une tablette à 199 €, d'autres grandes surfaces ne devraient pas tarder à suivre.
A ce prix, on n'aura bien sûr pas droit au top de la tablette (processeur limité, android 2.2) mais cela devrait contribuer à démocratiser les tablettes, sur Android.


De la même manière que pour les téléphones, Android risque de rapidement renverser la tendance sur les tablettes.
Si Apple veut conserver son leadership, il va devoir rapidement sortir de sa stratégie CSP supérieures et modèles haut de gamme.

mardi 6 septembre 2011

Gestion des échanges EDI avec Talend - 2° partie

Après avoir étudié la lecture du fichier en entrée et l'alimentation des tables correspondantes (voir Gestion des échanges EDI avec Talend), nous allons maintenant créer le fichier attendu par notre partenaire.
Ce fichier possède un format propriétaire et possède la structure suivante :
  • Les lignes sont au format texte positionnel (chaque colonne est définie par sa position sur la ligne et son nombre de caractères), il n'y a pas de délimiteur
  • Chaque ligne (segment) est identifié par ses 2 premiers caractères (00, 10, 11, ...)

Les règles de calcul et de transformation vers le fichier en sortie peuvent être assez complexes. 
Le schéma ci-dessous résumé les correspondances entre les segments du fichier en entrée et ceux du fichier en sortie.


Ci-dessous un exemple de règle de gestion (pour une des colonnes du segment "15") :
1 - (
PRI.price (PRI.price_qualifier = 'AAA')
/
PRI.price (PRI.price_qualifier = 'AAB')
)
Cadré à droite, comblé avec des '0', 2 carac. + 3 décimales
Le principe général pour générer le fichier en sortie est le suivant :
  • écrire un requête SQL pour chaque type de ligne à générer
    chaque requête comporte les colonnes attendues en sortie + des colonnes permettant de trier les lignes (on verra dans la suite comment)
  • Fusionner les différents types de lignes dans un seul flux Talend
  • Trier ce flux pour extraire les lignes dans l'ordre spécifié pour le fichier de sortie :
    lignes 00, pour chaque facture, puis lignes 10, puis pour chaque ligne 10, les lignes 11 et 15, pour chaque ligne de facture, ... ...
  • Générer le fichier de sortie 
Voilà à quoi cela ressemble dans Talend :

Chaque requête permet de récupérer les données qui vont permettre de créer la ligne en sortie, elle peut faire intervenir un certain nombre de segments du fichier d'entrée. L'exemple ci-après correspond au segment "15", auquel j'ai fait référence dans l'exemple de règle de gestion ci-dessus.

Le flux en sortie de la requête est traité avec un composant tJavaRow, dans lequel on effectue des opérations de formatage et on concatène l'ensemble des colonnes dans la zone "data".
Ci dessous, un extrait. On remarque l'utilisation d'une autre fonction de la bibliothèque 6 IT : "fillStringAndAlign" qui permet d'effectuer les opérations de formatage de base.

 Le composant tUnite permet de fusionner les flux en entrée dans un seul flux en sortie, qui est ensuite transmis au composant tSortRow. Ce composant permet de trier les lignes pour les remettre dans l'ordre voulu dans le fichier en sortie du job.








Enfin, le composant tMap permet simplement de mapper la zone "data" dans le fichier texte en sortie.

J'espère que ces 2 articles vous ont donné des idées. N'hésitez pas à commenter et à nous donner vos propres astuces.

Et n'hésitez pas à me contacter si vous avez des questions, des besoins particuliers : jmd@6it.fr

lundi 5 septembre 2011

Nouveau site Web

Un peu de changement chez 6 IT : un  nouveau site Web : http://www.6it.fr/

Rien de radical côté graphique, juste un peu plus de place pour le contenu, références clients notamment
Et une version en anglais : Nous avons en effet quelques pistes en Europe et on se devait d'avoir une version pour les non francophones

En attendant très prochainement un site de démonstration du pack Performance : restez à l'écoute !

mercredi 31 août 2011

Apple, je t'aime, moi non plus

Autant vous le dire tout de suite : je n'ai ni iMac, ni iPhone, ni iPad. J'ai juste installé iTunes sur mon ordinateur pour pouvoir synchroniser l'iPod de ma fille que sa grand-mère lui a acheté.
Apple (Lorsque Jobs a été aux commandes) a su, depuis 30 ans, révolutionner le marché, d'abord de l'informatique personnelle avec le Macintosh, puis de l'informatique de loisir avec l'iPod, l'iPhone et l'iPad.

Le Macintosh a poussé IBM à sortir un ordinateur de bureau (à 1000 lieues du Macintosh en termes de fonctionnalités), ce qui a ensuite généré la vague du Client/Serveur, au passage pas vraiment une bonne chose pour les entreprises.
Puis Apple a révolutionné le monde de la musique avec son iPod.
Il a ensuite bousculé le marché de la téléphonie avec l'iPhone.
Et il révolutionne aujourd'hui les usages de l'informatique personnelle avec l'iPad.
Microsoft, qui avait pris le leadership durant 20 ans, est aujourd'hui à la traîne et essaie de combler le retard accumulé depuis le départ de son fondateur, Bill Gates

Et qu'est-ce qui fait le succès de ces produits ?
Steve Jobs a su créer des produits réellement simples d'emploi et les rendre indispensables, grâce à un marketing parfait et à son charisme à la tête de la société.
Une batterie qui dure 7 heures, un portable qui s'allume presque instantanément, une ergonomie simple et productive : voilà à mon sens les points forts des produits Apple.
Je ne comprends toujours pas pourquoi les fabricants de PC ne sont pas capables de sortir des modèles équivalents, juste Sony qui sort un peu du lot.

Alors, qu'est-ce qui ne va pas chez Apple ?
Malgré tous ces atouts, il y a quelques points qui me chagrinent :
  • Apple fait des marges monstrueuses sur ses ventes et il faut payer le prix fort pour acquérir ses produits : cela me dérange
  • Le système Apple a toujours été centré sur lui même et son écosystème, que ce soit au niveau du matériel ou des logiciels
    Ce n'est à mon sens pas le sens de l'histoire, qui privilégie plutôt les échanges et l'interopérabilité des systèmes
  •  Les produits Apple (matériels, logiciels, contenus) sont complètement verrouillés par Apple : aucune liberté sur l'aspect graphique, passage obligé par la caisse pour utiliser quoi que ce soit, au grand bénéfice (au propre et au figuré) d'Apple
Et que me reste-t-il, entre un Apple qui contrôle le moindre de mes gestes et contenus et un écosystème Microsoft en pleine déconfiture ?

Il me reste Google.
Autant Apple a été visionnaire sur le matériel, autant il n'a pas fourni de services véritablement révolutionnaires : un iTunes lourd et indispensable pour synchroniser ses données et quelques applis de gestion de ses photos, documents.
Google, quand à lui, a révolutionné le monde du Web et les services fournis sur le Web :
  • son moteur de recherche d'abord : aujourd'hui loin devant la concurrence même si Microsoft fait de gros efforts pour le rattraper
  • ses applications bureautiques : Gmail, Carnet d'adresses, Agenda, et dans une moindre mesure gestion de documents
  • Google Maps et l'application de navigation qui va avec : j'ai essayé des applications payantes qui ne sont selon moi pas au niveau de Google Maps
Ses produits sont également très ergonomiques et simples d'emploi. Et l'ensemble des données est stocké On-Line, j'y ai accès partout, tout le temps. Je n'ai pas peur que mon disque dur plante et de perdre tous mes contacts, même si je fais quelques sauvegardes de temps à autre.
Et tout cela gratuitement pour des besoins basiques, à un coût très raisonnable pour une utilisation en entreprise. Avec de la pub vous me direz, mais elle reste discrète et ne m'a jamais empêché d'utiliser les produits.
Et surtout, l'ensemble de ces services sont inter connectés : je clique sur un contact, je consulte sa localisation sur Google Maps et je lance la navigation pour m'y rendre. 
Idem pour un évènement sur l'agenda.
Et l'arrivée d'Android m'a permis de retrouver tous ces services sur mon smartphone.
Et la synchronisation entre smartphone, tablette, ordinateur est automatique et immédiate, pas besoin de connecter de câble ...
Pour le coup, c'est Apple qui s'inspire de Google, avec la sortie dans les semaines qui viennent du service iCloud, qui permettra de synchroniser ses données, gratuit pour 5 Go de données (Google offre environ 10 Go de données cumulées entre les différents services, sans compter Google Music en cours de déploiement).

Le départ de Steve Jobs de la société constitue un véritable défi pour Apple dans les années qui viennent ....

mardi 23 août 2011

Gestion des échanges EDI avec Talend

Il existe aujourd'hui sur le marché pas mal d'outils de "mapping" EDI, c'est-à-dire permettant de faire la correspondance, de manière plus ou moins graphique, entre des colonnes de un ou plusieurs éléments source et un ou plusieurs éléments cible. Ces éléments pouvant être des fichiers (au format EDIFACT, XML, CSV, ...), ou des tables.

Mais la traduction des fichiers échangés entre partenaires (client, fournisseurs, sous traitants, ...) ne s'arrête pas là. Il faut en général gérer un certain nombre de règles de gestion, dépendant du métier, du partenaire (plus ou moins "souple"), voire d'un dossier en particulier.

Certaines règles sont simples (formatage de zones, calcul simple entre 2 ou plusieurs zones, ...) mais d'autres viennent déstructurer le flux normal des données présentes dans l'élément source.
Par exemple, on imagine un flux de données source contenant des commandes et des lignes de commande organisées par article / produit, chaque ligne contenant également des informations sur le client destinataire de la ligne.

Mais le partenaire a besoin des données organisées par client destinataire, avec un sous total par article, et une ligne de total général, pour contrôle.
Et c'est là que le bât blesse : on arrive dans ce cas là (qui est loin d'être la minorité) aux limites de la grande majorité des outils de mapping EDI : il est alors nécessaire d'effectuer des pré ou post traitements soit avec le langage inclus dans l'outil, ou pire avec un outil externe.

Par expérience, je peux vous assurer que ces traitements peuvent devenir des usines à gaz et diminuer fortement la maintenabilité des échanges développés avec ces outils.

Talend quand à lui possède un composant de mapping relativement puissant mais ne gère pas (encore) toutes les subtilités des formats de fichier en entrée, notamment les formats EDI (EDIFACT ou INOVERT par exemple).
J'utilise donc une stratégie simple, efficace et, ce qui ne gâche rien, performante. Elle est utilisable avec n'importe quel outil d'échange de données normalement constitué.
Le principe est le suivant :
  • on charge les données des fichiers en entrée dans des tables d'une base de données relationnelle
  • chaque table possède des données identifiantes en plus des données des fichiers, qui permettent l'exécution simultanée de plusieurs jobs, sans se marcher sur les pieds (sans écraser les données du job voisin)
  • des requêtes SQL permettent d'extraire les données nécessaires en sortie, selon n'importe quel ordre et structure
    (je n'ai encore jamais vu un besoin auquel SQL ne savait pas répondre)
  • on formate le résultat en fonction du type de fichier en sortie
Les avantages de cette méthode sont multiples :
  • utilisable quelque soit l'outil d'échanges
  • beaucoup plus simple à écrire et à maintenir (sous réserve de bien structurer et commenter le SQL)
  • très performant (les moteurs de bases de données ont fait leurs preuves) : rapport de 1 à 10 sur certains traitements
  • Les données stockées en base de données peuvent être réutilisées pour envoyer des informations métiers aux utilisateurs ou leur permettre de rechercher eux même de l'information si on développe une petite application web pour cela (exemple : est-ce que la commande n° 234FR567 a bien été réceptionnée ?)
Voyons maintenant un exemple concret.
Nous allons traiter des données de facture au format EDIFACT (format de message INVOICE : http://www.stylusstudio.com/edifact/d96a/INVOIC.htm)
Globalement, le format du fichier est le suivant, chaque bloc est un segment (type de ligne) du message :
Le format attendu par le partenaire est propriétaire et le schéma ci-dessous résume les transformations à réaliser au niveau de la structure des données.





















1° étape : lecture du fichier au format EDIFACT

Non seulement la structure de ce type de fichier est complexe mais le format des données de chaque segment est tout à fait original. Qu'on en juge par un exemple :

UNB+UNOC:3+000272450154900013FIEV00+ACME+101203:1530+19146'
Les 3 premiers caractères indiquent le type de la ligne (ou segment).
le caractère "+" est le séparateur de chaque donnée.
Une même donnée peut être divisée en sous parties, séparées par le caractère ":", dans l'exemple ci dessus l'avant dernière donnée comporte une date (101203 => 03/12/2010) et une heure (1530 => 15:30).
Chaque ligne se termine par le caractère <'> (simple quote).

A part les 3 premiers caractères, déterminant le type de ligne, le format de chaque ligne varie complètement d'une ligne à l'autre. On va donc dans un premier temps utiliser un composant tFileInputPositional pour séparer les 3 premiers caractères et le reste de la ligne.















Le schéma en sortie de ce composant est le suivant :













La colonne "type" va nous permettre de reconnaître le type de ligne (segment) et la colonne "data" va être traitée (découpée), on va voir comment dans la suite de cet article.

Tout d'abord, un composant tJavaRow nous permet de renseigner quelques variables qui seront utilisées dans la suite du traitement et qui sont passées dans le schéma en sortie. Par exemple :

// le NAD party_qualifier est utilisé dans le tMap pour lier les segments NAD et RFF entre eux
if (input_row.type.equals("NAD")) {
globalMap.put("nadPartyQualifier", SixITUtils.getEdiElement(output_row.data, 1, 0));
}
A noter qu'une fonction faisant partie de la bibliothèque de fonctions 6 IT ("SixITUtils") est ici utilisée, afin de factoriser et simplifier le développement : la fonction "getEdiElement" permet de récupérer une partie d'une donnée contenue dans la ligne.

Ensuite, on utilise le composant tMap pour enregistrer les données du message dans des tables correspondant aux différents segments du message.















Le "type" de la ligne est utilisé pour envoyer les données dans les bonnes tables, grâce à l'option de filtre des éléments en sortie du composant tMap.
Chaque donnée contenue dans la ligne est extraite, grâce à la fonction déjà vue (getEdiElement) dans la colonne correspondante dans la table cible.
Certaines colonnes permettent de faire le lien entre les tables, par exemple les tables NAD et RFF.
D'autres colonnes permettent d'identifier de manière unique chaque ligne et de lier entre elles toutes les données traitées par le même job (process_id, message_ref).
Ci-dessous un extrait du paramétrage du tMap :

















Les tables en sortie sont toutes sur le même modèle :
  • une partie des colonnes permettent d'identifier chaque ligne et de lier les tables entre elles
  • la seconde partie contient les données propres à chaque type de ligne










Maintenant que l'ensemble des données du message EDI sont stockées dans des tables, vous allez pouvoir produire n'importe quel format de fichier ou fournir de l'information à vos utilisateurs, via une console de supervision métier par exemple, dans laquelle les utilisateurs pourront vérifier si une commande a bien été envoyée ou une facture a bien été reçue.

Nous verrons dans un prochain article la 2° étape du flux EDI : comment produire un fichier au format présenté au début de cet article.

jeudi 30 juin 2011

Plus de 1000 pages vues au mois de juin

Ca y est, le blog de 6 IT a dépassé au mois de juin le seuil des 1000 pages vues mensuellement.
Cela reste modeste bien sûr mais encourageant, surtout au vu de la courbe de progression.



Nous continuerons donc à alimenter ce blog d'articles je l'espère intéressants et pertinents.
Le prochain article prévu devrait concerner les bonnes pratiques de développement de flux EDI avec Talend.

En attendant, voici quelques stats issues de la consultation de ce blog :

Top 5 des articles consultés 


Origine du trafic sur le blog


Stats par Pays / Navigateur / Système d'exploitation




vendredi 24 juin 2011

Découvrez le pack Performance en images

Le pack Performance est une solution de pilotage de la performance de vos activités Supply Chain.
Il repose sur un outil de conception de tableaux de bord nativement Web, multi plate-formes, multilingue : l'installation du serveur se fait en qq minutes, le déploiement sur PC, Mac, Tablettes et Smartphones est immédiat puisqu'il ne nécessite aucun plugin, seul un navigateur est nécessaire.
Un outil innovant, simple d'emploi et très productif : vous êtes environ 3 fois plus productif avec cet outil qu'avec d'autres outils BI tels que Qlikview, Business Objects ou Cognos.


Utilisable aussi bien pour des besoins opérationnels en entrepôt ou gestion de transport, qu'au niveau stratégique dans les directions des opérations ou directions générales.
Les systèmes opérationnels ne sont pas perturbés car les données sont actualisées de manière régulière, mais toutes les requêtes effectuées par les utilisateurs ne se font pas directement sur la production.

Au delà des données de l'entrepôt ou du transport, il est également possible de les croiser avec d'autres données du SI, comme par exemple les données RH ou les données financières, afin d'avoir une vision plus complète des activités.

La solution embarque une palettes d'indicateurs des métiers de la Supply Chain, dans les domaines :
  • Finances : CA, Charges, Marge, données budgétées, prévisionnelles ou réelles, ...

  • RH : Heures, Absences, Accidents du travail, Masse salariale, ...

  • Entreposage : Volumes, Taux de service, Taux d'occupation, Avancement des opérations, Productivité, ....

  • Flux Transport : Volumes, Coûts, Kms / Kms à vide, Taux de ponctualité, Taux de remplissage, CO2, ...

           
Des indicateurs très opérationnels sont également inclus, pour chaque activité de l'entrepôt, et vous donnent une vision 360° de vos entrepôts :

Réception



Préparation



Expédition



Stockage




Zoom productivité





Des outils de simulation vous permettent de planifier vos activités à partir des données issues de votre WMS / TMS / Gestion des appros.
Faites varier 1 ou plusieurs paramètres et constatez immédiatement l'impact sur vos indicateurs.

Faites varier le prix du gasoil et mesurez l'impact sur vos coûts de transport.

Les possibilités ne sont limitées que par votre imagination.



Et pour voir le pack Performance en action

Contact : performance@6it.fr    -   +336.24.91.02.03   -   +334.84.25.17.94

.

mercredi 8 juin 2011

Bon anniversaire 6 IT

6 IT célèbre cette semaine sa première année d'existence.
Et pour fêter ça, 6 IT annonce la signature de 2 nouveaux contrats, avec un prestataire transport et un prestataire logistique.

Bon anniversaire 6 IT !

lundi 6 juin 2011

Microsoft est en train de perdre la guerre des OS

il y a un peu plus d'1 an, je publiais ce post sur mon autre blog : Microsoft est en train de perdre la guerre des OS

Je constate aujourd'hui qu'il est encore plus d'actualité, depuis la récente annonce de Windows 8, et de la probable recommandation d'utiliser HTML 5 et Javascript plutôt que Silverlight.
L'article de Julie Larson-Green, Corporate Vice President, Windows Experience est éloquent :
Today, we also talked a bit about how developers will build apps for the new system. Windows 8 apps use the power of HTML5, tapping into the native capabilities of Windows using standard JavaScript and HTML to deliver new kinds of experiences.
http://www.microsoft.com/presspass/features/2011/jun11/06-01corporatenews.aspx

Les gros efforts fournis en ce moment pour ramener Internet Explorer au niveau des autres navigateurs en ce qui concerne la compatibilité HTML 5 et les performances Javascript en sont une preuve supplémentaire.
Ceci annonce la fin programmée de Silverlight.  Les développeurs gravitant autour de l’écosystème Windows / Silverlight en sous fous de rage :
http://forums.silverlight.net/forums/p/230502/562113.aspx

Et cette annonce constitue une nouvelle étape dans la perte de vision de Microsoft, qui ne fait que suivre les évolutions dictées par les acteurs majeurs de la nouvelle ère qui démarre : Apple, Google, Amazon, Facebook, ...

dimanche 15 mai 2011

La BI 2.0

Les utilisateurs semblaient s'être résolus à extraire les données de leurs rapports décisionnels dans excel pour leur faire dire ce qu'ils voulaient bien entendre ...
L'arrivée de la nouvelle génération d'outils BI (Qlikview, Prelytis, Digdash, BI Board, ...) semble avoir réveillé les DSI des entreprises et les sociétés de service.

Ces nouveaux outils profitent des concepts et bonnes pratiques issus du Web 2.0, et de la démocratisation des appareils mobiles (smartphones et tablettes).

Voici les 3 points majeurs qui caractérisent selon moi cette nouvelle génération d'outils, les process de mise en oeuvre associés et les changements dans leur utilisation que cela implique.

La BI devient Agile

Par les outils :
  • Désynchronisation entre les sources / modèles de données et la représentation graphique de ces données (sous forme d'indicateurs / objectifs)
    Il devient très simple d'ajouter des indicateurs calculés à partir des données issues du SI (ou de modifier leur règle de calcul) et d'en faire profiter immédiatement les tableaux de bord qui en dépendent
  • Conception graphique des tableaux de bord par assemblage de graphiques et/ou tableaux
    Chaque graphique / tableau est également disponible indépendamment pour être assemblé sur d'autres supports : Intranet, Extranet, Site Web ....
  • Possibilité de mixer dans un même tableau de bord plusieurs sources de données 
    • structurées : bases de données, fichiers, flux BI existants, ...
    • et non structurées : flux RSS, extraits web, ...
  •  Utilisation interactive : plutôt que d'afficher de manière statique des "rapports" longs de plusieurs pages et larges de dizaines de colonnes, dans lesquels on ne sait plus distinguer L'INDICATEUR qui doit nous aider à prendre la bonne décision, on utilise plutôt des tableaux de bord synthétiques, réactifs, interactifs, qui permettent de comparer des indicateurs par rapport à des objectifs de performance, de faire varier des paramètres afin de constater instantanément leur impact sur ces mêmes indicateurs (scénarios de simulation - "what if" scenarios)

Par la démarche de mise en oeuvre (de type SCRUM) :
  • Démarrer la définition des besoins avec des éléments concrets (des tableaux de bord adaptés au métier) pour faire réagir les utilisateurs
  • Livraisons régulières avec démos des tableaux de bord, recueil des retours des utilisateurs, priorisations des besoins, ré-estimation du budget
  • Implication des utilisateurs clés tout au long du process

La BI devient Mobile

De par leur disponibilité sur les navigateurs web (si possible sans plugins), les tableaux de bord sont disponibles :
  • Partout : dans l'entreprise, au domicile, dans les lieux publics, voire même en voiture (disponibilité des indicateurs sous forme de vidéos commentées, sécurité oblige)
  • Sur tous types de terminaux supportant les navigateurs web modernes : PC, Mac, tablettes, smartphones, ...
  • Sous différents formats (en fonction de la taille de l'écran)
La nouvelle plate-forme Chrome OS lancée par Google va tout à fait dans ce sens 


La BI devient Collaborative

Les indicateurs sont bien sûr destinés en priorité aux utilisateurs de l'entreprise mais certains indicateurs / tableaux de bord peuvent être partagés avec les partenaires, les clients, les fournisseurs.

La disponibilité des plate-formes BI en mode hébergé (ou Cloud pour être à la mode) facilite la mise à disposition des indicateurs à l'extérieur de l'entreprise (avec bien sûr la confidentialité d'accès associée aux données).
Il devient également possible d'aggréger les données en fonction du partenaire qui les consulte.
Par exemple : aggrégation des données de plusieurs prestataires de services d'un même client pour donner une vision agrégée de ces indicateurs à ce client.
Chaque partenaire enrichit ses données et en met une partie à disposition de ses clients, partenaires, ...
Un réseau de collaboration et un process gagnant / gagnant entre partenaires économiques se met progressivement en place ....

Les métiers de la Supply Chain, par nature éclatés géographiquement et mettant en relation de nombreux tiers partenaires sont les plus appropriés à profiter des évolutions des Systèmes d'Information qui sont en cours, et notamment concernant la BI.
J'imagine par exemple très bien agréger les indicateurs des prestataires Transport d'un industriel ou d'un distributeur afin de lui donner une vision de synthèse de ses KPIs (CO2 consommé par UVC, Coût du transport par colis, par kg, ....).

mardi 19 avril 2011

La BI Agile

On parle beaucoup de BI Mobile en ce moment, c'est à la mode.
En gros, cela voudrait dire : les outils BI sont ils capables d'afficher des données sur nos nouveaux terminaux mobiles : smartphones et tablettes ?
Mais je poserais la question différemment : la BI est elle Agile ?
Agile au sens étymologique du terme :
"Dont les mouvements sont souples et rapides, Qui comprend vite"

Par là, je veux dire des indicateurs / tableaux de bord, tableaux qui ne s'afficheraient pas de manière statique dans des "rapports" longs de plusieurs pages et larges de dizaines de colonnes, dans lesquels on ne sait plus distinguer L'INDICATEUR qui doit nous aider à prendre la bonne décision.

Mais plutôt des tableaux de bord synthétiques, réactifs, interactifs, qui permettent de comparer des indicateurs par rapport à des objectifs de performance, de faire varier des paramètres afin de constater instantanément leur impact sur ces mêmes indicateurs (scénarios de simulation - "what if" scenarios).
Des outils qui permettent d'ajouter simplement des indicateurs calculés à partir des données issues du SI (ou de modifier la règle de calcul) et d'en faire profiter immédiatement les
tableaux de bord qui en ont besoin.
Des outils qui permettent de partager les indicateurs dans l'entreprise mais aussi à l'extérieur de l'entreprise (clients, partenaires, fournisseurs), depuis l'extérieur du réseau (via internet), sur tous les terminaux, mobiles ou non, connectés ou pas au réseau.

Ces besoins, et les outils qui les satisfont, me semblent être le futur (le présent ?) de la BI.
Qu'en pensez vous ?

mercredi 13 avril 2011

Comparatif Digdash / Qlikview

La nouvelle génération des outils de BI est en plein essor en ce moment. Qlikview a été l'un des précurseurs, mais ses concepts étaient apparamment en gestation chez ses concurrents car d'autres solutions n'ont pas tardé à voir le jour.
Rappelons d'abord les principes de ces nouveaux outils :
  • L'affichage des données n'est plus figé et conditionné à l'envoi de requêtes à une base de données (relationnelle ou OLAP) mais tout ou partie des données est chargée en mémoire (du poste client et/ou du serveur), ce qui donne une grande réactivité aux tableaux de bord et une interactivité qui permet d’accélérer l'analyse et la prise de décision. 
  • Tout ou partie des axes d'analyse (ou des dimensions) est disponible pour l'utilisateur, qui va pouvoir progressivement raffiner son analyse.
    Un indicateur va pouvoir être analysé selon l'ensemble de ses axes d'analyse, à la demande
  • Les tableaux de bord / graphiques / tableaux sont interactifs : un clic sur une zone d'un graphique va permettre de zoomer (descendre dans le détail) sur une donnée ou filtrer les informations sur cette donnée
    Associée à la disponibilité des données en mémoire, ceci permet à l'utilisateur d'analyser très rapidement ses informations et identifier les problèmes / axes d'amélioration.
  • Des fonctions de simulation sont fournies qui permettent de faire varier un ou plusieurs paramètres et analyser en temps réel leur impact sur les autres indicateurs.
En dehors de Qlikview, je travaille aujourd'hui avec la solution Digdash et j'ai voulu faire un comparatif entre les 2 outils qui se rapprochent assez en termes de fonctionnalités.
Je me suis également appuyé sur les compétences d'un partenaire intégrateur de Qlikview pour valider certains points de Qlikview que je ne connaissais pas forcément en détail.


Architecture technique

Il y a tout d'abord une grosse différence en termes d'architecture technique, qui peut être un premier facteur de choix en fonction du contexte de l'entreprise :
  • Qlikview repose sur une architecture Windows, que ce soit pour son client riche (logiciel Windows) ou ses serveurs applicatifs et Web (Windows Server / IIS)
    Ce qui le destine en priorité (mais pas seulement) aux entreprises ayant déployé leur SI sur une architecture Windows.
    Si Qlikview est déployé sur un serveur Web IIS, les tableaux de bord sont disponibles sur navigateur web (Internet Explorer en priorité, mais aussi Firefox, Chrome et Safari, avec un moins bon rendu).
    A noter que toutes les fonctionnalités d'affichage ne sont pas disponibles sur tous les navigateurs Web.
    A noter également que Qlikview travaille actuellement sur un client web full HTML qui sera disponible sur les plate-formes mobiles (smartphones et tablettes).
  • Digdash repose sur un serveur applicatif développé en java, fonctionnant par défaut avec Tomcat et Apache comme serveur Web
    Le client fonctionne sur un navigateur web moderne (Firefox, Chrome, Safari et Internet Explorer 7, 8 et 9).
    L'ensemble est donc déployable au choix sur des serveurs Windows ou Linux (voire AS400) et des terminaux Windows, Mac, iPad, Android, ...



Internationalisation

En termes de déploiement international, Digdash est conçu de base pour fonctionner en mode multilingue : l'ensemble des libellés (axes, indicateurs) peut être défini dans diverses langues et s'adapte en fonction de la langue de l'utilisateur. Les libellés des dates varient également en fonction de la langue de l'utilisateur.

Qlikview ne gère pas nativement le multilingue. Il est cependant possible de mettre en place un mécanisme de traduction des libellés dans l'interface en les remplaçant par des fonctions retournant le texte.
Il vaut donc mieux prévoir cela dés le départ et seuls les textes sont traduits, pas les noms des champs ni des tables. On profite donc de la souplesse de l'outil pour compenser en partie une fonctionnalité importante qui manque.



Gestion des utilisateurs / des droits


Digdash gère les utilisateurs dans un annuaire LDAP embarqué ou dans l'annuaire de l'entreprise.
Les droits sont gérés sur 3 niveaux :
  • Les autorisations (Afficher un tableau de bord, Editer un tableau de bord, ...) peuvent être attribuées à un utilisateur
  • Les groupes d'autorisations permettent de regrouper des autorisations et les attribuer à un utilisateur
  • Les profils permettent de donner des accès aux sources de données (voir plus loin) et aux graphiques des tableaux de bord
Qlikview peut gérer la sécurité lui même ou se connecter à un annuaire d'entreprise (en gérant utilisateurs ou groupes). On distinguera :
  • La sécurité au niveau du portail pour définir qui a accès à quelle application,
  • La sécurité au niveau des fonctions dans l'application (droit de rafraîchir, droit d'exporter...),
  • La sécurité pour la visibilité des éléments (affichage conditionnel des onglets ou des objets),
  • La sécurité des données pour masquer tout ou partie des informations de la base en mémoire, voir pour publier des applications réduites aux seules données autorisées.



Sources et modélisation des données

Digdash sépare clairement la notion de "Modèle de données" et la visualisation de ces données.
Les modèles de données décrivent :
  • la source des données (base de données, fichier CSV, Excel, ... mais aussi Rapport Business Objects ou Cognos, Cube OLAP), 
  • les dimensions qui y sont définies (avec leurs hiérarchies éventuelles), 
  • les indicateurs (bruts, ou calculés à partir des indicateurs bruts),
  • la fréquence de rafraîchissement de ces données.
Ces modèles de données sont ensuite utilisés dans les graphiques ou les tableaux. On définit ici :
  • le mode d'affichage (courbes, colonnes, camemberts, cartographie, ...),
  • les axes et indicateurs qui y seront affichés, 
  • leurs paramètres d'affichage et de navigation (zoom, filtre, ...).On assemble enfin les graphiques et les tableaux dans les pages du tableau de bord.
On conçoit donc plusieurs modèles de données (qu'on pourrait appeler "cubes") élémentaires et indépendants et on les utilise au gré des besoins au sein du tableau de bord.
Le lien entre les différentes sources de données se fera, si besoin, par le nom des axes d'analyse communs aux sources de données.
La conception et la maintenance s'en trouvent grandement simplifiées.

Qlikview, quand à lui, va un peu loin dans la partie alimentation des données, à l'aide d'un langage propriétaire de scripting.
Les relations entre les données sont faites principalement par le nom des "colonnes" de chaque "table" ou requête. L'unicité des noms des colonnes dans le modèle doit être assuré ou résolu à l'aide d'alias.
Pour des modèles de données sources complexes, le script à écrire peut vite représenter plusieurs pages, qu'il faudra prendre garde de bien commenter, sous peine de maintenance difficile.
Le schéma des données ainsi constitué définit la source des futurs graphiques et tableaux de bord. On ne définit pas à ce niveau les colonnes qui constitueront les axes (dimensions) et les indicateurs. Cela devra être fait dans chaque objet du tableau de bord.
De même, les éventuels indicateurs calculés devront être dupliqués s'il y a besoin de les afficher dans plusieurs graphiques ou tableaux.
A noter que les formules de calculs utilisées dans les graphiques ou tableaux peuvent être mutualisées sous forme de variable (un peu à la façon de macro). C'est là aussi profiter de la souplesse du produit mais ce n'est pas une fonctionnalité mise en avant.



Visualisation des données

Les possibilités de paramétrage offertes pat Qlikview sont beaucoup plus riches que celles de Digdash. On sent que le logiciel a pas mal d'années d'expérience et que les paramètres ont été ajoutés au fur et à mesure.
Ils sont répartis dans une dizaine d'onglets.
Le logiciel aurait à mon avis besoin d'un nettoyage car il n'y a pas toujours de logique dans le positionnement des paramètres dans les onglets et en fonction du graphique utilisé, le choix des paramètres est tellement riche qu'on ne sait plus trop quel paramètre choisir pour réaliser le besoin. On s'habitue petit à petit mais la prise en mains s'en trouve ralentie.

Digdash, au contraire, est plus simpliste : il lui manque certains paramètres mais c'est en contrepartie la garantie d'une productivité plus grande et d'une prise en mains plus rapide.

Les 2 outils proposent des listes permettant de filtrer les données sur les différents axes d'analyse disponibles dans le modèle. Ces listes sont positionnables dans les pages.
Digdash propose également, par défaut, d'afficher les listes dans une "barre de filtres", en haut de la page. Les filtres affichés dans cette barre sont paramétrables. Si une hiérarchie a été définie sur l'axe d'analyse (ex : année / mois / jour), les différents niveaux d'analyse sont disponibles sur une même liste.

Il est également possible, dans Digdash, de spécifier un filtre pour chaque objet graphique ou tableau, qui sera utilisé à lors du premier affichage de la page, libre ensuite à l'utilisateur de modifier le filtre.
Il n'y a pas d'équivalence dans Qlikview car tous les objets sont liés entre eux donc filtrés ensemble (sauf exception car on peut verrouiller des objets simplement ou utiliser les fonctions de filtrage : cf. ci dessous)

La comparaison de 2 membres d'un même niveau de hiérarchie (ex : mois M vs mois M-1), passe dans les 2 cas par la création d'indicateurs calculés :
  • dans Digdash, cela se fait à l'aide d'un assistant graphique qui permet de définir le filtre pour chaque indicateur calculé (=> "mois M" = mois en cours, "mois M-1" = mois en cours - 1)
  • dans Qlikview, cela se fait à l'aide d'une syntaxe de formule (les fameux "set analysis"), qui n'est pas triviale et peut rapidement devenir difficilement maintenable
    Par exemple (cas très simple) : Sum({lt;cpt_mois={"-1"}>} CA)
Digdash intègre un graphique cartographique, lié à une dimension hiérarchique de type géographie (ex : Département, Région, Pays), que l'on paramètre en reliant chaque niveau de la hiérarchie à un niveau de la cartographie.
La carte est de fait interactive : elle permet de zoomer par exemple sur un pays, d'afficher le détail par région, puis par département d'une région.

Qlikview passe par une intégration de cartes Google Maps, sur lesquelles on affiche des symboles, plus ou moins gros ou de couleurs différentes en fonction de la valeur d'un indicateur.
Il est également possible de zoomer sur la carte et on peut aussi mettre en place un système de choix de la granularité (département, région, pays, ...), mais avec Google Maps ce dernier mécanisme demande un peu de travail préparatoire et ici encore c'est la souplesse du produit qui le permet mais pas une fonctionnalité native.
Il existe également des solutions externes telles que celle proposée par GeoQlik, par exemple, qui propose plus de fonctionnalités mais est un module payant, venant ainsi alourdir la facture.

Enfin, les 2 outils fournissent des fonctions de simulation, en définissant des variables, qui vont entrer dans le calcul d'indicateurs calculés, ces indicateurs étant ensuite affichés dans des graphiques ou tableaux.
La seule différence sur ce point est que la définition des variables et indicateurs calculés va se faire, pour Digdash, dans les sources de données et être utilisé dans un ou plusieurs graphiques ou tableaux, alors que pour Qlikview, la définition des indicateurs calculés va se faire dans chaque graphique / tableau qui doit afficher cet indicateur.

Un des avantages de Qlikview aujourd'hui réside dans sa fonction de recherche dans les axes d'analyse, que ne propose pas Digdash. Mais j'ai cru comprendre que cette fonction était dans la roadmap de Digdash, reste à savoir comment elle va être implémentée ...

Une fonctionnalité originale et innovante est fournie par Digdash : la possibilité de générer automatiquement une vidéo commentée des graphiques d'un tableau de bord. La liste des graphiques concernés est paramétrable. Les différentes valeurs des indicateurs concernés par le graphique sont affichées avec animation et commentées (génération de parole, dans les différentes langues supportées par Digdash). Le texte à dire est paramétrable dans le graphique.
Cette vidéo pourra être envoyée automatiquement par mail et lue sur un terminal mobile (smartphone ou tablette).



Conclusion
On se rend compte que les 2 outils sont assez proches en termes de fonctionnalités mais diffèrent sur quelques points majeurs :
  • L'architecture technique : plus ouverte pour Digdash que pour Qlikview
  • L'internationalisation : native chez Digdash, disponible chez Qlikview en le prévoyant dés le départ et en développant les fonctionnalités à l'aide de son langage de scripting
  • Structuration des développements : 
    • chez Digdash : Séparation claire de la partie Modèle de données (incluant la définition des axes d'analyse et des indicateurs) et de la partie Visualisation des données
    • chez Qlikview : partie alimentation des données plus riche (attention à la maintenance) mais nécessité de définir dans chaque graphique / tableau quelle colonne est un axe ou un indicateur et risque de dupliquer les règles de calcul des indicateurs calculés
  • Visualisation des données : palette de types d'affichage et de paramètres beaucoup plus riche (trop ?) chez Qlikview, en contrepartie prise en mains et productivité plus grande sur Digdash 
En termes de prise en main par les utilisateurs des entreprises, je dirais que si un travail de préparation, structuré et rigoureux, a été mené par les équipes techniques, Qlikview est un outil très riche en fonctionnalités et simple de prise en main.

Digdash, quand à lui, est plus frustre en termes de fonctions graphiques, mais sa structuration et ses fonctions natives et assistées permettent de monter une plate-forme de manière très productive voire de déléguer aux utilisateurs une bonne partie de la conception des tableaux de bord (modèles axes d'analyse / indicateurs notamment).

samedi 9 avril 2011

Synchronisez vos contacts Viadeo, Linkedin, Gmail, ...

Depuis le temps que je cherche un outil me permettant de synchroniser mes contacts Viadeo et LinkedIn, voici enfin un outil qui se rapproche de l'outil idéal. Il ne lui manque que quelques fonctions.
Il s'agit de Memotoo (http://www.memotoo.com/). Jugez en plutôt :
  • Synchronisation de vos contacts par rapport à de nombreuses sources de données (Viadeo, Linkedin, Facebook, clients mail divers, téléphone, ....)
    40 sources de données sont disponibles aujourd'hui



    Résultat : => 1 seule fiche pour chaque contact importé des diverses sources
  • Affichage des données sous forme de cartes ou en liste, possibilité de grouper les contacts, ...


  • Import / export vers comptes mail ou téléphones
  • Possibilité d'appeler (via Skype ou autre) un contact et lui envoyer un SMS en cliquant sur son n° de téléphone
  • Et un petit gadget que j'adore : affichage cartographique des contacts

    Avec possibilité d'afficher directement Google Maps à partir de l'adresse du contact
  • Et encore : synchronisation des tâches, agendas avec là encore toute une panoplie d'outils
Il ne manque que quelques fonctions telles que :