La problématique du benchmarking en Systèmes d’Information

Posté par managementworld le 10 juin 2008

Issues du monde de la production, les méthodes comparatives ont investi les directions informatiques. Qui apprécient leur efficacité quand il s’agit de diminuer les coûts, mais critiquent l’insuffisance de modèles de référence.

Dans un contexte de coûts et de charges, les méthodes comparatives du benchmarking peuvent servir de support de communication. Ce qui n’est pas inintéressant pour des DSI de plus en plus souvent confrontés à des demandes de justification. Pour Frédéric Leconte, ex-DSI d’Amadeus France, « Le benchmarking sert à prouver à ma direction générale que l’argent qu’elle m’a confié est bien dépensé ». Dans la même logique, l’ancien DSI de Sodexho y voit un outil de communication : « Nous tentons de faire comprendre aux directions générales et aux informaticiens comment se forment les coûts, poursuit Patrick Gargula. Nous sommes en mesure, par exemple, de connaître les charges induites par l’achat de mille PC supplémentaires. » 

Le poids insuffisant de l’échantillon de référence

Reste que l’intérêt du benchmarking est fortement limité par son besoin de normalisation : ne peuvent être comparées que des choses comparables. Or, il est difficile de confronter son informatique à celles d’autres entreprises. Même si elles appartiennent au même secteur d’activité. Les systèmes d’information dépendent très fortement de la culture, de l’organisation et de l’objectif de chacune d’elles. Ainsi, François Drouin, DSI du groupe Printemps, estime que « comparer son entreprise à d’autres, comme Auchan ou Leclerc, ne présente pas d’intérêt particulier. En effet, le Printemps a une utilisation bien spécifique de ses outils informatiques. », la comparaison avec des entreprises à l’activité différente ne le gêne pas. « L’important est de recourir à des métriques objectives, qui soient reconnues de tous », résume-t-il. Même son de cloche chez Jérôme Fourmont, ex-DSI de Christian Dior Couture, pour lequel « une reconnaissance collégiale des indicateurs de performances est un nécessaire préalable au benchmarking » . Mais il estime que « l’interprétation des indicateurs est très discutable ». Et va même plus loin, soulignant que « sans l’existence de méthodes éprouvées, on ne valorisera toujours pas le retour sur investissement, ni le bénéfice rendu à l’entreprise ».

Ce problème de la pertinence des indicateurs est particulièrement criant sur le périmètre des études et développement. Patrick Gargula en a fait l’expérience, estimant, in fine, que les résultats obtenus dans ce domaine ne sont pas satisfaisants. « Il a fallu dépenser beaucoup d’énergie – et notamment effectuer un important travail de définition des métriques -, pour un résultat faible », déplore-t-il. Un résultat en outre contestable sur ce périmètre, car, « le choix de l’échantillon des applications n’est pas neutre dans les résultats ». Et de conclure qu’ « il est plus important de respecter scrupuleusement les bonnes pratiques connues de tous pour la gestion de projet que de faire du benchmarking en matière d’études et développement ». Un problème que le Cigref avait déjà relevé, en 1999, dans un rapport sur le benchmarking informatique : « Contrairement au monde de la production, le monde des études et du développement se montre beaucoup plus réticent à la mesure et à la comparaison. » 

Un outil pas toujours adapté aux technologies nouvelles

Entre concurrence pure et compétition, le benchmarking pose également la question de l’avantage concurrentiel : « Notre marché ne nous permet pas de nous comparer à nos concurrents directs. Et bien sûr, c’est dommage », regrette Patrick Gargula. Encore plus tranché, Didier Lambert, DSI d’Essilor, remet en cause l’intérêt même de l’analyse comparative. « Se comparer à des moyennes, c’est se condamner à la médiocrité. » Un problème d’autant plus crucial pour un groupe « qui est leader mondial et sans industrie comparable », ajoute-t-il.

Outre les questions de concurrence et de leadership, l’autre problème posé par le benchmarking est celui du temps de constitution d’une base de référence de qualité, qui s’étale sur plusieurs années. Il est donc très difficile d’employer cette pratique sur des technologies, des architectures ou des méthodes récentes ou innovantes. Un constat que soulevait déjà, là aussi, le Cigref en 1999 : « Les modèles proposés pour le benchmarking de production,… sont en partie obsolètes en ce qu’ils ne permettent pas toujours la prise en compte des plates-formes plus récentes. » Un point de vue que reconnaissent à demi-mot les consultants de Compass : « La couverture des problématiques liées aux nouvelles technologies est partielle », admet Francis Capdepuy. Dominique Loos, responsable des opérations actions du Crédit Lyonnais, en a fait l’expérience : « Récemment, lors du choix de notre logiciel d’EAI, nous avons dû lancer un appel d’offres auprès de huit fournisseurs pour comparer leurs propositions, car le benchmarking sur ce type de solutions n’existe pas vraiment aujourd’hui. Ces technologies sont trop récentes sur le marché », précise-t-il.

Le problème peut se poser de façon encore plus aiguë : « Quelle pertinence peut-on accorder à une base de référence intégrant une société de services qui, par exemple, aurait disparu ? » argumente François Drouin, DSI du Printemps. Pour rester significative, cette base de références doit également être mise à jour régulièrement. « La base de clients Transpac de Compass était suffisamment importante au moment du lancement du benchmarking. En revanche, elle ne l’était pas pour ce qui concerne les autres fournisseurs concurrents, tels que Cegetel et LDCom », explique Frédéric Leconte, ancien DSI d’Amadeus France.

Améliorer la pertinence économique

               Campant résolument dans le camp des irréductibles, Didier Lambert (Essilor) n’accorde aucun crédit au benchmarking en matière de gouvernance informatique : « L’expression  » benchmarking des directions informatiques  » est une escroquerie. Elle tend à faire croire que notre métier est suffisamment mature pour disposer de points de comparaison indiscutables. Ce qui est faux. Le partage d’expériences et l’analyse des succès et bonnes idées des autres constituent des pistes beaucoup plus intéressantes. ». Cet intérêt pour le partage d’expériences est également mis en avant par Jérôme Fourmont, qui s’était orienté tout naturellement vers les autres filiales du groupe LVMH : « J’ai recherché des indicateurs extérieurs pour pouvoir me comparer aux autres DSI du groupe. Après de nombreux échanges fructueux, j’ai trouvé des mesures communes et des  » manières de faire  » pour conduire certaines opérations spécifiques. »

           Economies d’un côté, stratégies d’innovation de l’autre : peut-être faudrait-il, pour concilier les deux, être capable d’associer aussi les méthodes et les outils, c’est-à-dire identifier les bonnes pratiques afin de pouvoir les partager.

Source: http://www.01net.com/article/247812.html

Publié dans Benchmarking | Pas de Commentaire »

 

leboutet3 |
victoire |
DrinkACT rentre dans la cat... |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | Dan G Production
| Polynetia Consulting
| Lectronitec à bon Marché