Second Life

25/05/12

Loin de moi l’idée de téléporter les Directeurs Informatiques dans un monde virtuel où leur avatar prendrait du bon temps professionnel. Un monde où ils siègeraient au comité de direction aux côtés de l’avatar du Directeur Financier. Où l’on entendrait que l’informatique a des contraintes et où l’on écouterait les recommandations des professionnels qui s’en occupent. Enfin, un monde où ils pourraient alerter sur le coût et la difficulté probable de certains projets dès leur lancement. Mon questionnement du moment, et le titre qui s’y rapporte, porte sur l’analyse des éléments remarquables de la profession de DSI d’aujourd’hui vis-à-vis des préoccupations d’hier. La deuxième vie du DSI au sens de l’évolution de son métier et non d’une double vie, qu’il pourrait avoir en parallèle.

Je partage souvent ce questionnement avec mon ami Eric Boulay, et nous convergeons sur l’idée qu’aujourd’hui, un DSI fort et utile à sa société, est celui qui à tout moment peut qualifier la capacité de changement de son entreprise. Nous nous accordons finalement sur le fait que la contribution du DSI aux enjeux de la transformation pourrait même être le principal challenge d’une DSI moderne. Pourtant à y regarder de plus près, j’ai bien l’impression que les DSI connaissent cet enjeu depuis longtemps, mais que ce qui est plus récent, c’est la reconnaissance qu’il ne peut être adressé sans un certain niveau d’outillage. Y a-t-il un DRH qui puisse analyser la capacité d’internationalisation ou de co-développement de sa société sans l’aide de son outil de gestion des ressources humaines ? Il y trouvera les profils de ses collaborateurs, leur mobilité, leur niveau de langue, …. selon des évaluations précises et datées probablement issues des entretiens annuels. Y-a-t-il un directeur financier qui appuierait une opération d’investissement, sans l’aides des outils de la comptabilité et du contrôle de gestion ?

S’agissant de l’outillage des DSI, et au-delà des solutions de productivité pour les activités d’études, développement, ou pour la production, il est d’actualité de reconnaître que le DSI, dans sa fonction de manager, a aussi besoin d’outil de gestion des assets informatiques dont il a la responsabilité. Il s’agit parfois de plusieurs milliers d’applications, dans des dizaines de pays, portés par des technologies variées, désormais en partie dans les nuages, caractérisées par des modèle de coûts et risques complexes… Sans inventaire précis, sans évaluations et caractérisation à jour, il faudrait qu’un DSI puisse par exemple s’engager sur une économie du coût du portefeuille applicatif ? Il faudrait qu’il puisse garantir la capacité d’internalisation/externalisation de telles ou telles activités. Il faudrait qu’il puisse garantir la continuité de service a priori en cas de désastre majeur. Comment pourrait-il le faire sans outils ?

Le portfolio management et en particulier l’application portfolio management (l’APM) s’impose comme l’outil support des responsabilités de management des directeurs informatique. Il recapitalise l’effort d’inventaire du patrimoine informatique réalisé à l’occasion d’initiatives d’architecture (cartographie) dans un moteur de scénarisation de la transformation. C’est l’outil d’aide à la décision, au service de ce qui pourrait bien être la seconde vie des DSI : instruire et arbitrer la composante opérationnelle des projets de transformation.

Quelle Gouvernance ?

14/05/10

J’avais décidé de changer un peu de sujet. J’avais suffisamment développé de points de vue sur la gouvernance d’entreprise dans mes derniers billets. J’avais donc envie de vous parler un peu plus de système d’information, quand l’actualité me fournit les illustrations de mes précédents propos. Encore un billet donc sur la dépendance entre la gestion des risques et les choix de gouvernance d’entreprise.

Dans cette actualité, ce n’est pas tant ‘le talent’ de Jérôme Kerviel ou de Fabrice Tourre à faire trembler l’économie mondiale qui a retenu mon attention, mais bien d’avantage l’effondrement de la plate-forme pétrolière de BP. Cette catastrophe industrielle est d’ailleurs certainement plus parlante pour illustrer la limite de la seule gouvernance financière dans une politique de gestion de risque, que tout autre exemple. Si nous étions dans l’hypothèse de la survenance d’un tel évènement, quel mixte de fonds propres et d’assurance aurait-on simulé ? Nous sommes ici dans le cas typique du risque ‘peu fréquent’ mais ‘très sévère’. Comme pour ‘l’affaire Kerviel’, il y a fort à parier que quelle que soit la rigueur probable de BP dans la modélisation de ses risques, l’ampleur des conséquences ait largement dépassé les capacités des modèles.

La réponse rétrospective à ce qui s’annonce comme une catastrophe écologique majeure, est une fois encore la prévention par les techniques de l’assurance qualité. La future règlementation que l’on évoque conduira à la mise en place de sévères procédures de contrôle sur des instruments de mitigation de risques opérationnels (vannes, tests, essais, …). Ces dispositifs qui visent à réduire la probabilité de survenance et l’ampleur du sinistre, font partie du dispositif d’excellence opérationnelle, qui ne peut être que l’instrument principal de maîtrise des risques.

Dans cet Aparté, et en vous renvoyant à la lecture de mon white paper sur ce thème, je voudrais juste partager avec vous l’idée que , face à son exposition aux risques aucune entreprise n’est assez riche pour faire l’économie d’un sérieux dispositif de mitigation opérationnel. Ne faites pas comme 80% de nos concitoyens, n’attendez pas d’être cambriolé pour vous doter d’un système anti effraction…

White paper - Gestion des risques - F.Tabourot

Bonnes résolutions

11/09/09

Fin des vacances, retour au bureau. Avant de replonger dans les bonnes résolutions pour le dernier tiers de l’année, je fais rapidement le bilan de mes objectifs d’été. J’avais quelques projets d’écriture et d’autres de lecture, objectifs tenus.

Je rentre avec la confirmation que la préoccupation dominante des pratiques de gestion des risques, telles qu’elles sont publiées dans les ouvrages de référence, ou débattues au sein des organisations professionnelles, est incontestablement, la garantie de solvabilité de l’entreprise face à son exposition aux risques (en particulier pour les entreprises financières). Toujours pas le moindre chapitre dédié à la gouvernance de l’excellence opérationnelle !

La méthode d’évaluation du risque et surtout de comptabilisation dans un contexte règlementaire, reste un exercice de spécialiste de la statistique, de la comptabilité et de la règlementation. A ce sujet et si vos congés vous ont été suffisamment profitables pour le moral, vous pouvez lire « la crise et après » de Jacques Attali qui explique simplement certains de ces mécanismes pourtant complexes. Dans cette vision, si les risques résultent de l’exécution des opérations, ils n’ont d’intérêt que pour l’évaluation de leur contrepartie en ‘capital at risk’ issue de leur modélisation mathématique. ‘Cartographie’ et ‘modélisation’ ne sont ici que des faux amis sémantiques qui ne font pas référence à des compétences d’organisateurs. En revanche, ce qu’il convient d’organiser et de doter d’un système d’information dédié, c’est si nécessaire, la collecte des incidents utiles à l’élaboration du modèle, et certainement le dispositif de contrôle qui garantit sa bonne mise en œuvre. Ce sont donc des problèmes bien différents en compétence comme en outillage et certains débats ‘GRC’ gagneraient en clarté en ne faisant pas l’économie de préciser les objectifs entre modélisation mathématique des risques et organisation du contrôle interne.

Cette écrasante vision courante qui ne justifie les pratiques de gestion de risques qu’au titre de la préservation du modèle économique mondial, ne laisse rien à ceux qui dans les opérations, chaque jour travaillent à l’excellence opérationnelle de l’entreprise. Si la domination de la culture du financier continue d’occuper tout l’espace y compris jusqu’au concept de gouvernance, qui réinventera le Taylorisme, le juste à temps, les flux tendus, la mise en ilots, l’agilité des processus…, pour faire que l’entreprise de demain réponde à sa nécessaire mission socio-économique ?

C’est un sujet qui doit sortir de cet Aparté, et je prends la nouvelle bonne résolution de tout faire pour y contribuer.

Quelle productivité pour les projets informatiques ?

14/04/09

Au début de l’été 2008, Isabelle Chevret* avait organisé une intervention de Mega dans une table ronde sur le thème de la gouvernance informatique. De la synthèse des échanges sur l’estrade comme dans la salle, je suis revenu avec le sentiment récurrent qu’il est toujours aussi difficile d’être Directeur des Systèmes d’Information (DSI).

Si proposer et faire valider sa politique de gouvernance reste le premier travail d’un DSI dans sa relation avec le comité de Direction, il n’en demeure pas moins important pour lui de définir les justes moyens, en particulier méthodologiques, dont il doit se doter pour sa mise en œuvre. Ma conviction est que pour faire face à la double pression des délais et des budgets qui pèsent sur ce processus de gouvernance, objectiver l’engagement de la DSI avec ses partenaires reste le meilleur moyen de gérer la pression qui accompagne les projets de refonte du SI.

Parmi les différentes sources de pression figure au premier plan la capacité à contractualiser l’expression de besoin au démarrage des grands projets. C’est précisément sur ce thème que les équipes de Mega, consultants et techniciens, ont réfléchi à ce que pourrait apporter les techniques de modélisation dans ce domaine. Ils ont d’abord confirmé, qu’en termes d’équilibre des problèmes à traiter vis-à-vis de l’objectif à atteindre, la formalisation du besoin initial s’avère beaucoup plus sensible que tout autre problème de productivité du développement informatique. Ils ont ensuite attiré mon attention sur l’importance du juste emploi des pratiques de modélisation, et en particulier graphiques, dans ce domaine particulier traditionnellement réservé à la ‘permissivité’ des outils bureautiques. C’est dans ce contexte qu’est née la solution MEGA System BluePrint.

Précisément positionnée entre la nécessité d’en dire suffisamment et la peur d’en raconter trop au titre d’un cahier des charges. C’est un parti pris qui traduit notre conviction, que dans les grands projets, bien exprimer ce qu’il y a à faire est un facteur de productivité supérieur à l’idée de le découvrir et l’affiner dans des itérations de cycle de développement rapide.
Comme toujours, c’est bien évidement le marché qui aura raison, mais j’avoue que je suis impatient d’en débattre avec lui, et si possible cette fois, pas en aparté

*Isabelle Chevret est Directeur Marketing et Communication

de l’architecture d’entreprise

13/03/09

La dernière réunion internationale de la force de vente de Mega a donné lieu à un passionnant débat interne sur le thème de l’architecture d’entreprise. J’ai découvert à l’occasion de celui-ci que selon les pays, les cultures, peut-être aussi selon les niveaux de maturité, cette appellation recouvre parfois une notion de moyens, parfois une idée de projet ou de livrable qui serait porteur de sa propre finalité : faire un projet d’architecture d’entreprise.

J’ai personnellement défendu le point de vue qu’il existe une pratique de l’architecture d’entreprise, vu comme un ensemble de techniques de modélisation de l’entreprise et de ses ressources (en particulier informatiques), et qu’il convient d’en définir le bon usage, au regard de deux des préoccupations majeures des DSI : planifier l’évolution du SI, faire des cahiers des charges pour maitriser les développements relatifs. C’est d’ailleurs selon cette vision, que l’offre Mega 2009 qui arrive très prochainement sur le marché, a elle-même été structurée.

J’ai trouvé ce débat très intéressant, et j’ai donc décidé de le poursuivre avec vous à l’occasion de l’évènement qu’organise à Paris marcusevans le 19 et 20 mars 2009 autour de ce thème.

Si l’on ne se croise pas le 19 mars dans le contexte de mon intervention, nous continuerons quoi qu’il en soit d’en discuter en aparté.