mercredi 27 novembre 2013

Louvois : la discussion des responsabilités de l'échec

Repris de

http://www.zdnet.fr/actualites/louvois-steria-ne-veut-pas-porter-le-chapeau-39795875.htm



Louvois : Steria ne veut pas porter le chapeau

Technologie : Associé à l’échec du système Louvois de la Défense, Steria ne veut pas être désigné comme le seul responsable et rappelle ainsi ne pas être l’éditeur du calculateur de solde, source principale de ce fiasco. La responsabilité est donc « collective ».

En raison des problèmes persistants dans le paiement des soldes des militaires français, le ministère de la Défense a finalement pris la décision d’abandonner le système Louvois. Selon Le Figaro, ce dernier devrait persister cependant encore 18 à 24 mois, le temps de déployer une nouvelle solution.
Si les ressources humaines du ministère sont épinglées pour ce fiasco, elles ne sont cependant pas les seules. Steria, un des prestataires informatiques engagés dans Louvois, est lui aussi souvent cité, notamment du fait des indemnités qu’il pourrait obtenir pour rupture de contrat.

Steria souligne la nature positive de sa mission : "mettre fin aux dysfonctionnements"
La SSII entend toutefois dénoncer le fait « d’être systématiquement amalgamé aux difficultés de Louvois » et apporter « des précisions » par le biais d’un communiqué. Steria précise ainsi ne pas être à l’origine du calculateur de soldes.


Or, comme l’indique à acteurspublics.com la députée Geneviève Gosselin-Fleur, co-auteur d’un rapport parlementaire consacré notamment à Louvois, « le problème venait principalement du calculateur de la solde. »
« Le calculateur pose un problème de fiabilité et de stabilité » ajoute-t-elle encore. Steria, selon qui sa mission consiste justement à « aider à mettre fin aux dysfonctionnements de cette solution développée par un tiers », prend donc ses distances avec cet échec retentissant.
Pas question donc d’être désigné comme le responsable. D’ailleurs, la députée Geneviève Gosselin-Fleur l’assure, « il n’y a pas un seul responsable. ». Le secrétaire général pour l'administration (SGA) au ministère de la Défense, Jean-Paul Bodin, le confirmait lui aussi à la Voix du Nord, la responsabilité est « collective ».

Dommages collatéraux de la RGPP 
Néanmoins, l'intervention de Steria ne se limitait pas au traitement des dysfonctionnements. En effet, en remportant en 2007 l'appel d'offres face à Logica, la SSII français héritait plus largement de la maitrise d'œuvre de Louvois (3) et décrochait un contrat de 6 millions d'euros. 
Pour autant, l'ancien SGA, Christian Piotre, auditionné en juin par la commission de la défense de l'Assemblée, ne met pas en cause la responsabilité des prestataires, et notamment de Steria dans cet échec.
« Je n’ai pas été informé de déficience majeure de leurs prestations. En revanche, cela a été le cas pour Louvois I et II, qui ont donné lieu à des sanctions et à des procédures contentieuses » déclarait-il.
Et la cause semble plutôt à chercher du côté des réformes successives conduites dans le cadre de la RGPP. « Je ne voudrais pas qu’on néglige la pression qu’elle exerçait sur le ministère pour faire évoluer son calendrier, en fonction de rendez-vous interministériels qui nous étaient imposés » insistait Christian Piotre.

Articles relatifs


Réagissez à l'article

10 réponses
Connectez vous ou Enregistrez-vous pour rejoindre la discussion
  • Franchement, un logiciel de paie, ce n'est quand même pas si compliqué, si ? Et surtout, c'est loin d'être nouveau !
  • On a bien compris que personne n'est responsable dans l'affaire, et que des millions d'euros ont été dépensés pour rien, mais ce n'est pas le pire : alors que nous devrions pleinement supporter notre armée, et ces gens qui s'engagent pour défendre le pays au prix de leur vie, nous ne sommes mêmes pas foutus de les payer en temps et en heure, et ça, je suis désolé, c'est clairement intolérable !

    Pour ma part, je serais pour verser une prime exceptionnelle aux militaires en guise d'excuse de la nation envers ses défenseurs. Ce serait la moindre des choses !

    HONTE à nos dirigeants pour ce nouveau fiasco !
  • Détourner l'attention sur d'autres responsables du problème semble être une politique récurrente dans ces grosses boîtes.

    Les contrats sont mirobolants, les conditions avantageuses même si le client n'est pas satisfait, et lorsqu'on en arrive au fiasco, vite, on désigne un autre coupable pour éviter de trop salir son image, et ainsi pouvoir recommencer avec les clients suivants.

    Non, c'est décidément trop simple. Ce qui est important de retenir dans cette affaire, c'est que la maitrise d'œuvre de Steria, qui nous a coûté un bras, a été un échec confirmé sur la durée.

    La tâche principale de l'entreprise était de veiller au bon déroulement des opérations, en prenant toutes les mesures nécessaires pour régler les problèmes afin d'atteindre les objectifs. La défaillance de Louvois, qui n'a pu être réglée depuis des années, est juste le révélateur que le travail pour lequel Steria a été grassement payée (avec de l'argent public, donc le nôtre) n'a pas été fait correctement. Sur la partie qui lui incombait (élaboration et contrôle de la bonne exécution du projet), elle est bien la seule et unique responsable.

    Alors, les « responsabilités partagées », c'est juste de la com' pour noyer le poisson.

    Je sais que ce n'est pas la première fois que cela arrive, pour avoir déjà travaillé à plusieurs reprises avec cette société sur des contrats qui ne se sont pas très bien passés (plus cher et plus long que prévu, objectifs pas toujours atteints). Et malheureusement, nombre de ses concurrents ne valent pas mieux. Alors, quand on se demande où passe notre argent...
    • Mouais, commentaires de pépé75 typique de l'entreprise qui ne sait pas gérer ses prestataires, surtout dans l'informatique, ou typique du commanditaire qui se spécialise dans le transfert de responsabilité vers son prestataire pour cacher son incompétence !

      Je ne suis pas là pour défendre Stéria ni n'importe quelle autre SSII, mais il serait peut être temps qu'un jour les commanditaires se responsabilise un peu, se professionnalise un minimum et comprennent que l'objectif de la SSII n'est pas du tout le même qu'eux. Qu'ils comprennent que les SSII ont l'expérience, la technique, la méthode pour faire gober de la merde à des commanditaires incompétents qui prennent pour argent comptant des énormités, et qui se plaignent ensuite de s'être fait avoir.

      L'orgueil et la bêtise sont probablement les principaux défauts, et combiner à la "sournoiserie" des SSII, vous pouvez être sur que les commanditaires, de 99% des cas payent un prix exorbitant pour un service tout juste rendu !
    • Je ne peux que plusé ce que pépé75 et muvuye15 disent : je bosse actuellement comme sous traitant pour une boite ou les architectes sont eux aussi des sous traitants, les intégrateurs sont aussi des sous traitants, bref, il ne reste que 2 ou 3 internes sur tous le lot ... qui en plus ne sont pas au top techniquement.
      Bref, on peut se demander comment ça peut tourner ... heu, nous, on ne se demande plus.
  • Petit rappel : ~75% des projets informatiques sont des échecs ; majoritairement pour des problèmes de management, beaucoup plus rarement pour des problèmes techniques.

    La chose que je ne comprends pas est comment ce système, avec tous ces dysfonctionnement, s'est-il retrouvé en production ? Je serais curieux de jeter un oeil sur la stratégie de tests et les procédures de risk management...

    Par ailleurs, si le soucis vient du moteur de calcul, je serais également curieux de voir les specs... A titre d'exemple, j'ai oeuvré sur un projet (qui s'est mal terminé) dans lequel il y avait un composant de tarification : les règles étaient tellement complexes que même les spécialistes du métier (du client) étaient incapables d'en formaliser les spécifications... résultats, après 3 ans, le projet a été abandonné et tout le monde a été perdant... et cette histoire est loin d'être une exception...
  • C'est connu depuis des années : les "grandes SSII" n'ont pas le personnel pour assurer toutes les missions qu'elles obtiennent. On se demande comment les acheteurs, qu'ils soient dans le privé ou le public peuvent encore faire appel à elles. Paresse intellectuelle, méconnaissance du marché, affinités avec les commerciaux...
    Il m'est arrivé d'être en troisième voire quatrième niveau de sous-traitant. Personne n'est dupe mais tout le monde fait "comme si". Tout le monde prend sa marge, celui qui bosse est payé, tard, avec des queues de cerises et le client paie un maximum.
    Tout va très bien Madame la marquise.
  • Allez, on tape sur les boites qui savent en général créer de la valeur...
    Il faut surtout remettre en cause le mode de fonctionnement des appels d'offre publics pour ces gros projets. La personne publique (personne n'est responsable - si le contribuable) émet un CCTP qui contient des détails incroyables sur le fonctionnement futur du système pour un projet qui va durer 4 ans. Les sociétés qui répondent n'ont pas le droit de dire "la vous avez fait une erreur, vous devriez simplifier en raisonnant de telle manière.... Nous ne pouvons pas faire ce que vous demandez, il faudrait plutôt le faire comme ça" - bref une approche relativement participative. Le CCTP contient des absurdités, on s'engage à réaliser des absurdités. Au beau milieu du projet, une nouvelle loi arrive, la RGPP et rend le CCTP complètement obsolète, pourtant il est signé pour 4 ans, on en est à deux, il y a des dates butoirs légales qui ne tiennent pas compte du projet, bref le fiasco est annoncé...
    Il faut inventer le CCTP agile qui permet d'encadrer la prestation tout en l'adaptant à la réalité du terrain et des changements législatifs qui arrivent toujours dans ces projets publics. Bref une démarche intelligente et souple qui permet de gagner du temps et de l'argent...
    Le CCTP doit passer de l'approche BTP à l'approche informatique qui travaille sur des processus qui changent dans le temps...
    • @sergio95810
      +1
      ça fait longtemps maintenant que je suis convaincu que les projets au forfait (obligation de résultat/délais) avec pénalités pour le prestataires, sont des fiascos annoncés.
      ... et depuis le temps qu'on le dit, et que la réalité le démontre chaque jour, c'est à désespérer...
  • ... moi aussi j'ai travaillé pour Steria... et tout cela est loin de m'étonner. J'en suis parti, je ne souhaitais pas polluer ma carrière avec des références aussi pourries et ma santé a me battre avec ceux que les clients ne voulaient plus... lisez plus loin!


    -- les commerciaux sont mauvais, ils vendraient leur mère si c'était possible. bref, ce sont des marchand de tapis, peu importe, il faut un contrat signé.

    -- Le management n'est pas meilleurs, l'essentiel c'est de magouiller dans les couloirs de la boite pour ne pas se faire doubler par un plus mauvais que soi qui n'a pas de contrat.
    S'absenter quelques mois chez un client, c'est quasiment se suicider.

    -- Les contrôleurs de gestion (projet, les autres, dans le doute...), que dire... difficile de faire plus mauvais. ils vont raler pour l'achat d'un portable a 300 euros et autoriser un aller retour en région a 500 euros... pour une réunion qu'un coup de téléphone suffit a remplacer.

    -- Pour la technique... alors là, il y a les documents qualité du groupe. l'essentiel c'est de les montrer dans l'armoire pour dire qu'on est ISO/EN peu importe le numéro derriere.

    Les chefs de projets, les vrais lorsqu'il y en a, sont tellement pressés par les délais et les charges qu'ils ne peuvent pas tout faire rentrer s'ils respectent justement ces manuels qualité.

    ... Alors, ils font semblant et a la place de sortir les démarches méthodologiques qui conviennent, et qui coutent en temps, ils prennent toujours un raccourci qui au final va couter plus cher.

    On fait alors appel aux commerciaux qui vont tenter de tirer une rallonge et souvent ils y arrivent, c'est prevu dans les marchés, en général a hauteur de 15%!

    -- Il reste le pingouin, celui qui arrive tôt, qui gratte de la spec ou du code, des tests... celui qui vient connecter les machines, sauver les OS en péril tellement le pro n'est pas venu l'installer... idem pour les bases de données ou le spécialiste réseau!
    Si vous saviez le risque que la majorité des clients courent, c'est un miracle qu'on en parle pas plus.

    Chez Steria, il y a un petit noyau dur, surbooké, qui change de projet a la demande pour aller faire le pompier sur le projet voisin a la ramasse.... ceux la sont bons en général, et a part quelques dinosaures anciens ils sont payés des cacahuètes exactement comme l'étudiant en fin de cycle qui n'a pas réussi a trouver un bon stage, dont l'expérience du boulot est nulle, qui passe son temps a demander aux autres en leur faisant perdre du temps et dont la qualité du produit est franchement de basse qualité.


    Alors, quand ils se déchargent sur les autres Steria oublie son devoir de conseil, y compris auprès de l'état et des marchés public, car, ceux qui sont au contact des responsables de projet coté client, ne savent rien de rien, si ce n'est la fiche du contrôleur de gestion qui leur exprime qu'ils ont déjà dépassé de 30% le budget avec une retard de x jours!


    Je ne défends pas l'armée, eux ils sont pas très bons non plus, mais la hiérarchie au moins fait appel a des spécialistes, même s'ils ne suivent pas ensuite les conseils.
    Quand a la dynamique législative, si la conception du produit est bien faite, le changement de règle n'empêche pas le fonctionnement du logiciel qui doit avoir été prévu pour! (voir plus haut, le temps de conception supprimé en s'assoyant sur la méthodologie).

    Steria est coupable, autant que d'autres intervenants sur ce système d'autant qu'ils ont soit une responsabilité de maitrise d'ouvrage soit une de maitrise d'oeuvre peu importe, ils n'ont pas fait leur boulot. Ils ne sont pas seuls, helas!

    Vous pouvez ne pas me croire... 30 ans de direction de projet a ce jour dont quelques années a Steria m'ont appris la musique.

    Bonne soirée

mardi 19 novembre 2013

Big data : l'enjeu de la qualité des données


Repris de http://www.zdnet.fr/actualites/big-data-et-si-on-faisait-deja-du-decisionnel-convenablement-39793829.htm

Business Intelligence : Le Big Data c’est nouveau et c’est formidable ! Sauf que ça rappelle souvent la Business intelligence ou décisionnel et que celui-ci est encore loin d’être parfait en entreprise, souligne le rapport BiME de Steria. Avant de rêver, il serait préférable d’améliorer l’existant, dont la qualité des données.

Le Big Data, qui va au-delà de la notion de volume des données pour prendre en compte celles de variété et de vitesse, est le nouvel eldorado pour les entreprises. Grâce à différentes technologies, elles vont pouvoir analyser en profondeur leurs données et en tirer de la richesse. Refermons le prospectus. Cela, c’est la promesse. Donc encore très théorique.
Les données, nombre d’entreprise les exploitent déjà, sur des périmètres délimités, dans le cadre de projets décisionnels et analytiques. Le Big Data, tel qu’il est parfois présenté, a donc des airs d'un BI 2.0. Mais entre les plaquettes des vendeurs et la réalité, c’est souvent le grand écart.
Le Big Data n'est pas le remède miracle à la qualité des données
En matière de Business Intelligence, la révolution du Big Data n’est pas pour tout de suite comme le rappelle Steria dans son rapport BiMA 2012/2013. Si le niveau de maturité des entreprises sur le front de la BI a progressé au fil des années, il n’est cependant pas encore suffisant pour rendre tangibles les promesses du Big Data.
« La stagnation des entreprises au niveau 3 (Intégration des informations) ne leur permet pas de transformer la BI en levier de succès » observe Steria. Et un frein à l’amélioration de cette maturité est indéniablement la qualité des données citée comme « le principal écueil au sein de l'environnement de BI. »

Avant de rêver Big Data, les entreprises vont devoir se pencher sur ce sujet, « le plus souvent sous-estimé ». Car pour Steria, la « faiblesse voire l’absence de gouvernance des données est un facteur majeur contribuant à expliquer le peu d'améliorations de la qualité des données. »
Et ce n’est pas le travail qui manque puisque selon le rapport BiMA, « dans 34 % des entreprises, il n'existe pas de processus formalisé pour adresser la qualité des données et 31 % d'entre elles déclarent que les problèmes de qualité de données sont très souvent détectés de manière aléatoire. »

Faut-il rafistoler les systèmes BI ou les repenser totalement ?
Comment imaginer dès lors que les entreprises pourront demain explorer de nouveaux et gros gisements de données, notamment non-structurées, et en tirer des décisions et choix d'investissement quand, encore aujourd’hui, la qualité globale des données représente « le talon d'Achille de la BI » ?
Autre faiblesse du décisionnel : le manque de compétences en interne. 24% d'entreprises font état de cette carence en termes d'expertise interne. Et créer un centre de compétences en Business Intelligence n’est pas à la portée de toutes.
Les systèmes BI souffrent d’autres lacunes encore, souligne Steria. Ainsi, l’application du décisionnel se limite souvent (83%) à la prise en charge de reporting interne et une grande partie des capacités d’analyse de ces outils n’est tout simplement pas exploitée, « réduisant ainsi le ROI des investissements réalisés. »
Sur le papier, le Big Data doit permettre à l’entreprise de créer plus de richesse. Comment y croire quand très peu d’entre elles rapprochent BI et objectifs business ? « Pour la majorité des entreprises, l’approche BI reste isolée et uniquement basée sur les projets » note le rapport.

Le Big Data clairement pas un sujet d'actualité
Le décisionnel est imparfait d’accord, et pas seulement sur le plan technologique. Pour tendre vers le Big Data, pour peu que cela possible (souhaitable), il faut donc en combler les lacunes. Au risque de juste le rafistoler ? C’est en effet un des risques. Pour Steria, « les systèmes de BI existants ne parviennent pas souvent à offrir la flexibilité nécessaire. »
L’avenir selon la SSII, ce sont déjà les fonctions de BI en self-service (51 %) et les méthodologies de développement agile (30 %). Et le Big Data alors ? Doucement, y a pas urgence. Attention à ne pas sauter les étapes. Et par ailleurs, est-ce réellement un objectif pour les entreprises ?
« Seuls 7% des participants considèrent le Big Data comme un sujet d'actualité » répondent les professionnels. Et pour cause puisque toutes les organisations sont loin d’être confrontées à des volumes importants de données à traiter.
« Dans deux entreprises sur trois, les solutions de BI disponibles doivent gérer moins de dix téraoctets de données. Seulement 6 % des entreprises traitent des volumes de données dans leurs entrepôts de données qui dépassent le seuil des 100  téraoctets. »

Par conséquent, et même si le Big Data ne se limite pas à la question des volumes, « les cas d'utilisation pertinents du Big Data restent peu nombreux ». En outre, on peut même douter de l’existence du Big Data en tant que tel.
« Le cas d'utilisation le plus fréquemment cité (28 % pour 'une compréhension plus approfondie et précise de l'entreprise') est l’idée de base qui définit la BI et non une tendance spécifique au Big Data. »

Articles relatifs


lundi 18 novembre 2013

Sauver librairies et bibliotheques


On parle beaucoup de sauver les librairies, plus rarement de sauver les bibliothèques. Et pourtant , elles ne sont pas moins menacées dans leur existence. Les unes font de la vente, les autres du prêt, mais, fondamentalement, elles font le même métier. Chacune dans leur coin. Leur avenir ne devrait-il pas s’inventer en commun ? Car il est sombre : les librairies sont à peine rentables, les bibliothèques pèsent sur les budgets des collectivités locales. En Angleterre, elles ferment par centaines. Mais surtout, toutes deux sont menacées par le déclin de la lecture et la progression du livre numérique.
J’ai vécu de l’intérieur la fin de Kodak. Le livre papier ne sera peut-être pas balayé par le numérique aussi vite que l’a été la photo argentique. Cela laisse un peu de temps pour élaborer des stratégies à la mesure des bouleversements en cours…Mais il faut être ambitieux et ne pas faire d’erreur. Kodak se meurt, alors que Fuji s’en sort bien. Un seul a misé sur la bonne stratégie…
Bibliothèques et librairies font toutes deux un métier de distributeurs de livres, leur cœur de métier. Et quand le cœur commence à être grignoté, il est urgent de réagir. Se convertir au numérique, il n’en est pas question : le numérique et l’internet sont de nouveaux métiers, qu’elles ne sont ni les unes ni les autres en mesure d’affronter. Et surtout, dans un univers numérique, leur principal atout, la proximité, ne compte plus : le numérique arrive directement chez l’utilisateur.
Ne pouvant se battre sur ce nouveau front, ont-elles d’autre solution que de se regrouper pour sauver leur métier et être là le plus longtemps possible pour servir les inconditionnels du livre imprimé ? En se regroupant, elles seront plus efficaces, avec une clientèle élargie et un volume d’affaires plus important. Pourquoi une même « boutique » ne pourrait-elle pas proposer aussi bien de la vente, neuf ou occasion, que de la location - ou du prêt subventionné ? En jouant à fond l’atout de la proximité et de la complémentarité de l’offre.
 Par ailleurs, j’observe qu’autour de leur cœur de métier, bibliothèques et librairies font toutes deux un travail essentiel d’animation culturelle et de développement de la lecture. Mais, faute de moyens ou de compétences, elles le font  insuffisamment et souvent mal. Il faut le repenser et le développer pour conquérir de nouveaux lecteurs.
 On l’aura compris, face au défi numérique, il faut revoir la segmentation des offres. Aujourd’hui, la vente revient aux librairies, le prêt aux bibliothèques et la promotion de la lecture un peu - trop peu - aux deux. Demain, un pôle assurerait la distribution des livres, l’autre la promotion du livre et de la lecture.
 Cette perspective est bien sûr plus enthousiasmante pour les librairies, qui verraient leur activité augmenter, que pour les bibliothèques qui perdraient leur cœur de métier. Mais si on regarde ça sous un autre angle, on voit que cela permettrait de faire évoluer les bibliothèques vers des tâches plus nobles que l’« épicerie » et les pousserait à inventer ce « troisième lieu » que certains ont déjà imaginé.  Un lieu de convivialité et de culture en lien étroit avec les librairies.
Le changement, en l’occurrence, ne peut venir que des opérateurs des bibliothèques, c'est-à-dire des municipalités. Ce sont elles qui ont le pouvoir de redéployer les budgets qu’elles leur consacrent aujourd’hui. Ces budgets sont importants. Ils représentent quelques dizaines d’euros par habitant. Plus d’une centaine d’euros par lecteur. N’ayant plus à opérer que le « troisième lieu » animé par une équipe resserrée, les mairies pourraient distribuer aux habitants des crédits lecture négociables dans les librairies de la ville adhérant au système. Celles-ci verraient leurs ressources commerciales accrues par cette subvention aux lecteurs, mais auraient à inventer de nouveaux modèles économiques pour reprendre dans de bonnes conditions les tâches aujourd’hui assurées par les bibliothèques.
Difficile ? Sans aucun doute, mais demain il sera trop tard !


Read more at http://www.atlantico.fr/decryptage/voit-on-que-survie-bibliotheques-est-aussi-menacee-que-celle-librairies-eric-lombard-587643.html#ElvPbWsLYxv6QjtH.99

On parle beaucoup de sauver les librairies, plus rarement de sauver les bibliothèques. Et pourtant , elles ne sont pas moins menacées dans leur existence. Les unes font de la vente, les autres du prêt, mais, fondamentalement, elles font le même métier. Chacune dans leur coin. Leur avenir ne devrait-il pas s’inventer en commun ? Car il est sombre : les librairies sont à peine rentables, les bibliothèques pèsent sur les budgets des collectivités locales. En Angleterre, elles ferment par centaines. Mais surtout, toutes deux sont menacées par le déclin de la lecture et la progression du livre numérique.
J’ai vécu de l’intérieur la fin de Kodak. Le livre papier ne sera peut-être pas balayé par le numérique aussi vite que l’a été la photo argentique. Cela laisse un peu de temps pour élaborer des stratégies à la mesure des bouleversements en cours…Mais il faut être ambitieux et ne pas faire d’erreur. Kodak se meurt, alors que Fuji s’en sort bien. Un seul a misé sur la bonne stratégie…
Bibliothèques et librairies font toutes deux un métier de distributeurs de livres, leur cœur de métier. Et quand le cœur commence à être grignoté, il est urgent de réagir. Se convertir au numérique, il n’en est pas question : le numérique et l’internet sont de nouveaux métiers, qu’elles ne sont ni les unes ni les autres en mesure d’affronter. Et surtout, dans un univers numérique, leur principal atout, la proximité, ne compte plus : le numérique arrive directement chez l’utilisateur.
Ne pouvant se battre sur ce nouveau front, ont-elles d’autre solution que de se regrouper pour sauver leur métier et être là le plus longtemps possible pour servir les inconditionnels du livre imprimé ? En se regroupant, elles seront plus efficaces, avec une clientèle élargie et un volume d’affaires plus important. Pourquoi une même « boutique » ne pourrait-elle pas proposer aussi bien de la vente, neuf ou occasion, que de la location - ou du prêt subventionné ? En jouant à fond l’atout de la proximité et de la complémentarité de l’offre.
 Par ailleurs, j’observe qu’autour de leur cœur de métier, bibliothèques et librairies font toutes deux un travail essentiel d’animation culturelle et de développement de la lecture. Mais, faute de moyens ou de compétences, elles le font  insuffisamment et souvent mal. Il faut le repenser et le développer pour conquérir de nouveaux lecteurs.
 On l’aura compris, face au défi numérique, il faut revoir la segmentation des offres. Aujourd’hui, la vente revient aux librairies, le prêt aux bibliothèques et la promotion de la lecture un peu - trop peu - aux deux. Demain, un pôle assurerait la distribution des livres, l’autre la promotion du livre et de la lecture.
 Cette perspective est bien sûr plus enthousiasmante pour les librairies, qui verraient leur activité augmenter, que pour les bibliothèques qui perdraient leur cœur de métier. Mais si on regarde ça sous un autre angle, on voit que cela permettrait de faire évoluer les bibliothèques vers des tâches plus nobles que l’« épicerie » et les pousserait à inventer ce « troisième lieu » que certains ont déjà imaginé.  Un lieu de convivialité et de culture en lien étroit avec les librairies.
Le changement, en l’occurrence, ne peut venir que des opérateurs des bibliothèques, c'est-à-dire des municipalités. Ce sont elles qui ont le pouvoir de redéployer les budgets qu’elles leur consacrent aujourd’hui. Ces budgets sont importants. Ils représentent quelques dizaines d’euros par habitant. Plus d’une centaine d’euros par lecteur. N’ayant plus à opérer que le « troisième lieu » animé par une équipe resserrée, les mairies pourraient distribuer aux habitants des crédits lecture négociables dans les librairies de la ville adhérant au système. Celles-ci verraient leurs ressources commerciales accrues par cette subvention aux lecteurs, mais auraient à inventer de nouveaux modèles économiques pour reprendre dans de bonnes conditions les tâches aujourd’hui assurées par les bibliothèques.
Difficile ? Sans aucun doute, mais demain il sera trop tard !

Eric Lombard

Eric Lombard est ancien cadre chez Kodak.

Read more at http://www.atlantico.fr/decryptage/voit-on-que-survie-bibliotheques-est-aussi-menacee-que-celle-librairies-eric-lombard-587643.html#ElvPbWsLYxv6QjtH.99

Read more at http://www.atlantico.fr/decryptage/voit-on-que-survie-bibliotheques-est-aussi-menacee-que-celle-librairies-eric-lombard-587643.html#ElvPbWsLYxv6QjtH.99

Perdre notre savoir avec le tout numérique

Pourquoi nous risquons de perdre les clés de notre savoir en misant tout sur le numérique sans protéger les bibliothèques

La justice américaine vient d'autoriser Google à numériser des millions de livres, estimant que le géant du Web ne violait pas les droits des auteurs.

Atlantico : Au terme d'un contentieux vieux de huit ans, la justice américaine a donné son feu vert jeudi à Google pour son projet de numérisation de millions de livres. Un juge a estimé que ce projet représente une "utilisation équitable" (fair use) au regard de la législation sur les droits d'auteur. Cette affaire renvoie à la conférence « Activate » organisée en juillet par le Guardian à Londres, durant laquelle le « père » d’internet Vint Cerf s’est vu demander comment il voyait l’avenir des bibliothèques. Ce à quoi Il a répondu que la manière dont les données numériques seront stockées et transmises aux générations futures était une question qui l’inquiétait profondément. D’où viennent les réserves émises par Vint Cerf ? Le numérique n’est-il pas censé assurer la pérennité des informations stockées ? Dans le cas de Google, on parle d'une vingtaine de millions de livres...

Michaël Dandrieux : Le digital n'a pas seulement changé nos manières de stocker et d'accéder à l'information, il a modifié aussi le fond de notre imaginaire de la data. Le paradigme précédent, l'analogique, que nous avons connu avec les cassettes magnétiques ou les disques vinyles, nous avait appris qu'à chaque fois que nous faisions une copie d'un document, la copie était de moins bonne qualité que l'original. Cela était aussi vrai pour les photocopies de livre. Il fait partie de nos idées les plus communes depuis 4000 ans que nous faisons des clefs, que les copies de clefs nous déçoivent.
En faisant entrer le digital dans nos vies, nous avons pris l'idée que toutes les copies, les photos, les chansons que nous partageons, sont identiques à leurs sources. De manière ironique, le mythe de l’original ne pouvait exister que dans sa propre eschatologie, c’est-à-dire au sein d’une histoire qui le condamne à la corruption. Aujourd’hui, toutes les copies sont originales. Ainsi, notre civilisation a pu avoir le sentiment de s'être débarrassé du devenir essentiel des choses, qui est de s’altérer, et donc d’assurer la pérennité de sa culture pour toujours.

Cela n'est pas le cas pour plusieurs raisons. D'abord parce que même si la suite parfaite de 1 et de 0 qui est la particularité du digital, lorsqu’on la copie, ne se corrompt pas, le support qui la contient, lui, peut-être altéré physiquement : tordu, chauffé, exposé aux particules alpha, aux rayons cosmiques, à un champ magnétique... C'est le principe de réalité analogique qui se venge de l'abstraction digitale, le "bit rot", la corruption de la donnée binaire. Ensuite parce que rien ne nous garantit que nous pourrons lire nos disques durs dans 10 ans, tant les supports changent vite.

« Nous devons garder à l’esprit la notion de lieu, où l’information est accumulée, gardée, préservée et traitée », ajoute Cerf. Quelles solutions faudra-t-il mettre en place pour éviter que cette déperdition de connaissances se produise au fil du temps ?

La bibliothèque a cette vocation substantielle de conserver, perpétuer, ralentir le travail de la mémoire dont le but, rappelle Borges, n'est pas de retenir, mais de choisir ce qu'on peut laisser filer. Or c'est l'une des grandes frayeurs des sociétés qui sont les nôtres, et qui doivent vivre avec les conséquences des exactions perpétuées sur la planète, les espèces exterminées et les écosystèmes ravagés, que celle de la perte irréversible. Cela pose un problème de stockage au moment où les Nations unies nous disent que nous avons généré plus de données au cours de 2012 que dans la somme de toute notre histoire.

Une autre chose que rappelle Vinton Cerf, c'est que, même si la donnée était conservée dans un état parfait, les hommes ont aussi une longue et confuse histoire de la lecture. Tout ce que nous possédons de l'Histoire écrite ne nous est pas immédiatement compréhensible, comme le Liber Linteus dont nous ne connaissons plus grand chose de la langue étrusque dans laquelle il a été écrit. Ces choses sont plus ou moins perdues, au moins pour un temps. Nos données ne sont pas à l’abri de cela non plus, même si notre époque s’est dotée de moyens immenses pour répondre à la question de la mémoire et de la transmission.

Il me semble enfin que les travaux sur les “big data”, visent moins à tout sauvegarder qu'à donner un sens plus immédiat, une lecture à taille humaine, au flot des informations qui, unitairement, peuvent avoir peu de valeur. Peut-être qu’une des vocations du bibliothécaire sera celle de guide au travers de la somme des infos, une sorte de “synthétiseur public”, qui était le travail du penseur face à la somme de ses lectures intimes.

Compte tenu de ce risque, nos bonnes vieilles bibliothèques ont-elle encore de beaux jours devant elles, ou bien vont-elles finir par disparaître au profit de bases de données accessibles de son ordinateur ou de son smartphone ? Devrons-nous repenser ce que nous entendons par "bibliothèque" ?

La bibliothèque a aussi un rôle symbolique, presque sanctuaire. Elle est riche en enjeux architecturaux (dessiner le contenant d'autres contenants), culturels & urbains (rendre accessible la culture), et presque philosophique (matérialiser la connaissance). 0n peut avoir envie de la visiter sans être lecteur, comme de nombreux athées aiment fréquenter les temples ou les églises.
Un scénario amusant serait que le mot “bibliothèque”, qui veut dire “coffre à livre”, “lieu où on dépose les livres”, soit donné, par glissement linguistique, aux gigantesques data-center que nous préparons et qui existent déjà, leur tâche étant devenue celle de conserver l’intégralité du savoir. Car même si l'économie d'échelle est pharaonique, la donnée digitale doit toujours être stockée dans un lieu physique, quelque part où l’espace a moins de valeur, en dehors de la ville par exemple. Dans ce cas, les accès aux contenus se feront à distance, par le réseau.

Si on y regarde bien, cela se produit déjà chaque jour, en conjonction avec les visites des musées ou des opéras, qui diffusent des oeuvres irreproducibles. Dans ce futur hypothétique, ces “bibliothèques” stockeraient tout sauf des livres, mais le souvenir du livre perdurerait dans leur nom, et en changeant le contenant, nous aurions aussi modifié l’idée même de ce qu’est un livre — cela aussi, Vinton Cerf le dit, il faudrait repenser les idées de page, de paragraphes, d’auteur. Cependant nous aurions aussi perdu le sentiment qui nous atteint presque physiquement parmi les pages et les auteurs qui nous regardent depuis les rayonnages du Trinity Collège, de la Bodléiene, et de la salle ovale de la Bibliothèque Nationale de France.

Read more at http://www.atlantico.fr/decryptage/pourquoi-risquons-perdre-cles-notre-savoir-en-misant-tout-numerique-sans-proteger-bibliotheques-michael-dandrieux-824551.html#86vrvEHV0i3pwEfv.99


Michaël Dandrieux


Michaël V. Dandrieux est sociologue, il appartient à la tradition de la sociologie de l’imaginaire. Depuis 2003, il est chercheur au Ceaq (Centre d’Etude sur l’Actuel et le Quotidien), de l’Université Descartes à la Sorbonne, sous la direction du professeur Michel Maffesoli.
Depuis 6 ans, il est directeur éditorial des Cahiers Européens de l’Imaginaire (CNRS Editions). Il est également cofondateur de l’institut Eranos, depuis 2005, où il a en charge le développement des activités d’études des mutations sociétales, notamment sur les marchés touchant les jeunes générations.

Read more at http://www.atlantico.fr/decryptage/pourquoi-risquons-perdre-cles-notre-savoir-en-misant-tout-numerique-sans-proteger-bibliotheques-michael-dandrieux-824551.html#VUtTVCVTHF0QbjVZ.99

Pourquoi nous risquons de perdre les clés de notre savoir en misant tout sur le numérique sans protéger les bibliothèques

La justice américaine vient d'autoriser Google à numériser des millions de livres, estimant que le géant du Web ne violait pas les droits des auteurs.

Attention danger

Publié le 18 novembre 2013



Atlantico : Au terme d'un contentieux vieux de huit ans, la justice américaine a donné son feu vert jeudi à Google pour son projet de numérisation de millions de livres. Un juge a estimé que ce projet représente une "utilisation équitable" (fair use) au regard de la législation sur les droits d'auteur. Cette affaire renvoie à la conférence « Activate » organisée en juillet par le Guardian à Londres, durant laquelle le « père » d’internet Vint Cerf s’est vu demander comment il voyait l’avenir des bibliothèques. Ce à quoi Il a répondu que la manière dont les données numériques seront stockées et transmises aux générations futures était une question qui l’inquiétait profondément. D’où viennent les réserves émises par Vint Cerf ? Le numérique n’est-il pas censé assurer la pérennité des informations stockées ? Dans le cas de Google, on parle d'une vingtaine de millions de livres...

Michaël Dandrieux : Le digital n'a pas seulement changé nos manières de stocker et d'accéder à l'information, il a modifié aussi le fond de notre imaginaire de la data. Le paradigme précédent, l'analogique, que nous avons connu avec les cassettes magnétiques ou les disques vinyles, nous avait appris qu'à chaque fois que nous faisions une copie d'un document, la copie était de moins bonne qualité que l'original. Cela était aussi vrai pour les photocopies de livre. Il fait partie de nos idées les plus communes depuis 4000 ans que nous faisons des clefs, que les copies de clefs nous déçoivent.
En faisant entrer le digital dans nos vies, nous avons pris l'idée que toutes les copies, les photos, les chansons que nous partageons, sont identiques à leurs sources. De manière ironique, le mythe de l’original ne pouvait exister que dans sa propre eschatologie, c’est-à-dire au sein d’une histoire qui le condamne à la corruption. Aujourd’hui, toutes les copies sont originales. Ainsi, notre civilisation a pu avoir le sentiment de s'être débarrassé du devenir essentiel des choses, qui est de s’altérer, et donc d’assurer la pérennité de sa culture pour toujours.
Cela n'est pas le cas pour plusieurs raisons. D'abord parce que même si la suite parfaite de 1 et de 0 qui est la particularité du digital, lorsqu’on la copie, ne se corrompt pas, le support qui la contient, lui, peut-être altéré physiquement : tordu, chauffé, exposé aux particules alpha, aux rayons cosmiques, à un champ magnétique... C'est le principe de réalité analogique qui se venge de l'abstraction digitale, le "bit rot", la corruption de la donnée binaire. Ensuite parce que rien ne nous garantit que nous pourrons lire nos disques durs dans 10 ans, tant les supports changent vite.

« Nous devons garder à l’esprit la notion de lieu, où l’information est accumulée, gardée, préservée et traitée », ajoute Cerf. Quelles solutions faudra-t-il mettre en place pour éviter que cette déperdition de connaissances se produise au fil du temps ?

La bibliothèque a cette vocation substantielle de conserver, perpétuer, ralentir le travail de la mémoire dont le but, rappelle Borges, n'est pas de retenir, mais de choisir ce qu'on peut laisser filer. Or c'est l'une des grandes frayeurs des sociétés qui sont les nôtres, et qui doivent vivre avec les conséquences des exactions perpétuées sur la planète, les espèces exterminées et les écosystèmes ravagés, que celle de la perte irréversible. Cela pose un problème de stockage au moment où les Nations unies nous disent que nous avons généré plus de données au cours de 2012 que dans la somme de toute notre histoire.
Une autre chose que rappelle Vinton Cerf, c'est que, même si la donnée était conservée dans un état parfait, les hommes ont aussi une longue et confuse histoire de la lecture. Tout ce que nous possédons de l'Histoire écrite ne nous est pas immédiatement compréhensible, comme le Liber Linteus dont nous ne connaissons plus grand chose de la langue étrusque dans laquelle il a été écrit. Ces choses sont plus ou moins perdues, au moins pour un temps. Nos données ne sont pas à l’abri de cela non plus, même si notre époque s’est dotée de moyens immenses pour répondre à la question de la mémoire et de la transmission.
Il me semble enfin que les travaux sur les “big data”, visent moins à tout sauvegarder qu'à donner un sens plus immédiat, une lecture à taille humaine, au flot des informations qui, unitairement, peuvent avoir peu de valeur. Peut-être qu’une des vocations du bibliothécaire sera celle de guide au travers de la somme des infos, une sorte de “synthétiseur public”, qui était le travail du penseur face à la somme de ses lectures intimes.

Compte tenu de ce risque, nos bonnes vieilles bibliothèques ont-elle encore de beaux jours devant elles, ou bien vont-elles finir par disparaître au profit de bases de données accessibles de son ordinateur ou de son smartphone ? Devrons-nous repenser ce que nous entendons par "bibliothèque" ?

La bibliothèque a aussi un rôle symbolique, presque sanctuaire. Elle est riche en enjeux architecturaux (dessiner le contenant d'autres contenants), culturels & urbains (rendre accessible la culture), et presque philosophique (matérialiser la connaissance). 0n peut avoir envie de la visiter sans être lecteur, comme de nombreux athées aiment fréquenter les temples ou les églises.
Un scénario amusant serait que le mot “bibliothèque”, qui veut dire “coffre à livre”, “lieu où on dépose les livres”, soit donné, par glissement linguistique, aux gigantesques data-center que nous préparons et qui existent déjà, leur tâche étant devenue celle de conserver l’intégralité du savoir. Car même si l'économie d'échelle est pharaonique, la donnée digitale doit toujours être stockée dans un lieu physique, quelque part où l’espace a moins de valeur, en dehors de la ville par exemple. Dans ce cas, les accès aux contenus se feront à distance, par le réseau.
Si on y regarde bien, cela se produit déjà chaque jour, en conjonction avec les visites des musées ou des opéras, qui diffusent des oeuvres irreproducibles. Dans ce futur hypothétique, ces “bibliothèques” stockeraient tout sauf des livres, mais le souvenir du livre perdurerait dans leur nom, et en changeant le contenant, nous aurions aussi modifié l’idée même de ce qu’est un livre — cela aussi, Vinton Cerf le dit, il faudrait repenser les idées de page, de paragraphes, d’auteur. Cependant nous aurions aussi perdu le sentiment qui nous atteint presque physiquement parmi les pages et les auteurs qui nous regardent depuis les rayonnages du Trinity Collège, de la Bodléiene, et de la salle ovale de la Bibliothèque Nationale de France.

Read more at http://www.atlantico.fr/decryptage/pourquoi-risquons-perdre-cles-notre-savoir-en-misant-tout-numerique-sans-proteger-bibliotheques-michael-dandrieux-824551.html#86vrvEHV0i3pwEfv.99


Michaël Dandrieux

Michaël V. Dandrieux est sociologue, il appartient à la tradition de la sociologie de l’imaginaire. Depuis 2003, il est chercheur au Ceaq (Centre d’Etude sur l’Actuel et le Quotidien), de l’Université Descartes à la Sorbonne, sous la direction du professeur Michel Maffesoli.
Depuis 6 ans, il est directeur éditorial des Cahiers Européens de l’Imaginaire (CNRS Editions). Il est également cofondateur de l’institut Eranos, depuis 2005, où il a en charge le développement des activités d’études des mutations sociétales, notamment sur les marchés touchant les jeunes générations.

jeudi 14 novembre 2013

L"opéra vocaloide

 


Le Point.fr - Publié le - Modifié le

Cette "vocaloïde" est une idole en Asie. Un compositeur lui a offert son premier opéra, présenté cette semaine sur la scène du Châtelet à Paris.

Miku Hatsune dans "The End - Vocaloïd Opera"
Miku Hatsune dans "The End - Vocaloïd Opera" © Kenshu Shintsubo, courtesy of Yamaguchi Center of Arts and Media [YCAM]
Par

 

 




Le théâtre du Châtelet, c'est connu, ne craint pas de s'ouvrir à des oeuvres étrangères et/ou populaires. Jean-Luc Choplin, qui le dirige depuis 2006, y a, entre autres, introduit le musical à l'américaine et produit le "premier opéra africain". Un pas de plus est franchi : la maison accueille pour la première fois cette semaine une superstar de la pop japonaise. Elle a 16 ans, une voix aiguë que rien ne trouble jamais, les yeux immenses des héros de manga, des couettes turquoise qui lui tombent aux pieds. Surtout, Hatsune Miku ("premier son du futur", en français) n'existe pas. Elle est une "vocaloïde" : un programme lancé en août 2007 par la société Crypton Future Media, grâce au logiciel Vocaloïd 2 de Yamaha Corporation et au timbre (réel, lui) d'une jeune actrice japonaise. L'utilisateur compose une mélodie, choisit quelle syllabe doit correspondre à quelle note et la manière (tenue ou non, avec ou sans vibrato) dont elle doit être prononcée, puis enregistre sa chanson.

Ce qui aurait pu ne rester qu'un gadget est devenu un véritable phénomène de société. Dès sa naissance, le public japonais s'est emparé de "Miku" pour en faire une icône de l'ère 2.0. Le logiciel s'est écoulé à plus de 80 000 exemplaires ; on lui a écrit et fait interpréter des dizaines de milliers de chansons et, depuis le lancement en 2008 du logiciel "Miku Miku Dance", créé par l'un de ses admirateurs, presque autant de clips. Pourquoi un tel engouement ? "Son timbre de voix était bien plus réaliste que celui des précédents vocaloïdes", souligne Hiroki Tsudjui, 17 ans, coprésident de l'association Project Live Vocaloid. "C'est comme si vous écriviez une chanson pour Lady Gaga et qu'elle l'interprétait pour vous", explique pour sa part à La Presse Ian Condry, professeur de sociologie au Massachusetts Institute of Technology. Ne manquaient à la jeune star que des prestations en live. En 2009, ses concepteurs organisent un premier concert à Tokyo où elle fait salle comble, comme à Singapour, Taipei, Hong Kong ou Los Angeles. Puis lancent un label pour commercialiser ses chansons, et celles des autres vocaloïdes.

"Animisme numérique"

Miku garde cependant l'avantage sur ses cousins de synthèse. C'est elle qui fait vendre des dizaines de milliers d'albums et de jeux vidéo, elle encore qui apparaît dans les publicités de Toyota ou Sony. Elle, enfin, qui aujourd'hui intéresse des créateurs réputés et s'affranchit grâce à eux de l'univers de la pop. "Jusqu'en 2012, explique à Libération l'écrivain Shiba Tomonori, les amateurs représentaient la majorité des créations autour de Hatsune Miku. Puis des artistes, des musiciens professionnels ont commencé à produire des travaux sur elle." Début 2013, ainsi, le compositeur Isao Tomita lui offre une symphonie qu'elle interprète avec un orchestre philharmonique. Au même moment, Keiichiro Shibuya, autre figure de prou de la musique électronique japonaise avec le label ATAK décide, avec l'accord de Crypton, d'utiliser l'adolescente aux cheveux bleus pour The End. Un opéra, présenté au théâtre du Châtelet les 12, 13 et 15 novembre, où Miku interroge la question de la mort, de l'existence, de l'absence.

"C'est à mes yeux une féérie du XXIe siècle, s'enthousiasme Jean-Luc Choplin. Une oeuvre qui reprend les grands thèmes de l'art dramatique et lyrique, mais qui emploie les outils contemporains pour interroger la frontière entre le virtuel et le réel, le rêve et la réalité. Lorsque Keiichiro Shibuya est venu me trouver pour me proposer le projet, il m'a tout de suite passionné." Une voix capable de toutes les tessitures, qui n'est jamais usée ni n'a besoin de respirer, n'est-elle pas l'inverse d'une voix humaine, et a fortiori d'une voix d'opéra ? "Je ne m'attendais pas à ce qu'elle me touche à ce point, rétorque Jean-Luc Choplin. Elle a, au contraire de ce que l'on peut imaginer, une très forte présence émotionnelle." Il est vrai que Miku, en passant des rythmes endiablés imaginés par ses fans à l'élégie, de la starmania à la mélancolie des fantômes, prend une dimension nouvelle. "Comme nous pouvons le constater dans le bunraku (théâtre de marionnettes traditionnel), les Japonais sont capables de ressentir des émotions à travers des objets ou des personnages qui sont en réalité dépourvus d'âme, explique au Monde Keiichiro Shibuya. La culture japonaise a toujours été imprégnée d'animisme : The End ne désincarne pas le spectacle vivant, mais présente une forme d'animisme numérique."
Reste à ce que l'expérience soit appréciée par le public français. Jean-Luc Choplin assure que les trois soirs de représentation affichent complet. N'y aura-t-il dans le public que de jeunes fans de mangas et de nouvelles technologies ? Ou est-on à l'aube du "spectacle du troisième millénaire", comme le directeur du Châtelet veut le croire ? À voir.

mardi 12 novembre 2013

Où se cache la valeur ajoutée ?

Repris de slate. fr

http://www.slate.fr/story/73123/emploi-recherche-developpement-innovation-capital-intellectuel

Pour créer des emplois, miser sur l'intellectuel est capital

Aujourd'hui, la valeur ajoutée se cache dans des activités plus que dans des secteurs réputés «clés», tandis que l'innovation est un concept plus large que la seule recherche et développement.

«Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo - «Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo -
Mais dans quel secteur faut-il donc investir? Sur quel créneau convient-il de miser? Quand la croissance est en panne, lorsque la situation sur le marché du travail se durcit jour après jour, il n'est certainement pas inutile de réfléchir aux nouveaux ressorts de la croissance.
Vingt années de numérisation accélérée et de mondialisation galopante ont mis à mal les recettes que l'on croyait éprouvées. Certains des secteurs pourtant les plus réputés de notre économie vacillent –tels l'automobile, les télécommunications ou encore la pharmacie– et dépenser des fortunes pour aider à la recherche ne suffit plus. Malgré son généreux Crédit Impôt Recherche, la France n'arrive guère à améliorer sa compétitivité.
publicité
Pour éclairer les raisonnements, les experts de l'OCDE viennent de publier deux études qui proposent de nouvelles pistes pour mieux identifier les nouveaux facteurs de croissance de nos économies.

Analyser les échanges commerciaux

La première, intitulée «Economies interconnectées: comment tirer parti des chaînes de valeur mondiales?», vient approfondir les recherches menées par l'organisation sur les nouvelles façons d'analyser les échanges commerciaux. Les chiffres du commerce extérieur sont trompeurs: si les Etats-Unis accusent un impressionnant déficit commercial avec la Chine, l'Empire du milieu n'a pas, et de loin, produit toute la «valeur» des biens qu'il exporte outre-Atlantique. Les iPhones en constituent un exemple emblématique: l'assemblage est réalisé en Chine, mais le design vient des Etats-Unis, tout comme la connectivité. La mémoire est coréenne, ainsi que les processeurs d'applications ou les batteries; la gestion des ondes radio allemande, l'accéléromètre et le gyroscope français, etc. Calculer les échanges en valeur ajoutée permet de rendre évidente la contribution de ces tiers pays.
Cet effort statistique a une autre conséquence utile pour la politique industrielle: «Cela démontre que la compétitivité se concentre sur des activités (le design par exemple, ou l'assemblage) et non sur des secteurs puisque, de plus en plus, les entreprises découpent la production en différentes parties localisées en différents endroits du globe», explique Koen De Backer, économiste principal à la Division de la politique structurelle de l'OCDE.
L'important pour un pays n'est plus tant de savoir s'il est doué pour l'aéronautique ou pour le luxe, mais de définir quels savoir-faire expliquent son succès dans l'une et l'autre branche et peuvent être transposés à de nouvelles. Dans cette optique, miser sur des services, comme la logistique, le design, l'informatique, tous  indispensables à la bonne conception ou livraison des produits manufacturés, peut être une stratégie payante pour des pays comme le nôtre. D'autant qu'il s'agit de savoir-faire difficilement délocalisables.

Le rôle du «capital intellectuel»

Ces services destinés à l'industrie mobilisent souvent une bonne part de «capital intellectuel», cette autre notion que l'OCDE tente de mieux identifier dans sa seconde étude. Car elle l'a constaté: si l'innovation constitue un facteur clé de la compétitivité des pays, «elle est aujourd'hui une notion bien plus large que la R&D». Du reste, «de nombreuses entreprises innovantes n'investissent pas dans la R&D», constataient ainsi les experts dans leur rapport sur la stratégie de l'innovation en 2010. Fort de ce constat, l'organisation a tenté de définir, et de mieux cerner, une nouvelle notion, celle de capital intellectuel. Et, surtout, d'étudier son véritable rôle en tant que facteur potentiel de croissance.
Le capital intellectuel, kesako? C'est tout ce qui résulte de l'investissement des entreprises dans des actifs non physiques: la R&D bien entendu, mais aussi les dépenses en logiciels, en brevets, et plus largement, en propriété intellectuelle (dessins, modèles, marques), ou encore en matière de design. Jusqu'ici, rien de bien révolutionnaire. Mais la notion de capital intellectuel va plus loin: elle englobe aussi toutes les dépenses pour acquérir des données informatiques, ces données que les entreprises peuvent analyser pour maximiser leurs méthodes de marketing voire de développement; elle intègre aussi les investissements consentis pour mettre sur pied de nouveaux processus organisationnels (comment gérer les stocks ou les approvisionnements?) et renforcer les compétences spécifiques des organisations, autrement dit, ce que l'on appelle couramment le savoir-faire d'une entreprise.

La liberté d’expérimenter

La notion est large et difficile statistiquement à cerner. L'OCDE se repose en la matière sur des calculs réalisés par des tiers pour l'analyser: ces chiffres restent donc, pour l'instant, à étudier avec quelques pincettes. N'empêche, aux Etats-Unis, mais aussi dans plusieurs pays nordiques, les dépenses en capital intellectuel sont désormais supérieures aux investissements corporels. Ce n'est pas encore le cas en France, mais l'Hexagone fait plutôt, en la matière, un peu mieux que l'Allemagne. Preuve, malgré tout, que la simple étude des chiffres ne suffit pas: ceci n'empêche pas notre voisin d'afficher de bien meilleures performances économiques.
Mais un autre élément déterminant, juge l'OCDE, est la possibilité qu'un pays octroie aux acteurs économiques d'expérimenter. Il ne suffit pas d'investir, encore s'agit-il de tester les innovations ainsi imaginées. D'où l'importance d'un système économique où, non seulement il est simple de créer une entreprise et d'obtenir des financements, y compris lorsque la jeune pousse utilise bien plus d'actifs immatériels que corporels, mais où, également, faire faillite n'est pas un processus lourd, lent, et traumatisant. Autant d'informations à méditer!
Catherine Bernard

Jeff Bezos, fascinant et inquiétant patron d'Amazon

 Repris de www.slate.fr/   http://www.slate.fr/story/79626/amazon-jeff-bezos

Un livre, sorti aux Etats-Unis, lui est consacré. Malheureusement, il passe à côté du caractère réellement révolutionnaire de celui qui est le plus grand homme d'affaires américain actuel et des zones d'ombres de sa boutique en ligne.

Jeff Bezos pendant une conférence de presse en 2011. REUTERS/Shannon Stapleton - Jeff Bezos pendant une conférence de presse en 2011. REUTERS/Shannon Stapleton -

C'était un morne samedi d'octobre. Assis dans un Starbucks du centre de Washington, je lisais The Everything Store: Jeff Bezos and the Age of Amazon de Brad Stone, reçu en service de presse. Au bout d'un moment, je me rends compte que la batterie de mon iPhone est vide et impossible de mettre la main sur le chargeur que je prends pourtant toujours avec moi dans mon sac. Au coin de la rue, je vois un Radio Shack. Ils ont le chargeur dont j'ai besoin, qu'ils vendent à un prix tout à fait raisonnable. Mais en m'encaissant, le vendeur vient à me poser cette question fatale: suis-je disposé à débourser quelques dollars de plus pour une extension de garantie parfaitement débile et, qui plus est, n'est d'aucun intérêt pour le pauvre bout d’électronique que je suis en train d'acheter?
Evidemment, il ne l'a pas formulée en ces termes. Mais c'était en substance sa proposition de valeur. Et avec son ton apathique, je peux vous dire qu'il n'avait ni l'intention ni l'espoir que je lui achète cette garantie. Pourtant, que ce soit à Radio Shack, Best Buy ou chez feu Circuit City, ce type de stratégie fait partie intégrante du business modèle. Dans son livre, Stone n'a pas grand-chose à dire sur Radio Shack, Best Buy ou Barnes & Noble. Mais il devrait, car l'essence véritable du succès d'Amazon relève de la relation clientèle, pas simplement du commerce électronique.
publicité
Dans The Everything Store («Le magasin de tout»), l'histoire personnelle de Bezos est bien amenée, le récit faisant l'effet d'un chemin de croix entrepreneurial. Il y a l'enfance heureuse et ses aubaines scolaires, mais aussi les stigmates de l'absence du père biologique («faire partie d'un peloton de monocycles ne valait pas tripette», écrit Stone). Il y a, dès le plus jeune âge, une volonté et une obstination farouches. Il y a aussi les premiers boulots à D. E. Shaw & Company, le fonds d'investissement avec son fondateur cyclothymique qui redéfinit le secteur et révèle le pouvoir d'une pensée sortant des clous. Nous avons aussi la création d'entreprise faite au culot –et, littéralement, au départ, dans un garage. Puis il y a l'investissement qui change tout, ce chèque à 6 chiffres signé par maman et beau-papa –et qui nous rappelle combien les dés du rêve américain sont fondamentalement pipés.
Si l'histoire d'Amazon vous intéresse, alors le récit de Stone et ses multiples anecdotes sauront vous passionner.
Quand Bezos sort major du lycée et prononce devant ses camarades le traditionnel discours d'usage, il exprime «son rêve de sauver l'humanité en créant des colonies permanentes dans des stations spatiales orbitales tout en transformant la planète en énorme réserve naturelle».
Dans les premiers temps d'Amazon, les cadres sont dépêchés de Seattle pour aller prêter main forte aux centres de distribution débordés par les fêtes de fin d'année. Avec un marché du travail très solide, trouver des intérimaires qualifiés peut tenir d'une gageure; dans un entrepôt du Delaware, un des premiers employés de l'entreprise raconte avoir «vu un ouvrier se faire virer pour ivresse, puis se pisser dessus en voulant contester la mesure».
Lors d'une réunion de cadres dirigeants, peu avant le lancement d'Amazon Web Services, Bezos décide unilatéralement de baisser les prix. Quand on le met en garde contre le risque qu'AWS soit déficitaire, et pour longtemps, le PDG répond par un simple: «Super!» –son idée étant que de gros profits ne fassent qu'attirer la concurrence.
Les meilleurs chapitres du livres concernent les premiers temps d'Amazon, quand l'éclatement de la bulle Internet remet très sérieusement en question la survie de l'entreprise. Parmi les mastodontes actuels du secteur, la grande majorité est entrée en bourse soit bien avant (Apple, Microsoft) soit bien après (Google, Facebook) l'hystérie technologique des années 1990. Le gros des entreprises de cette époque s'est bien évidemment planté. Et la plupart des survivantes, comme AOL, Yahoo ou eBay, est loin d'afficher une santé de fer.

La recette du succès: huile de coude, intelligence et loterie

Amazon est aujourd'hui la seule compagnie née avec le modem analogique et toujours florissante à l'heure actuelle. Mais elle a eu très chaud aux fesses. L'Amazon de 1999 avait tous les problèmes les plus caractéristiques d'une entreprise bullière en pleine hémorragie financière. Si Amazon a pu éviter le désastre de la faillite, ce n'est que grâce à l'émission providentielle d'euro-obligations.
Amazon réussit ensuite à vivoter plusieurs années grâce à des accords passés avec plusieurs grands noms de la distribution –Toys-R-Us, Target, Borders ou encore Circuit City– et faisant du site leur arrière-boutique. Ces histoires, datant d'une époque où Amazon n'était ni une fascinante start-up, ni un acteur dominant du secteur, ne sont pas très connues et illustrent merveilleusement combien le succès commercial est un mélange d'huile de coude, d'intelligence et de bonne vieille loterie.
En avançant dans le livre, et en voyant comment Amazon survit, prospère puis domine, les bonnes idées de son PDG semblent virer vers l'inquiétant.
Ses négociations laborieuses avec une start-up sonnent comme des manœuvres d'intimidation. Et quand Stone décrit la stratégie musclée mise en œuvre par Bezos pour acquérir Zappos et Diapers.com, là on verse même dans l'horreur. Devant deux petits nouveaux de l'e-commerce, prometteurs à souhait, qu'il veut intégrer à son empire, Bezos commence à chaque fois par faire une proposition d'achat ridicule. Quand on la lui refuse, au lieu de négocier, il se lance dans une féroce guerre des prix en vendant des chaussures et des couches bien plus bas qu'un grossiste. Et quand tout le monde comprend que Bezos préfère perdre des millions à détruire ses concurrents plutôt qu'à investir ces mêmes millions dans une offre d'achat plus élevée, les deux entreprises sont poussées à la vente et rejoignent la famille Amazon. Enfin, de quoi se plaint-on, ces start-up ont au moins réussi à se faire racheter et, au final, à gagner de l'argent grâce à l'empire Bezos. Certaines chaînes de librairies n'ont pas eu cette chance: elles ont tout bonnement été piétinées.

Le client d'abord

Mais d'un bout à l'autre, Amazon voue une fidélité remarquable à sa vision centrale, celle d'une croissance à long terme fondée sur la satisfaction de la clientèle. L'entreprise et son PDG ne sont pas sans côtés obscurs, mais leurs clients n'ont jamais eu à en pâtir. Quand Bezos joue des coudes, sa stratégie consiste quasi invariablement à faire baisser les prix.
La ligne officielle de l'entreprise voulant que toutes ses actions n'ont qu'un seul objectif –servir au mieux ses clients–, peut sembler intéressée, mais reste que tout un chacun peut en témoigner. Même dans ses meilleures années, les marges bénéficiaires d'Amazon étaient très restreintes et depuis plusieurs trimestres, ils sont d'ailleurs en train de perdre de l'argent. Il m'est arrivé de décrire l'entreprise comme «une organisation caritative gérée par des représentants du monde des investisseurs au profit des consommateurs», ce à quoi Bezos avait répondu en expliquant que les bénéfices à long terme des actionnaires découlaient des relations à long terme avec les clients.
Et c'est là que, dans le livre de Stone, l'absence d'une mise en perspective comparative se fait le plus douloureusement sentir.
Les idées maîtresses de Bezos –avoir le long terme en vue, penser d'abord au client– sont correctes, mais elles sont loin d'être fracassantes. Si, chez la plupart des entreprises, ces logiques restent purement rhétoriques, Amazon sort du lot en les mettant réellement en pratique.
La structure profonde du capitalisme financier américain oblige quasiment à n'avoir en tête que les résultats du trimestre suivant. Et c'est cela, bien plus que la stupidité, qui fait que Radio Shack est accro à ses extensions de garantie tueuses d'image de marque et que Barnes & Noble a éternellement un jour et un dollar de retard sur Internet. Les PDG répugnent à grignoter délibérément leurs profits à court terme, quels qu'en soient les avantages à long terme. Les entreprises changent et s'adaptent non pas quand elles le devraient, mais quand elles n'ont plus d'autre choix –et donc, en général, quand c'est déjà trop tard.
C'est ce qui fait qu'à l'heure actuelle, si Bezos est le plus grand homme d'affaires américain (il me faut préciser que Slate.com a un partenariat commercial avec Amazon, mais que, contrairement à nos anciens partenaires du Washington Post, nous n'appartenons pas à Jeff Bezos), c'est sans doute parce qu'il parvient à poursuivre ces idées coûte que coûte. Ce n'est pas tant qu'il voit des choses que ratent d'autres dirigeants, mais qu'il arrive vraiment à les mettre en œuvre. Personne mieux que lui ne peut conserver la confiance de Wall Street, même pendant un trimestre ou deux de mauvais chiffres, ou conserver la confiance de son équipe pendant une année ou deux de mauvais résultats boursiers.
Avec son point de vue restreint, Stone exagère même de temps en temps l'originalité de Bezos et de sa vision (Amazon n'est pas la première librairie en ligne, ni la première entreprise à toujours vouloir vendre à bas prix, ni même le premier fournisseur de services de cloud computing), tout en sous-estimant sa maîtrise rare du monde des affaires.
Par ailleurs, le livre décevra ceux qu'intéresse une problématique plus générale sur les effets d'Amazon sur l'avenir du petit commerce, de l'immobilier d'entreprise, des salaires, des conditions de travail, de l'édition ou de l'économie américaine dans son ensemble. Ces sujets sont évoqués, mais pas assez précisément pour permettre un vrai débat ou une prise de position solide.
Mais si Stone et Bezos ont raison et qu'Amazon ne fera que croître, croître et croître encore dans les années qui viennent –ce qu'ils pensent tous les deux– alors il sera temps de publier d'autres livres. Pour l'instant, le récit de Stone sur la naissance, la quasi-mort et l'impressionnante renaissance d'une emblématique entreprise américaine vaut tout à fait le détour.
Matthew Yglesias 
Traduit par Peggy Sastre