mardi 21 janvier 2014

Esquisse de modélisation mathématique de l'économie Internet

La question de la valeur des signes avec l'avènement d'Internet



Notons immédiatement que la matière qui est mise en partage entre les Internautes est "du signe" : images, vidéos, symboles, textes.  Ces signes autorisent une plasticité remarquable. Au contraire des objets matériels, il est possible de les agencer sans contrainte : changement de contexte, collage, juxtaposition, regroupement, réfraction, diffraction, etc.. Cette multiplicité d'arrangements permet de constituer progressivement une "valeur d'usage" qui cristallise les liens construits entre les internautes

En organisant les signes de façon à constituer et à stabiliser des "cibles", Google ou Facebook limitent cette plasticité. Cette limitation permet de faire apparaître une valeur marchande.
Prenons l'exemple d'achat de jouets à Noël. J'ai recherché sur Google des jouets pour un bébé de 8 mois. Je les ai commandé sur un portail de vente en ligne. Ensuite, sur Facebook, j'ai partagé la photos de ces jouets manipulés par le bébé avec mon entourage. Pendant le mois qui a suivi, mon écran a affiché sous forme de publicité ces jouets ou des jouets équivalents. Je suis devenu "acheteur de jouets de bébé". En fait, j'ai été vendu comme "cible" aux portails de vente en ligne de fournisseurs de produits pour enfants

La valeur d'usage des signes dans les réseaux sociaux est donc accompagnée d'une valeur marchande.

 Actuellement, les réseaux sociaux permettent un nouveau type de commerce. Les membres de ces réseaux affichent leurs activités et leurs intérêts, et indiquent leurs préférences par rapport aux activités et intérêts de leurs proches.  Des compagnies comme Google ou Facebook sont en mesure de segmenter  ces activités et intérêts pour constituer des cibles de prospects. Ces cibles sont ensuite vendues aux annonceurs. La publicité est donc adressée de façon ciblée.

Nous proposons l'idée que ces deux valeurs développent des dynamiques contradictoires. Nous allons esquisser ici une tentative de modélisation mathématique en nous aidant de deux modélisations existantes : la Loi de Metcalfe et l'effet d'externalité.

Les concepts d'usage complet et d' "intégration des externalités"

Nous nous donnons en préalable un idéal type (au sens du sociologue Max Weber) : un club suffisamment constitué pour être capable de supporter des transactions économiques entre des fournisseurs/vendeurs et des acheteurs/usagers. Nous viserons un niveau de constitution qui soit une "société". C'est à dire que fournisseurs /vendeurs ou acheteurs / usagers, apparaissent comme ayant une même "société" caractérisée par une grande quantité de valeurs communes. Et réciproquement.

Donnons nous donc un idéal type, où une série d'externalités peut être composée et intégrée selon un "usage complet". Cette série d'externalités est considérée comme intégrée lorsque une société s'accorde sur les qualités d'usage de cet objet technique.

"L'externalité positive maximisée" serait le panorama de l'ensemble des externalités positives telles qu'elles s'articulent de façon à apparaitre à la fois distinctes entre elles et s'intégrant dans un même "usage complet".

La différence entre usage et identité

Chaque usage apparait assez constituée pour être qualifié par une "identité commune", au sens d'une "identité commune reconnue au sein d'une société". Par exemple, dans la société française, une appellation contrôlée "viticulture française bio" deviendrait un usage par la sommation de ses externalités positives.

Il y a d'un coté la bouteille de vin issue d'un processus technique en vu d'un usage ayant la complétude "bio". De l'autre, il y a l’appellation d'origine contrôlée, qui est une des identités de cette bouteille de vin.

Nous considérons l'identité  comme un moteur du partage initial où se constitue une externalité. L’appellation "viticulture française bio" ne peut pas faire l'objet d'un calcul économique de type "recettes/coûts". Mais la société juge que cette appellation, qui est le résultats de plusieurs décennies d'effort, permet de plus grandes quantités de vente et un prix à la vente plus élevé.


Critique de la valeur marchande de la cible sur Internet

Constituer une "cible" pour la vendre à un annonceur permet de monétiser la valeur attribuée à l'usage d'Internet. En première approche, cette monétisation fait sortir la valeur d'usage des internautes rassemblés dans cette cible du champ de pertinence de la Loi de Metcalfe et de l'externalité Effet de club.

Cependant, il n'y a pas une cible, mais une série de cibles adressées par une multitudes de portails ou de sites de vente en ligne. L'effet produit par cette multitude peut s'analyser comme une externalité. Nous poserons que cette externalité est négative car la multiplication des cibles aboutit à un "Chaos" où les identités se brouillent ou s'avèrent factices.

Tout serait falsification car il suffirait d'un signe isolé pour fonder une identité. Par exemple, il aurait des appellations "viticulture française bio" pour des vins fabriqués en Australie selon des méthodes utilisant massivement des sulfites. En effet, un pied de vigne aurait été acheté dans un domaine faisant du bio France, puis revendu en Australie et cela suffirait pour étendre l'externalité "viticulture française bio".

La valeur marchande détruit la valeur d'usage.

Le pas intellectuel que nous proposons de faire est celui-ci : il faut considérer que les valeurs marchandes détruisent les valeurs d'usage des réseaux sociaux selon la loi de Metcalfe. La destruction des valeurs d'usage obéit à un effet d'externalité.

Est-il possible de calculer cette destruction, sachant que par définition, l'externalité se définit comme économiquement incalculable.

Dans notre tentative, nous considérerons qu'il existe un bien valorisé : "l'Identité d'usage complet". Il existerait par ailleurs un coût lié à la réduction du  phénomène "divergence identitaire" et de ses éléments "divergeant identitaires".



 Un processus économique en six temps

Donc, l'Identité d'usage peut être caractérisée par un processus en 6 temps  :

- un temps 1 où tous les coûts des matériaux d'un produit peuvent être additionnés en un coût global, coût global qui peut être comparé un prix de vente, aboutissant au calcul d'un bénéfice

- un temps 2 où la diffusion de l'usage complet amène la formation d'un effet d'externalité positive, aboutissant à une identité forte = Identité d'usage

- un temps 3 où des variétés d'usages se développent

- un temps 4 ou ces variétés d'usage se transforme en plusieurs Identités d'usage concurrentes

- un temps 5 où la diversité des Identités se transforment en externalité négative du point de vue de l' Identité d'usage originelle.

- un temps 6 où l'externalité négative induit des dépenses de reconstruction de l'externalité positive.

La lutte contre l'externalité 'négative' va avoir comme effet de sélectionner un petit nombre d'Identités d'usage 'faible' et de les construire. Cette sélection se fait par des dépenses chiffrables en innovation, design, communication, circuit de distribution. Il y a donc un lien qui apparait entre l'économie classique de type coûts/recettes/bénéfices et l'économie des externalités.

Jusqu’où il est économiquement rationnel de financer des dépenses de construction d' une externalité positive par rapport à un usage existant ? Jusqu'où un usager est prêt à payer pour co-construire une identité d'usage  ?


UN MODÈLE ECONOMIQUE DE "MAINTIEN DE L'IDENTITE DE L'USAGE COMPLET"

Utilisons un modèle simple de "Divergence identitaire" typique du Web. Des sites, en nombre K, sont installées dans le Web et se présentent comme l'indice de nouvelles " identités d'usage".  Ils diminuent l'effet l'externalité positive d'une  "Identité usage originelle". Ces sites seront qualifiés de "Divergent"

- y désigne le grandeur de l'effet de l'externalité positive,

-  désigne dans une société la qualité maximale de "l'identité originelle de l'usage complet"
La quantité de diversité identitaire créée par les divergents j  est notée .

La grandeur de l'effet de l'externalité positive y  dépend de la soustraction de la quantité totale de nouvelles identités divergentes . Cela peut s'exprimer par la formule    .

Sans aucune intervention régulatrice, les sites ne sont pas incités à réduire leur diversion identitaire, car leur objectif est de maintenir un y faible. Dans ce cas les sites produisent chacun une quantité de diversants identitaires égale à  ce qui maintient la dynamique de destruction de la valeur d'usage originelle.  .


Pour les usagers du Web, la qualité de l'externalité positive de "l'usage originel complet" est un bien commun sociétal. Le consentement à payer de l'usager i (fournisseur ou acheteur) pour passer d’un usage de qualité initiale  à un usage originel complet y est notée . Le consentement marginal à payer correspondant sera noté .

Considérons maintenant  des technologies de traitement des divergents identitaires avec des évolutions de l'usage et des ajustements de l' externalité.

Pour le divergeant j le coût pour passer d’une quantité de divergents identitaires  à une quantité d'identités d'usage q s’écrit :
, s’interprète comme le coût marginal de l'évolution. Ce coût marginal est d’autant plus fort que la quantité de divergents identitaires est fort. Si la quantité de divergents baisse, le coût marginal baisse  : ainsi est traduit la décroissance de la difficulté  inhérente à l'évolution du divergent.

Du point de vue de l’efficacité collective il y a un double arbitrage à réaliser :

- l’arbitrage en faveur du coût initialement élevé de l'évolution, ce qui a  l’avantage de restaurer rapidement l'identité de l'usage originel complet, et donc des coûts marginaux décroissants 

- l'arbitrage en faveur de la répartition de la charge d'ajustement des identités entre les différents sites K d’autre part ; c'est à dire faire se rapprocher le montant des coûts marginaux supportés par les différents partenaires.

De ces deux  arbitrages résultent la création ou non de concurrents et la structuration des réseaux de partenaires.

L'intérêt économique d'avoir des concurrents

Une entreprise idéale prendrait en compte l'ensemble des identités d'usage. Cependant, le coût d'évolution de l'usage complet serait très élevé, et la décroissance du coût marginal faible au départ. A ceci s'ajoute que l'évolution de l'usage complet ne peut pas techniquement adresser l'ensemble des perturbations identitaires. Donc, une entreprise fera le choix de traiter certains perturbants identitaires, et de laisser les autres à ses concurrents.

Il est clair d’abord que le coût total de fabrication des nouvelles identités (liées à l'évolution de l'usage complet), pour une quantité donnée de perturbants identitaires, doit être minimisé. Ceci impose donc que, pour chaque niveau total donné de perturbants identitaires q envisagé, les quantités de perturbants identitaires qui affectent les différents usagers soient :
C’est à dire telle que la répartition des perturbants identitaires pris en compte minimise le coût total.

Il en résulte qu’on doit répartir la charge de fabrication des nouvelles identités de manière à égaliser les coûts marginaux d'évolution :

Si ce n’était pas le cas il est possible, pour une quantité totale donnée de perturbants identitaires, de diminuer le coût total en autorisant une augmentation des perturbants identitaires d'usager entraînant un coût marginal élevé. Autrement dit, une option stratégique est de permettre la mise en place d'un concurrent qui adresse ces perturbants identitaires, concurrent qui prendrait à sa charge des coûts marginaux élevés.

Cela serait compensé, pour l'entreprise qui fait ce choix, par une diminution des perturbants identitaires et par leur traitement avec un coût marginal faible.

Lorsque les concurrents possibles désertent

Concrètement, dans le Web, faute d'une régulation économique globale, les usagers initiateurs ayant des images identitaires fortes renforcent leurs identités numériques, tandis que les nouveaux entrants porteur de perturbants identitaires ne font pas d'effort pour réduire leur perturbation.

Les nouveaux entrants préfèrent laisser en place les pollutions identitaires car ils n'ont pas la capacité financière d'adresser des coût élevés d'évolution, pour aboutir à un nouvel usage complet qui ferait vraiment concurrence à l'usage initial.

Nous en avons un exemple dans la relation entre Majors des médias et sites peer-to-peer. Les sites peer-to-peer ont mis au point des procédés techniques et instauré des usages que les majors des médias ne cherchent pas à concurrencer.

Le site http://valentin-guerin.fr/  après enquête note
"Ne me demandez pas pourquoi, mais si le téléchargement illégal a toujours autant la cote, c’est tout simplement parce que l’offre légal n’existe presque pas ; 80% des 10 films les plus téléchargés dans le monde ne sont pas disponibles légalement en France."

Vers l'optimisation de l'incitation à adresser une perturbation identitaire

Imaginons que les Etats aient une intervention régulatrice qui poussent les nouveaux entrants à contribuer à l'effet de club, donc à prendre en compte les coûts d'évolution de maintien de l'externalité positive, c'est à dire l'évolution de l'usage complet et de ses identités.

 L'enjeu est de persuader un nouvel entrant à engager une dépense correspondant à un coût marginal relativement élevé. De combien le coût marginal est élevé par rapport au coût marginal moyen ?

Si l’on note :
le coût total de l'évolution de l'usage complet, on obtient par le théorème de l’enveloppe :
Le coût marginal total de fabrication d'identité (que l’on notera ) est égal, à l’optimum, au coût marginal commun dépensé par chacun des usagers.

Il s’agit ensuite de déterminer la quantité efficace de perturbants identitaires à adresser. L’équation nous donne alors la solution : la quantité efficace de perturbants identitaires  est solution de :

LES INSTRUMENTS DE LA RÉGULATION

Dans le paragraphe suivant, il faut considérer les notions de "taxe", de "subvention" et de fiscalité comme des moyens d'action d'une puissance régulatrice du web. On imaginer que le terme "taxe" représente un encadrement juridique de l'action des usagers par des droits à respecter.

A l'inverse, la "subvention" serait des encouragements à des évolutions apportant un haut niveau de service aux usagers, services de qualité qui permettraient aux fournisseurs de facturer un prix conséquent.

Etant donné le cout d'effort de coopération à construire une identité forte, il n’y a aucune incitation, pour les usagers, à entreprendre une réduction de leur émission de perturbants identitaires ? Quels instruments sont susceptibles de les responsabiliser?

La première idée serait d’appliquer le principe “ pollueur-payeur ” en "taxant" les sites en fonction de la quantité de perturbants identitaires dispersés. C’est là, en quelque sorte, un instrument d’intéressement “ négatif ” : la perturbation identitaire est sanctionnée.

La seconde solution consisterait à "subventionner" la fabrication d'identité lors de l'évolution de l'usage complet. C’est plutôt là un instrument d’intéressement “ positif ” : la fabrication d'identité est récompensée.

Ces différentes solutions correspondent comme on le verra un peu plus loin à une répartition implicite des droits de propriété sur le “Bien Commun” environnement/ Web.

Examinons plus généralement l’incidence d’un instrument mixte comprenant, une "taxe" linéaire à la perturbation d'identité , et une "subvention" affine à la fabrication d'identité comportant une partie forfaitaire et une partie proportionnelle au coût de fabrication d'identité, .

Face à un tel instrument, l'usager j choisit un niveau de perturbants identitaires qui minimise le coût restant à sa charge :
c’est à dire vérifiant :

Comment faire alors pour que la décision de l'usager soit efficace? Un simple coût d’oeil suffit pour remarquer qu’en fixant les paramètres "fiscaux" de manière à avoir , où  est le niveau efficace déterminé dans le paragraphe précédent, alors la puissance régulatrice du web incite chaque site à choisir le comportement optimal. En choisissant les paramètre "fiscaux" de cette manière, la régulation du Web" incite chaque site à un comportement efficace.

Il faut remarquer cependant que la fixation du schéma "fiscal/régulateur" optimal est fortement conditionné par l’information dont dispose la puissance régulatrice : il faut, d’après les équations précédentes, que la puissance régulatrice soit en mesure de calculer .

Par ailleurs, "taxe" et "subvention" apparaissent comme des instruments substituts au sens où un niveau élevé de la "taxe" implique un niveau faible de la subvention. Pour , on obtient l’application du seul principe “ pollueur-payeur ” et le niveau de "taxe" doit être égal au coût marginal de fabrication d'identité, c’est à dire à l’optimum exactement égal à la valeur de la perte d'externalité positive associée à une perturbation supplémentaire. Au contraire le choix d’une "subvention" élevée implique un niveau de "taxe" faible.

De manière schématique on voit que le dosage entre les différents paramètres "fiscaux" induit une répartition différente du surplus dégagé par rapport à la situation initiale : la "taxation" se fait au détriment des usagers, la "subvention" à leur profit.

Externalité et droits de propriété

Une autre façon d’interpréter cet effet redistributif consiste à considérer la situation initiale (dispersion/perturbation identitaire maximale) comme une configuration dans laquelle les droits de propriété sur un Bien commun, les "Identités de l'usage complet", font défaut.

Si l’on spécifie, par exemple, que les "Identités de l'usage complet" “appartiennent” de plein droit aux initiateurs, alors ceux-ci sont en mesure de “monnayer” l’usage comme réceptacle à perturbants identitaires. La "taxe" s’interprète ici comme le prix de cet usage.

Au contraire, si l’on spécifie que l'évolution de l'usage  “appartient” au nouveaux entrants, ceux ci sont en mesure de “vendre” la qualité de l'évolution de l'usage, et c’est la "subvention" qui joue ce rôle.

Certains affirment que "le problème de l' externalité" est en fait causé par l’absence de droits de propriété clairement définis sur certains biens. Si le comportement d’un agent influence le bien-être d’un autre sans qu’il y ait transaction, c’est que la victime ne peut pas institutionnellement faire valoir un droit à “ ne pas être gêné ” ce qui peut dans de nombreux cas se traduire par un droit sur la propriété du “ vecteur ” de l’externalité : l’air, l’eau, le paysage, le panorama des identités...

Reprenons l’exemple des usagers au sein du web. Supposons que les usagers sont représentés par la puissance régulatrice et généralisons l’idée de droit de propriété sur "l’environnement/Web" de la façon suivante. La ressource identitaire est caractérisée, ex ante, avant toute intervention, par un panorama, au sein de l'usage complet, des distinctions d'identité de qualité . Cette ressource peut être qualifiée de capital initial. Perturber les identités revient à consommer ce capital initial.

Partager le droit de propriété sur les identités de l’usage complet revient à répartir  entre les nouveaux entrants et les "usagers/club de service spécifique" et à faire de cette répartition l’allocation initiale de l’économie Web. Notons  la part de la propriété qui revient à de nouveaux sites  j. Cela veut simplement dire que les nouveaux sites d j ont un droit initial de perturbation/dispersion justement égal à .

Il en résulte alors en procédant de même pour tous les nouveaux sites, que la part qui revient à l'usager/club de service spécifique est . Nous sommes alors en présence d’une économie où le bien “environnement Web” fait l’objet de dotations initiales comme tout autre bien de l’économie.




Pourquoi les riches sont de plus en plus riches

Pouvons nous rendre compte d'un effet de l'économie actuelle qui fait que les riches sont de plus en plus riches et les pauvres de plus en plus pauvres ? Reformulons le mécanisme ainsi : lorsqu'il y a des coûts de transformation d'une ressource, entre deux transformations, c'est la moins coûteuse qui est choisie. Le coût est évalué non pas dans l'absolu, mais en proportion d'un capital de départ.

Autrement dit, lorsque un "riche", avec un capital de 10 000 000 € investit dans une transformation qui coûte 10 000 € , le rapport est de 1/1000. La décision d'investir ne pose pas de difficulté.

Lorsqu'un "pauvre" ne dispose que de 10 000 €, le rapport est de 1. La décision d'investir est difficile à prendre.

Maintenant, considérons Internet : il y a énormément de ressources "perturbées" qu'il faut transformer avant de les insérer dans un process productif rentable. Cela dissuade les "pauvres".

C'est pourquoi, il parait important de modéliser les couts générés par les "perturbation d'identités".


En conclusion

La nouvelle économie Web consiste à arbitrer en faveur de clubs, de communautés ouvertes facilitant des échanges économiques valorisant les effets d' externalité positive, et réduisant les effets d' externalité négative.

ANNEXES

La Loi de Metcalfe

La dynamique de valeur d'usage d'un réseau pour un individu peut être mesurée par la Loi de Metcalfe : "L’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs".

La Loi de Metcalfe est une loi théorique et empirique énoncée par Robert Metcalfe (fondateur de la société 3Com et à l'origine du protocole Ethernet).

La loi de Metcalfe mesure les effets de réseau liées aux technologies de l'information, applicable à des réseaux comme Internet, les systèmes de réseautage social et le World Wide Web. Elle calcule que le nombre de liens potentiels dans un réseau avec n nœuds est n(n-1)/2, fonction équivalente à n^2 /2 pour n tendant vers l'infini.
Autrement dit, simplement que plus il y a d'utilisateurs dans un réseau, plus ce réseau aura de la valeur.
  • Elle trouve à s'appliquer dans n'importe quel réseau social (de type Facebook par exemple). Si vous vous trouvez seul inscrit vous n'y trouvez aucune utilité mais si toutes vos connaissances font également partie du réseau alors les fonctions de partage et d'échange commencent à prendre du sens.
  • Elle explique aussi que le contenu d'outils collaboratifs (Wikipédia par exemple) s'enrichit et devient plus efficace, de manière encore plus rapide que la vitesse de croissance du nombre des contributeurs.
  • Elle est en rapport avec la 3eme colonne du Triangle de Pascal 1, 3, 6, 10, 15, 21, …, soit 1 pour 2 noeuds, 10 pour 5 noeuds, et 66 pour 12 noeuds.

L'effet d'externalité

Voici la définition de l'externalité selon Dominique Henriet
On dit qu’il y a externalité lorsque l’activité de consommation ou de production d’un agent a une influence sur le bien-être d’un autre sans que cette interaction ne fasse l’objet d’une transaction économique."

Avec cette définition, nous pouvons qualifier la Loi de Metcalfe comme "mesure d'une externalité".

On distingue les externalités positives et les externalités négatives. On parle d’externalité positive dans le cas où l’interaction aboutit à une augmentation de bien-être. L’effet de norme ou de club est l’exemple d’externalité positive réciproque : la valeur accordée par un consommateur à un produit ou à un service augmente lorque le nombre de consommateurs de ce produit ou service s’accroît.

Considérons le téléphone ou la télécopie: plus le réseau est étendu, plus nombreux sont les correspondants accessibles et donc plus le raccordement devient intéressant pour un nouvel abonné.

La pollution est l’exemple le plus typique d’externalité négative : lorsqu’une usine pollue son environnement en rejetant des déchets, elle inflige une nuisance aux habitants de la région. Cette pollution n’est pas nécessairement attachée à des rejets toxiques, elle peut être visuelle (la construction d’un équipement productif ou même de logements peut altérer la vue initiale des riverains), sonore, ou de manière plus générale, modifier certains équilibres naturels ce qui, indirectement, peut affecter le bien-être de certains agents de l’économie.

L’encombrement dû à la circulation automobile est un autre exemple d’externalité négative réciproque : chaque automobiliste gêne son voisin de sorte que l’augmentation de la circulation entraîne une congestion qui rend les déplacements de plus en plus difficile.

La définition d’une externalité est de ne pas être associée directement à une transaction économique. Il en résulte que l’arbitrage présidant à la décision économique ne tient pas compte des coûts ou des avantages associés à l’externalité. Ceci ne veut pas dire qu'il n' y a aucune incidence économique. Dans le cas de l’externalité positive, cela conduit à une tendance à une diminution des coûts et une augmentation des bénéfices. Mais cette tendance ne peut se démontrer par un calcul.

Dans le cas de la téléphonie mobile, le coût commercial de recrutement des abonnés baisse, puisque les abonnés s'incitent les uns des autres à entrer dans le club. Au démarrage de la téléphonie mobile, le service d'envoi de SMS valorisé par son externalité positive a été vendu à un prix reflétant plus l'intérêt du client que la réalité des coûts .

Dans le cas d’une externalité négative cette omission aboutit à une tendance à une augmentation des coûts et à une perte de bénéfices.

Considérer le partage des signes sous l'angle de ses externalités, c'est le replacer dans un environnement global, et l'envisager selon ses usages et les effets de ces usages.

jeudi 9 janvier 2014

Le succès de la tablette : la force de l'usage


 Repris de http://room.sfrbusinessteam.fr/article/tablettes-4g-usages-mobilite-point-samsung

Tablettes, 4G, usages en mobilité... le point de vue de Samsung

maxime-guirauton-180x225.jpg
Les tablettes, le cloud, la 4G révolutionnent les usages professionnels. Analyse de ces tendances et vision prospective de Maxime Guirauton, Directeur Marketing B2B chez Samsung Enterprise, IT & Telecoms.

En termes d'usages en mobilité, quelles sont les attentes du marché liées à la 4G ?

La 4G apporte aux entreprises des possibilités élargies de travail en mobilité. Un débit comparable à celui d'un accès fixe, sur un smartphone, une tablette ou un PC portable, ça change tout... Prenons l'exemple d'une flotte de commerciaux, répartis en France : pour faire un point hebdomadaire, impossible de les réunir. En revanche, avec la 4G, il devient possible de faire de la visio avec du partage de documents. Agria, un des partenaires technologiques de Samsung, a développé une solution de ce type. La fluidité apportée par la 4G, même avec une ou deux douzaines de personnes, est remarquable.
La 4G amène également une plus grande interactivité, notamment grâce à la rapidité des échanges avec le cloud. En résumé, en situation de mobilité, on pourra faire beaucoup plus de choses car dans des délais plus courts. Les bénéfices se résument donc par les mots : productivité, agilité, fluidité, interactivité et temps réel.

Les ventes de tablettes ont explosé, dépassant de loin les prévisions qui avaient été faites. Quelle explication et quelles conséquences voyez-vous ?

Le succès des tablettes s'explique par le fait qu'elles répondent à de nouveaux besoins, ou qu'elles répondent à d'anciens besoins mal adressés. Dans cette seconde catégorie on peut compter les PC portables, parfois suréquipés au regard des besoins réels de l'utilisateur. Par exemple, un technicien de maintenance n'a pas toujours besoin de ce que propose un PC portable : la saisie dans une grille, puis l'envoi en temps réel peuvent très bien lui suffire. Du coup, certains métiers se sont trouvés suréquipés ou, au contraire, sous équipés au motif que « c'est trop puissant, cher et peu pratique ».
Second point, les tablettes connectées, en 3G ou potentiellement en 4G, sont mieux intégrées que les PC portables équipés de clés USB ou d'autres dongles. La particularité chez Samsung est que nos tablettes sont aussi des téléphones, ce qui engendre parfois un usage seulement occasionnel d'un autre téléphone mobile.
La troisième raison du succès des tablettes est l'apparition rapide d'applications et de versions logicielles finalement plus simples et efficaces que les logiciels d'origine. Indirectement, les tablettes ont donc fait « maigrir » certaines applications et les ont rendues plus réactives : encore un gain de productivité.
Enfin, l'apport du tactile, la compacité, l'autonomie, la recharge rapide et la baisse du poids les ont rendues très attractives en comparaison des PC portables.

Comment les tablettes intègrent-elles les entreprises aujourd'hui ?

Sur le marché français, on peut observer que les tablettes entrent parfois dans les entreprises - non par le fait des DSI - mais par les directions métier, notamment le marketing et les forces commerciales. Grâce aux tablettes, les points de vente et autres agences commerciales s'équipent également, pour réinventer leur métier et leur dialogue avec le client.

Le cloud est également en plein essor. Vous lancez en France le Chromebook, un ordinateur portable dédié à cet usage. A quels besoins professionnels répond-il ?

Aujourd'hui, certaines entreprises ou équipes sont passées au « full mobile ». Elles utilisent notamment Google Entreprise : e-mail, applications et données dans le cloud. C'est typiquement à elles que s'adressent les ChromeBook. Par ailleurs, certains utilisateurs recherchent un outil de travail qui soit finalement assez proche de la tablette, au sens où ils veulent peu de stockage et beaucoup d'interactivité. Cet outil s'adresse aussi aux flottes de grande ampleur, pour lesquelles le coût réduit est un élément déterminant.

L'usage professionnel des terminaux mobiles soulève des questions de sécurité. Comment y répondez-vous ?

Dans le cas des terminaux mobiles Samsung, il faut rappeler qu'ils répondent aux besoins de sécurité des entreprises, grâce à un écosystème de partenaires technologiques auxquels nous avons ouvert nos API (interfaces de programmation), afin qu'ils développent les connecteurs nécessaires à une sécurité élevée.
Concrètement, nos terminaux disposent de VPI IPsec, et du cryptage en 256 bits (hardware, software, carte mémoire). Et nous allons proposer très bientôt, avec SFR Business Team, la solution de sécurité matérielle et logicielle Knox. Il s'agit d'une application qui crée en quelque sorte deux containers de données, sécurisés et séparés, sur un terminal mobile : l'un pour les données professionnelles et l'autre pour les données personnelles.
De cette façon, l'entreprise dispose d'un espace sécurisé sur le terminal du collaborateur, avec des possibilités de contrôle à distance. En cas de tentative pour cracker le téléphone, Knox se déclenche, ferme le container, et donne la possibilité à l'administrateur de l'entreprise d'effacer les données confidentielles quasi-instantanément. Quant à l'employé, il bénéficie de la protection de ses données personnelles - puisque l'entreprise ne voit pas dans son container privé.

Comment voyez-vous l'horizon technologique 2014 ?

Chez Samsung, notre analyse pour le futur proche est résumée par l'expression « smart workplace », qui repose sur une grande facilité de communication entre les individus mais aussi entre les équipements. Avec pour conséquence une simplification des tâches en toutes circonstances : imprimer chez soi, par liaison sans fil, un document de travail stocké sur sa tablette, par exemple. Ou diffuser en réunion un document à tous les terminaux mobiles présents...

Avec la 3G et la 4G, que reste t-il au WiFi ?

Avec le WiFi, on est tributaire du spot sur lequel on se trouve connecté, au bureau, à la maison, à l'hôtel... En France, nous avons la chance d'avoir une excellente couverture 3G, et ce sera demain le cas en 4G. Les réseaux 3G apportent donc une plus grande liberté de mouvement. Un avantage auquel la 4G ajoute un débit élevé, proche de celui d'un accès fixe.

Pourquoi l'iconomie ?

Le concept d'une nouvelle économie - l'iconomie- serait difficile à mettre en avant.

L'iconomie serait la mise en évidence des potentialités réelles (en terme de "mieux économique") de l'alliance de l'information et des nano technologies. De mon point de vue de praticien de l'informatique, il fait ajouter à l'analyse les "défauts spécifiques de l'alliance de l'informatique et des nano technologies".

La puissance de l'informatique et des réseaux maintient en vie des ressources vieillissantes et des simulacres, voire les multiplie à l'infini. Michel Volle le répète depuis longtemps (sans être compris..) : copier une ressource (ici la ressource est un raisonnement) ne coûte quasiment rien. En terme économique, le coût marginal est nul.

Si les pays émergents ont pris en charge avec succès les technologies fonctionnant avec une main d'oeuvre peu qualifiée, c'est grâce à l'encadrement serré apporté par l'informatisation de la lean production, ajustement en temps réel de la production. Si les banques spéculent à tout va, passent un millier d'ordres de vente ou d'achat dans une seule minute, c'est grâce à la puissance et à la rapidité de calcul fournie par l’électronique du silicium. Si l'argent de la drogue peut être blanchi, c'est grâce au coût dérisoire du montage administratif de centaines de sociétés écrans.

Conséquences issues de ce cumul : les emplois industriels détruits en Europe ne peuvent pas être compensés par des investissements, faute de ressources financières réelles.

Mon opinion est que l'utilisation de l'informatique  est directement responsable de beaucoup de phénomènes entrainant une faible valorisation ou une destruction de nos ressources, mais nous ne savons pas interpréter ces phénomènes.

"L'iconomie", selon moi, est donc un concept nécessaire pour signaler que les raisonnements économiques classiques sont devenus inopérants, et que de nouvelles notions, de nouveaux modèles sont à élaborer.

Au plan micro économique, dans les entreprises, j'ai constaté la survie de raisonnements administratifs vieux de 10 ans, car "codé en dur". Et ils coexistaient avec de nouveaux raisonnements de gestion, eux aussi "codés en dur". Ariane 5 a explosé car de vieux raisonnements avaient été laissé en l'état. Ajoutons y  les erreurs..

La réaction est la défiance globale : la maintenance des équipements et des logiciels coûte trop chère. Cf. le début de notre réunion ce matin. Comment dépasser cette défiance globale ? Il ne s'agit pas seulement d'une défiance des dirigeants envers "le code", mais d'une incapacité à penser en terme de finalité de l'usage. Il faut s'imaginer l'usage final avec les usagers, pour remonter vers les "briques" à assembler. Hélas, cette imagination fait défaut.

L'actualité montre le pire et le meilleur : d'un coté le désastre de du Dossier médical personnalisé, de l'autre le succès du Dossier Pharmaceutique. La différence réside dans l'appui apporté au projet par une communauté, par le respect des droits des personnes, par une évolution douce de l'usage, etc..
http://www.ordre.pharmacien.fr/Le-Dossier-Pharmaceutique/Interview-d-Isabelle-Adenot


La problématique du gratuit et des nouvelles valeurs

Voici un exemple de nouveau modèle économique qui exige une modelisation iconomique : "la fourniture gratuite d'un bien" Le gratuit devient possible du moment que le coût marginal d'une copie est nul.

En 2008, Kevin Kelly, ex-rédacteur en chef de Wired, explique que l’internet est une machine à copier. “Même un chien sait qu’on ne peut plus rien effacer une fois qu’un os a été lancé sur l’internet”. Ce super système de distribution est en train de devenir la fondation de notre économie et de notre puissance, alors que jusqu’à présent, elles étaient fondées par la vente précieuse de chacune de ces copies. Si la reproduction de nos meilleurs efforts devient gratuite, comment allons-nous continuer ? Comment peut-on faire de l’argent en vendant des copies gratuites ?

Quand la copie se généralise, vous avez besoin de vendre des choses qui ne peuvent pas être copiées”, remarque Kevin Kelly. Il y a plein de qualités qui ne peuvent pas être copiées,  : la confiance par exemple. La confiance ne peut pas être téléchargée ou contrefaite (enfin, pas pour longtemps). Toutes choses égales par ailleurs, vous préférerez toujours faire affaire avec quelqu’un de confiance. La confiance est donc un élément intangible qui a une valeur croissante dans un monde saturé. Il a plein d’autres qualités similaires à la confiance qui sont difficiles à copier et qui prennent de la valeur dans cette économie en réseau.

Pour mieux repérer ces qualités, Kevin Kelly se place dans la peau d’un utilisateur se demandant pourquoi il payerait pour quelque chose qu’il peut avoir gratuitement. Et de distinguer 8 valeurs “génératives” qui sont préférées au gratuit. Des valeurs qui ne peuvent pas être copiées, clonées, répliquées, contrefaites ou reproduites… mais qui sont relatives et qui s’adaptent au produit et au public.
  • L’immédiateté. Avoir une copie au moment où elle est mise en vente ou produite, immédiatement, sans avoir à l’attendre. Beaucoup de gens paient pour aller au cinéma voir un film alors qu’il leur suffit d’attendre pour en avoir, quelques mois plus tard, une copie à prix réduit, voire un accès gratuit ou quasi gratuit en le téléchargeant. La perception du temps étant relative, cette immédiateté peut s’adapter au produit et au public.
  • La personnalisation. L’aspirine est presque gratuite, mais l’aspirine adaptée à votre ADN est très coûteuse. Bien sûr, la personnalisation requiert une communication constante entre le créateur et le consommateur, l’artiste et ses fans, le producteur et l’utilisateur. C’est très génératif car c’est itératif et ça prend du temps. Vous ne pouvez pas copier la personnalisation issue d’une relation.
  • L’interprétation. Comme aujourd’hui le manuel d’un logiciel libre est payant, demain la copie de votre séquence génétique sera gratuite, mais l’interprétation de ce qu’elle signifie, ce que vous pouvez faire avec, et comment l’utiliser - le manuel de vos gènes finalement - sera coûteux.
  • L’authenticité. Pour avoir une version fiable, certifiée, authentique et qui fonctionne.
  • L’accessibilité. Garder ses copies par-devers soi n’est pas facile. Demain nous paierons des entrepôts pour nous donner accès à des morceaux de musiques quand et où nous le souhaitons.
  • L’incarnation. Pour profiter d’une copie en haute résolution, pour avoir accès à un support, à une performance… L’incarnation de ce que nos copies dématérialisent n’est pas gratuite.
  • Le mécénat. “Je suis convaincu que l’audience souhaite payer les créateurs. Les fans veulent récompenser les artistes, musiciens, auteurs et autres à la hauteur de leur appréciation car ça leur permet de maintenir un lien. Mais ils ne vont payer que si c’est très facile à faire, d’un montant raisonnable et en étant sûr que l’argent ira directement aux créateurs. L’expérience récente très médiatisée de Radiohead laissant les fans payer ce qu’ils souhaitent pour une copie gratuite est une excellente illustration de la puissance du mécénat. Le lien immatériel et insaisissable entre ce que les fans apprécient et l’artiste vaut quelque chose.”
  • La trouvabilité. C’est-à-dire la capacité à rendre visible une copie, une oeuvre… Dans un océan de données, nous paierons pour les outils où les personnes qui vont rendre visible ou trouvable ce que l’on cherche. Les éditeurs, critiques, labels ont encore un rôle à jouer.
“Ces 8 valeurs génératives demandent une compréhension de la façon dont l’abondance engendre un nouvel état d’esprit”, conclut Kevin Kelly, qui a volontairement écarté la publicité de sa liste. Certainement parce qu’il ne considère par la publicité comme une valeur, ou plutôt parce que ces valeurs permettent également d’ajouter de la valeur au modèle publicitaire.


PS : Le travail réalisé par la Fing sur la musique, présenté en avril 2007, aboutit à des conclusions très proches de celles de Kevin Kelly. La description de plusieurs dizaines de modèles d’affaires expérimentés montre de nouvelles formes de génération et de circulation de la valeur.  Le pouvoir des producteurs est déplace vers les portails et les “sites sociaux”.
Source : Internet Actu - 10 mars 2008

En 2013, les 6 tendances du Net en Chine


L'empire du Milieu est l'empire du Net : en juillet 2013, la Chine comptait 591 millions d'internautes, ce qui la place au premier rang mondial. Près de 70 % d'entre eux utilisent leur téléphone portable pour se rendre sur Internet. Les technologies numériques ont transformé la Chine, poussant le Parti communiste chinois à s'adapter, mais aussi à sévir. En 2013, les autorités ont resserré leur contrôle sur les microblogs pour maîtriser cette caisse de résonance de la contestation. Une nouvelle législation prévoit désormais la prison si un post colportant une rumeur est retweeté plus de 500 fois. La censure s'est accrue.
Dans le même temps, Alibaba, Tencent, Baidu et Sina, ont continué à innover et se sont engagés dans des rapprochements pour préparer l'avenir. 2013 restera aussi comme l'année où le succès de WeChat, l'appli de Tencent, s'est confirmé, à tel point que des versions étrangères, dont une en France, ont été lancées.
Pour ce début d'année 2014, voici un tour d'horizon (subjectif) des grandes tendances de l'Internet en Chine sur les douze derniers mois, à partir d'une sélection des posts du blog.
  • Innovation
L'année a été riche en annonces importantes pour le secteur. Alibaba, qui pourrait s'introduire en Bourse cette année, s'est allié avec Sina pour se renforcer face à Baidu et Tencent (Alibaba investit dans le Twitter chinois). WeChat, l'appli de Tencent, a confirmé son succès, de plus en plus d'internautes abandonnant Weibo en raison de la censure.
Le site américain TNW a présenté ses sept tendances du secteur Internet en Chine en 2013: Xiaomi, l'arrivée de l'iPhone, l'internationalisation des groupes chinois, une série d'investissements et de fusions-acquisitions, Bitcoin, WeChat et les Smart TV.
  • Contestation
Cette année, les autorités ont resserré leur contrôle sur Weibo, les sites de microblogs, où les voix contestataires s'étaient épanouies (Sept jours de prison pour un internaute de 16 ans). Début 2013, une fronde menée par les journalistes de l'hebdomadaire libéral Nanfang Zhoumo avait entraîné des manifestations de soutien dans la rue à Canton. Ce fut le premier défi au nouveau mandat de Xi Jinping, deux mois après son entrée en fonction comme secrétaire général du Parti communiste chinois (En Chine, la fronde des journalistes d'un célèbre hebdomadaire se poursuit).
  •  Appropriation
Le Net est de plus en plus considéré comme un espace stratégique pour le Parti communiste chinois et pour l'armée populaire de libération : Les microblogs, nouveau "champ de bataille" pour l'armée chinois et L'appel aux armes de Pékin pour contrôler le Net. Dans les provinces, la police se met à la viralité pour faire passer ses messages, comme dans cette vidéo pour promouvoir la sécurité routière.
Xi Jinping et sa femme profitent du Net pour donner une image plus proche du peuple mais aussi plus glamour (Un taxi pour Xi Jinping et A Moscou, la première dame fait sensation).
  • Corruption
Les cadres corrompus sont restés des cibles faciles pour les internautes, d'autant plus que Xi Jinping s'est engagé dans une campagne anticorruption qui a fait tomber de nombreuses têtes (Le marxiste en chef tombe pour un scandale sexuel et La revanche de Weibo sur un haut cadre chinois).
  • Pollution
La pollution et les risques alimentaires figurent parmi les sujets les plus discutés sur les réseaux sociaux chinois. Au printemps 2013, les milliers de cochons morts repêchés dans le fleuve Huangpu, près de Shanghaï, ont alimenté la chronique (Soupe de porc à Shanghaï, cigarette à Pékin, pollution pour tous). La pollution de l'air figure également en bonne place parmi les peurs urbaines (Smog sur Pékin et Pékin "sinise" ses particules PM 2,5).
  • Sensation
Début 2013, deux retraités chinois de Pékin ont fait sensation en rendant publique leur relation, provoquant de nombreuses réactions dans un pays où le mariage homosexuel n'est pas permis (Mariage symbolique pour deux "vieux" gays chinois).
Les violences récurrentes des laissés-pour-compte de la croissance chinoise ont également secoué les internautes (Human bomb à la chinoise et Une Chine en feu).
Les exploits des touristes chinois, en Chine même ou à l'étranger, sont également un sujet de conversation infinie (Un graffiti d'un touriste chinois à Louxor suscite la polémique et Tourisme de masse et bonnes manières).
P.-S. : Le Wall Street Journal a également recensé ses moments Internet de l'année en Chine, où figure en bonne place le canard jaune géant, détourné et placé face aux chars sur la célèbre photo prise après la répression de la place Tiananmen en 1989.
Par François Bougon

mercredi 8 janvier 2014

Succès des projets informatiques : le Dossier pharmaceutique

 Repris de http://www.ordre.pharmacien.fr/Le-Dossier-Pharmaceutique/Interview-d-Isabelle-Adenot

Interview d’Isabelle Adenot

Isabelle Adenot, Président / Photo JC Leroy

« Le DP est un outil professionnel qui est devenu essentiel et incontournable parce qu’il répond aux grands enjeux sanitaires actuels : le bon usage du médicament, la coordination entre professionnels de santé, le décloisonnement ville-hôpital, les gestions de crises sanitaires, les ruptures d’approvisionnement. Il témoigne de la volonté des pharmaciens de contribuer concrètement à résoudre des problèmes de santé publique. »

Isabelle Adenot, Président du Conseil national de l’Ordre des pharmaciens,
le 18 septembre 2013

Comment est né le Dossier Pharmaceutique ?

Le DP est né d’une évidence : dans l’intérêt des patients, mettre les technologies à leur service en donnant au pharmacien une vue globale des traitements pour améliorer les performances de son exercice. Il découle de l’inscription du Dossier Médical Personnel (DMP) dans la loi du 13 août 2004, et d’une ambition de l’ensemble de la profession.

J’ai très vite compris que le projet de DMP ne prenait pas en compte les pratiques professionnelles. L’échec du carnet de santé, créé en 1996 et finalement non utilisé, était un exemple à ne pas imiter. En tant que praticien, j’ai très vite eu la conviction qu’il fallait créer un dossier électronique adapté à l’exercice des pharmaciens.

Sous l’autorité du président de l’Ordre, conseillers et directions de l’Ordre se sont mobilisés. En interne, une nouvelle direction composée de professionnels des systèmes d’information entièrement dédiée au DP a été créée. Et en septembre 2005, par une délibération du Conseil national de l’Ordre, le Dossier Pharmaceutique est né… sur le papier. A suivi un autre long travail collectif pour affiner la solution technique, persuader les partenaires et les autorités de la faisabilité, définir le modèle économique. Mais la clé du succès, c’était l’implication active des milliers de pharmaciens de la France entière ! À titre personnel, en sus d’une conviction profonde et d’un travail intense, le DP, ce furent des milliers de kilomètres parcourus aux quatre coins de la France et le sujet de ma thèse d’exercice soutenue en 2005.

Consécration de ces efforts collectifs, la loi du 30 janvier 2007 confie à l’Ordre la mise en oeuvre du DP. La CNIL autorise la généralisation du déploiement le 2 décembre 2008 et le décret relatif au DP est publié le 15 décembre 2008 au Journal officiel. Comme dans tout projet de cette envergure, comme dans toute aventure humaine, nous avons connu des moments d’incertitude, voire de découragement, mais nous avons toujours gardé le cap, persuadés de l’intérêt de santé publique de ce DP. À chaque étape importante, il y a eu aussi des moments de joie intense, celle des équipes qui savent qu’elles ont relevé les défis.

Comment percevez-vous le déploiement rapide du DP ?

Le DP est le succès de toute une profession. Sans cette ambition collective, le DP serait resté à l’état d’idée ! En adoptant le DP, les pharmaciens ont montré leur volonté d’améliorer encore et toujours le bon usage du médicament. Certes, ce bon usage est l’essence même de l’activité du pharmacien, mais en s’attachant à développer aussi vite cet outil auprès de la population française, la profession, dans son ensemble, témoigne de son rôle d’acteur de santé publique. Et à l’heure où la confiance dans le médicament est à reconstruire, elle témoigne aussi de sa vision d’une souhaitable et possible amélioration du système de santé. Aujourd’hui, cet outil professionnel performant est devenu incontournable et reconnu. Le partage d’informations et la coordination des soins sont devenus une réalité.

Comment a évolué le DP depuis sa création ?

Pour décloisonner la ville et l’hôpital, le DP a effectué ses premiers pas dans les pharmacies à usage intérieur des établissements de santé et s’ouvre à quelques médecins : urgentistes, anesthésistes-réanimateurs, médecins spécialisés en gériatrie.

Le dispositif sert maintenant de relais aux alertes de la Direction générale de la santé (DGS) et à l’information rapide sur les retraits de lots. À terme, l’objectif est non seulement de retirer rapidement du marché les médicaments qui doivent l’être, mais également de les retirer chez les patients à qui ils ont été délivrés. Il contribue également à la vigilance sanitaire : les données anonymes du DP sont précieuses, car très réactives. Avec les différentes agences concernées, nous contribuons à dresser un état des lieux de la situation sanitaire en France.

Un dispositif de signalement des ruptures d’approvisionnement est enfin en cours d’expérimentation.

En quoi le DP s'inscrit-il dans les missions de l'Ordre ?

Trouver des solutions novatrices pour promouvoir la santé publique et sécuriser la chaîne du médicament fait partie des missions de l’Ordre. Aujourd’hui, le DP est un outil précieux au service des patients, un tremplin vers de nouvelles avancées. Il est surtout le signe de la capacité et de la volonté de modernité des pharmaciens. Ici, vous découvrirez une vision globale de cet audacieux outil professionnel que chacun a contribué à rendre performant, le chemin parcouru et le futur du DP.

Pour en savoir plus :

Cauchemar des projets informatiques : le Dossier médical personnalisé

Repris de  http://www.la-croix.com/Ethique/Le-Dossier-medical-personnel-DMP-tres-couteux-et-peu-utilise-2014-01-05-1084848

Le Dossier médical personnel (DMP)  : très coûteux et peu utilisé

Sa mise en place aurait coûté 500 millions d'euros pour seulement 418 000 ouvertures de dossiers depuis 2011, au lieu des 5 millions prévus, selon une information révélée par Le Parisien.
4/1/14

Le Dossier médical personnel (DMP) coûte-t-il trop cher  ? Le quotidien Le Parisien , dans son édition du 4 janvier, l’affirme, en s’appuyant sur « un document interne du Conseil national de la qualité et de la coordination des soins ».

Selon ce texte, « 500 millions d'euros ont été versés depuis 2004 », afin de financer la mise en place de ce dossier médical informatisé, dont les Français peuvent demander la création depuis janvier 2011 lors de toute consultation médicale. Le contrat initial, précise encore le quotidien, tablait sur 5 millions de DMP créés. Or, à ce jour, le nombre de dossiers effectivement ouverts est de 418 204.

UN « CARNET DE SANTÉ NUMÉRIQUE » QUI DÉPEND DU PATIENT

Le DMP, carnet de santé numérique que le patient peut consulter lui-même sur Internet, a été conçu pour permettre aux professionnels de santé de partager les informations utiles à la coordination des soins de son détenteur. Y sont versés le volet médical de synthèse rédigé par le médecin traitant, les résultats d’analyse et les comptes rendus de soins hospitaliers. Le dossier lui-même dépend toutefois du patient, qui est libre d’y faire figurer ce qu’il veut. Une préoccupation liée au souci de chacun de protéger ses données personnelles, mais qui rend du même coup le dossier souvent inopérant, puisque incomplet, et au final fort peu utilisé par les professionnels eux-mêmes, qui préfèrent le plus souvent se constituer leur propre dossier sur chaque patient qu’ils traitent.

UN FONDS FINANCÉ PRINCIPALEMENT PAR L’ASSURANCE-MALADIE

Le Parisien souligne que c’est la première fois qu’un document officiel mentionne le chiffre exact du financement du DMP, même si la Cour des comptes, dans un rapport publié en février 2013 mettant en cause le pilotage par l’État du développement du DMP, avait avancé une somme de 210 millions d’euros, estimant que « le demi-milliard d’euros » pouvait être dépassé.

Le DMP, dont les fonds proviennent en grande partie de l’Assurance-maladie, est géré par l’Asip-Santé (Agence des systèmes d’information partagé de santé), créée spécialement dans ce but. Il pourrait à l’avenir être confié à la Caisse nationale d’assurance-maladie, même si, toujours selon le Parisien « le gouvernement a été contraint de prolonger d’un an ce contrat, soit 7 millions d’euros supplémentaires pour 2014. »

UN PROJET DE « DMP 2 » SUR LES RAILS

Adopté à la suite d’une loi préparée par Philippe Douste-Blazy en 2004, expérimenté au deuxième semestre 2006, il est relancé par Roselyne Bachelot à partir de 2008 et devient effectif fin 2010. En novembre 2013, l’actuelle ministre de la santé Marisol Touraine avait remplacé le directeur de l’Asip-Santé et s’était engagée à lancer un DMP de 2e génération, plus efficace.


Dossier médical personnalisé, le gaspillage continue

Dans un rapport rendu public mercredi 20 février, la Cour des comptes dénonce une nouvelle fois le manque de stratégie et de coordination dans la mise en place du dossier médical personnalisé.
20/2/13 - 17 H 35

Instauré par la loi en 2004, censé entraîner 7 milliards d’économies par an, le dossier médical personnalisé (DMP) continue de ressembler à un vaste fiasco. C’est ce que dénonce la Cour des comptes, saisie du problème pour la troisième fois, dans un rapport rendu public mercredi et intitulé « Le coût du dossier médical personnalisé depuis sa mise en place ».

À l’origine, le DMP devait concerner l’ensemble des Français et contenir toutes les informations nécessaires au suivi d’un patient : comptes rendus de consultation, examens, traitements… Le but était d’éviter les redondances, pour faire des économies et harmoniser le parcours de soin.

Mais après des années d’expérimentations et une remise à plat du système en 2010, l’objectif, revu à la baisse, d’un million de dossiers ouverts en 2013 reste aujourd’hui largement hors de portée : seuls 158 000 DMP étaient ouverts à l’été 2012. Si le rythme actuel de 1000 ouvertures par jour se poursuit, l’objectif apparaît largement inatteignable. Surtout, il n’y a en moyenne que deux documents par dossier, ce qui en réduit fortement l’intérêt.

Un demi-milliard d’euros dépensé

Depuis 2005, le lancement de ce dossier représente un lourd gaspillage financier. La Cour l’évalue à 210 millions d’euros. Cela tient notamment aux nombreuses expérimentations régionales financées jusqu’en 2009, puis abandonnées sans plus de suivi : « Au fil des changements de stratégie, la quasi-totalité des DMP successivement établis ont été détruits et les investissements en matériels et en logiciels, largement passés par pertes et profits. »

En y ajoutant les investissements consacrés aux dossiers de patients hospitaliers, censés, à terme, alimenter le DMP, la Cour estime que, globalement, l’informatisation de dossiers médicaux individuels a coûté un demi-milliard d’euros, « essentiellement à la charge de l’assurance-maladie ». « Ces constats attestent d’une absence particulièrement anormale et préjudiciable de stratégie et d’un grave défaut de continuité de méthode dans la mise en œuvre d’un outil annoncé comme essentiel à la réussite de profondes réformes structurelles », déplore la Cour.

Pour une stratégie pluriannuelle

Enfonçant le clou, elle pointe, dans un encadré, le succès du dossier pharmaceutique, prévu par une loi de 2007 pour éviter les problèmes d’interactions médicamenteuses. Au printemps dernier, 20 millions de dossiers étaient ouverts, 21 580 officines sur 22 875 y étaient raccordées.

Dans ses préconisations, la Cour ne remet pas en cause l’utilité du DMP mais elle demande d’établir au plus vite une stratégie pluriannuelle : « Il est urgent que l’État définisse enfin une stratégie d’ensemble pour intégrer le DMP dans une vision globale de l’organisation du dispositif de soins de manière à assurer la cohérence et la convergence de dispositifs (…) foisonnants, et à éviter une dérive des coûts à venir. »
 
FLORE THOMASSET  
Repris de http://www.la-croix.com/Actualite/France/Dossier-medical-personnalise-le-gaspillage-continue-_NG_-2013-02-20-913278 

lundi 6 janvier 2014

NSA : The Guardian publie une narration interactive

Repris de ZDNet.fr
 

Sécurité : Le journal britannique a condensé dans une page verticale les informations de base, des infographies, des interviews de ses journalistes et des liens vers toute la couverture faite sur les opérations de surveillance de la NSA.
Qui est Edward Snowden ? Comment a débuté l'affaire sur la surveillance de la NSA ? Qui espionne qui ? Quelles sont les connexions câblées entre les pays ? Qu'est-ce que PRISM ? Xkeyscore ? Muscular ? Tempora ? Comment ont travaillé les journalistes du Guardian ?

Avec les révélations qui se succèdent et se recoupent depuis quelques mois, difficile de faire le lien entre toutes. Encore plus compliqué d'avoir une vue globale. Alors que les divers journaux à l'origine de ce "NSA-gate" tentent aujourd'hui de donner du sens à toutes les informations publiées, le Guardian vient de réaliser un bel exercice journalistique.

Sur son site, on pourra donc découvrir cette passionnante narration interactive sur la surveillance opérée par la NSA. Un "décryptage" qui mêle texte, liens, vidéos, infographies interactives, interviews d'experts, documents classés et conseils de protection.

Forcément en anglais, mais évidemment en accès libre - Guardian oblige. Le dossier est innovant sur la forme, et permet enfin d'y voir un peu plus clair dans le marigot des technologies et des intérêts diversement partagés par la NSA et ses contreparties des pays d'Europe, Royaume-Uni en tête.

vendredi 3 janvier 2014

Facebook accusé de lecture de messages privés

 Repris de

http://www.zdnet.fr/actualites/facebook-accuse-de-lecture-de-messages-prives-39796671.htm  


Législation : Deux internautes américains accusent Facebook d’analyser, sans le consentement des utilisateurs, le contenu des messages privés échangés sur Facebook, à des fins d’analyse de données. Facebook intercepte-t-il les correspondances privées de ses utilisateurs afin notamment, et sans consentement, procéder, à son seul bénéfice, à de l’analyse de données sur ces contenus ? Cette accusation, deux internautes américains la font.

Cette semaine, Matthew Campbell et Michael Hurley ont ainsi déposé plainte contre Facebook devant un tribunal de Californie. Ils accusent donc le réseau social de scanner les messages privés échangés sur la plate-forme. Ce en y intégrant des URL et afin, entre autres, de faire du datamining et du profilage utilisateur.
 
Plainte en action collective 
Des pratiques qui selon les plaignants constituent une violation de la législation garantissant la confidentialité des communications électroniques. Pour étayer leurs plaintes, les deux internautes citent notamment une étude d’une société de sécurité, High-Tech Bridge, suggérant que Facebook analyse les liens partagés via les messages privés.
 
 
« Faire croire aux utilisateurs que le contenu des messages Facebook est privé représente une occasion particulièrement rentable pour Facebook car les utilisateurs qui pensent communiquer sur un service sans surveillance sont susceptibles de révéler des faits les concernant qu’ils n’auraient pas communiqués s’ils avaient su que cela était enregistré » avancent les plaignants, qui souhaitent obtenir le statut d’action collective.
 
De son côté, Facebook assure que ces accusations sont "sans fondement" et entend se défendre "énergiquement" devant la justice.