mardi 12 août 2014

Presse numérique : 15 ans d’échecs et de succès

Repris de linkedin.com

Crezeo founder : social networks for professionals


De nombreuses initiatives ont vu le jour depuis une quinzaine d’années pour offrir un avenir à la presse numérique. D’abord fondé sur le journalisme citoyen, cet avenir est rapidement devenu celui du journalisme participatif.

Plusieurs sites d’information ont connu le succès avant de décliner. D’autres n’ont jamais vraiment décollé. Certains pionniers du journalisme participatif ont pourtant réussi à survivre.
Facteurs d’échecs et de réussites nous enseignent qu’il n’existe pas de juste milieu entre le contenu journalistique et le contenu des « citoyens » mais plutôt des modèles pour intégrer ce dernier au site d’information ainsi que plusieurs moyens de rendre la participation possible et utile à tous.

On ne remplace pas les journalistes

Plusieurs échecs de sites participatifs, première et deuxième génération, ont montré que les journalistes sont indispensables et le resteront toujours.
Apparus au début des années 2000, on appelait les premiers sites du genre, sans aucun journaliste, des « médias citoyens ». Ils n’ont pas perduré et plus de 10 ans après, d’autres échecs montrent que les sites qui veulent se passer de journalistes professionnels peinent à connaître un succès durable.
AgoraVox, pionnier des médias 100% citoyens en France, a été lancé en 2005 et a commencé à connaître des difficultés 4 ans plus tard. Newsring est lancé en décembre 2011 à l’aide de plusieurs millions d’euros et par des personnalités du monde médiatique. L’ambitieux projet s’effondre en 2013 essentiellement parce que les contenus ne sont pas rédigés par des journalistes. Le site devient debats.terrafemina.com mais les questions qui font débat sont toujours introduites par un contenu qui n’est pas journalistique.

Tout le monde ne peut pas participer en produisant du contenu

À la grande époque des blogs, de nombreux sites à travers le monde naissent sous la forme de plate-forme de blogs : les internautes diffusent l’information. Beaucoup se présentent comme des espaces de liberté et ne sont pas des compléments ou des alternatives : ils sont à contre-courant des médias traditionnels. Ces blogueurs ont des opinions, points de vue politiques, économiques ou autres à défendre.
Cela donne lieu à de nombreuses dérives. Mais au-delà des dérives, un autre problème survient : comment peuvent s’exprimer ceux qui ne savent pas écrire des articles ? Que peuvent faire les internautes qui ne savent pas rédiger ?
Ils peuvent demander des idées comme sur AgoraVox qui donne des conseils en répondant à une question fréquente : « Je ne sais pas sur quoi écrire, avez-vous des idées ? »… Plus crédible, un guide de bonnes pratiques ou une page d’aide peuvent permettre aux rédacteurs de faire le point sur la diffamation, le droit à l’image ou encore, les droits d’auteur.
Toutefois, des sites d’information ont échoué ou sont en difficulté parce que tout le monde ne peut pas rédiger et parce que tout le monde ne souhaite pas rédiger. Pas même un commentaire.
C’est ainsi que des sites ont vu le jour pour proposer de nouveaux modes de participation. On les dit « semi-participatifs ».

Il faut valoriser le contenu non professionnel

La hiérarchisation de l’information et celle des contributeurs, ainsi que la sélection des contenus produits par des non-professionnels, donne lieu, juste avant les années 2010, à de nouveaux modèles qui font beaucoup évoluer la presse numérique mais qui présentent quelques défauts.
Les débuts du journalisme citoyen laissent place à plus de maîtrise : on essaie de trouver un compromis entre les contenus des journalistes professionnels et ceux des internautes, au sein d’une même plate-forme.
Toutefois, la valorisation du contenu des internautes ne se fera vraiment que par le choix de la rédaction et le témoignage : on tient compte du fait qu’une majorité d’utilisateurs souhaite participer autrement qu’en rédigeant.
Le Post apparaît en 2007 et il est racheté en 2011. Ce site laisse ses utilisateurs publier des articles mais d’une façon trop dévalorisante. Si certains articles sont choisis et édités par l’équipe rédactionnelle, beaucoup ne sont pas relus. Le processus de sélection implique toujours de faire partie d’une certaine élite : ceux qui « savent écrire ». Quant aux articles non relus, ils ne sont jamais à la une.
Malgré un vrai succès, grâce à un système de hiérarchisation des rédacteurs, des occasionnels aux professionnels, Le Post connaît plusieurs déboires avec la justice à cause des contenus d’internautes qui ne maîtrisent aucune technique journalistique (et à cause de la modération, un facteur clé qui fera l’objet de notre point suivant).
En 2008, Mediapart tente de ne pas commettre les mêmes erreurs en fonctionnant avec un Journal et un Club. Le journal est publié par la rédaction. Les articles du Club sont publiés par les adhérents qui créent leurs blogs. Les informations sont hiérarchisées et c’est la rédaction qui sélectionne les articles des blogs, présentés comme des compléments aux articles de la rédaction. Une fois sur la page du Club, le lecteur voit alors le journal diffusé sur la gauche et les productions des adhérents devenir prioritaires.

Ce modèle semble porter ses fruits quand il valorise le contenu des membres.

Il n’est toutefois pas la seule possibilité de valorisation. En 2007, Rue89 était lancé. Le site fonctionne avec une équipe de journalistes qui sont aussi des modérateurs. Ils ont pour rôle de produire de l’information et de gérer les contributions des utilisateurs. Leur participation est essentielle à la vie du site.
On peut participer en publiant des commentaires et en attribuant des notes aux différents articles. Rue89 effectue aussi une sélection des commentaires via les votes des internautes. On peut proposer des idées de sujets et des articles mais seulement en contactant l’équipe de rédaction via un formulaire de contact.
Ce sont les témoignages qui sont privilégiés. Pour ouvrir un blog, il faut aussi faire une demande et ce sont les blogs de témoignages qui sont privilégiés.
Ce modèle de « témoignages » va se développer de plus en plus dans les années 2010 avec l’avènement des réseaux sociaux, jusqu’à faire participer les internautes en tant que sources d’informations.
Enfin, Rue89 et Mediapart offrent d’autres fonctionnalités typiques des réseaux sociaux. Les utilisateurs disposent d’un espace personnel. Rue 89 montre combien de commentaires ont été sélectionnés par la rédaction pour chaque membre. On peut aussi voir combien de commentaires chaque membre a publié et la boule rouge, sorte d’indice de popularité. Mediapart montre pour chaque blogueur le nombre de contacts et leurs noms.

Il faut un modérateur professionnel

Les internautes ne sont plus de simples consommateurs de l’information. Ils y contribuent en envoyant leurs témoignages, en notant les articles, en laissant des commentaires et parfois en envoyant leur propre contenu aux équipes rédactionnelles. Tout ceci créé une communauté qu’il faut animer et modérer. Le métier de Community Manager apparaît vers 2006.
Il est aujourd’hui considéré comme une fonction possible du journaliste. Sans lui, aucun média citoyen, site participatif au semi-participatif n’est viable.
Tout le monde peut s’inscrire sur AgoraVox. Les dérives sont régulières et le site reconnaît que son fonctionnement les favorise notamment les rumeurs. D’autant plus que le site a pour objectif de mettre en avant des informations moins populaires voire passées sous silence. Dans ce contexte à contre-courant de l’information de masse, les modérateurs sont les rédacteurs eux-mêmes. Avoir publié 4 articles donne la possibilité de voter pour les articles les plus intéressants. C’est ainsi que les articles sont validés.
Malgré une charte de modération et une charte de bonne conduite, le site qui ambitionnait de devenir un « média démocratique » est régulièrement montré du doigt que ce soit pour l’ambiance extrémiste ou conspirationniste.
L’anonymat favorise probablement ce type de dérive, mais pour nombre de spécialistes, le problème vient essentiellement du fait que les personnes tour à tour appelées contributeurs, rédacteurs ou journalistes amateurs, défendent des idées. Et que le sujet soit politique ou pas, c’est ce que fera toujours un citoyen.
Tandis qu’un journaliste informe.
Aujourd’hui, un journaliste informe et peut aussi modérer. Un particulier qui produit du contenu n’est pas à même de gérer l’éventuel débat qui s’ensuit puisqu’il a une idée arrêtée sur la question traitée. Pour un site d’information, c’est également le schéma parfait pour faire fuir les membres de sa communauté, risquant des attaques personnelles.

Il faut des experts

Les experts sont la grande tendance médiatique de ces quelques dernières années. Ils sont de tous les plateaux télé est très présents sur les sites d’information dont certains sont désormais basés sur le modèle de l’expertise. Parfois, tout internaute peut s’improviser expert. Parfois, l’expert professionnel est la seule véritable valeur ajoutée.
Apparu en 2011, le site quoi.info propose des articles rédigés par des journalistes et les contributions des internautes sont basées sur un schéma similaire à de nombreux autres sites d’information pour hiérarchiser les contributeurs, sauf qu’il s’agit cette fois-ci de 3 niveaux (amateur, connaisseur, expert) que l’on atteint en franchissant un certain nombre d’étapes. Ce site est un autre bon exemple de la façon dont on peut valoriser les contributions tout en les régulant.
La plate-forme Terrafemina.com, « média d’actualité ouvert et réactif » est un portail féminin de 150 000 membres. Il y a des journalistes, des contributeurs et des experts qui donnent leur avis notamment dans les débats. Il s’agit ici de professionnels dans le domaine concerné par le débat.

Il faut créer de la confiance

15 ans de tentatives plus ou moins fructueuses des sites d’information nous enseignent qu’il faut créer de la confiance avec les lecteurs.
Cela se fait de multiples façons notamment en permettant au lecteur d’identifier facilement les publi-rédactionnels, de supprimer ses contributions et commentaires s’il le souhaite, de savoir qui subventionne le site informatif.
Cela se fait aussi en étant à l’écoute de ses membres pour effectuer les changements nécessaires au fur et à mesure que les besoins, la technologie ou les pratiques sur Internet évoluent. La dernière génération de sites participatifs ou « pure players » ne cesse de développer des moyens d’intégrer les internautes au journalisme professionnel via des fonctionnalités de réseaux sociaux.
En 2013, Mediapart procède à d’importants changements. Outre un système d’archivage permettant de retrouver plus facilement d’anciens articles (sachant que les articles sur de tels sites deviennent anciens en moins de 24 heures), Mediapart opère un changement majeur pour la lecture sur tous les appareils mobiles.
Il offrira aussi une mise en valeur des contenus multimédias et surtout, plus de contenus dans la partie Club, soit une importante valorisation des contenus de membres.
Rue89 a également effectué de nombreux changements en 2011 dont la fameuse boule rouge qui ne permet plus d’envoyer un vote négatif, ce qui met fin à quelques dérives. Ce que Rue89 supprime, Mediapart l’ajoute : il est possible depuis 2013 de conseiller comme de déconseiller des commentaires.

Sources :

mardi 5 août 2014

Jaron Lanier: l’Internet ruine la classe moyenne

    Il fait partie de ces gens inclassables, qui gravitent dans l’univers de la high tech, aux confluences de l’informatique, la physique et les neurosciences. Un pionnier de la Silicon Valley mais ses dreadlocks le rangent plutôt parmi les techno-utopistes de Berkeley, et d’ailleurs c’est là qu’il réside, dans une maison-atelier assez grande pour entreposer sa collection d’instruments de musique traditionnelle (instruments à vent, cithares asiatiques), l’une des plus vastes du monde. Il est aussi compositeur, mais c’est une autre histoire qu’il n’a pas l’intention de raconter aujourd’hui.
En 2010, le magazine Time l’a rangé dans les 100 personnalités les plus influentes du monde. Le New Yorker lui a consacré un long portrait : Jaron Lanier « le visionnaire ». Il est régulièrement invité à Davos (« Je me suis trouvé dans l’ascenseur entre Newt Gingrich et Hamid Karzai »). Mi-septembre, il était à New York (où nous l'avons rencontré) pour donner une conférence aux Nations Unies sur l’avenir des économies. Suivie d’une autre sur celui des bibliothèques. Tout le monde veut avoir son avis sur l’avenir. Il est vrai que c’est le titre de son dernier livre : « Who owns the future ?» (Simon&Schuster). Qui possède -aujourd’hui- le monde de demain ?
Il y a une trentaine d’années, Jaron Lanier a été l’un des pionniers de la réalité virtuelle –la création d’univers numériques dans lesquels de vrais humains peuvent se mouvoir et échanger. C’est même lui qui a inventé le terme: « virtual reality ». Il a inventé le jeu video Moondust, développé des prototypes, dont le premier simulateur chirurgical. Il a vendu des start-up à Google, Oracle, Adobe, Pfizer. Fait fortune grâce au Kinect, une caméra en 3D qui a vendu à plus de 18 millions d’exemplaires. Depuis 2006, il est chercheur à Microsoft Research.
  Jaron Lanier a participé aux débats à San Francisco qui ont abouti à la création de l'Electronic Frontier Foudation (EFF), l'organisation qui mène la lutte contre les programmes d'espionnage de la NSA. Mais il n'a pas donné suite: ce n'est pas le combat qui lui parait le plus important. Pour lui, l'important n'est pas "qui a accès à l'information" mais "ce que l'on fait avec ces données". Comme il l'explique dans son livre (et dans l'interview ci-dessous), les micro-détails collectées sur chacun grâce à l'Internet sont en train de devenir un puissant moyen de manipulation.
    Jaron Lanier, 53 ans, a grandi au Nouveau-Mexique, où ses parents, des artistes new yorkais avaient décidé qu’ils seraient plus en sécurité que sur la côte est  (sa mère, rescapée de camp de concentration, avait émigré de Vienne à l’âge de 15 ans.  Elle est morte dans un accident de voiture alors qu’il n’avait que dix ans). Il a écrit deux livres. L’un (“You’re not a gadget”) est une critique des réseaux sociaux qu’il qualifie « d’agences d’espionnage privatisées » n’ayant plus aucun intérêt à protéger la vie privée des utilisateurs.  Dans “Who owns the future” (non traduit), il décrit un phénomène qu’il n’avait pas anticipé: la concentration des richesses dans un univers qui était censé aplanir les inégalités. L’économie, dit-il, repose de plus en plus sur l’information et celle-ci n’étant pas suffisamment monétisée, la richesse collective se dilue. Bref, le tout-gratuit est en train de détruire la classe moyenne et l’économie de marché.
Interview (en partie publiée dans Le Monde du 22 octobre)

Q:  En quoi l’internet détruit-il la classe moyenne  ?
JL: L’automatisation commence à détruire l’emploi, comme si la vieille peur du 19ème siècle devenait réalité. A l’époque, il y avait cette inquiétude énorme que l’emploi des gens ordinaires était menacé par le progrès des machines. Quand les voitures ont remplacé les chevaux, les gens pensaient que cela devenait tellement facile de conduire qu’il n’y aurait plus de raison de payer pour le transport. Tous ceux qui travaillaient avec les chevaux allaient perdre leur emploi. Mais les syndicats étaient puissants. Ils ont imposé qu’il est normal de payer quelqu’un même si le travail est moins pénible et qu’il est plus facile de conduire un taxi que de s’occuper de chevaux.
Avec l’Internet, les choses deviennent tellement faciles que les gens rejettent cet arrangement payant. C’est une erreur. Cela a commencé avec Google, qui a dit : on vous donne un moteur de recherche gratuit. En contrepartie, votre musique, vos photos, vos articles vont aussi être gratuits. L’idée est que ça s’équilibre : vous avez moins de revenus mais vous avez accès à des services gratuits. Le problème est que ce n’est pas équilibré. Bientôt, les consommateurs vont accéder aux produits grâce aux imprimantes 3D. Graduellement toutes les choses physiques deviennent contrôlées par les logiciels et tout devient gratuit.

Q : Mais certains s’enrichissent.
JL:  L’idée au début de l’Internet était que l’on donnerait du pouvoir à tout le monde parce que tout le monde aurait accès à l’information. En fait, Google et tous ceux qui collectent les informations au sujet des autres parce qu’ils offrent ces services gratuits, deviennent de plus en plus puissants. Plus leurs ordinateurs sont gros, plus ils sont puissants. Même si vous regardez la même information que Google, Google en retire beaucoup plus de pouvoir que vous.
L’autre remarque à faire, c’est que dès que quelqu’un prétend avoir une technologie qui peut remplacer les gens, c’est faux. Exemple : la traduction automatique. Vous pouvez prendre un document en anglais, l’entrer dans un ordinateur et le ressortir en français. Cela ne va pas être du très bon français mais quelque chose va ressortir.

Q : Et c’est gratuit. Quel est le problème ?
JL : Les compagnies qui font de la traduction automatique collectent des millions et des millions d’exemples de documents qui ont été traduits par des vraies personnes. Ils repèrent des morceaux de phrases qui sont semblables à ceux de votre document et ils traduisent un peu à la fois et assemblent le patchwork. Cela ressemble à un cerveau électronique gigantesque mais en fait, il s’agit du travail de tonnes de gens qui ne sont pas payés et ne savent même pas qu’ils sont utilisés.
Pour chaque nouvelle technologie qui prétend remplacer l’humain, il y a en fait des gens derrière le rideau. Ce que je dis, c’est qu’il y a une solution : il faut garder trace des gens qui fournissent un vrai travail et avoir une option qui leur permette d’être indemnisés. L’automatisation dépend systématiquement de ce que nous appelons « big data » ou informations produites par un nombre élevé de gens. Ces données ne viennent pas des anges ou de phénomènes surnaturels. Elles viennent des gens. Si on les payait pour ces données, on pourrait soutenir l’emploi.

Q : Quelles sont ces données qui ont tant de valeur ?
JL : Les compagnies qui possèdent les gros ordinateurs créent des modèles pour chacun d’entre nous. Google a un modèle de vous. Pareil pour la NSA (agence de la sécurité nationale), Facebook, et même certaines organisations criminelles. Elles collectent des données sur vous et les utilisent pour faire des projections. L’idée, c’est de modifier le comportement.

Q : Comment ça, manipuler ?
JL : Les manipulations sont très petites. Cela peut être trouver le moyen de vous faire accepter un prêt qui n’est peut être pas aussi intéressant qu’un autre. Comment vous inciter à faire tel ou tel achat. C’est un système froid, basé seulement sur les statistiques. Il travaille très lentement, comme les intérêts composés. Sur la durée, cela fait beaucoup d’argent. C’est comme cela que Google est devenu si riche : les gens qui paient Google peuvent obtenir un tout petit peu de modification du modèle de comportement. C’est un système géant de modification comportementale.
Il faut comprendre que c’est différent du modèle traditionnel de publicité. La publicité a toujours été une forme de rhétorique, de persuasion, de style. Ici, il n’est pas question de style. C’est placé au bon moment. C’est purement pavlovien. Il n’y a aucune créativité. C’est une forme de manipulation sans esthétique mais c’est très graduel et très fiable, parce que c’est juste des statistiques.
Il s’agit aussi du type d’informations vous recevez. Si vous allez en ligne, vous ne voyez plus les mêmes informations que quelqu’un d’autre. Les informations sont organisées spécifiquement pour vous par ces algorithmes. C’est un monde où tout est ouvert et en même temps la plupart de ce que les gens voient est manipulé. Ce qui n’est possible que parce que les gens qui manipulent ont des ordinateurs plus puissants que les gens ordinaires.

Q: Qui a les plus gros ordinateurs ?
JL:  Personne ne le sait. Ils sont conservés dans des cités gigantesques d’ordinateurs. Ils sont généralement placés dans des endroits isolés près de rivières qui permettent de refroidir les systèmes . Peut-être c’est Google, peut-être la NSA. Personne ne sait. En Europe, la plupart sont en Scandinavie.
Le problème n’est pas qui a accès à l’information mais ce qu’ils font de l’information. Si vous avez des ordinateurs beaucoup plus puissants, cela ne peut pas créer une société équitable. Au lieu d’essayer de plaider pour la transparence et le respect de la vie privée, nous devrions nous préoccuper de ce qui est fait avec les données accumulées. Nous vivons à une époque où il y a deux tendances contradictoires. D’un côté, tout le monde dit : n’est-ce pas formidable cette décentralisation du pouvoir, grâce à Twitter etc. De l’autre côté, la richesse est de plus en plus centralisée. Comment est-il possible que le pouvoir soit décentralisé et la richesse de plus en plus centralisée ? En fait le pouvoir qui est décentralisé est un faux. Quand vous tweetez, vous donnez de vraies informations aux gros ordinateurs qui traquent vos mouvements

Q : Comment monnayer nos tweets ?
JL :  Je préconise un système universel de micro-paiements. Tout le monde toucherait une  rémunération –fût-elle mimine- pour l’information qui n’existerait pas s’ils n’existaient pas.
Cette idée circulait déjà dans les années 1960, avant même que l’internet soit inventé. C’est juste un retour aux origines. Si on arrivait à savoir combien les compagnies sont prêtes à payer pour avoir des informations, cela serait utile.
Les gens pensent que le montant serait infime. Mais si on regarde en détail, c’est faux. Les données concernant l’homme de la rue ont beaucoup de valeur. Le potentiel est là pour soutenir une nouvelle classe moyenne. Chaque donnée individuelle aurait une valeur différente. Certaines seraient plus cotées parce qu’elles sortent de l’ordinaire.

Q : Vous êtes devenu anti-technologies ?
JL: Pas du tout ! J’ai aidé à mettre en place ce truc que je critique maintenant ! Mais il faut regarder les résultats dans le monde réel. J’avais pensé que pendant l’âge de l’Internet on verrait une augmentation fantastique de richesse et d’options. A la place, on voit une concentration intense des richesses. Et c’est un phénomène mondial. Si c’est cela la tendance, si la technologie concentre les richesses, la technologie va devenir l’ennemie de la démocratie, peu importe le nombre de tweets. Je refuse de faire l’autosatisfaction quand je vois tous ces gens ordinaires qui perdent pied alors que leur situation ne devrait faire que s’améliorer grâce aux progrès technologiques.
  • Facebook
  • Twitter
  • Delicious
  • Tumblr

À propos de Corine

Corine Lesnes est correspondante du "Monde" à Washington depuis 2006.

samedi 2 août 2014

Le système d’algorithme pour classer les sites sur Google

Repris de http://www.actu-google.com/videos/systeme-d-algorithme-pour-classer-les-sites-sur-google/

Comment fonctionne l’algorithme de Google. Est-ce que la firme américaine possède plusieurs algorithmes ou méthodes de calcul pour afficher les 10 résultats de la première page. C’est une question intriguante, posée par un danois:
Est-ce que Google utilise le même algo pour afficher tous les résultats sur la première page, ou différents algos pour une plus grande variété des résultats ?  Pos.1-3 focus sur la fraicheur de document, 4-6 focus sur les liens entrants, et 7-10 focus sur les signaux sociaux ?
quel algorithme google
Bien que cela relève de critères technologiques propres à Google, et que leurs ingénieurs ne souhaitent pas tout dévoiler, Matt Cutts affirme qu’il n’y a qu’un algorithme pour générer le classement des sites et les afficher en première page.
Ce qu’on aurait probablement aimé, c’est que Matt s’épanche d’avantage sur les pondérations des signaux selon le nombre de résultats concurrents. A savoir que plus la requête est concurrentielle et plus d’autres critères de pertinence rentrent en jeu pour classer les résultats. Alors qu’à l’inverse, lorsque la requête n’est pas concurrentielle, certains signaux comme la fraicheur du document, le nombre de liens entrants ou d’autres rentrent beaucoup moins en compte.
Le système de classement algorithmique n’est pas proportionnel. Il s’adapte selon moi en fonction du niveau de concurrence des mots clés recherchés.

Les causes du succes de google

 http://www.businessweek.com/stories/2006-03-05/the-secret-to-googles-success

The Secret To Google's Success


Everybody knows that Google Inc.'s (GOOG) innovations in search technology made it the No. 1 search engine. But Google didn't make money until it started auctioning ads that appear alongside the search results. Advertising today accounts for 99% of the revenue of a company whose market capitalization now tops $100 billion.

Now, research is showing that Google's auction methodology, invented internally and so important for its success, is far more innovative than auction experts once believed. While superficially similar to earlier types of auctions, it is a "novel mechanism" that "emerged in the wild," write the authors of The High Price of Internet Keyword Auctions, a new study by Benjamin Edelman of Harvard University, Michael Ostrovsky of Stanford University, and Michael Schwarz of the University of California at Berkeley. Google's AdWords became so successful after its debut four years ago that some of its key features were quickly adopted by Yahoo! Inc. (YHOO), then the search-ad leader.

MATHEMATICAL RIGOR

Close-mouthed Google has opened up about AdWords since the three economists cracked its code last November. It freed Hal R. Varian, a Berkeley economist who consults for Google, to publish some of his findings about the auction methodology. And on Feb. 22, Google gave an interview to BusinessWeek in which for the first time it named the technical leader of the project: Eric Veach, a veteran of Pixar Animation Studios (PIXR) whose Stanford doctorate was in computer graphics, not economics. "Without his mathematical rigor we wouldn't have been able to do it," said vice-president of product management Salar Kamangar, himself a biology major, who was Employee No. 9 at Google and led the nontechnical side of the project.

Some of Google's innovations are only now being matched. For instance, Yahoo gives the top spot on its search results page to the advertiser who pays the most per click. But Google maximizes the revenue it gets from that precious real estate by giving its best position to the advertiser who is likely to pay Google the most in total, based on the price per click multiplied by Google's estimate of the likelihood that someone will actually click on the ad.

Anil Kamath, chief technology officer of Efficient Frontier Inc., a search-engine marketing firm in Mountain View, Calif., estimates that Google earns about 30% more revenue per ad impression than Yahoo does. Kamath says Yahoo is likely to follow Google's lead soon. Asked about that, a Yahoo spokesperson says the company is "currently evaluating" making more use of the "click-through rate" in placing ads. Last fall, Microsoft Corp.'s (MSFT) MSN embraced Google's approach, tweaking it to increase ads' relevance, when it began auctioning search ad space.

What makes Google's auction so different? Auctions come in two main flavors. In a typical first-price auction, participants put in sealed bids, then the winner pays his or her bid. But the danger is the high-bidder ends up regretting having won, an effect known as the winner's curse. A second-price auction lessens winner's curse because the highest bidder gets the prize but pays only the minimum necessary to win, namely the second-highest bid, plus perhaps a penny.

Kamangar, Veach, and colleagues chose a second-price auction. But not knowing theory, they designed one that differed in a key respect from the one economists had studied. In the economists' version, bidders always have the incentive to tell the truth. In Google's auction they don't, say Edelman, Ostrovsky, and Schwarz, since in some cases, by understating the top price they're willing to pay, advertisers could get a slightly lower position on the search page for a lot less money. They conclude that naive advertisers who told the truth could overbid. Google's system has pluses for advertisers, too, says Varian. It's easier to understand than the academic version. And it's proven to work on a large scale.

AdWords Select, as it was called at its February, 2002, debut, was actually Google's third crack at an ad auction. The first two were flawed, but Google founders Larry Page and Sergey Brin kept pushing. Even the current system isn't perfect. Advertisers complain that it's too much of a "black box." Still, if the best measure of innovation is commercial success, Google's AdWords was a grand slam. Says Kamangar: "Third time's a charm."


Publiée par pulmo le Mardi 9 Juillet 2002
Après une année 2001-2002 qui a vu la montée fulgurante de Google dans le paysage Internet Français (PIF), prenant une large avance en tête des outils de recherche avec plus de la moitié du trafic généré sur les sites web, le Panorama eStat/@position se penche sur les raisons réelles de son succès, et détaille ses utilisations.

Ainsi, Les utilisateurs de Google surfant sur les sites français sont avant tout des adeptes de la francophonie : la version française Google.fr se distingue de plus en plus et atteint 48% du total des recherches de Google. 77,4% des utilisateurs ont paramétré l'interface du site en langue française. 22% ne veulent que des sites francophones dans leurs pages de résultats et 11% souhaitent se limiter aux sites français.

Par ailleurs, même si Google est utilisé de manière basique (82,1% des recherches sont des recherches simples composées uniquement de mots clés), les résultats obtenus semblent satisfaire les utilisateurs puisque 76% d'entre eux trouvent une réponse qui leur convient dès la première page de résultats.

Les recherches s'avèrent être également précises : 51% des requêtes contiennent trois mots clés ou plus.

La simplicité d'utilisation plébiscitée par les utilisateurs est également mise en évidence par le faible taux d'utilisation des fonctionnalités avancées (1,08% des recherches). Quant à la Googlebar, elle ne génère que 3% des recherches totales.

Des thématiques de recherche ont pu être mises en évidence en fonction des horaires d'utilisation. La majorité des recherches se font après 17h. Les recherches liées aux jeux et à la musique se font plutôt en début soirée pour laisser place aux recherches liées au charme après 22h. A l'inverse, les recherches liées à l'emploi se font avant 17h avec un pic de requêtes entre 10h et 12h.

Selon le deux sociétés eStat et @position, « Le succès de Google s'expliquerait donc par sa simplicité d'utilisation, son adaptation aux spécificités d'un pays (options de langue directement accessibles) ainsi que par sa technologie de recherches optimisée et efficace. »

Quelles fin(s) pour Internet ?

Repris de  http://www.inaglobal.fr/numerique/note-de-lecture/boris-beaude/les-fins-d-internet/quelles-fins-pour-internet-7708 

Les fins d’Internet

NOTE DE LECTURE  par Vincent MANILEVE  •  Publié le 11.07.2014  •  Mis à jour le 15.07.2014
 
Avec Les fins d’Internet, le géographe Boris Beaude se penche à nouveau sur le réseau Internet en annonçant sa mort prochaine.

Titre : Les fins d’Internet
Auteur(s)  : Boris Beaude
Éditeur(s) : FYP éditions
Parution : 21.02.2014

Sommaire

Chercheur au sein de l’École polytechnique fédérale de Lausanne (EPFL), Boris Beaude étudie, entre autres, la dimension spatiale d’Internet. Tout au long de son ouvrage, il démontre point par point comment Internet, après avoir tenté de servir une cause juste, a fini par céder à quelques intérêts particuliers qui désormais sont en train de remettre en cause cet espace. Fruit d’une réflexion longue de plusieurs décennies sur le besoin de libérer la circulation de l’information, Internet a surpris en se déployant plus vite que n’importe quelle autre technologie à travers le monde. Si vite que notre société a changé sans s’en rendre compte. La liberté d’expression, si chère aux démocraties qui l’ont promue, était enfin effective, de nombreuses démarches favorisant l’accès aux ressources en ligne se sont mises en place… Même si cette « culture singulière pour l’ouverture » n’a pas été acquise aussi facilement qu’on le pense, il y avait là l’émergence d’un réseau qui surpassait les frontières et laissait espérer la création d’un « espace mondial. »
 
Mais désormais, si l’on en croit Boris Beaude, tout a changé : « 20 ans à peine après son développement commercial, Internet semble être à l’acmé de son potentiel. » L’ambition des pionniers d’Internet n’aurait été qu’une utopie. Et pour appuyer son raisonnement, Beaude fait la liste des transformations récentes d’un Internet désormais sous surveillance, faillible et aux mains de multinationales souvent peu scrupuleuses. C’est au cœur de ce conflit entre intérêts publics, privés, individuels et collectifs que pourrait se jouer la fin d’Internet.

L’émergence d’un Big Brother mondial

C’est peut-être la transformation la plus importante d’Internet. Dès les années 1960, le gouvernement américain a placé au centre de ce réseau ce qu’il avait placé au centre de sa jeune société à la fin du XIXe siècle : la liberté d’expression. Expliquant qu’Internet s’inscrit dans « le prolongement des Lumières », Boris Beaude rappelle que les citoyens et les États espéraient alors un « Monde »[+] éclairé, où la transparence serait reine et les despotes renversés. Dans une autre déclaration d’indépendance, celle du cyberespace en 1996, John P. Barlow[+], cité par Beaude, résumait en quelques mots l’incroyable aventure que pouvait être Internet : « Nous sommes en train de créer un monde où n’importe qui, n’importe où, peut exprimer ses croyances, aussi singulières qu’elles soient, sans peur d’être réduits au silence où à la conformité. » Bien sûr, cet idéal n’a pas tenu longtemps. Alors que la déclaration de Barlow supposait un Internet qui se régulait lui même pour rester un espace mondial commun et respectant un « contrat social » partagé par tous, mais la réalité a été bien différente. Le Monde, fragmenté en territoires, n’a pu surpasser les pratiques locales pour favoriser l’émergence d’un « espace mondial ». De même, la liberté d’expression totale, que beaucoup revendiquaient, n’existe pas. Que ce soit en Chine où la censure met en prison des dissidents, ou aux États-Unis, où des journalistes sont espionnés sur ordre de la Justice, cette liberté-là n’a jamais été mise en place. Et nombreux sont les États à avoir décidé d’échanger cette liberté contre des impératifs sécuritaires. Ce phénomène s’est aggravé avec l’émergence de WikiLeaks et les affaires Manning ou Snowden.  Internet aura disparu avant même que la communauté internationale ne se décide à agir.  Désormais, entreprises, gouvernements, et citoyens s’opposent dans un espace brouillé où les nationalismes émergent peu à peu, soucieux d’affirmer leurs valeurs politiques et leur souveraineté numérique. Pessimiste sur la création d’un « espace politique mondial », Boris Beaude estime qu’Internet aura disparu avant même que la communauté internationale ne se décide à agir. 
Revenir au sommaire

Le territoire aux mains des géants du Net

Au-delà des États, les grandes entreprises du numérique s’approprient elles aussi, chaque jour un peu plus, l’espace numérique. Une conquête qui se fait aux dépends de la décentralisation et la diversité que promettait Internet à ses débuts. L’internaute se retrouve encadré dans un système fermé créé de toutes pièces par, entre autres, les GAFA (Google, Apple, Facebook, Amazon). Google propose son propre navigateur et a même payé Mozilla et Apple pour que son moteur de recherche soit utilisé par défaut sur FireFox et Safari. Même chose pour les systèmes d’exploitation, beaucoup reprochent à Apple le manque d’ouverture de l’iPhone et du Mac. Pire encore : une fois que l’internaute s’est vu imposer quelque chose, il change rarement ses usages. Boris Beaude cite dans ce sens les travaux de Richard Thaler[+] et Cass Sunstein[+] sur les « architectures du choix ». Ils expliquent que les choix alternatifs ont très peu de chances de s’imposer face à l’option « par défaut », et que l’internaute change rarement d’avis par la suite. Autre facteur déterminant : le réseau qui, en misant sur la virtualité des relations, promet à l’internaute la sensation d’appartenir à une communauté, à un groupe dont on sort rarement. Facebook compte plus d’un milliard d’utilisateurs et jouit ainsi d’un poids considérable sur le « Monde Internet ». Et si les États ne se décident pas à établir des règles internationales pour contrôler cette « hypercentralité », ces géants continueront d’imposer leur vision du monde, au détriment des libertés individuelles.
 
Il faut également savoir que leur emprise sur Internet a également été possible grâce au détournement de l’un des grands principes fondateurs d’Internet : la gratuité. Et c’est un problème de plus, si l’on en croit Boris Beaude. L’économie tout entière a été renouvelée avec une redéfinition du rapport à la transaction, à la matérialité du produit et à ses échanges. Écouter de la musique, financer un projet, louer un appartement, réserver une chambre d’hôtel... autant de pratiques bouleversées par Internet. De l’autre côté, le coût de diffusion des œuvres s’est considérablement réduit. Pourquoi fabriquer des millions de DVD du dernier blockbuster américain quand il est accessible en ligne ? Pourquoi imprimer des centaines de milliers de journaux pour un article qui peut être lu sur le web en quelques clics ? Mais là encore, l’auteur prévient : la gratuité n’est jamais totale. Il y a toujours quelqu’un qui paie le prix de la gratuité. Certes Google met à disposition un grand nombre de services gratuits (mails, actualité, cartographie…), mais récupère en échange des données qu’il peut revendre à des entreprises. Résultat : pour 37 milliards de dollars de fonctionnement en 2012, Google a généré 50 milliards de chiffre d’affaires. Même chose pour Facebook, qui vient d’annoncer qu’il allait désormais utiliser les données de navigation extérieure à son site pour cibler la publicité. Twitter, YouTube ou encore Wikipédia… Tous fabriquent du contenu gratuitement puisque les contributions de l’internaute ne lui coûtent rien. Ce Monde, explique Beaude, ne respecte pas le coût de production, ce qui pose encore d’autres questions sur la propriété intellectuelle. C’est sur ce terrain glissant, entre respect des auteurs et le droit des internautes à accéder à des contenus gratuitement, que les États doivent avancer. Et là encore, les souverainetés nationales émergent, mettant en péril Internet.  Les souverainetés nationales émergent, mettant en péril Internet. 
 
Et pourtant, comme l’explique le géographe, « Internet est apparu comme une opportunité inédite de produire du lieu à l’échelle mondiale et d’assurer la convergence des intelligences en un espace commun. » Selon lui, il y a même eu un échec démocratique avec Internet. Alors qu’il prévoyait que les intérêts particuliers seraient au service de l’intérêt collectif, ce Monde-là a déjà montré ses limites en termes d’intelligence collective et participative. Internet souffre d’inégalités criantes (80 % des Américains y ont accès contre 2 % des Nigériens), et la participation à la création des ressources communes est faible (l’encyclopédie Wikipédia compte seulement 0,0002 % d’utilisateurs actifs). Et si n’importe qui peut apporter sa contribution, l’intelligence collective est alors prise en otage par des intelligences individuelles, souvent des entreprises, pour leur profit personnel. Ces géants numériques, les GAFA en tête, livrent leur vision d’Internet, niant aux internautes leur propre capacité à s’approprier leur espace.
Revenir au sommaire

Un Monde fragilisé, des citoyens vulnérables

Piratage du site de l’Élysée, du compte Gmail de dissidents politiques, espionnage de journalistes des grands journaux… Si Internet a décuplé nos moyens de communication, il les a aussi rendus plus vulnérables. « À ce jour, plus aucun gouvernement, plus aucune entreprise et plus aucun individu ne peut avoir la certitude de maîtriser les informations à sa disposition, qui plus est si elles sont numériques »,  « À ce jour, plus aucun gouvernement, plus aucune entreprise et plus aucun individu ne peut avoir la certitude de maîtriser les informations à sa disposition, qui plus est si elles sont numériques » Boris Beaude  explique Boris Beaude. Par exemple, lorsque Edward Snowden, qui lui-même avait rendu public des documents secrets de la NSA, rencontre les journalistes qui rendront son histoire publique. Il leur avait demandé de cacher leur téléphone dans le frigo, pour ne pas risquer d’être écouter. Cette affaire est symptomatique d’un monde qui a changé au lendemain du 11 septembre 2001. Le Patriot Act a permis à des programmes comme PRISM[+] d’exister, et de pousser la surveillance de masse à un tout autre niveau. Quitte à ce que les États-Unis ne respectent plus le quatrième amendement de leur Constitution, qui demande pourtant un mandat avant tout mise en place d’écoute. Le gouvernement américain bénéficie encore de ces mastodontes du Net, grâce auxquels il garde la main sur la quasi-totalité des communications mondiales, que ce soit par les communications satellites ou via les câbles sous-marins. Mais si la prise de conscience a été mondiale au lendemain des révélations Snowden, les conséquences n’en sont que plus désastreuses pour les nations, renforçant là encore l’émergence de nationalismes au détriment d’une politique mondiale pour Internet. L’Europe tente désormais d’éviter le cloud computing proposé par des entreprises américaines, la Russie et la Chine développent leurs propres systèmes d’exploitation, l’Iran veut mettre en place un Intranet qu’il pourra entièrement contrôler… Pour Boris Beaude, ces réactions politiques se font au détriment du citoyen.
 
L’anonymat est devenu quasi impossible, toute activité en ligne est potentiellement surveillée, la censure n’a jamais été aussi forte dans les régimes autoritaires comme dans certaines démocraties, et moins de la moitié de la population mondiale a accès au net. Prisonnier de rivalités spatiales, le citoyen est la première victime d’un « Monde » qui devait justement servir l’intérêt collectif. Il suffit de voir que la richesse des données produites par les internautes ne sert que l’intérêt d’entreprises ou d’agences des États. « Il est à présent évident que les annonceurs sont les réels clients de telles plateformes (les grandes entreprises du numérique, NDLR) alors que leurs millions d’utilisateurs ne sont que les produits. » C’est pour cela que Boris Beaude proclame la fin d’Internet, car l’humain n’est plus au centre du réseau. « Internet est vraiment sur le point de disparaître, et une part de notre humanité est sur le point de disparaître avec lui. »
 
Les fins d’Internet n’est finalement pas une nécrologie, mais un cri d’alarme sur ce « Monde » où les frontières émergent, tuant peu à peu le rêve de ses architectes pionniers. Vulnérable, sous écoute, privatisé, balkanisé… Internet n’est jamais paru autant en danger. Et Boris Beaude n’est pas le seul à suggérer la fin d’Internet. Dans son dernier ouvrage, intitulé Smart, Frédéric Martel rejoint son analyse, mais préfère le terme de « territoire » à celui d’« espace ». Après avoir enquêté à travers le monde, il estime que le monde numérique est en train de se diviser, segmenté par les différences culturelles et politiques entre chaque pays. Et ce que Boris Beaude anticipait avec les fins d’Internet, Frédéric Martel y complète cette réflexion en proposant l’avènement « des internets ». Tous deux s’accordent alors pour dire que c’est « ensemble » que les nations et les peuples pourront reconstruire et peut-être même sauver ce « nouveau Monde ».
Revenir au sommaire
Titre du livre : Les fins d’Internet
Auteur(s)  : Boris Beaude
Éditeur(s) : FYP éditions
Parution : 21/02/2014
Nombre de pages  : 96 pages

Netflix, démolisseur de l'exception culturelle

Repris de

Article  par  Nathalie SONNAC  •  Publié le 26.06.2014  •  Mis à jour le 19.06.2014
 
L’arrivée de Netflix marquera un tournant dans l’histoire de l’audiovisuel français, qui dépasse la question du financement de la création, aussi importante soit-elle, car elle interroge de fait la fonction démocratique des médias.

Sommaire

À l’origine, Netflix était une firme américaine qui proposait un service de location de DVD par correspondance, où l’abonné payait une souscription mensuelle et recevait les films de son choix par courrier, dans de petites enveloppes rouges devenues aujourd’hui célèbres. La location n’était pas limitée dans le temps et, selon le niveau d’abonnement, le nombre des films commandés pouvait également être discrétionnaire. Avec le développement de l’Internet haut débit et la transformation des usages aux États-Unis, Reed Hastings, propriétaire de la société, a vu s’éteindre son modèle de distribution. En 1997, il crée un service de vidéos à la demande qui vient remplacer l’envoi des films par la poste, grâce à la technologie du flux continu (streaming). Ce service est accessible à tous les ordinateurs sous Windows et Mac OS, ainsi qu’à un certain nombre d’appareils compatibles (Xbox PS3, Wii, etc.). Pour lancer ce nouveau service, la firme américaine offre gratuitement à l’ensemble de ses abonnés l’accès au flux continu. La bande passante lui revient à seulement 5 cents pour un film envoyé en streaming, contre 1 dollar de frais postaux pour un DVD. L’argent est réinvesti dans des accords avec les studios pour enrichir son offre de films diffusés en exclusivité et pour récupérer les séries à succès après leur diffusion à la télévision[+].
 
En 2009, le catalogue Netflix comptait près de 100 000 titres, pour 11 millions d’abonnés. En 2013, la firme réalise 4,4 milliards de dollars de chiffre d’affaires, le service touche plus de 45 millions d’abonnés dans le monde, dont 35 millions aux États-Unis. Présente dans plus de 52 pays, la société s’est implantée d’abord en Amérique du Nord et du Sud, dans les Caraïbes, puis elle a jeté quelques têtes de pont en Europe dans les pays scandinaves, l’Irlande, les Pays-Bas ou encore le Royaume-Uni. Son siège social est situé à Los Gatos, en Californie et, en 2011, pour s’implanter en Europe, elle a choisi le Luxembourg.

Anticiper les usages des téléspectateurs

La réussite de Netflix est d’abord d’avoir su anticiper et s’adapter aux transformations des usages des téléspectateurs avec l’arrivée d’Internet. Mais toute sa puissance de frappe repose sur son algorithme, un algorithme de filtrage collaboratif qui analyse de façon très détaillée les habitudes de chacun : « à quel moment le téléspectateur interrompt-il un film ? Quels sont les passages du long-métrage qu’il revoit ? Sur quel volume le son est-il réglé ?… Au total, plus de 300 millions d’heures de visionnage seraient ainsi passées au crible chaque semaine par 900 ingénieurs de l’entreprise »[+]. À partir des habitudes et des goûts identifiés de ses clients, Netflix propose des contenus en adéquation avec leurs attentes (modèle prédictif) et offre ainsi un système de recommandations extrêmement perfectionné.
 
Internet plonge les médias dans un nouvel univers, beaucoup plus large que celui dont ils sont issus. Créateurs, producteurs, chaînes de télévision, distributeurs mais aussi pouvoirs publics, tous voient muer le modèle organisationnel de la filière audiovisuelle, poussé par des téléspectateurs connectés avides de contenus. Si Netflix constitue pour les acteurs du secteur un véritable raz de marée, notamment côté diffuseurs, il représente en revanche une formidable innovation et une aubaine pour tous les consommateurs. Pour une somme relativement modique d’environ 6,50 euros par mois (8 dollars), il offre un catalogue de films et de séries extrêmement riche (100 000 titres), très diversifié (on compte environ 70 000 genres différents) ; un catalogue accessible immédiatement par tous, soit par Internet directement depuis n’importe quel appareil connecté, soit via la box d’un opérateur ou d’un FAI, donc sans contrainte technologique, sans bidouillage. Il ne serait donc (enfin !) plus nécessaire de pirater pour accéder à ce que l’on a envie de voir.
 
Mais cet eldorado en est-il vraiment un ? Tentons de comprendre l’architecture qui sous-tend ce modèle, en commençant par répertorier toutes les questions que pose Netflix, mais aussi celles qui se posent depuis l’arrivée d’Internet dans les médias.

Internet et la numérisation des contenus constituent une révolution pour tous les secteurs économiques et notamment ceux de la culture et des médias. Des éléments clés sont symptomatiques de ce bouleversement : désintermédiation de la chaîne de valeur, déplacement des frontières de marché, délinéarisation des contenus ou encore recommandation comme nouvelle métrique, tout l’écosystème de l’industrie audiovisuelle est ébranlé, Netflix en est un des symboles.
 
Des films accessibles immédiatement après leur sortie en salle obligent à repenser la chronologie des médias, et par voie de conséquence celle du financement de la création : comment optimiser le système de contribution à la production audiovisuelle ? Peut-on conserver en l’état les obligations des chaînes de télévision ? Faut-il faire évoluer les quotas de diffusion ? Est-il supportable pour les chaînes françaises de remplir leurs obligations contraignantes face à un Netflix, installé au Luxembourg, qui introduit des distorsions de concurrence ?
 
Accéder à tous les genres de films pose la question de la diversité. Une diversité longtemps prônée par Chris Anderson sous la houlette du concept de « longue traîne ». Le numérique permet aux firmes de réaliser des économies sur les coûts de stockage, de catalogage, de distribution. Ainsi, grâce à Internet des produits de niche ne sont pas évincés par les best-sellers, et qui plus est, le chiffre d’affaires réalisé par cette traîne composée d’une myriade de titres de niche serait supérieur à celui réalisé par la vente de best-sellers. Cependant, un certain nombre de travaux remettent en cause les principales conclusions d’Anderson sur ce mécanisme, soulignant que la longue traîne est due à un effet purement mécanique et que la diversité consommée demeure la même qu’avant l’arrivée d’Internet. On observe dans les faits une très grande diversité des demandes de programmes de la part des téléspectateurs, qui se traduit in fine par la volonté d’accéder aux films américains. Quid alors des politiques européennes de diffusion à 60 % d’œuvres originales européennes dont 40 % d’origine française ?
 
Rappelons que pour préserver la diversité culturelle et soutenir l’industrie nationale et européenne d’œuvres audiovisuelles, la loi impose aux chaînes des quotas de diffusion d’œuvres audiovisuelles européennes et/ou d’expression originale française. Cette mise en place de quotas remonte aux années 1970, après la réforme de l’ORTF ; le principe a été inscrit dans la loi de 1986 (loi Léotard) pour toutes les chaînes quel que soit leur statut juridique ou économique. Ainsi, même les chaînes privées, payantes ou commerciales, sont assujetties à la règle de diffusion à 60 % /40 %. Pour les chaînes publiques du groupe France Télévisions, ces pourcentages sont encore plus élevés. Toutes les chaînes remplissent aussi des obligations en matière d’investissement dans la production d’œuvres audiovisuelles. Cette législation a été étendue aux nouveaux services délinéarisés proposés par la télévision de rattrapage et par la vidéo à la demande (Vàd).

Le déploiement et le succès de ces nouveaux services, et notamment la Vàd, conduit aussi à s’interroger sur l’obsolescence probable de l’actuelle chronologie des médias. Cette dernière concerne les films (et non les séries) et résulte des textes réglementaires définissant l’ordre et les délais dans lesquels les diverses exploitations d’une oeuvre cinématographique peuvent intervenir après sa sortie en salle : vidéo, pay per view, Vàd, télévision, Vàd par abonnement. Afin notamment d’assurer la protection des exclusivités, on institue des délais pendant lesquels les consommateurs peuvent visionner un film sur des supports, dans des conditions, à des prix différents selon les fenêtres d’accès.

Initialement, l’objectif était de protéger le cinéma de la télévision qui constituait, aux yeux des ayants droit, une menace pour leur modèle d’affaires, mais aussi un moyen de rentabiliser le plus efficacement possible chaque fenêtre d’exploitation. Ainsi, les recettes de sortie des films en salles s’avérant généralement très insuffisantes dans de nombreux pays, à commencer par les États-Unis, les distributeurs tentent de se rattraper sur les autres marchés, comme la vidéo ou la Reed Hastings, patron de Netflixcession des droits télé. Il a donc fallu inclure, dans cette chronologie, les nouvelles formes d’exploitation des œuvres, dans un premier temps la vente de cassettes, puis celle de DVD, et plus récemment la Vàd. Depuis l’accord du 6 juillet 2009, dans la dernière chronologie des médias, le délai de la Vàd en paiement à l’acte est passé de sept mois et demi à quatre mois après la sortie du film en salle, en revanche, celui de la VàD par abonnement est resté fixé à trois ans.
Revenir au sommaire

Protéger le téléspectateur

Mais une firme dont le modèle économique s’appuie sur un algorithme pose des questions nouvelles d’ordre démocratique aux entreprises médiatiques. D’abord, travailler à partir d’un algorithme revient à accorder une place centrale à la donnée. En échange de 8 dollars par mois, via son algorithme, Netflix extrait des milliers de données, chaque semaine, de ses 45 millions d’abonnés. L’information, selon qu’elle se nomme connaissance, actualité, publicité ou culture, devient la matière première, l’essence de l’économie numérique. Les données sont un point d’ouverture et un point de contrôle qui permet de délimiter le périmètre des ressources exposées.

On distingue trois types de données (I) les données observées, qui résultent des traces d’utilisation d’une application. Si l’utilisateur s’est identifié, cela a fait l’objet d’un consentement (opt-in), si ce n’est pas le cas, l’accord est alors implicite (opt-out, cookies) ; (II) les données soumises, qui font l’objet d’une saisie explicite, c’est le cas des formes classiques de contribution sur les réseaux sociaux (Twitter, Facebook) ou celui de l’utilisation d’une application qui impose une soumission. Enfin, (III) les données inférées sont celles qui sont déduites par une entreprise des traitements (regroupements) à partir par exemple de données personnelles d’utilisateurs ou de clients. L’internaute est-il conscient de l’usage que fait Netflix de ses données ? La principale difficulté reposant notamment sur le fait c’est le téléspectateur lui-même qui fournit l’information, puisqu’il est au cœur de l’écosystème. Doit-on l’en protéger ?
Revenir au sommaire

L’algorithme de Netflix est-il loyal ?

Ensuite, placer l’algorithme au centre de son modèle d’affaires conduit à s’interroger sur la loyauté de l’algorithme et des mécanismes de filtrage. Le système de Netflix repose sur le principe de la recommandation : tous ceux qui ont vu ce film ont aussi vu celui-ci ou celui-là ; ou encore compte tenu de la connaissance de vos goûts que l’algorithme possède, il va vous recommander (on a vu l’importance prise par cet indicateur) toute une série de films ou de genres de films qui devraient correspondre à vos attentes (le page rank de Google fonctionne sur près de 45 critères distincts pour une même personne). Ainsi, le résultat ne sera plus donné selon votre requête mais selon votre profil, et selon la perception que l’algorithme se fait de vous (bible filter) au risque de vous fournir un matériau susceptible de renforcer la vision du monde que vous avez[+]. L’extraction de données permet d’améliorer la recherche personnalisée. Ne peut-on y voir un danger du point de vue démocratique ? La plupart des abonnés de Netflix n’effectuent pas de recherche par eux-mêmes, ils visionnent ce que l’algorithme leur suggère. Et s’il n’était pas « loyal » ? Et s’il suggérait non pas ce que vous attendez exactement, mais plutôt ce que Netflix souhaite que vous regardiez ? On voit poindre le risque du passage de la personnalisation à celui de la privatisation de la réponse web avec pour but revendiqué d’améliorer le service rendu et pour but caché d’orienter les réponses dans sens des intérêts économiques et financiers de la plateforme. Ne court-on pas le risque, au mieux, d’une uniformisation des contenus, au pire d’un formatage de la pensée ?
 
Et puis, la question de la « loyauté » de l’algorithme va de pair avec celle de la neutralité du Net. Les nouveaux entrants n’ont pas participé au financement coûteux des infrastructures des réseaux. Or 30 % de la bande passante aux États- Unis et au Canada sont accaparés aux heures de pointe par les services de Netflix, ce qui conduit les câblo-opérateurs à vouloir en faire supporter les coûts à ce dernier. La justice américaine leur a donné raison en remettant en cause la neutralité du Net. La bande passante nécessaire aux différents services diffusés au format HD est au coeur des enjeux mais également le fait que les services offerts par les nouveaux entrants pourraient court-circuiter les distributeurs. Le principe de neutralité du Net garantit aux consommateurs des conditions :
- de non-discrimination (les systèmes de communication doivent être mis à la disposition des consommateurs dans des conditions identiques. Chaque consommateur doit pouvoir jouir au meilleur coût du même service d’accès au système de communication ;
- d’équité (la qualité des services offerts est respectée) ;
- de transparence (conditions générales d’utilisation).
C’est une proposition du CNNum[+] d’inscrire ce principe premier dans la loi de 1986.
Revenir au sommaire

Des réglementations inadaptées

Enfin, placer l’algorithme au cœur de son modèle conduit aussi à s’interroger sur la place que l’on peut accorder aux modalités d’intervention publique comme garant de la diversité et du pluralisme des opinions, reposant sur le principe de l’exception culturelle, dans un régime bottom up.
 
Le principe de l’exception culturelle se traduit dans le secteur audiovisuel par la mise en place de quotas de production et de diffusion en vue de protéger la production nationale et européenne. Cette politique s’appuie sur une logique d’offre (top down) en orientant volontairement les choix culturels des individus et en leur imposant un certain nombre de programmes qu’ils n’auraient peut-être pas choisis volontairement. Netflix présente un autre modèle, diamétralement opposé, en optant pour une logique centrée sur la demande des téléspectateurs pour construire son offre (bottom up) et le fait à partir des données délivrées par les téléspectateurs dans une logique « à la demande ».
 
Peut-on encore à l’heure d’Internet imposer des programmes ? Internet ne représente-t-il pas l’apogée d’une démocratisation culturelle dans laquelle les programmes consommés sont entièrement choisis et non plus imposés par une quelconque législation, que l’on peut d’ailleurs contourner puisque les services à la demande sont désormais les plus consommés.
 
L’irruption du modèle Netflix révèle combien les modalités actuelles de l’intervention publique aux fins de réglementation et de régulation sont inadaptées à ce nouvel environnement. Un an après le rapport Lescure, l’arrivée annoncée du nouvel opérateur remet à l’ordre du jour l’élargissement du domaine de compétence du CSA à la régulation des contenus audiovisuels en ligne.

Facebook, les raisons du succès

Repris de 
http://www.inaglobal.fr/numerique/article/facebook-les-raisons-du-succes
 
Article  par  François QUINTON  •  Publié le 04.02.2014  •  Mis à jour le 05.02.2014
 Pourquoi Facebook est-il un réseau « à part » ? Entretien avec Nikos Smyrnaios.
Nikos Smyrnaios est maître de conférences en Information et Communication à l’université de Toulouse-III. Ses travaux et publications portent essentiellement sur les enjeux socioéconomiques et techniques de l'internet.
 
Quelles sont selon vous les évolutions majeures de ce réseau depuis 10 ans ? Comment expliquer le succès de Facebook ? Pourriez-vous nous expliquer ce qui en fait en réseau « à part » ?
 
Nikos Smyrnaios : Avec le recul on peut penser qu’il y a un faisceau de facteurs qui expliquent le succès de Facebook. Le premier est la conjoncture liée à la maturation des usages et des technologies de l’internet. D’autres réseaux socionumériques très proches ont existé avant lui, comme Sixdegrees, sans rencontrer un engouement populaire comparable parce qu’ils étaient précoces. Si Facebook a été créé en 2004, ce n’est qu’à partir de 2006, au moment de son ouverture à tous sans restriction, que sa croissance devient exponentielle. À cette époque le nombre d’utilisateurs de l’internet dépasse pour la première fois le milliard, ce qui correspond à 15 % de la population mondiale. Dans les pays du Nord, la quasi-totalité des internautes dispose déjà à ce moment d’une connexion par ADSL ou câble, avec des débits élevés et sans limitation de temps, dans son foyer et/ou son lieu de travail. Les conditions sont donc réunies pour permettre un usage de l’internet beaucoup plus intense et consommateur de temps qu’auparavant, ce qui correspond bien à l’utilisation de Facebook. Par ailleurs, à cette époque les principaux usages que l’on connaît aujourd’hui (recherche d’information, consultation de l’actualité, consommation de contenus culturels, commerce électronique) sont bien enracinés. Facebook bénéficie donc d’un environnent favorable.
 
Le deuxième facteur est la stratégie de diffusion choisie par Marc Zuckerberg. C’est celle-ci qui a permis à Facebook de drainer les utilisateurs de MySpace, beaucoup plus populaire jusqu’en 2007. Avec les inscriptions, d’abord réservées aux étudiants de Harvard, puis à ceux des autres universités américaines, Facebook a bénéficié d’une base solide d’utilisateurs appartenant à l’élite blanche des États-Unis. Par conséquent, comme l’a montré danah boyd, l’appartenance à Facebook était perçue comme très valorisante par les jeunes américains aisés au milieu des années 2000, contrairement à l’utilisation de MySpace qui avait une image sulfureuse et populaire. Cet attrait explique la rapide migration des centaines de milliers d’utilisateurs entre 2006 et 2008.
 
Le troisième facteur est la couverture médiatique croissante dont a bénéficié Facebook à partir de 2007, d’abord aux États-Unis puis en Europe et dans le monde. Il s’agit là d’un phénomène classique qui permet de rendre visible une innovation technologique au plus grand nombre et contribue ainsi à l’élargissement de sa base d’utilisateurs. À partir de là c’est un effet de réseau classique qui s’est mis en branle, augmentant l’utilité individuelle de Facebook pour les utilisateurs au fur et à mesure que leur nombre s’accroit. Finalement, ce qui devient l’avantage principal du service n’est pas sa technologie, ni ses usages, mais son caractère universel et la certitude que chacun peut y trouver les interlocuteurs qu’il cherche.
 
 
Quelle place occupent – et occuperont – les réseaux sociaux « généralistes » comme Facebook par rapport à des réseaux socionumériques centrés sur un hobby ou une activité particulière ?
 
Nikos Smyrnaios : Il est clair désormais que les usages de réseaux socionumériques se complexifient en combinant plusieurs services différents, chacun correspondant à un usage, un type de contenu ou un public particulier. Cette évolution contredit la stratégie initiale de Facebook qui consistait à intégrer toutes les fonctionnalités sur une interface unique dans le but de remplacer les services concurrents. Il semble aujourd’hui que cette stratégie ne fonctionne pas, ou pas complètement, car les gens auront toujours besoin d’autres contextes de communication leur permettant de s’exprimer différemment et de gérer plus finement l’exposition de soi. C’est ce qui explique le succès de Twitter, de LinkedIn, de Pinterest, de Tumblr ou de Snapchat au même temps que celui de Facebook. Pour répondre à cette évolution Facebook tente désormais de générer lui même sa propre concurrence, notamment sur mobile, plutôt que de la remplacer. C’est ce qui se passe avec Instagram, mais aussi avec des applications comme Messenger ou Paper qui permettent une utilisation en dehors de la plateforme principale de Facebook. Le lancement de Home, malgré son succès mitigé, témoigne également de la volonté de Facebook de se transformer en environnement d’usage, plus proche d’un système d’exploitation que d’un simple service de réseautage.
 
Enfin, une autre tendance actuelle de Facebook qui illustre son évolution est son « algorithmisation » croissante à l’image de Google. Dans les premières années de son existence, le fonctionnement de Facebook était relativement transparent : on s’abonnait aux fils de publication des amis pour visualiser les informations qu’ils partageaient. Mais ce modèle avait de limites économiques et d’usage. D’un point de vue économique Facebook générait beaucoup de trafic pour des organisations sans pouvoir monétiser directement ce service fourni. En même temps, l’accroissement exponentiel de l’information sur le newsfeed des utilisateurs rendait celui-ci confus et peu pertinent. Du coup, Facebook a commencé à filtrer de plus en plus les publications effectivement visibles par le biais d’algorithmes complexes. Si le fameux Edgerank a été progressivement abandonné, d’autres ont pris sa place. D’un côté, selon Facebook, l’ « expérience utilisateur » a été améliorée. Mais surtout, en diminuant l’accès des organisations à leurs propres « amis » et en les obligeant à payer pour accroitre la visibilité de leurs publications, Facebook a créé une nouvelle et importante source de revenu. D’ailleurs l’accélération de cette tendance  d’« algorithmisation » coïncide peu ou prou à l’introduction en bourse de Facebook et à l’accroissement de la pression qui s’exerce sur lui pour augmenter son taux de profit. À travers ces changements Facebook se présente aujourd’hui davantage comme un infomédiaire, c’est à dire comme un intermédiaire informationnel chargé de mettre en lien un public diversifié avec une foule d’informations qu’il n’a pas produit lui même, plutôt qu’un simple réseau social numérique.
 
 
Que vous inspirent les discours récurrents sur la mort de Facebook ?
 
Nikos Smyrnaios : D’une certaine façon ces discours marquent la consécration de Facebook dans l’inconscient collectif comme une partie indispensable de l’infrastructure communicationnelle du monde. Son existence comme sa disparition éventuelle génèrent à la fois de la fascination et de l’inquiétude. Mais je ne pense pas que ces discours soient crédibles. Il faut savoir qu’actuellement Facebook est beaucoup plus rentable qu’il n’a jamais été. Mark Zuckerberg a réussi à inverser la tendance qui en 2012 voyait son service rater le virage de l’internet mobile. En 2013, plus de la moitié de son chiffre d’affaires provient de la publicité sur mobile. L’entreprise est assise sur une cagnotte de plusieurs milliards de dollars qui lui permet d’envisager ses futurs investissements avec sérénité. Si effectivement Facebook est en perte de vitesse auprès des très jeunes Européens et surtout Américains, cette baisse est largement compensée par un taux d’adoption très élevé parmi les plus âgés mais aussi dans les pays émergents, en Asie, en Amérique latine ou en Afrique. Pour certaines de ces populations qui n’ont accès à l’internet que via leur téléphone mobile, Facebook se confond même avec le web. Si Facebook ne disparait pas de sitôt, il est en revanche fort probable que sa plateforme centrale perde progressivement de l’influence dans les années qui viennent auprès de ses utilisateurs les plus pointus (jeunes, diplômés, habitant les centres urbains de l’Europe et de l’Amérique du nord). Mais cette perte d’influence se fera probablement aussi au profit d’autres services que Facebook créera ou achètera dans le futur. D’une certaine manière, et toutes proportions gardées, un scenario probable pourrait être comparable avec l’évolution de la télévision en France. Si l’arrivée de la TNT a provoqué une fragmentation de l’audience et réduit la part de marché des chaînes historiques comme TF1, le groupe TF1 quant à lui a rebondi en créant ou en rachetant des nouvelles chaînes. Dans l’ensemble sa domination sur le paysage télévisuel français est restée intacte. De la même façon, l’emprise de l’oligopole de Facebook, Google, Amazon, Apple et Microsoft sur l’internet mondial n’est pas prête à se desserrer. Et avec elle les dérives et risques associés persisteront.