jeudi 20 février 2014

Google : comment régenter notre cerveau !

6






Je vous fais un dessin ? Google, Ray et les BIG DATA

Google, Ray et les BIG DATAn,
Voici un petit schéma pour montrer ce qui se joue actuellement dans la récolte de nos données. L'ombre électronique que nous produisons jour après jour et en quantité de plus en plus phénoménale est la matière première de l'intelligence artificielle à venir.  
Tout comme nous apprenons (enfants) le langage et nos comportements par mimétisme, nous sommes les modèles de ces machines à apprendre, qui d'abord imiteront puis se comporteront vis à vis de nous en fonction de la projection que nous ferons car elles apprendront à prévoir nos comportements et notre langage, tout aussi complexes que nous croyons qu'ils soient.  
Est-ce de la Science-fiction ? Non. Ray Kurzweil, pape du "transhumanisme" et théoricien de la singularité, est depuis un peu plus d'un an, directeur de l'ingénierie chez Google et s'occupe entre autres de l'apprentissage automatisé et du traitement du langage. Vous avez sans doute remarqué que depuis un an, Google rachète à tour de bras tout ce qui concerne les domaines de la singularité, notamment des entreprises de robotique, les dernières en date concernent les objets connectés (Nest Labs) et l'intelligence artificielle (DeepMind Technologies). J'en parle très souvent sur mon profil Facebook et l'ai largement évoqué l'année dernière dans l'émission que nous avons faite avec France 4 sur le Futur (Nuit 4.0).  
Peut-on faire quelque chose ? Oui. 
Prendre conscience de la valeur des données que nous émettons. Il n'y a pas de raison que nous soyons cultivés comme des légumes dans un champ et de surcroît totalement gratuitement. C'est de la responsabilité de nos représentants politiques de mettre un prix sur ce qui est aujourd'hui offert et généralement sans aucune conscience de la part du public. La valeur générée doit être partagée, si les BIG DATA sont le pétrole de demain, alors les gisements que nous sommes doivent pouvoir valoriser leur extraction, comme c'est le cas justement pour les hydrocarbures. Une taxe sur la génération de données devrait alimenter et remplacer d'autres formes de prélèvements devenus caducs, pour le bien-être de la collectivité.

Cette évolution n'est pas nécessairement négative, comme toujours cela dépend de ce qu'on en fait. La robotisation finira par remplacer quasiment tous les emplois industriels, qu'en sera-t-il des emplois intellectuels lorsque cette intelligence sera plus rapide et plus performante ? Comme toujours cela amènera à faire évoluer les métiers et de nouveaux apparaîtront, prenant certainement beaucoup plus en compte la personnalité et la créativité, la poésie de chacun... Les métiers du futur sont tous ceux qui ne pourront être remplacés ni par une machine, ni par une intelligence artificielle.
En attendant... Apprenons lui ce que nous voulons qu'elle soit !
Ne pas se comporter comme des machines, être imprévisible, créer, changer, décaler, faire des choses stupides, illogiques, amusantes, impertinentes, surprenantes, philanthropiques !

Commencer maintenant. 
 Yacine AIT KACI20.02

Quelques liens. 
Ray Kurzweil "How to Create a Mind"https://www.youtube.com/watch?v=zihTWh5i2C4
Le robot qui gagne à "pierre papier, ciseaux" avec un taux de réussite de 100% https://www.youtube.com/watch?v=3nxjjztQKtY
La désormais célèbre victoire de Watson au Jeopardy (imaginez Watson à la place de Siri)https://www.youtube.com/watch?v=WFR3lOm_xhE
L´intelligence artificielle va remplacer 45% de travailleurshttp://www.ibercampus.fr/lintelligence-artificielle-va-remplacer-le-45-de-travailleurs-87.htm


TOUS LES COMMENTAIRES


20/02/2014, 20:49 | PAR YOUPLA
" La valeur générée doit être partagée, si les BIG DATA sont le pétrole de demain, alors les gisements que nous sommes doivent pouvoir valoriser leur extraction, comme c'est le cas justement pour les hydrocarbures. Une taxe sur la génération de données devrait alimenter et remplacer d'autres formes de prélèvements devenus caducs, pour le bien-être de la collectivité."
Je suis sceptique...
D'un coté on a des entreprises géantes, disposant d'une montagne de cash, continuellement augmentée grace à un modèle économique qui marche, qui ont mis en place l'infrastructure et développés les technologies qui permettent le big data. Dont le but est, forcément, de produire encore plus de cash.... (ou de devenir le maitre du monde, au choix)
En face on a quoi? L'espoir qu'une taxe va renverser la vapeur? Que les moutons seront rémunérés ? Au prix de la laine brute ou au prix du pull ?
Justement comme les hydrocarbures, ce sont ceux qui valorisent le produit qui s'en mettent plein les poches, comme ceux à qui appartiennent les puits. Pas les puits eux-même, ca n'arrive jamais. D'ailleurs, sauf exception notable (ex: la Norvège), dans la plupart des pays qui disposent de richesses naturelles, la population locale n'en profite pas, ou très peu.
Ceux qui ne veulent pas du big data n'auront pas d'autre possiblité que de se déconnecter du réseau, les autres peuvent espérer trouver une nouvelle manière de le valoriser, entre ces deux extrêmes ca me parait bien vide.
" Les métiers du futur sont tous ceux qui ne pourront être remplacés ni par une machine, ni par une intelligence artificielle."
Je serai moins tranché: pute ou coiffeur, c'est pas près d'être mis au rencart par la technologie.
La Chine fait aussi chaque jour la démonstration qu'un esclave coute moins cher qu'une machine très complexe à mettre au point. L'esclave peut facilement changer de tache, il peut du jour au lendemain faire un produit différent, sans qu'une horde d'ingénieurs ait besoin de fabriquer un outillage complexe afin de fabriquer et régler la nouvelle machine nécessaire au nouveau produit qui sort demain. Voila pourquoi Foxconn et d'autres ne sont pas près de passer à l'automatisation, malgré leurs discours lénifiant ("l'année prochaine, pour l'iPhone 23, on aura 1 million de robots": le temps de concevoir, fabriquer et tester ces robots, on en sera à l'iphone 32)
Sans ces esclaves, il n'y aurait pas d'iPhone (ou alors encors plus cher et donc moins vendu), donc pas de iTunes (ou beaucoup moins rémunérateur). Idem pour les esclaves nécessaires aux multiples sous-ensembles qui composent les machines dont sont faits les datacenter, là ou est né le big data.
Finalement c'est l'avènement de la production de masse, reposant sur un esclavage industrialisé, qui aura permis l'avènement des technologies que nous ressentons aujourd'hui comme un asservissement. Je ne sais pas si ca colle avec la définition du progrès.

lundi 17 février 2014

Introduction au Grid computing

repris de http://www.solucominsight.fr/2011/10/quel-avenir-pour-le-grid-computing/

Lise Gasnier
Lise Gasnier | Consultante senior
Quel avenir pour le grid computing ?
Publié le 19 | 10 | 2011    Imprimer le contenu de la page Envoyer à un ami

Depuis le début des années 2000, les grilles de calcul ont rencontré un succès certain dans le monde scientifique, ainsi que dans certains secteurs de l’industrie et de la finance. Au-delà de ces domaines, l’usage de ces grilles est peu répandu.
Le 12 octobre dernier, IBM a annoncé le rachat d’un acteur majeur du marché du grid computing : Platform Computing. A cette occasion, nous revenons sur les principes, apports et défis de ce type de technologies peu connu.

1.     Qu’est-ce que le grid computing ?

Le grid computing consiste à mettre en commun des ressources logicielles et matérielles distribuées (ensemble que l’on appelle la « grille ») afin de fournir une puissance de calcul importante. La charge de travail est divisée en sous-tâches qui sont traitées en parallèle par les ressources de la grille, les résultats étant ensuite agrégés dans un résultat global rendu à l’utilisateur.

En anglais, l’emprunt du mot « grid » à l’expression « electric power grid » qui désigne le réseau électrique, traduit bien les promesses du concept : l’utilisateur se branche à la grille qui pourvoit à son besoin. Peu lui importe la complexité du système, l’hétérogénéité ou la distribution des composants, masqués par l’interface d’accès.

Des projets emblématiques donnent le ton, en matière de gigantisme :
  • SETI@HOME se présente comme « une expérience scientifique qui utilise des ordinateurs reliés à internet pour la recherche d’une intelligence extraterrestre (SETI) » ; elle tire sa puissance de son « ouverture » aux ordinateurs des internautes volontaires ;
  • La grille du LHC, l’accélérateur de particules du CERN,  relie en mode « fermé », plusieurs dizaines de milliers de machines, situées sur trois continents, pour analyser des données.
La puissance des ordinateurs a beau croître, la « gourmandise » de tels projets scientifiques, atteint des niveaux qui justifient ce modèle d’architecture. Dans le sillage des initiatives académiques, l’industrie et le secteur bancaire s’en sont emparés pour résoudre leurs problèmes complexes : valorisation et analyse de risque pour la finance, détection de gisements pour le pétrole, simulation et analyse de crash pour l’automobile. Aujourd’hui, les grilles intéressent les médias, les jeux en ligne, les fournisseurs internet…

2.     Quels bénéfices attendre du grid computing ?

Le grid computing peut apporter beaucoup aux secteurs tant privés que publics pour les projets qui requièrent une quantité importante de puissance de traitement dans une période de temps restreinte.
Les bénéfices attendus d’une grille sont :
  • l’amélioration des performances tout en limitant les coûts,
  • l’augmentation de la flexibilité d’une infrastructure pour absorber les augmentations d’échelle,
  • la haute disponibilité de cette infrastructure faces aux pics de charge.
Les vertus « informatiques » du grid computing se transforment en atouts « métiers » : réduire les temps de calculs, c’est éviter les retards ou gagner du temps pour accroître la compétitivité et/ou pour améliorer ses processus.
Les middlewares « commerciaux » (citons pour l’exemple ceux de Platform Computing, Tibco Datasynapse, GridGain en open source) ont bien saisi ces enjeux. Développés à la suite des grilles académiques par transferts technologiques, ils tirent profit de ces besoins en proposant des solutions sur étagères et leur expertise.

Certes, ils évoluent sur un marché de niche, celui  constitué des clients historiques (banques, industries du pétrole, de l’automobile etc.). Mais avec la croissance exponentielle des volumes d’information, qu’il s’agisse d’événements (CEP) ou de données (Big Data), et la nécessité de les exploiter, le positionnement du grid computing pourrait bien se renforcer.

3.     Quels sont les défis à relever ?

Le concept de grid computing, ainsi que les produits du marché, sont arrivés à maturité au cours de la dernière décennie. Pourtant, il reste encore quelques barrières à franchir pour assister à une démocratisation de cette approche :
  • L’expertise et le support des grilles informatiques ont un coût : il faut des techniciens qualifiés pour passer la barrière technologique des produits, ou développer/maintenir une grille « maison », mais aussi « gridifier », c’est-à-dire adapter ou développer des applications pour une exécution sur la grille. A ces coûts s’ajoutent ceux des problématiques connexes tels que le stockage ou le transfert des données.
  • De plus, l’infrastructure peut nécessiter un investissement dédié.Chaque entreprise dispose généralement d’un ensemble conséquent d’ordinateurs connectés en réseau mais l’usage en grille de ces ressources existantes n’est pas évident :
    • La tendance à la virtualisation a progressivement optimisé l’usage des ressources serveurs qui sont moins sous-exploités qu’il y a une dizaine d’années.
    • Les préoccupations énergétiques interrogent sur l’intérêt, en entreprise, du modèle des grilles fondées sur des parcs d’ordinateurs peu puissants.
Pour autant, le grid computing n’est pas nécessairement l’apanage des grandes structures. Internet autorise le partage de ressources avec des partenaires extérieurs : des PME, des écoles ou des hôpitaux  peuvent se fédérer pour bâtir des grilles qui leur sont inaccessibles, seuls.
  • Les grilles de calcul imposent un modèle d’architecture bien spécifique au sein du SI. De part leur caractère intrusif, elles exigent de trouver des solutions ou des compromis notamment en matière de sécurité mais également de dépasser les aprioris quant aux partages des ressources.
Pour autant, le plus gros des défis, pour les acteurs du marché, sera celui du marketing. Le grid computing doit aujourd’hui savoir se faire entendre face à des concepts phagocytaires car, quand il est question de « computing », le « cloud » vient brouiller les pistes.

Pour l’heure, si l’entrée sur le marché d’IBM ne résout pas ce problème d’image, il confirme en revanche l’intérêt du modèle de « grille » et préfigure une tendance, celle de l’intégration. L’avenir du grid computing est, sans doute, au cœur, mais, dans l’ombre du « cloud ».

Pour lire plus d’articles sur le secteur de l’énergie, cliquez ici.