Category Archives: Technologies

Zuckerberg’s reality, demain commence aujourd’hui

Mark Zuckerberg au mobile World Congress à Barcelone

Photo postée sur son compte Facebook par Mark Zuckerberg au mobile World Congress à Barcelone, ce dimanche 21 Février 2016


Au delà même de leur qualité technique ou de leur destination d’origine, il est des photos qui mériteraient d’être montrées dans une galerie d’art tant elles disent quelque chose de fort sur notre époque. Elle suscite d’ailleurs un très grand nombre de réactions (pas souvent tendres). Et vous, qu’y voyez-vous ?

  • Un petit génie ravi de la surprise qu’il va faire à l’assistance lorsqu’elle va le découvrir sur scène ?
  • Une assemblée de technophiles ravis de découvrir un nouveau jouet ?
  • Un troupeau plongé dans une hallucination consentie et consensuelle ?
  • Des individus rassemblés dans un territoire virtuel actualisé commun et réenchanté ?
  • Une illustration du big Brother, qualification dont on affuble parfois Facebook et son fondateur ?
  • Une allégorie orwellienne de l’élite triomphante sur une masse dis-traite et domestiquée ?
  • Des individus reliés à la « matrice » ?
  • Une séance de reprogrammation des cerveaux version orange mecanique 2016 ?
  • Une foule de solitudes ?
  • Deux mondes juxtaposés ?
  • … ?
  • Ou peut-être un peu de tout ça ?
« En quittant l’espace de nos sensibilités habituelles, on entre dans un espace psychiquement innovant, c’est pourquoi nous ne changeons pas de place mais nous changeons notre nature »

Gaston Bachelard, philosophe, 1964

Share

le boom des objets connectés, vers l’internet of everything

Atelier objets connectes - Conférence Techdays 2014 animée par Bernard OurghanlianObjets connectés, avez-vous donc une âme ? C’est le titre d’une conférence des Techdays 2014 animée par Bernard Ourghanlian, directeur technique de Microsoft. Si la question philosophique reste à débattre, il n’en reste pas moins que 2014 sera bien l’année du décollage de ces objets annoncés depuis quelques années.

En effet, leur développement et leur diffusion massives et rapides sont désormais possibles. Gartner n’annonce t-il pas 26 milliards d’objets connectés en service dans le monde en 2020. L’IDATE penche pour 80 milliards.

Quatre conditions de cette explosion sont réunies :

  • La maturité du smartphone et de sa diffusion, ce qui permet l’agrégation des objets,
  • Le développement du cloud, qui permet stockage et accès aux données de n’importe quel point,
  • Le perfectionnement des capteurs qui offrent désormais puissance et autonomie énergétique,
  • Le big data qui permet de collecter des données dont la masse va exploser et d’en extraire la valeur ; sans oublier le machine learning qui permet de donner une intelligence à l’ensemble.

On se prend à imaginer ce qu’apportera le développement de l’intelligence artificielle à ce monde d’objets communicants devenus éducables et en tout ou partie autonomes.

Cet internet des objets vient après l’internet des infos, (le web), l’internet des individus, (les réseaux sociaux), et l’internet des lieux (Foursquare) ; en somme le tout internet, l’internet of everything. People to people, people to machine, machine to machine, tout est connecté. Les enjeux techniques, économiques et sociétaux sont colossaux et tous les domaines sont concernés. Si un certain nombre d’exemples relatifs à l’automobile et à la ville connectées, aux smarthomes et smartgrids, projets en partenariat avec Microsoft ont été présentés aux Techdays, le sport, la santé, l’assistanat aux personnes âgées ou à chacun d’entre nous, l’agriculture, la réalité augmentée sont le cadre de scénarios de développement des objets connectés.

Alors cette explosion n’est-elle pas une bulle ? La multiplication tous azimuts d’innovations garantit-elle que ces objets vont trouver un public ?

Parmi les objets déjà accessibles au grand public, l’offre porte d’abord sur des objets portables. Il suffit de parcourir quelques sites pour voir que la concurrence sera sévère. Il est temps de créer sa startup, mais il y aura des morts. Le potentiel est énorme, mais quelques obstacles pourraient freiner la vague : La gadgétisation excessive décrédibilisante, une interopérabilité défaillante liée à une bataille des standards, une interconnexion peu étendue qui isolerait chaque objet, et bien sûr la sécurité des données qui s’impose de plus en plus comme une question centrale. Enfin le progrès nécessitera le design d’interfaces homme-machine nouvelles, l’expérience utilisateur devient globale, avis à tous les UX et Thinking designers ! Et si vous voulez concevoir de petits objets connectés, Microsoft propose Gadgeteer, un petit outil open source. L’innovation pour et par tous (ou presque), c’est aussi ça le numérique.

Share

Comment réinventer l’expérience utilisateur dans les processus d’achat ?

Beaucoup d’acteurs cherchent une solution à l’utilisation des magasins comme simples showrooms par le client, lequel achète ensuite moins cher sur Internet. Des expériences émergentes tendent à repenser l’expérience utilisateur de façon à offrir sur place une expérience complète en  digitalisant l’expérience du commerce de bout en bout, (retail 2.0). Il s’agit de proposer un maximum d’interactivité en associant magasin physique et imaginaire technologique.. Quelques réalisations qui nous ont été présentées aux Techdays ont retenu mon attention :

Razorfish Emerging Experience 5D : Il s’agit d’intégrer équipements, contenus, expérience, Analytics et CRM pour proposer une expérience de réalité augmentée, immersive et connectée, notamment à l’aide du dispositif Kinect de Microsoft (corps interface) et de tablettes in store. Je photographie une image dans la rue  à j’ai un look book à une wish list à je retrouve les articles en magasin à je synchronise ma tablette ou mon mobile à je fais un essayage virtuel. Un processus extensible à bien d’autres secteurs que le vêtement.

 

Audi city Londres, conçu comme une installation interactive dans laquelle implication du corps et imaginaire technologique stimulent la relation émotionnelle avec la marque. Je configure et j’explore le véhicule en 3D et en taille réelle en utilisant mes mouvements (Kinect techno) → j’explore tactilement objets et matières (taggés RFID) qui sont automatiquement intégrés dans le modèle 3D → je sauvegarde la configuration sur une clé USB et je la retrouve à la maison. Une réalisation en accord avec l’image d’innovation d’Audi, appelée à être étendue d’ici 2015 dans d’autres grandes villes européennes.

 

Go MacDo, expérience en cours à Paris Panthéon par exemple : Je prends une commande depuis mon smartphone → j’obtiens un Qrcode → je le présente à une borne en arrivant au magasin → je bénéficie d’un parcours dédié pour retirer ma commande. Après évangélisation interne et adaptation de son site et de sa présence sur les réseaux sociaux, le processus permet à Mac Do de trouver là un nouveau relais de croissance et de mieux connaître ses clients. A priori, le succès de l’expérience devrait autoriser son extension à toute la France à l’automne 2013.

J’ai testé aussi le premier bar tactile à Paris, dans lequel on peut passer ses commandes, surfer sur le net, …boire un cocktail (apporté par un être humain en chair et en os) et appeler un taxi, sur des tables Surface ou des tablettes ; une expérience émergente dont le succès dépendra de son développement progressif et de la qualité de l’émotion proposée.

Share

La photo numérique et ses avatars computationnels, le déplacement du moment artistique

L’été est propice à la multiplication des prises de vues, mais à observer les usages du plus grand nombre, la photo numérique est encore le plus souvent perçue comme une nouvelle façon de faire les mêmes photos qu’avant, en plus grand nombre, avec une possibilité de résultat et de choix instantanés et à coût quasi-nul. Mais ce qui fait que la photo numérique s’éloigne de plus en plus de l’argentique, c’est le traitement computationnel de l’image, ensemble de processus qui associent appareil de prise de vue et ordinateur et qui sont déjà classiques pour le recadrage, les corrections, les modifications ou le collage par exemple.

Mais puisque l’on peut coder avec le même langage l’exposition, l’ouverture, le mouvement, la direction de la lumière, la longueur d’onde, le temps et l’espace, on ouvre encore bien plus grand le champ des possibles. Quelque part entre optique, électronique et traitement de signal, entre art et document, entre image,  photo et vidéo, entre  album personnel et réseaux sociaux, la photographie numérique et ses avatars computationnels changent la place et la nature de l’image. Ils offrent la possibilité de nouvelles formes de création encore largement inexploitées.

On avait déjà pointé de nouvelles formes avec les photos HDR. Mais la photo peut aussi être interactive et immersive (voir la photo du serment d’Obama ou la vue de Paris par exemple). Aujourd’hui, des appareils à champ de lumière permettent l’obtention d’images dans lesquelles on peut voyager dans la profondeur du champ. Le point de vue ne peut plus être totalement imposé par l’auteur puisque plusieurs sont possibles. Il suffit de cliquer ou double cliquer sur les différents plans.  – Voir ci-contre (ou d’autres exemples là) –

 

Et pourquoi ne pas créer des scènes composites ou synthétiques en combinant plusieurs photos selon des algorithmes respectant leur forme et leur sémantique ? Essayez Scene Completion ! Bien d’autres potentialités restent à explorer : Le cinemagraph, combinaison photo-video, mais aussi la photo haute vitesse…et l’image au travers du mur (around the corner), …au sujet desquelles on pourra trouver quelques infos sur le site du MIT.

Bref, le numérique, c’est une révolution de l’image. Celle-ci n’est plus un point de vue unique et n’est plus forcément le résultat de l’alignement œil-appareil-objet. La prise de vue souvent considérée (cf Cartier-Bresson) comme le « moment artistique » de la photo (à l’exception de quelques artistes pour lesquels ce moment était celui du laboratoire) passe au second plan. Ce moment, c’est le traitement computationnel de l’image.

 

Share

HDR, La photo numérique entre hyperréalisme et ultraréalisme

Bill O'leary - The Washington Post

 

La photo numérique se différencie de plus en plus de l’argentique. Le codage et le calcul qui remplacent la trace physico-chimique ouvrent la voie à une infinité de manipulations de l’image et à l’hybridation, et donc à de nouvelles formes de création parmi lesquelles les photos (et videos) HDR (High Dynamic Range Imaging). Si la technique n’est pas si nouvelle, la photo en Une du Washington Post en janvier 2012 a beaucoup fait parler parce que ce type d’image questionne la réalité et le rapport à l’information : Un pont, un soleil couchant…des couleurs et des ombres non cohérentes, ou plutôt  non conformes à celles qu’aurait perçu notre œil, au delà de ses capacités physiologiques. Trucage ? comme l’ont dit certains, recomposition de la réalité ? comme le fait d’ailleurs notre cerveau… Hyperréalisme ? Ultraréalisme ?

Hyperréalisme par le constat des formes et leur précision, la mise en valeur de l’objet et de sa structure, de ses détails, par l’importance de la technique et la faible charge affective. Si, en objectivant le sujet, l’hyperréalisme (US photorealism) des années soixante introduisait un doute sur la peinture (ne serait-elle pas une photo ?), c’est le doute sur la photo qu’introduit cette technique numérique. Pourrait-elle être une peinture ? ou un décor de jeu vidéo ?  Le cousinage n’est pas le fait du hasard. La technique HDR a en effet été développée pour la création d’images générées par ordinateur. Couleurs, lumières, textures, 3D, font que l’image de l’objet pourtant réel confine à un ultraréalisme imitation de la réalité, d’où cette impression d’irréel, conséquence de l’hybridation réel-virtuel.

La valeur informative de telles images ne semble pas évidente, d’ailleurs le sujet choisi par le Washpost et illustré au moyen de cette technique est relatif à la mémoire d’un accident aérien, ce qui n’est pas en soit une information et peut justifier d’un traitement distancié ; mais elles peuvent être utilisées pour renforcer l’intensité dramatique et/ou poétique de la photo et agissent sur notre distance au monde et donc sur la perception que nous en avons. Avec un appareil disposant d’un bon bracketing, et avec un  logiciel comme Photomatix, Photoshop, HDREngine, ou quelques logiciels gratuits et un tutoriel, chacun a désormais le loisir de créer son propre univers. Des groupes et des galeries en offrent de nombreux exemples ici ou .

Share

Honni soit qui mal y pense. La tentation Free malmène Bouygues, Orange et SFR.

Google Tendances -requêtes Google concernant les mots-clés : "résiliation Orange", "résiliation SFR", "résiliation Bouygues"

 

Google Tendances révèle l’impact premier de l’arrivée de Free sur le mobile. Le jour même de la conférence très cash de Niel, les requêtes « résiliation » sur Google sont multipliées par un facteur d’ordre dix pour les trois grands opérateurs. Une véritable réaction émotive : Vite ! Comment quitter mon opérateur actuel ? Même si le passage à l’acte n’est pas pour tout de suite, on y pense immédiatement. De quoi faire peur aux opérateurs en place et les inciter à téléphoner à leurs clients pour leur proposer un nouveau forfait avant qu’ils ne décident de partir pour de vrai.

 

L’émotion et le buzz retombent quelque peu, mais les requêtes « résiliation » demeurent encore très significatives. Après les geeks, les freenautes et les early adopters, la réflexion va gagner plus lentement le grand public. Les opérateurs dits historiques, un peu sonnés et tout à coup vieillis, disposent encore d’un épais matelas de clients engagés, y compris depuis peu à Noël, période traditionnelle d’achat de mobiles. Ils lancent leurs contre-attaques tarifaires et commencent à communiquer sans trop de retenue sur les faiblesses vraies ou supposées de Free.

 

Bref, la lutte ne fait que commencer et se concentrera sûrement, au delà des prix, autour de la tenue des promesses, de la qualité du réseau et des services, mais aussi autour de l’innovation. Free, qui vise 25% de la clientèle, s’en est montré jusque là le champion et va bénéficier pour un temps au moins, et sauf fautes de sa part, de l’avantage d’avoir tiré le premier. A suivre donc…

Share

Kindle, Kobo, Cybook et les autres. Les liseuses numériques, outils d’une mutation

 

Image de la Liseuse de Fragonard

La Liseuse de Fragonard

Fin d’un monde  ou nouveau monde ? Mutation ou révolution ? La liseuse de Fragonard pourrait-elle bientôt apparaître comme un témoin d’un mode de lecture révolu ? C’est un fait annoncé, avec l’arrivée en France du poids lourd Amazon et son Kindle, le développement de l’offre et de prix stratégiques, la lecture sur support numérique devrait décoller en France, après un démarrage un peu poussif, tout comme elle a décollé en peu de temps aux US en trouvant des lecteurs satisfaits et fidèles. Il ne faut pas s’y tromper, il s’agit bien là d’une très profonde mutation qui conjugue nouvelle technologie et nouvelle morphologie, mode d’écriture et support, de la même façon que le passage de la tablette gravée au papyrus, puis au codex et à l’impression. Je me livre donc ici à un tour d’horizon non exhaustif de quelques premières questions soulevées par cette mutation.

 

Quel impact sur nos pratiques ?

Il ne s’agit plus de fureter mais de naviguer, plus de toucher et de feuilleter mais de cliquer et de zapper. Il ne s’agit plus de sortir (chez son libraire) mais de s’asseoir près d’un spot WiFi pour télécharger (en une minute) puis de s’asseoir ou de s’allonger pour lire pour l’instant essentiellement des livres papier numérisés. Il ne s’agit plus d’emporter un livre en week-end, mais toute sa bibliothèque…

 

Quoi de plus avec les liseuses actuelles ?

 

Les possibilités de marquer, corner, surligner, annoter sont conservées et facilement mises en œuvre. Dès lors que l’on prend en compte l’étendue de la bibliothèque stockable, bien plus fournie que celle d’un français moyen…et transportable, l’avantage est manifeste ; de même si l’on considère la présence de dictionnaires intégrés et la recherche rapide par mots-clés ; à noter aussi le prix inférieur de la version numérique des ouvrages, la disponibilité de nombreux classiques à des prix dérisoires voire gratuits. Par ailleurs, les changements de police, de caractères ou de mise en page permettent une accessibilité renforcée. Côté éditeurs, rien ne permet désormais de retarder des retirages d’ouvrages anciens ou peu diffusés à très faible coût et sans invendus.

 

Mais alors quoi de moins ?

 

La sensation d’être prisonnier d’un système fermé sur Amazon ou sur la FNAC par exemple, et les comportements futurs de ces acteurs sont loin d’être connus ; le fait que le livre numérique ne puisse être prêté ni échangé, ni transféré, mais que l’objet qui le contient soit lui « perdable » ou « volable » emportant avec lui la bibliothèque. On peut aussi être gêné par l’uniformisation que les liseuses actuelles confèrent aux différents types d’ouvrage. l’affaiblissement sensoriel lié à la disparition des nuances du toucher, de l’odeur et de la structure du papier gênera sans aucun doute les amoureux du livre papier qui sont encore très nombreux, mais quid des générations élevées à l’écran ?

 

Que restera t-il du livre papier ?

 

Nul ne peut aujourd’hui faire un pronostic fiable. Dans un premier temps, il semble que les ventes papier ne se portent pas si mal aux Etats-Unis, encore que… Les encyclopédies, beaux livres, ouvrages universitaires, ouvrages de fond sont encore très majoritairement diffusés sur papier, peut-être parce qu’encore mal adaptés au nouveau format. Mais bien peu de libraires pourront dorénavant se contenter de ne vendre que des livres… La diffusion des e-books explose aux US tant dans les ventes qui dépassent depuis plusieurs mois celles des livres de poche que dans la dotation déjà étonnamment élevée des bibliothèques municipales ou universitaires. Que de chemin à parcourir en France ! A ce rythme, devant quelle bibliothèque poseront nos « sachants » (ou ceux qui tentent de donner le change) dont les murs couverts de livres manifestaient le pouvoir – voir nos présidents de De Gaulle à Pompidou, Mitterrand et Sarkozy – Il reste à inventer la liseuse statutaire ou l’objet symbole qui remplacera les étagères ( avis aux designers ! )

 

Quel avenir pour ces liseuses numériques ?

 

Il faudra quelques années, quelques décennies peut-être pour mesurer le chemin parcouru au fur et à mesure de l’arrivée de générations lisant sur écran depuis l’école et des progrès technologiques : Bientôt l’écran souple, l’écran haptique (et plus tard peut-être une intégration au corps). Pour le moment très proches de l’organisation du livre, ces nouveaux outils – encore des objets transitionnels ? – semblent adoptés très facilement compte tenu de leur interfaces intuitives. L’écran couleur quant à lui est déjà proposé notamment par Barnes et Noble avec son Nook aux US.

 

Enfin quel impact sur ce que nous lirons ?

 

L’essentiel de ouvrages disponibles consiste actuellement en des livres numérisés. Il est difficile d’imaginer si et comment l’écriture et les contenus proposés évolueront lorsque des écrivains exploiteront les possibilités du numérique. Nul doute qu’au fur et à mesure que l’écriture cherchera à exploiter toutes ces possibilités, l’hypertexte, le multimédia, de nouvelles formes de création littéraire émergeront et seront accompagnées par des évolutions des interfaces. Sur le plan de la diffusion des oeuvres, le poids et le comportement des géants comme Amazon, qui vient aussi de se lancer comme éditeur et peut donc tout faire, questionnent quant au contrôle de fait qu’ils pourraient exercer sur ce que l’on nous donne à lire et comment on le propose. Le comportement d’Apple qui censure certaines applications et impose sans discussion des redevances avantageuses pour accéder à ses supports ne plaide pas pour trop de naïveté.

 

Share

Steve Jobs est mort. Comment son imaginaire technologique nous a rencontré au travers d’Apple.

L'hommage, en Une, de Libération à Steve Jobs

Logotype utilisé en une du journal « Libération » : hommage à Steve Jobs

 

Quand j’ai acheté mon iPhone, puis mon ipad, je ne savais pas que j’en avais besoin…Cela pourrait être une explication de ce qui vaut à Steve Jobs, fondateur d’Apple, un hommage quasi unanime pour son apport dans l’industrie du numérique voire pour avoir changé la vie. Il y a là quelque chose de religieux (voir mon précédent billet) dans la prosternation, dans la dévotion que lui vouent certains et dans les cérémonies vues devant certains magasins Apple, Alors un gourou ? un génie ? Plus sûrement, en plus d’être un homme d’affaires, quelqu’un dont l’imaginaire a rencontré une attente non formulée, mais forte, de réenchantement du monde. Dans quelles conditions cet imaginaire a t-il rencontré cette attente au point même de paraître devancer  le besoin ?

 

Une piste de réponse se trouve dans les travaux du GRETECH-Paris-Sorbonne et dans ceux de  Michel Maffesoli. Tout au long de l’ère industrielle, le développement d’abord porteur de progrès des sciences et des techniques, de la mécanisation, et des transports, finit par amener progressivement à un désenchantement du monde marqué par une profonde mutation des relations sociales, à une atomisation de la société, au déracinement et à l’isolement. Et 150 ans plus tard ( c’est l’ordre de durée estimée de ces cycles de désenchantement-réenchantement ), on assiste à la fin accélérée de ce moment culturel débuté au dix-neuvième siècle.

 

Lorsqu’arrivent les technologies du numérique dans cette fin de cycle, elles rencontrent donc une attente de réenchantement soutenue par une sorte de nostalgie des liens sociaux perdus idéalisés. L’attrait constaté pour les événements collectifs, les événements de foule, naît de cette attente. La technologie devient le meilleur réceptacle de ces attentes dans lesquelles elle s’inscrit. Dès lors les espaces virtuels, les espaces communautaires en particulier, permettant l’échange et le partage, offrent la possibilité d’un territoire commun qui comble l’ennui et l’angoisse de l’isolement en réchauffant le lien social.

 

La force de Steve Jobs a été de comprendre, ou pour le moins de sentir cette attente. Les progrès de la technologie aidant, il a compris que la machine ne devait être le contraire d’une entrave ou d’une difficulté supplémentaire pour le lien social. En proposant des interfaces intuitives, des machines utilisables sans mode d’emploi, parce qu’inutile, là où des concurrents confondaient performance et complexité, il a permis un réchauffement du lien homme-machine face à la froideur des notices techniques. Depuis, macIntosh, iPod, iPad et compagnie ont pu s’inscrire comme une simple prothèse d’un individu désormais connecté.

 

Alors Apple pourra t-il poursuivre dans cette voie ? Y a-t-il d’autres vigies dotées comme Steve Jobs d’un imaginaire susceptible de rencontrer des attentes non formulées et de se fondre dans les mutations sociales ?  Nous n’en savons rien. Mais le virage imposé par Jobs a modifié définitivement l’approche des usages. Le numérique n’a pas fini de produire ses effets, nous ne sommes qu’au début du cycle, mais n’en doutons pas, il produira aussi son lot de désenchantement…dans un siècle ou un peu plus si la durée du cycle est conforme à l’histoire passée…ou bien avant si l’accélération sociale, d’ailleurs portée par le numérique, se confirme…

Share

Japan earthquake shakes Twitter users ou quand Twitter va plus vite…

La communication publiée sous le titre ci-dessus en 2010 par des chercheurs de l’université de Tokyo prend du relief avec le récent séisme au Japon. On sait déjà combien Twitter peut permettre de transmettre et d’agréger des infos, des sentiments voire des foules en temps réel ou quasi-réel. Cette étude cherche à montrer qu’il pourrait aussi être utilisé comme système de détection d’événements et d’alerte. De quoi s’agit-il ?


L’observation montre que chaque événement important est relayé en temps réel par un nombre significatif de tweets. C’est le cas d’un séisme. Chaque utilisateur de Twitter se comporte alors comme un capteur qui saisit et transmet une information. Le monitoring des messages associé à un algorithme adapté permettent l’identification et l’analyse sémantique de mots-clés et du contexte de ces messages. On peut ainsi détecter le séisme et lui attribuer une localisation spatiale et temporelle. Dès que le système extrait l’information, il la transmet automatiquement par mail aux souscripteurs du service qui la reçoivent avant l’alerte officielle et potentiellement même avant l’arrivée des vibrations qui, elles, ne se propagent « qu’à » quelques km/s. Selon les auteurs de l’étude, 96% des séismes d’intensité 3 et plus auraient ainsi été détectés. (à consulter la communication)


Même si cela paraît dérisoire au regard de l’ampleur de la catastrophe japonaise, on peut être fasciné par le fait qu’un capteur social puisse en quelque sorte court-circuiter les capteurs techniques habituels ; l’extension et la puissance des réseaux permettent à l’immatérialité des flux de communication en temps réel de prendre l’avantage. Pourrait-on extrapoler ce qui est possible pour les séismes à la détection d’événements politiques, sociaux, météo, accidentels, … à partir de Twitter et à une automatisation de l’élaboration et de la diffusion de l’information en temps réel (type dernières nouvelles – breaking news) ? L’exploitation de Twitter non seulement comme réseau, mais comme média pose certes des problèmes complexes, mais certains y travaillent. On voit bien les objections : quid des sources, de la hiérarchisation, des manipulations ? quelle place pour l’analyse face à l’émotion ? etc…


Comme l’a pointé depuis déjà longtemps Paul Virilio, la vitesse technologique est désormais très supérieure à celle du temps humain, et l’écart ne fait que croître. Il y a désynchronisation entre la vitesse de circulation de l’information et nos capacités d’action ou de réaction. Cette course à la vitesse semble pourtant inséparable de la course à la puissance dans laquelle nous sommes irréversiblement ( ?) engagés ; et Virilio et quelques autres de rappeler qu’en inventant un processus, on invente l’accident associé ; et que la puissance de l’un et de l’autre croissent parallèlement. Prudence, donc…

Share

Facebook révolution, ou domestication ? deux visages des réseaux sociaux

J’ai noté ces derniers jours dans la presse le télescopage de deux approches des usages des réseaux sociaux a priori sans rapports directs mais qui, placées l’une en regard de l’autre, illustrent bien  leur ambivalence… D’un côté rangés parmi les instruments de la libération de tout un peuple, ces outils sont, d’un autre côté, vus comme des instruments potentiels de contrôle.

 

D’un côté donc, la mise en exergue par les médias (ici et par exemple) du rôle de Twitter et surtout de Facebook dans le déclenchement, l’amplification et la coordination des révoltes de Tunisie et d’Egypte. Une Facebook révolution ? Sans surévaluer le rôle de ces réseaux sociaux compte tenu de leur taux de pénétration (encore qu’en Tunisie…) et des strates de population touchées, il semble bien qu’ils aient constitué un moyen de contourner les institutions, les dispositifs de censure et de surveillance, un outil d’expression personnelle (petit clin d’oeil Facebook repris sur le blog tunisien de Nawras) et de libération en quelque sorte. On a vu utiliser le terme de cyberrésistance, pu suivre les més-aventures d’un responsable marketing Google et la nomination d’un blogueur résistant comme ministre. Il n’est pas contestable non plus qu’internet a constitué une source essentielle d’information -Voir par exemple sur Google Tendances l’explosion des requêtes « Ben Ali » à Tunis les 14 et 15 janvier, jour de son départ –

 

D’un autre côté, Alex Turk, président de la CNIL, qui nous redit ni plus ni moins dans le Monde du 8/02 ce qu’il dit depuis longtemps : « des dangers lourds nous menacent en lien avec la géolocalisation ». la CNIL pense bien sûr aux réseaux de type Aka-aki, Foursquare, Latitude, géo-tweet, Facebook Lieux et quelques autres, et aussi aux multiples applications qui nous proposent (yes or no ?) la géolocalisation pour exprimer tout leur intérêt avec des procédures d’opt in/opt out parfois mal définies. De type check-in, ou davantage encore de type tracking, tous ces signalements de position ne font qu’ajouter à notre empreinte numérique déjà forte (on se souvient de l’histoire de Jules). Plus récemment le site provocateur pleaserobme (en ce moment en sommeil) annonce l’absence du propriétaire aux voleurs à partir de relevés sur Foursquare et Twitter. Mais la tendance est lourde, la géolocalisation est un puissant outil de marketing direct au service de stratégies adaptées au développement des terminaux mobiles (par exemple la très simple offre McDo : 3 géolocalisations en 72h au McDo sur Lieux = un sandwich gratuit)… Ce pourrait être demain un outil au service d’objectifs peu louables dans un monde panoptique, un instrument de contrôle et de domestication.

 

D’un côté donc, tout ce que l’on peut attendre du développement des médias de masse ; il est très difficile, voire irréaliste aujourd’hui de maintenir des structures strictement verticales et d’ignorer l’expression des idées de chacun aisément et instantanément disséminées par le réseau. L’entreprise l’a (souvent) compris, les états parfois moins. D’un autre côté, la porosité croissante entre vie publique et vie privée (jusqu’à leur confusion ? L’attitude de Facebook à ce sujet est plus qu’ambigüe) questionne effectivement quant au contrôle social. Au delà de l’éducation de chacun et de l’autocontrôle, on peut certes penser que les réactions des internautes contrôleront les abus, mais les états de droit devront sans doute légiférer rapidement sur l’utilisation des données personnelles, leur propriété et leur accès. Il n’y a pas de médaille qui n’ait son revers…

 

Share