Catégories
Photographie Tech

Le Travel Tripod de Peak Design arrive sur Kickstarter

Peak Design lance aujourd’hui sa neuvième campagne Kickstarter avec un produit dont les photographes baroudeurs se languissaient : un trépied photo léger, compact et hyper polyvalent. Le Travel Tripod.

comparaison

Fruit de quatre ans de conception, les gars (et les filles) de chez Peak Design nous présentent un produit qui répond aux besoins des photographes voyageurs tout en respectant les standards de qualités et de conceptions habituels de la marque.

Proposé en deux déclinaisons, aluminium ou fibre de carbone, ce trépied, s’il ne révolutionnera pas l’utilisation que vous faites d’un tel accessoire photo, comporte plusieurs points forts.

Le Travel Tripod : roi de la compacité

C’est objectivement le principal point mis en avant par Peak Design. Replié, le Travel Tripod mesure une petite quarantaine de centimètres de long pour un diamètre d’un peu plus de 8 centimètres.

Cette compacité permet de glisser le travel tripod dans une valise sans que vous ne deviez emporter qu’un seul caleçon et un seul pantalon. Il se glisse aussi très bien dans les poches latérales des sacs de la gamme Everyday ou, encore mieux, de la Travel Line.

bag

Pour être honnête, il faut tout de même convenir que d’autres types de modèles de trépieds y rentraient déjà très bien. Je pense notamment à mon trépied actuel, le Velbon Ultra 655.

Cette compacité est obtenue par plusieurs astuces de conception.

D’abord, l’architecture même du trépied, avec des sections triangulaires et non tubulaires. De cette manière, les sections « s’emboîtent » parfaitement et il n’y a pas d’espace perdu.

Travel Tripod conception

Les taquets qui permettent de déployer les sections sont eux-mêmes conçus pour épouser pleinement la silhouette de la structure, n’offrant ainsi aucune aspérité extérieure pouvant gêner quand on le glisse dans une poche.

Travel Tripod size

Il n’y a pas grand chose à dire par ailleurs que le déploiement en lui-même des sections qui reprend un mécanisme vu et éprouvé sur de nombreux autres modèles.

Personnellement, je lui préfère désormais le système du Velbon Ultra 655 qui repose sur un mécanisme mécanique de verrouillage qui n’offre aucun dispositif extérieur. Mais c’est un autre débat…

Le coup de génie du Travel Tripod : la rotule intégrée !

Si l’ensemble des sections se rabat donc sur la traditionnelle colonne centrale, extrêmement fine dans le cas du Travel Tripod, le vrai coup de génie de Peak Design est d’avoir totalement intégré la rotule ball à cette colonne. Cette dernière se range ainsi complètement à l’intérieur de la structure une fois le trépied replié, n’offre aucune protubérance extérieure puisque sa tête est rigoureusement plate, et permet en outre de verrouiller le trépied pour qu’il ne se déploie pas quand il est en position replié.

Travel Tripod ball

L’idée est très astucieuse et a sans doute nécessité pas mal de travail. Car c’est en fin de compte une toute nouvelle approche de ce type de rotule. Habituellement, les trépied, y compris ceux orientés « voyage » offrent un pas de vis sur lequel greffer n’importe quel type de rotule (3D, fluide, ball, etc.).

Cela signifie qu’aux spécifications du trépied (et principalement son poids) il faut ajouter celui de la rotule. Cela rend l’objet plus modulaire, mais cela implique des contraintes supplémentaires.

Dans le cas du Travel Tripod, vous n’aurez pas le choix de la rotule, mais c’est finalement un moindre mal car, d’une part, la rotule ball est finalement la plus agile et la plus versatile qui convient donc à toutes les situations et surtout, cela permet donc de disposer d’un accessoires parfaitement compact et intégré.

Sur la rotule en elle-même, rien que de très classique, avec une bague de verrouillage, la compatibilité avec les plaques pour une pose et un retrait rapide et les bagues habituelles pour régler la fluidité des mouvements sur la balle.

Classique mais efficace et surtout très intelligemment conçu pour répondre à l’objectif premier : rester compact.

Dernier raffinement de cette colonne centrale, l’intégration en son sein du support pour Smartphones.

C’est un petit détail qui ne paye pas de mine, mais qui révèle encore une fois une conception intelligente et optimale, à la fois de l’espace disponible, mais également du service rendu aux photographes.

C’est en outre la prise en compte que de plus en plus de photographes, professionnels ou amateurs éclairés, usent de leurs photophone sophistiqués pour des prises de vues soignées.

Aussi léger qu’une plume

Corollaire de la compacité, le Travel Tripod est extrêmement léger. C’est d’autant plus vrai avec le modèle en fibre de carbone qui n’affichera sur la balance qu’un modèle 1.3 kg, ce qui est le poids habituel d’un trépied de voyage… sans sa rotule.

Travel Tripod weight

Le modèle en aluminium n’a pas à rougir non plus avec ses 200 grammes de plus sur la balance.

Une inconnue demeure toutefois : quelle sera la stabilité réelle du trépied en conditions réelles, surtout par temps de vent ? Une fois totalement déplié, colonne comprise, il ne faudra pas que la structure subisse trop les secousses, au risque de ne pas se montrer à la hauteur.

Toutefois le Travel Tripod permet de suspendre un sac (Peak Design ;)) ou tout autre objet de poids pour alourdir l’ensemble et lui conférer plus de stabilité si vous allez faire des photos à la pointe du Raz.

La polyvalence à l’état pur

Un trépied photo aujourd’hui ne peut pas se contenter d’offrir une certaine hauteur pour le confort de la prise de vue.

Il doit pouvoir permettre de réaliser des prises de vue au raz du sol (pour de la macro par exemple).

Le Travel Tripod peut donc se déployer à seulement 11 cm de hauteur ou, d’orienter sa colonne vers le bas, offrant la possibilité de capturer des objets ou éléments placés sous le trépied.

Ce sont là des choses assez communes sur les trépieds actuels, mais force est de constater que Peak Design n’a fait aucun compromis sur les capacités de son dernier né.

Quel prix pour le Travel Tripod ?

Quand on a dit tout ça, reste à savoir à quel tarif Peak Design propose son dernier né.

Et forcément, qui dit long cycle de recherche et développement, matériaux haut de gamme et qualité de conception, dit addition salée.

Le prix public recommandé, qui sera appliqué après la campagne Kickstarter sera de 349$ pour la version alu et 599$ pour la version fibre de carbone. Rapporté en euros, avec les frais bancaires et frais de port, ça donnerais environ un peu moins de 330€ pour le modèle alu et 560€ pour le modèle en carbone.

Cela rend donc d’autant plus intéressant de précommander l’un ou l’autre pendant la campagne kickstarter.

En effet, les tarifs tombent respectivement à 289 et 479$, soit 100$ de moins sur chacun des modèles. Modulo les frais de ports, cela nous les laisse environ à 240€ pour le 1er et 420 pour le 2nd.

Cela peut paraître assez onéreux, mais la somme des raffinements esthétiques et techniques me font dire que l’on en a finalement pour son argent.

C’est dans tous les cas un investissement et, si vous ne recourrez pas beaucoup à un trépied pour vos prises de vues, ça ne sera sans doute pas la peine de vous ruer dessus.

Mais pour tous ceux qui cherchent un modèle compact, robuste et intelligent, c’est probablement le meilleur investissement du moment !

Catégories
Tech

Switch d’un iPad Mini vers un iPad 2018 (6e génération)

Apple User depuis une grosse dizaine d’année, je n’ai cédé aux sirènes de l’iPad qu’en 2012, à l’annonce de l’iPad Mini.

Après plus de 5 ans de bons et loyaux services, et beaucoup d’hésitations, j’ai finalement remplacé ce petit compagnon par le tout dernier modèle d’iPad sorti fin mars.

Ne parvenant pas à trouver sur le net des cas pratiques de switch d’un iPad Mini vers un iPad grand format, je couche ici le fruit de mes réflexions, qui ont conduit à ce grand remplacement 🙂

Le choix d’un iPad Mini

Compact, relativement abordable en comparaison des gros modèles de l’époque, l’iPad Mini premier du nom était le complément parfait de mon équipement de l’époque, composé d’un Macbook Air (2012) et d’un iPhone 4.

Destiné principalement à la lecture (en remplacement d’un Kindle), son gabarit en faisait un compagnon de route idéal pour les trajets en transports en commun. Son écran couleur et iOS le rendait par ailleurs plus polyvalent qu’une liseuse e-ink, de type Kindle (que j’avais déjà utilisé par le passé) : lectures de bandes dessinées, bureautique légère, jeux, etc… A une époque où l’on démultiplie les appareils électroménagers, n’avoir qu’un seul Device pour ces différents usages représente un confort non négligeable.

D’aucun rétorqueront justement qu’à contrario d’une liseuse classique, la lecture sur tablette (pas seulement Apple) est perturbée par toutes les notifications et autres distractions offertes par un appareil connecté. C’est effectivement le cas… si on ne fait pas attention à ses réglages !

Mais ce n’est pas l’objet ici, et je me fendrais d’un petit tuto sur le sujet plus tard.

L’ergonomie générale de l’appareil et de son application de lecture native (iBooks) me convenait tout à fait. Si on ajoute à cela le fait qu’il est possible d’installer d’autres applications de lecture (Kindle, Kobo, etc…) si l’on est client de ces plateformes, on atteint d’un niveau de service (côté lecture) proche du nirvana.

iBooks est perfectible (quoique s’étant déjà bonifié avec le temps) mais elle permet de faire l’essentiel : lire, tout en ayant un bout de bibliothèque sous la main.

La bibliothèque : parlons-en ! Comme de nombreux lecteurs de l’ère du numérique, j’utilise le logiciel Calibre pour la gestion de mes ebooks, que je dépose ensuite dans mes appareils selon mes besoins. Une fois la lecture terminée, je les supprime et sauvegarde mes notes ailleurs (si j’en ai pris).
La façon dont sont organisés les fichiers sur l’appareil m’importe peu au final, du moment que je m’y retrouve dans le petit volume que je trimbale avec moi.
iBooks fait très bien le job de ce côté-là.

Il y a l’aspect synchronisation entre appareil Apple qui est très efficace et que j’utilise ponctuellement, mais très franchement, en dehors de quelques PDF sur ordinateur et une lecture de dépannage sur iPhone, cela reste d’un usage assez marginal de mon côté.

Et là, c’est le drame

Tout allait donc pour le mieux avec mon petit iPad, qui m’a accompagné dans mes lectures pendant ces dernières années. Et puis le temps a fait son oeuvre. Pas le temps matériel : le temps logiciel…
Frais et pimpant au début, les choses se sont gâtées avec iOS 8 et ne se sont malheureusement pas améliorée avec iOS 9, dernier OS supporté.

Ayant l’habitude de faire durer mon matériel aussi longtemps que possible, en y apportant le plus grand soin, mes appareils Apple durent environ 3 ou 4 ans, voire même plus pour certains ordinateurs.
En règle générale, je ne remplace un appareil qu’en cas d’absolue nécessité : irremplaçable ou clairement inutilisable.
Je n’irai pas jusqu’à dire que l’envie ne prend jamais le pas sur l’envie, mais il faut dans ce cas-là que quelque chose suscite l’envie tout en l’associant à un besoin (nouveau ou pas).

A la sortie de l’iPad Mini 2, rien ne justifiait un remplacement. Pas plus à la sortie du 3. Le passage à un écran rétina ne constituait pas un argument suffisant pour changer.

Les choses auraient pu changer pour le 4 avec l’intégration d’un écran « laminé » et « anti-reflet ». Ces deux technologies hissaient la tablette à un tout autre niveau de confort, surtout pour la lecture, qui devenait ainsi bien plus plaisante en plein soleil ou en environnement lumineux.
Mais la politique tarifaire de la pomme était pour le moins dissuasive et les autres modèles de la gamme n’avaient rien de sexy, tant du point de vue des technologies embarquées que sur prix.

Et puis, « en vrai », comme disent les enfants, on lit rarement en plein soleil. Que ce soit sur écran ou sur papier. Sauf à s’arracher les yeux. A moins donc d’y être contraint, on privilégie en général le confort réconfortant d’un point d’ombre. L’argument de l’anti-reflet ne prend donc tout son sens que si des néons disgracieux vous écrase de leurs lueurs criardes. Mais même dans ce cas l’utilisation de son iPad reste largement possible. L’anti-reflet ne fait qu’estomper les effets des reflets. Rien de miraculeux en somme.

Me voici donc avec mon fidèle iPad Mini, bloqué sur un iOS 9 vieillissant quoique toujours robuste et permettant globalement d’utiliser à plein les fonctionnalités de l’écosystème Apple : AirDrop, AirPlay, Handoff, etc.

Mais quoique dédié principalement à la lecture, l’absence de compatibilité de certaines applications installées au fil du temps, rende son déclin inéluctable.
Pour ne parler que de la lecture avec iBooks, qui, malgré ses défauts, reste mon application de lecture principale, les lenteurs constatées depuis le passage à iOS 9 ne faisaient qu’empirer et rendait son usage au quotidien de plus en plus pénible. D’autant plus quand on lit plusieurs ouvrages chaque semaine…

La recherche d’un remplaçant

Loin de se laisser abattre, J.F.K. a dit un jour « Le meilleur temps pour réparer sa toiture, c’est quand le soleil brille ». C’est à dire qu’il ne faut pas attendre le dernier moment pour s’occuper de sujets qui, s’ils sont négligés, deviennent un problème. Lorsque sa voiture tombe en panne, il est un peu tard pour réaliser une révision.

C’est la même chose pour un appareil, quel qu’il soit. Quand on a l’intention de continuer a utiliser un appareil que l’on devra remplacer une fois l’exemplaire que l’on possède tombé en panne, il est de bon ton de savoir a peu près à l’avance par quoi on va pouvoir le remplacer.

Cela permet de s’interroger sur ses besoins, d’en mesurer la pertinence et s’ils ont évoluer. Cela permet surtout de garder un œil sur le marché, et de connaître les dernières innovations, les dernières tendances, etc.
Attention : se documenter, regarder ce qui se fait, peut si l’on n’y prend pas garde porter à des achats compulsifs. Mais je m’égare…

Jusqu’à ce début d’année, je ne pensais pas particulièrement à ce qui pourrait venir remplacer mon iPad Mini. C’est à l’occasion d’un vrai plantage, dont j’ignore encore aujourd’hui la cause, que je suis fait la réflexion qu’il serait sans doute temps de regarder un peu plus attentivement ce qu’Apple avait à proposer.

Car oui, je n’envisageai aucunement de passer à la concurrence. J’éprouve une véritable aversion pour Android et les hybrides basés sur Windows 10 ne me convainquent pas du tout.

Restent les iPad : pro, classique ou mini.

Benchmark et décision

En définitive, la comparaison et le choix furent vite fait.

Je regardais depuis environ un mois et demi par quoi remplacer l’iPad Mini. Trois options donc : continuer sur l’iPad Mini 4, basculer sur le modèle d’iPad intermédiaire ou un iPad Pro.

Manipulant de temps en temps un iPad Pro 12″9 dans le cadre de mon travail, j’ai eu l’opportunité d’en peser le pour et le contre. Peser : le temps est juste. Ce modèle est rédhibitoire de par son poids et son encombrement. Certes, il permet de faire des choses splendides d’un point de vue graphique, mais, même avec mon activité de photographe, je ne me voyait pas utiliser ce modèle de manière quotidienne. Encore moins pour la lecture.
Exit donc le modèle le plus cher de la gamme. C’est déjà le banquier qui va être content.

Continuer sur un iPad Mini ?

Paris risqué du point de vue de la pérennité du modèle. Clairement, on ne voit pas bien pourquoi Apple le conserve au catalogue, surtout depuis l’introduction du modèle 2018.
Processeur vieillissant, peu de mises à jour matérielles concrètes. Le tout assaisonné par une politique tarifaire dissuasive… Franchement, plutôt que de le faire mourir à petit feu, autant l’éjecter du catalogue, sauf s’il rapporte encore quelques cacahuètes à Apple…
Rester sur un iPad Mini, c’est prendre le risque de se retrouver dans la même situation qu’avec mon device : c’est à dire avec un OS « limite » au-delà duquel il ne sera plus possible d’effectuer une mise à jour. Gérable lorsqu’il s’agit de fonctionnalité supplémentaire. Délicat dès lors que l’on parle d’éventuelles failles de sécurité.
Exit donc l’iPad Mini, ce qui conforte quelque part ici la stratégie d’Apple.

Restent donc l’iPad Pro 10″5 et l’iPad classique, héritier de l’iPad Air.

Au moment où je commence à regarder, l’iPad 2018 n’est pas encore sorti. L’arbitrage porte donc sur le modèle 2017, qui n’a pas forcément que de bonnes critiques. Comme il n’y a pas d’urgence, et qu’un achat n’est pas encore à l’ordre du jour, je regarde ça d’assez loin, en pensant que la gamme a encore le temps d’évoluer.

C’est finalement la sortie (inattendue pour moi) du modèle 2018 qui a provoqué la décision d’achat qui a finalement été très rapide. Présenté le 27 mars, j’étais en Apple Store le 30.

Je n’y ai prêté aucune attention le jour de sa sortie, puis, au détour d’un article consulté le lendemain, je me suis plongé dans sa fiche technique.

Au final, j’ai été alléché par

  • les entrailles de la bête (et son processeur qui lui assure plusieurs années de mises à jour)
  • son poids contenu (quoique plus conséquent que mon Mini)
  • sa compatibilité avec l’Apple Pencil (quoique son achat ne soit pas du tout à l’ordre du jour)
  • et puis son tarif, je me suis laissé quelques jours pour finaliser ma décision. Ce dernier critère à définitivement enterré l’option d’un iPad Pro, bien au-delà de mon budget, et dont les caractéristiques spécifiques ne correspondent de toute manière pas à mon usage.

Ajoutons à cela la possibilité de se faire reprendre son ancien appareil pour diminuer la facture et la chose était faite !

A l’usage

Il ne s’agit pas ici de faire un « test » ou une « review » de ce nouvel iPad. Les retours de premiers jours ont été nombreux même si leur pertinence est toute relative car que dire en quelques heures de manipulations à part des poncifs superficiels ?
Ce type d’outil se testent dans la durée et se doit d’être illustré par des cas d’usages concrets.

Disposé à faire un compromis sur le poids (170 grammes de plus ne sont pas négligeables quand on porte un objet de manière prolongée) je ne suis absolument pas déçu par mon choix et mon achat !

Le form factor est éprouvé et le passage à un écran de 9″7 contre 7″9 auparavant se fait très bien. La hausse de poids (qui serait plus contenue avec un iPad Pro 10″5) est supportable. Même l’épaisseur un peu plus conséquente que sur un Pro garantie une bonne prise en main et un maintien confortable lors de longue sessions l’appareil en main.
Quoique que cela ne m’a pas poussé à passer sur iPad Mini 2 (et suivant), il faut reconnaître que l’écran rétina est d’un confort exceptionnel, surtout pour la lecture. On ne s’en rend compte qu’à l’usage, ce qui explique pourquoi la seule lecture de la fiche technique ne provoque finalement pas une si grande émotion que ça.

L’autonomie est excellente également, principalement car je consomme pour le moment de manière modérée les applications gourmandes en ressources. Mais en utilisation intensive pour de la lecture et du Swift Playgrounds, je ne le recharge qu’une seule fois par semaine.

Switch ? (à Saint-Tropez)

Si comme moi, vous avez un iPad Mini, quelle que soit sa génération, et que vous envisagez de changer, je ne peux que vous recommander le tout dernier iPad de 2018.

Au-delà du discours marketing d’Apple, nous sommes en présence d’un très bon outil qui fera des merveilles, et pas seulement en tant que liseuse de luxe.

Ses qualités sont indéniables et ses quelques défauts, qui se résument surtout aux fonctionnalités qu’il n’a pas au profit de la gamme pro, ne suffisent pas à le disqualifier pour en faire une machine efficace et un vrai iPad.

Son prix enfin est à lui seul un argument de poids : à ce tarif là, dans ce segment de gamme, il n’y aura pas de meilleur rapport qualité-prix !

Foncez 😉

Catégories
Humeur Tech

« Apprendre ne sert à rien, c’est dangereux et ça rend idiot »

Cet article vient en réaction à l’interview, surréaliste de mon point de vue, qu’a donné Nicolas Sadirac, DG de l’école 42 cofondée avec Xavier Niel, dans laquelle il postule qu’apprendre ne sert à rien.

L’histoire retiendra peut-être que le premier acte de la défaite de l’homme face à la machine aura été une banale interview d’un directeur d’école informatique.

A ce stade là, c’est une boutade. L’idée n’étant bien entendu de ne pas se lancer dans une querelle des anciens contre les modernes.

Les ordinateurs et les machines sont amenées à faire de plus en plus de choses, de plus en plus vite. Il ne s’agit plus seulement de multiplier les calculs et leur vitesse d’exécution, mais bien de confier aux machines de tâches de plus en plus complexes, tâches qui s’éloigne de plus en plus du calcul brut en allant vers des raisonnements, de la déduction et de l’imagination créatrice. Au passage, il faut noter que ces tâches complexes reposent, quoi qu’on en dise, sur des milliards de calculs à la miliseconde.

La question n’est pas tant de savoir ce que les machines sont ou seront capables de faire ou de produire. Le débat est plutôt de savoir quel degré d’autonomie nous allons confier à ces machines. A quel moment allons nous perdre le contrôle ?

La réponse à cette question n’est pas liée aux limites que nous imposerons aux machines, mais bien aux limites que nous nous imposerons à nous même. Ainsi, quand Nicolas Sadirac postule qu’apprendre ne sert à rien et qu’il faut s’en remettre à Internet pour trouver les informations dont on a besoin, il introduit une borne, une limite face à la machine.

Apprendre ne sert-il vraiment à rien comme le postule Nicolas Sadirac ?

Distinguons trois dimensions :

  • Apprendre comme outil d’apprentissage et de construction de soi
  • Apprendre par curiosité ou plaisir
  • Apprendre par nécessité ou commodité

Ajoutons à cela deux postulats supplémentaires :

  • Tout apprendre est humainement impossible. La somme des connaissances est telle, qu’un cerveau humain est incapable de tout absorber. Chercher à tout apprendre est donc inutile, et il faut « apprendre » pour le coup, à savoir où chercher quand nécessaire. Ceci est une règle de base, immuable depuis que l’on a est passé de la tradition orale ou la tradition écrite.
  • Il convient de distinguer le fait d’apprendre de celui de « retenir ». Il est tout à fait possible de survoler une information, sans chercher à l’assimiler, mais d’en conserver une empreinte diffuse quelque part dans sa mémoire.

« Mémoire ». Le terme est important. Cet outil bien plus puissant que le simple stockage sur un disque dur quelconque. Cet outil autrefois propre à l’être humain et que la machine s’approprie à travers les technologies de Deep Learning et de réseaux neuronaux.

A quoi sert la mémoire ?

La mémoire permet de construire son identité, de tirer profit de l’expérience et, à plus court terme d’être plus efficace. Quoiqu’en dise Nicolas Sadirac, certaines informations sont plus facilement mobilisable lorsqu’on les a dans un coin de sa tête que de devoir aller la chercher sur le net ou dans sa calculatrice (dédicace à tous ceux qui ne connaissent pas leurs tables de multiplications).

Mais revenons-en à la question initiale : Apprendre ne sert-il vraiment à rien ?

Compte tenu de ce que nous avons dit précédemment, la première réponse est : non, cela ne sert pas à rien. En tant qu’outil indispensable d’apprentissage, le fait d’apprendre est ce qui permet de maîtriser sa langue maternelle, entraîner sa mémoire à long mais surtout à court terme, ce qui, sur la fin de vie est d’une valeur inestimable.

Passé ce bagage, est-il inutile d’apprendre une connaissance ou un information lorsque l’on agit par curiosité ou par plaisir ? Là on a envie de dire que c’est subjectif. On a envie… ou pas. On peut très bien vivre sans apprendre une nouvelle langue étrangère (mais dans ce cas, on ne plaint pas que les voyages sont moins intéressants) ou n’avoir aucune curiosité pour en savoir d’avantage sur l’histoire secrète du tableau La vierge et l’enfant de De Vinci.

Mais force est d’admettre que notre bon Nicolas Sadirac ne parle d’aucune de ses deux « façons » d’apprendre. Lui s’en tient à la connaissance purement utilitaire. De son point de vue, il est inutile de s’encombrer l’esprit de données périssables, d’usage ponctuel, donc par essence « jetable » puisque sans utilité passé le cadre dans lequel ces connaissances étaient nécessaires.

D’une certaine façon, ce point de vue peut se défendre. Certains projet nécessites en effet que l’on doive brasser quantité d’informations dont il est inutile de conserver une trace indélébile. L’essentiel est cela est en revanche de « savoir » où trouver l’information désirée (ceci relevant pour le coup d’une compétence qu’il convient d’apprendre si l’on veut espérer la mettre en pratique de manière efficace).

Mais ceci montre vite ses limites et ce pour plusieurs raisons. Tout d’abord pour une question d’efficacité. Quand bien même les interfaces évoluent « de façon drastique » pour accéder à l’information, le temps d’accès à certaines informations, surtout si celles-ci sont redondantes, devient un frein.

Quand l’outil prend le relais de l’homme sur ces tâches pour des raisons de commodité (prédiction des méthodes à appeler dans Visual Studio, autocomplétion de formules de calculs, etc…) mais surtout que l’on ne se pose plus la question de savoir pourquoi la machine nous propose telle ou telle information ni comment cela a été conçu, alors nous entrons dans ce que nous exposions au début : quel niveau de contrôle exerçons nous sur la technologie qui nous sert ?

Apprendre doit permettre de comprendre. Comprendre le pourquoi mais aussi le comment.

Cela renvoie à une blague connue sur la différence entre un polytechnicien et un ingénieur des arts et métiers qui construisent un pont : celui du premier s’écroule mais il sait pourquoi. Le pont du second tient mais il ne sait pas pourquoi.

Même si, comme le laisse entendre Nicolas Sadirac, certains savoir et savoir-faire peuvent être confiés à la machine, ce qui reste à prouver pour le second, il appartient à l’homme d’en tirer parti. Bâtir quoi que ce soit à partir de fondations que l’on ne maîtrise ni ne comprend est le premier pas vers un monde de crétins.

Prenons un exemple simple, hors du champs de la technologie et de l’informatique : l’écriture d’un livre. Quoiqu’on en dise, ce n’est pas à la portée de n’importe qui. Non pas pour trouver matière à construire une histoire, mais encore faut-il la narrer avec talent. Mais au-delà du style, le récit implique que l’on s’appuie sur de la matière, y compris pour bâtir un univers entièrement fictionnel. Il serait toutefois inutile de se vouloir expert dans le domaine servant de contexte au récit (physique pour un roman de SF, histoire pour une fresque historique, etc…). Néanmoins, l’auteur va se documenter et pour cela rechercher des informations non pas pour les assimiler (encore que, comme je le disais précédemment, les conserver en mémoire lui fera gagner un temps précieux) mais pour comprendre et disposer d’une base cohérente (je renvoi à ce que je disais de la suspension consentie de l’incrédulité).

Le produit final va donc être le fruit d’un travail issu d’un mix de connaissances, au moins superficielles, et de création.

Ainsi, est-ce que, comme le suppose Nicolas Sadirac, apprendre encombre  t-il l’esprit au point de ne plus pouvoir être créatif ?

Assurément non.

Au contraire même !

Qu’il faille encourager l’audace, la créativité, et cela dans tous les domaines, qu’ils soient artistiques ou plus terre à terre, c’est une évidence. En dehors des rentiers, personne n’a intérêts à ce que les choses se perpétuent immuablement sans renouvellement, sans créativité.

Mais penser que l’ignorance crasse et l’absence d’expérience est la condition sine qua non d’une créativité débridée et salvatrice pour le monde de l’entreprise est suicidaire, abscon et fallacieux.

Autre ineptie, et après j’arrête de tirer sur l’ambulance : envisager l’informatique comme un art. Pire : postuler que l’une des erreur majeure de notre société ait été de considérer l’informatique comme une science et que c’est une hérésie (rien que ça) de le penser.

L’informatique n’est ni l’un, ni l’autre. C’est un outil. Point. Un outil que l’on étudie, que l’on « apprend » à maîtriser, pour créer. De même d’autres domaines que l’on qualifie de « science » permettent de créer : la physique, la mathématique, la biologie, etc… On peut être créatif en maths, en biologie, en littérature, quand bien même ces domaines reposent sur des règles établies.

En définitive, Nicolas Sadirac semble avoir des idées bien arrêtées sur ce que devrait être l’apprentissage de l’informatique : être créatif et disruptif. La question étant, à partir de quand cet engrenage va t-il se retourner contre ceux qui auront contribué à le mettre en place ?

Heureusement que des gens sérieux se sont penchés sur la question de la créativité.

Catégories
Tech

#AppleEvent2017 : Bilan du Keynote

Il est à peine 21h.
Le flux video vient de se couper.
Tim Cook, comme d’habitude en ces occasions, vient d’inviter les journalistes présents sur place à aller prendre en main les nouveaux appareils présentés au cours des deux dernières heures : l’Apple Watch série 3, l’Apple TV 4K, l’iphone 8 (et 8+) et l’iPhone X (prononcez « Ten »).

Dans le silence assourdissant revenu désormais dans mes écouteurs, je reste face à mon écran, l’œil hagard, incapable d’esquisser le moindre geste, de formuler la moindre pensée, tant l’uppercut a été violent…

Non pas que j’eusse été ébloui par les annonces de la soirée, vu qu’elles avaient toutes été plus ou moins volontairement éventée ces derniers jours. C’est tout le contraire.

Je voulais tellement croire que ce qui avait fuité était faux, sous-estimé ou, à minima, superficiel. Que la firme à la pomme allait nous réserver une ou plusieurs vraies grosse annonce inattendue, ou au moins quelques vraies surprises bien cachées sous le vernis des rumeurs…

Que nenni…

Que de déceptions !

Quoiqu’il faille remettre tout cela dans son contexte : il ne s’agit que de la conférence d’une entreprise technologique. On est loin de la fin du monde.

Mais tout de même…

S’il y avait une conférence à soigner, c’était celle-là.

Je ne suis pas un fanboy d’Apple. J’utilise certains de leurs produits parce qu’ils me sont utiles et que certaines de leurs spécifications sont meilleures que la concurrence. Mais, si au moment de renouveler du matériel, la concurrence fait mieux, je vais m’y servir.

Je change d’iPhone tous les 3 ans en moyenne, j’ai un iPad mini 1 (une antiquité) et je viens de troquer mon MacBook Air de 2012 par un MacBook Pro de 2015 (la faute à l’absence de port SD sur les nouveaux).

Tout ça pour dire que je ne coure pas après la nouveauté.

Mon iPhone 6 Plus de 2014 tient encore bien la route et il n’était pas question que l’un de iDevice présenté ce soir vienne garnir ma panoplie.

Mais même avec toutes les fuites, toutes les rumeurs, il persiste à chaque Keynote l’espoir d’un effet « Waouh » qui vous scotche dans votre fauteuil, déclenche une déferlante d’adrénaline irrationnelle vous poussant à spammer la touche F5 au lancement des précommandes.

Bon, ça m’est jamais arrivé. Sauf pour le 6 Plus par ce que mon 4 arrivait en fin de vie et qu’il fallait vraiment que j’en change.

A y réfléchir, ce Keynote de 2014 fut le dernier pendant lequel il y a eu cet effet « Waouh ».

Le formfactor du smartphone changeait vraiment pour une fois (pas l’ersatz de design de girafe de l’iPhone 5) et il était assez classe. D’ailleurs au passage, ce formfactor devient ce soir le design dont la longévité est la plus grande.

Depuis ce soir de septembre 2014, les présentations des 6s, 7 et 8 de ce soir m’ont laissés de marbre. Un peu plus que de marbre ce soir…

Laissez-moi vous raconter pourquoi…

Le Steeve Jobs Theater

Commençons par le début…

Finalement, s’il est un détail que l’histoire retiendra de cette soirée, bien plus que ce qui fut annoncé, c’est que ce fut la première conférence organisée au nouveau siège d’Apple, bâtiment de la démesure absolue, dans le Steeve Jobs Theater.

Double hommage puisque comme dirait l’autre :

Et puis parce que cet auditorium, posé là à côté, porte le nom du fondateur (ce qui n’était certainement pas prévu par ce dernier au moment de déposer les plans).

Le symbole était donc fort : 10 ans après la présentation du dernier produit d’Apple qui révolutionnait un secteur de l’industrie informatique et la vie quotidienne de milliards d’individus (qui ne sont pas tous clients d’Apple, mais qui possède un smartphone qui s’en est inspiré), produit que l’on devait à Steeve Jobs, on honorait ainsi sa mémoire en faisant coïncider la première dans une enceinte à peine achevée que l’on lui doit également, qui porte son nom le tout pour une annonce grandiose.

Tout était réuni pour faire quelque chose de grand.

Ça n’a pas du être évident pour Tim Cook, dont les trémolos dans la voix trahissait une émotion palpable et extrêmement compréhensible. La larme furtive qu’il a essuyé ne laisse pas de doute la-dessus.

La réunion du lieu et d’une date anniversaire ne pouvait que contribuer à ce climax d’émotions.

Il faut en revanche espérer qu’ils parviendront à l’avenir à se départir de cette figure tutélaire… Il arrivera un jour (ou pas) ou Apple aura vécu plus longtemps sans Steeve Jobs qu’avec (remarque valable aussi pour la France et le Général de Gaulle…)

Passé cette introduction, on entre dans le vif du sujet.

Ou presque…

Retail

Ça n’est pas la première fois que la chaîne de magasins pommés est évoqués lors d’un Keynote.

C’était la première fois en revanche que la « nouvelle » Senior Vice-Président chargée du Retail (elle est en poste depuis le 1er mai 2014, donc c’est pas non plus la dernière des recrues) venait parler sur la scène d’un Keynote.

Moment sympathique, quoique peu instructif, pendant lequel on nous aura juste confirmé le look du nouveau magasin des Champs-Elysées (Cocorico) et que le concept de certains magasins allait être revu pour devenir de véritable « lieux de vie » dans lesquels il sera possible (encore plus qu’aujourd’hui) de se former à différents sujets, de la photographie au code informatique.

Soit.

Ça aura au moins eu le mérite de mettre en lumière la seule femme de l’équipe dirigeante, ce qui est déjà un motif de satisfaction (qu’on l’ai vu sur scène hein, pas que ce soit la seule femme SVP, ce dernier point restant quand même un point noir de management…).

 

Apple Watch

Après 2-3 poncifs insipides habituels, dont un splendide random bullshit consistant à dire qu’il se vend chaque année 50% de montres de plus que l’année précédente sans pour autant donner de chiffres… (Gné ?), Tim passe la patate chaude au type chargé de présenter les nouveautés de l’Apple Watch.

Et donc là, dans une vidéo magnifique (synthèse ?) on nous montre un surfer qui reçoit… un coup de fil sur sa montre qui dispose d’une couronne rouge.

Sur le moment, j’ai même pas tilté que la montre sonnait. J’ai juste vu la couronne rouge, ce qui m’a permis de cocher ma grille de Bingo intitulée « les informations révélées par les rumeurs et les fuites qui se confirment ».

Mais en vrai, c’est pas ça la nouveauté. Elle sonne pour de vrai. Toute seule. Genre le surfeur, il a pas son iPhone dans la poche.

Révolution !

La montre qu’on pensait voire naître en 2014 est enfin là !

Bon accessoirement, ils ont l’air de dire que ça va résister à plus que des éclaboussures de douche, de vaisselle ou pédiluve. Genre des vraies vagues véritables de la mer salée !

Donc si on résume : on a eu droit à deux ans de bêta test grandeur nature, payé au prix fort par des millions milliers centaines dizaines quelques utilisateurs pour parvenir enfin à une version acceptable d’une montre connectée ?

Je veux bien croire que la technologie n’était pas peut-être pas encore au niveau à cette époque antédiluvienne de 2014 mais dans ce cas, sauf à vouloir se faire la main sur un marché réel, n’aurait-il pas été plus judicieux de patienter pour sortir un produit vraiment viable et pas juste un gadget à notification ?

Parce que du coup, là ça donne vraiment le sentiment que les premières versions n’étaient là que pour courir après la concurrence. Pas top comme image renvoyée quand le message martelé est « Keep us, us »…

Bon mais du coup, elle est toute clinquante, à peine plus épaisse, ça veut dire que l’autonomie roxx du poney, non ?

Oh Wait !

Nous n’aurons pas plus de détails, puisque Monsieur Apple Watch, comme à Question Pour Un Champion rend à la main à Tim qui remonte sur scène pour…

iPhone 8 et 8 Plus

Une friteuse connectée !

Hélas non, mais ça aurait au moins eu le mérite d’être vraiment disruptif !

Plus prosaïquement, avec une introduction digne des plus grands oraux de travaux pratiques de première année de droit des successions, nous passons à l’iPhone.

Et pourquoi s’emmerder à essayer de présenter le truc de vive voix quand on peut se contenter de balancer une simple vidéo ?

Bon, après plein de mouvements de caméra pilotée par un épileptique, le numéro 8 apparaît en filigrane.

Je quitte l’écran des yeux deux secondes le temps de cocher une nouvelle case de ma carte de Bingo des rumeurs confirmées.

Bon alors, il fait quoi l’iPhone 2017 ?

Un nouveau design, euh… enfin, une nouvelle robe en verre. Joli. un hommage à l’iPhone 4 ? Non, simplement une nécessité technique pour permettre le chargement sans fil via des accessoires tiers (ah ! donc, vous n’en n’avez pas prévu ?). OK.

Bon, la concurrence fait ça depuis des lustres mais on peut au moins reconnaître que ça réglera le problème douloureux de ceux, nombreux, qui galérait à écouter leur musique via des écouteurs filaires tout en chargeant leur téléphone toutes les deux heures…

Ah, autre bon point, la fin de cette couleur ignoble de « Rose gold ». Il était vraiment temps d’arrêter. Comme le « Noir Rayures de Jais », plus fausse bonne idée que ça, tu meurs. Mais bizarrement, personne ne l’a mentionné 😉

Et sinon ?

Un processeur adapté à… la réalité augmentée. What ?

Vous voulez dire que ça fait des mois qu’une armée d’ingénieur travaille à améliorer l’expérience utilisateur d’un truc aussi ringard que la réalité augmentée ? Vous vivez dans quel monde ? Qui utilise la réalité augmentée de manière sérieuse et pertinente ?

Non mais je veux dire à part le côté gadget dans Pokémon Go ou une sombre application de recherche d’appartement ?

Parce que bon, les démo qu’on a eu de jeux ça vendait quand même pas du rêve… Genre le jeu de baston ou tu tourne comme un con autour du « plateau » de jeu virtuel… Dire qu’on se moquait des jeux de rôle plateau… Ça sera cocasse : des gens qui bougent bizarrement en faisant bouger leur téléphone tout aussi bizarrement vers le sol en mode réunion des ex artistes mimes anonymes…

Bref. Pour moi ça relève du gadget et ça ne doit pas constituer une fonctionnalité majeure à mettre en avant. Mais a priori, on aura que ça a se mettre sous la dent.

Quoi ?

Ah, on me dit dans l’oreillette que ce n’est pas fini. Ouhouh… une feature inattendue ? De la batterie peut-être ?

Des photos. Encore.

Oui je dis « encore » parce que chaque année c’est la même chose : « on a amélioré l’appareil », « nos ingénieurs ne savaient pas quoi faire donc on les a fait bosser sur des fonctionnalités inutiles mais qu’on sera les seuls à faire ».

Alors qu’avons nous ?

Un meilleur capteur ? Non. De meilleurs objos ? Non.

Mais alors quoi ?

Du HDR survitaminé, un débruitage matériel bourrin, de la prédiction neuronnale et… un mode lumières de studios ?

Après les unes de magazine faites à l’iPhone on va avoir droit à l’uberisation de la photo de portrait ? Ça va plaire aux pros tout ça ! Mais après tout, c’est dans l’air du temps de faire croire à tout le monde que tout est simulable par la machine et qu’on peut tout obtenir sans efforts…

Tarifs standards. Dates de disponibilités standards aussi. Circulez, y a plus rien à voir.

Ou presque…

iPhone X

Bon alors on va commencer par ça, comme ça ce sera fait : il est moche.

« Ah non jeune homme ! On ne dit pas « C’est beau » ou « C’est moche ». Comme c’est subjectif, on dit « J’aime » ou « Je n’aime pas »
« OK. j’aime pas.
« Et pourquoi ? »
« Parce que c’est moche… »

C’est un peu cru comme jugement, mais franchement, ce design ne vend pas du rêve. Le formfactor reste le même. Le choix de matériaux n’a rien de transcendant. Les couleurs non plus. Et il n’a pas l’élégance de l’iPhone Edge…

Un vrai choix audacieux aurait été de le livrer avec une armature en céramique, comme l’Apple Watch Edition. Surtout que celle-ci est proposée en noir cette année. Acte manqué.

Et puis l’écran géant de 5″8 pouces… Pour quoi faire si c’est pour avoir un décroché pareil en haut ? Certains lui trouve du charme… Faut pas avoir de gout ! Regardez en image en paysage et vous comprendrez votre douleur. La présentation a duré presque 45 minutes et à aucun moment ils n’ont fait la démonstration de l’utilité d’un écran bord à bord… C’est ballot quand même. Donc à part la hype, ça sert à quoi ?

En revanche, Phil s’est étendu sur la qualité de l’écran. un écran OLED, le premier a être intégré sur un iPhone par ce que avant, « c’était pas terrible ». Mais du coup, un écran fourni par Samsung, à prix d’or, qui pompe une batterie monstre pour afficher un jeu en réalité augmenté pixelisé… Pourquoi ? C’est comme mettre un moteur permettant de monter à 230 km/h sur une voiture qui ne sera autorisé à rouler qu’à 130. Une débauche de moyens mal employés.

En dehors du fait qu’il n’y aura de toute manière pas beaucoup de stocks disponibles le 3 novembre, les gens se seraient contentés d’un écran peut être moins clinquant mais avec une batterie qui tienne vraiment le choc.

Parce que bon, les 2h (plus ou moins) supplémentaire par rapport à… un iPhone 7 ne sont quand même pas mirobilantes… Notez au passage que la comparaison est faite avec le 7 et pas avec le 8. Bizarre dis donc ! Et on comprend vu que la fiche technique du 8 indique que l’autonomie est « a peu près » la même que celle du 7. #LOL #specificationsdenormand

Je passe sur les selfie en mode « portrait pro ». Au moins Apple assume son orientation pro-narcissiques compulsifs.

Et on en arrive au clou de la présentation. Non, il ne s’agit pas des tarifs prohibitifs (vous vous attendiez à quoi : que ça soit livré en bundle dans les paquets de Frosties ?). Il ne s’agit pas non plus des dates de disponibilités : on sait qu’ils sont en galère.

Non, le truc dont ils sont le plus fiers : la personnalisation d’Emojis…

Sérieusement, ils ont quoi avec les emojis ? Ok, c’est sympa… deux fois dans l’année. Faut pas non plus en faire une feature de la mort qui tue. Si c’est tout ce qu’ils ont trouvé à faire avec un système de reconnaissance faciale c’est qu’on est vraiment dans la merde.

Conclusion

Toute l’ampleur de ma déception et de ma frustration vient du fait que j’avais assisté (à distance) à la fameuse présentation du premier iPhone en 2007. C’était mon premier Keynote et à l’époque, encore étudiant, il ne faisait aucun doute que je troquerait mon iPod nano de l’époque et mon Sony Ericsson en carton pour cet appareil révolutionnaire.

10 ans plus tard, avec l’ambition affichée de rééditer l’exploit de révolutionner le monde la téléphonie, le compte n’y est pas.

Déjà parce qu’en 2007 il était question uniquement de téléphone. Sauf que les smartphones sont devenus tellement plus que ça. Ce sont de véritables ordinateurs de poche. La preuve, le processeur de l’iPhone 8 est plus puissant que celui d’un MacBook Pro. Bon, il y a encore des écarts de composants qui font que ces performances brutes ne signifies pas grand choses, mais quand même, on n’est plus tout à fait dans le même contexte qu’en 2007.

Apple ne se bat plus contre des téléphone à clapets moches peinant à afficher des site « imode » moches et lents.

On attendait plus et mieux. Mais c’était sans doute trop tôt. Signe révélateur : la confession que le chargeur à induction fait maison ne serait dispo qu’en 2018. Apple cours après l’histoire et ne révolutionne rien.

Encore un point qui tâche : l’iPhone X est censé devenir le nouveau standard du monde des smartphones, le summum de l’expertise d’Apple, le moteur de toutes les innovations à venir. Il y a 10 ans, l’iPhone était présenté par Steeve Jobs. 10 ans plus tard, c’est un simple Senior Vice President en charge du marketing qui s’en charge, comme il s’en est déjà chargé à chaque reprise depuis que Tim Cook dirige Apple.

L’occasion ne valait-elle pas que le CEO tienne le crachoir un peu plus longtemps et pas simplement pour balancer des banalités affligeantes ?

L’événement n’était-il pas de son propre aveux suffisamment exceptionnel pour qu’il daigna lire les slides lui-même, ce qui aurait peut-être évité les bafouillages de Schiller ?

Au final, nous n’avons eu que des présentations de produits intermédiaires. Trop peu d’avancées ou trop peu de matière pour en faire de véritables outils. L’iPhone X de l’an prochain (s’il s’appelle encore ainsi) sera déjà plus intéressant à regarder.

Nous avons eu une présentation du futur de l’iPhone (là où Apple veut aller, qu’on aime ou pas), de l’iPhone du futur (ben ouais, il ne sort qu’en Novembre #LOL) mais pas franchement le futur des smartphones…

Catégories
Humeur Politique Tech

Régions : « My bretzel is Rich(ert) »

Hier avait lieu la séance inaugurale des nouveaux conseils régionaux issus des élections de décembre dernier. Les nouveaux présidents de régions ont été élus. Sans suspens. Discours convenus, communication contrôlée, clichés claquants classiques… Bref, la routine.

La routine, vraiment ?

Oui et non…

Oui, parce que les discours convenus étaient pour la plupart une redite des promesses de campagne et certaines annonces sont venues rendre concrétiser certaines déclarations de campagne. Ça c’est du déjà vu : on dit qu’on va faire ce qu’on avait a dit…

Et puis Non, parce que contrairement à d’habitude, l’acte fondateur de plusieurs d’entre eux aura consister à s’attaquer au moins symboliquement au train de vie des élus régionaux. Les budgets sont en berne partout et après tout, il n’y a pas de petites économies. A force de nous dire que chacun doit prendre sa part de responsabilité et de sacrifice pour l’effort national, il fallait bien que cela finisse par tomber sur nos chers édiles.

Indemnités, voitures de fonctions et autres avantages en nature, toutes les régions vont subir ce tour de vis budgétaire.

Toutes ? Non !

Une région résiste encore et toujours. Et pas qu’un peu !

C’est en Alsace-Champagne-Ardenne-Lorraine (#woputainvouspouviezpastrouverunnomderegionpluslongencore?) que ce joue le drame. .

C’est en effet au pays de la Choucroute, des cigognes et de Jeanne d’Arc (Au secours !) que nous avons eu une belle démonstration de l’esprit de rigueur et de pondération.

Mais qu’ont donc fait ces Alsachampardennailorrains ?

Comme un jour de rentrée des classes en maternelles ou de congrès des syndics de copropriétés, chacun des 169 élus de l’assemblée (moins ceux qui effectue là leur deuxième mandat si l’on en croit Le Point) ont reçu une sacoche de bienvenue (ou « Welcome Pack » dans les congrès étudiants) contenant différents goodies offerts par le nouveau conseil régional.

Là où c’est très fort, c’est qu’au lieu de se contenter d’un pin’s, d’un stylo, d’une clé USB et d’un t-shirt floqué du nouveau logo, les services généraux et marketing ont préféré y mettre des objets plus… exotiques !

Quelques menues documentations sur la région, des cartes de voeux, une carte du département (pratique pour les nouveaux parachutés) et accessoirement un iPhone et un iPad.

malette alsace ipad

Si l’anecdote a été relayée par plusieurs médias dans la journée pour insister sur la caractère luxueux de ces cadeaux de bienvenue, pas un seul ne s’est posé la question du coût que représentent à eux seuls ces objets technologiques.

Livrons-nous donc à un petit calcul théorique !

Soit 169 élus à qui l’on offre, si l’on se fie à la photo relayée, un iPhone 6 (ou 6s) ainsi qu’un iPad (Air ou Air 2). Personne ne veut croire qu’il s’agisse ici des modèles les plus onéreux de ces gammes, mais dans le doute, nous ferons le calcul avec les tarifs les plus extrêmes.

Ainsi, le tarif d’un iPhone 6 (2014) d’entrée de gamme (#LOL) est à ce jour de 639€ (TTC). Celui d’un iPad Air (2013, modèle wifi de 16 Go) est de 399€ (TTC).
A l’opposé, un iPhone 6s (2015) dans sa version 128 Go, est disponible à 969€ (TTC) et un iPad Air 2 (2014, modèle wifi + cellulaire de 128 Go) se négocie sur l’Apple Store à 825€ (TTC).

Nous en arrivons donc à une somme rondelette comprise entre 175 et 303 mille euros.

Ça fait cher le cadeau de bienvenue… Hein ? Même en admettant que quelques malchanceux n’aient pas été gâtés, que le service achat ait pu faire des économies d’échelle par une commande groupée en passant par le budget de fonctionnement (déjà voté ?), ça ne représenterait pas une grande réduction sur ce total.

On espère qu’à ce prix là, l’efficacité accrue de ces élus surmotivés compensera ce manque à gagner pour les finances de la région qui aurait pu servir au choix pour les lycées, les transports, le soutien aux entreprises, etc… Pas sur non plus que le coût de ces tablettes, certes de qualité, compenseront le budget papier économisé par l’accroissement de la dématérialisation.

A l’heure où d’autres régions font justement le choix de retirer les téléphones de fonction des élus (poke Rhône-Alpes-Auvergne), il est quelque peu étonnant de voir un autre quoi de l’hexagone (et du même bord politique !) faire le choix inverse…

S’expliquerait-il par un taux d’équipement anormalement bas de l’est de la France où un trop plein de Hype mal maitrisé ?

Catégories
Tech

Le chocoblast en entreprise

Non, le chocoblast ne concerne pas des batailles rangées au pistolet à chocolat ou la critique d’une obscure série Z nippone dont le héros serait un robot armé d’un canon en chocolat…

Non. Le chocoblast, tel que le définit si bien la désencyclopédie, est une pratique assez répandue dans le monde de l’entreprise et plus particulièrement dans les boites informatiques.

Vous ne connaissez pas ? Hm hm ! Alors soit vous êtes extrêmement précautionneux avec votre poste de travail, soit le chocoblast n’a pas encore pris pied dans votre service !

Considéré comme une simple blague potache de geek par certains, ou comme véritable arme de conscientisation des foules pour d’autres, le chocoblast peut dans tous les cas être considéré comme un véritable élément de la culture d’entreprise.

Et pourquoi donc ?

On irait pas jusqu’à dire que le Chocoblast constitue un phénomène sociologique en tant que tel (encore que…) mais le simple fait de sa présence dans l’entreprise est un signe de l’état d’esprit qui peut régner dans les open spaces.

Car on ne chocoblaste pas comme ça impunément ! Non Madame ! Tentez l’expérience sur un gredin non initié aux arcanes de cet art numérique, et vous en subirez les foudres des semaines durant.
Risquez vous au contraire à enfreindre les règles du jeu (consciemment ou non) et vous passerez au choix pour un bon client ou un dangereux laxiste…

C’est que le sujet de fond sur lequel repose le chocoblast est on ne peut plus sérieux. Il est question de sécurité informatique et de confidentialité des données mes braves gens.

Ça aurait pu constituer le titre de ce papier : « Verrouillez vos sessions » !

Que ça soit au travail afin d’éviter qu’un intrus ne viennent fouiller les données de l’entreprise ou qu’un collègue un peu curieux ou jaloux ne viennent épier votre historique de navigation (encore que comme vous être très professionnel, vous n’allez pas sur Facebook sur votre temps de travail…), ou chez vous pour empêcher que le petit dernier ne bascule votre clavier en qwerty ou commande l’intégrale de Sasha Grey (vous sentez le vécu ?)…

Bref, pour en revenir à nos préoccupations pâtissières, le chocoblast, qui consiste donc à envoyer un mail depuis le poste de travail d’une personne n’ayant pas verrouillé sa session pour offrir à tout le service (ou plus si affinité) et à la charge de l’intéressé diverses douceurs chocolatées (ou non), est le reflet d’un prise de conscience collective que la sécurité des données est vitale, précieuse et fragile.

Ou bien simplement le signe que vous travaillez avec une bande potache…

Catégories
Tech

J’ai testé pour vous : 10 jours avec le Kindle d’Amazon

Depuis le 13 octobre dernier, je suis l’heureux propriétaire d’un Kindle version 4 d’Amazon. N’ayant jamais franchi le pas avant sa mise à disposition en France, du fait principalement de l’inexistence d’offre sérieuse en livres français dans le Kindle store à l’époque, je me suis un peu « jeté dessus » sitôt l’annonce faite de la commercialisation en France le 7 octobre.

Gros lecteur et passant un temps non négligeable dans les transports en commun, j’étais impatient et séduit par l’idée de pouvoir obtenir des livres  globalement moins cher et de m’affranchir du poids et de l’encombrement que peut parfois représenter les ouvrages volumineux.

Alors bien sur, on trouve quantité de vidéo sur le net faisant la démonstration du déballage et de la mise en route de l’appareil, mais passé ce moment qui donne des frissons aux technophiles, on n’a que très peu de retour sur une utilisation du Kindle au quotidien.

Voici donc mon bilan d’une semaine d’utilisation intensive de la bête, en deux temps avec tout d’abord les avantages puis… (comme c’est original !) les inconvénients.

Les « avantages »

L’ergonomie

Ça semble évident et presque trivial, mais oui : le Kindle est facile à utiliser. Forcément, l’achat des livres l’est tout particulièrement puisque c’est sur ce levier que compte Amazon pour faire des bénéfices (plus en tout cas que sur le seul appareil). Après la configuration de la machine, on accède rapidement au Kindle Store et on peut acheter tout aussi vite; dans mon cas, le Tome 2 de Dome de Stephen King. Après avoir lu le premier tome en version papier, cela permettait d’avoir un point de comparaison avec la version numérique.

La navigation entre les pages est fluide. Pas besoin de tactile. Au contraire ! Les boutons latéraux offrent à mon sens une meilleure sensation que devoir balayer l’écran avec le doigt à chaque page pour les tourner. Le Kindle est pensé pour la lecture, et uniquement pour ça. Et tant mieux ! Pas de fioriture et rien d’autre que des paramètres de configuration pour la lecture. Une barre de progression en bas de page vous indique à quel niveau du livre vous en êtes. Ça donne une sensation bizarre au début car voir traduire sa progression dans sa lecture en % et non plus en numéro de page ou d’épaisseur du livre qui change de main est assez inhabituel. Mais au final on s’y habitue et on n’y fait plus attention. A noter que la notion de « page » n’existe pas (en dehors des pdf que l’on peu importer sur l’appareil, cf. plus bas). Il n’y a pas de transcription du nombre de pages de la version papier en numérique. Pour les ebooks-kindle, on raisonne en termes de « poids » informatique (kilo ou méga octets). Ce qui nous amène à la mémoire embarqué de 2 Go dont « seulement » 1,25 sont réellement disponible pour le stockage des livres et des documents. C’est très confortable. En gros, cela permet le stockage de 1 400 livres. Et si par malheur vous aviez plus de documents que cela, ceux que vous achetez sur Amazon sont stockés sur les serveurs sans limite et sont retéléchargeables à volonté. Pour vos documents personnels, vous disposez d’un espace de stockage chez Amazon de 5 Go, ce qui est également suffisant.

La navigation dans les menus est instinctive. Les réglages sont clairs et ont peut adapter l’écran selon ses besoins : tailles de la police et orientation de l’écran principalement. L’organisation des fichiers dans le Kindle est basique, mais suffisante. Il existe un système de « collection » (pour regrouper les ouvrages d’une même série ou sur un même thème) mais qui se sur-ajoute à la liste existante et qui ne fonctionne pas comme un système de dossier. Une possible perspective d’évolution donc.

La prise de notes sur le texte est rendu possible avec le clavier virtuel intégré (contre un clavier physique jusqu’à la version 3 de la machine). Bien entendu, il ne faut pas vouloir écrire un pavé en note sinon c’est vite fastidieux.

Le poids

Le Kindle pèse autour de 170 grammes ce qui est à peu près le poids d’un livre de poche. Et c’est très appréciable. Etant plutôt adepte des très gros bouquins, on gagne en légèreté et en encombrement ! Qui n’a pas « souffert » de porter un pavé à bout de bras en lisant le soir au lit ou dans l’impossibilité de lire parce qu’on ne peut pas ouvrir son bouquin quand il y a un peu trop de monde dans le métro ? Ici, l’objet se fait presque oublier et on se concentre sur ce qu’on lit. On est loin des 700 grammes des tablettes.

Certains ont fait la remarque que c’était sympa d’avoir un truc léger pour remplacer les livres épais et lourd mais que 170 grammes c’était dommage si on lisait « Indignez-vous » de Hessel dont le contenu pèse à peu près aussi lourd que le support sur lequel il est imprimé. Faut pas pousser non plus… Autant le Kindle et son écosystème n’est pas exempt de reproche (on y reviendra par la suite), autant cette « critique » est à la limite de la malhonnêteté intellectuelle.

Le confort de lecture

Comme je le disais juste avant, le Kindle est fait pour la lecture. Son écran avec encre électronique vous donne la sensation de lire comme sur du papier. Pas de rétroéclairage qui vous arrache les yeux. Bien entendu, impossible dès lors de lire dans le noir, mais objectivement, même avec un écran rétro éclairé, on lit rarement dans le noir total ou même dans la pénombre à moins de vouloir s’esquinter les yeux. Pour consulter les notes de bas de pages (renvoyées ici en fin de chapitre, mais c’est un détail) il suffit de caler le curseur sur le numéro et de « suivre le lien » pour la consulter. Un brin plus fastidieux que lors d’une lecture sur papier mais pas autant que ce que certains ont pu le dénoncer. En revanche, cela interrompt un peu plus la lecture que sur papier, en raison du nombre de manipulation à réaliser.

Au final, facilité d’accéder aux livres, lecture confortable et encombrement minimal font du Kindle un appareil qui donne envie de lire et qui, bizarrement, me donne l’impression de lire plus vite et plus longtemps. Autre point fort : l’autonomie. Pourtant gros lecteur, je n’ai pas encore eu à recharger l’appareil après 10 jours d’utilisation intensive. Un bon point quand on sait qu’un livre papier n’a pas besoin de batterie !

Les « inconvénients »

Certains sont de vrais défauts, et d’autres sont des choses à améliorer.

Le prix des livres

Ça aurait pu intégrer les bons points, car en règle générale, les ebooks Kindle sont vendus moins chers que les versions papiers. Toutefois, deux éléments me poussent à le mettre dans la seconde catégorie. Si globalement, les prix sont inférieures au papier, on constate qu’un nombre exagérément élevé de titres sont proposés à un prix supérieurs aux versions poche quand celle-ci sont disponibles. Par moment cette différence n’est pas très significative (5€41 pour la version poche du Potentiel érotique de ma femme de Foenkinos contre 5€70 pour la version Kindle) mais sont par moment incompréhensible et démeusurée (16€99 pour la version Kindle d’INsomnie de Stephen King alors que la version poche est à 8€55 WTF?).

On est là face à une incohérence du côté des éditeurs, qui, rappelons-le, fixent les prix, mais également face à l’incohérence de la TVA fixée à 19,6% sur le livre numérique, contre 5,5% sur le livre papier, au motif que le numérique est un « service » là ou le livre papier est un « produit culturel ». Cette anomalie devrait disparaître le 1er janvier prochain, contre l’avis de l’Europe. On notera tout de même que, avec la TVA réduite, un volume de Dome passerait de 16,99€ à 14,99€, ce qui, compte tenu des coûts réduits, reste encore bien élevé.

Les ouvrages les moins chers sont finalement ceux des auteurs qui s’auto-publie via la plateforme d’Amazon (de qualité très inégale) ou ceux des éditeurs qui ont compris qu’une politique tarifaire raisonnable serait le moyen de conquérir le marché.

Reste à attendre une évolution de ce côté-ci, en espérant que cela ne tarde pas trop.

Le volume du catalogue et la boutique Kindle

Doté de 35 000 titres en français à la sortie du Kindle, on est aujourd’hui à un peu plus de 40 000. Ce chiffre est à relativiser tout de même car une bonne partie des 4 000 titres proposés gratuitement (des oeuvres tombées dans le domaine public pour la plupart) se trouvent également dans une version payante. Certains titres sont donc en donc en double.

Au-delà de cette « anomalie » qui gonfle un peu artificiellement le nombre de titre réellement disponible, il est incontestable que l’offre n’est pas encore complète. De nombreux ouvrages sont absents, surtout si on compare à la Fnac (environ 80 000) ou le Furet du Nord (désolé pour les autres librairies !). Ce retard sera certainement comblé… un jour. Mais là encore, c’est à souhaiter que ce ne soit pas dans trop longtemps. On peut regretter que certains titres récents ne soient pas proposés, ce qui revient encore une fois à la responsabilité des éditeurs qui, soit ne souhaitent pas traiter avec Amazon, ou n’ont pas prévu de version numérique de certains titres. A noter que certains types de livres ne se prêtent pas à ce modèle de Kindle en noir et blanc, comme les BD par exemple, qui se prêtent d’avantage aux tablettes en couleurs (cela va de soi).

Cela nous amène à la boutique Kindle en elle-même. Elle est bien, mais elle pourrait être encore mieux. Le tri des ouvrages pourrait être largement amélioré. Si sur le Kindle en lui-même le tri entre les ouvrages en français et les autres est intuitif, sur le site internet d’Amazon, on n’en est pas là. Les deux langues sont souvent mélangées, et il n’y a pas moyen de limiter ses recherches aux titres en français. De même, les sous catégories pourraient être plus développées. Ainsi, si on cherche un titre précis, pas de souci. En revanche, si on veut fureter et se laisser porter par la succession des titres (un peu comme en librairie en fait), ça devient vite une corvée. Dans la même veine, le « chaînage », c’est-à-dire le lien fait entre les différentes versions d’un même titre (broché, poche, Kindle) n’est pas parfait. Le lien Kindle d’un titre peut renvoyer sur un titre qui n’a rien à voir. C’est embêtant…

L’usage des livres achetés sur le Kindle Store

Quand on achète un livre papier, on achète un objet. On le détient. On peut le conserver, le prêter, le revendre, le détruire, le jeter. Bref, on en fait ce qu’on veut sans que le vendeur, l’éditeur ou l’auteur ne sache ce que vous en faites. Vous avez acheté le livre et ainsi réglé votre dû à ceux qui ont contribué à le créer. Avec le numérique, mais ce n’est pas un tort imputable uniquement à Amazon mais à l’ensemble du monde du livre numérique, ce droit diaprait et s’accompagne en plus d’un certain nombre de restrictions plus ou moins embarrassantes.

En ce qui concerne les inconvénients et les limites propres au livre numérique en général. Chez la plupart des libraires, ils sont proposés avec des DRM (imposés par les éditeurs) afin de contrôler l’usage qui est fait de ces fichiers. Ainsi, les prêts sont limités (c’est à dire la possibilité de copie) et surtout, contrairement au papier, impossible de revendre un livre numérique. Ces défauts trouveront peut-être une issue avec l’allègement des DRM ou la mise en place de services de locations de livre numérique. Toujours est-il que ces limites, conjuguées à des tarifs parfois exorbitant encouragent le piratage…

Pour ce qui est des livres numériques d’Amazon en particulier, le principal problème réside dans…

…les formats pris en charge

Avec le Kindle, Amazon lance un système identique à ce qu’Apple a fait avec le couple iTunes – iPod, c’est à dire le matériel et le contenu idoine. Les livres Kindle ne sont donc lisibles que sur Kindle. Logique. En revanche, les livres achetés ailleurs, dans d’autres formats (puisque le format Amazon n’est disponible que chez Amazon !) : ePub ou pdf protégé, ne sont pas lisibles sur Kindle. Logique aussi. Amazon ne tient pas à ce que les utilisateurs de Kindle se fournissent chez la concurrence.

Si l’on dispose déjà de livre au format ePub, il convient de les convertir au format mobi à l’aide du logiciel Calibre par exemple. Le Kindle lit également les pdf non protégé. Pour cela, il faut envoyer ces documents via l’adresse mail du Kindle ou via l’interface USB. Ils sont stockés dans l’espace de 5 Go mis à disposition par Amazon. Le système fonctionne bien. Une fois le fichier envoyé, le Kindle le récupère automatiquement. Les pdf non optimisés ne sont pas confortable à lire mais il suffit de spécifier « convertir » dans l’objet du mail, et on obtient un fichier lisible plus commodément. Toutefois, en dehors des ebooks Kindle, il faut privilégier le format mobi, bien plus confortable.

En conclusion

En dépit des limitations, des défauts et des contraintes, je suis très satisfait du Kindle, puisqu’il répond à mes besoins. Pour être tout à fait satisfait, il faudra que la politique tarifaire soit plus agressive et que le catalogue s’étoffe sérieusement. Une autonomie impressionnante, un confort de lecture indéniable, un encombrement minimal : que demander de plus ?

EDIT : J’en profite pour renvoyer vers un très bon article publié par ebouqin qui revient plus en détails sur le Kindle et qui aborde entre autre les quotidiens disponibles, fonction que je n’ai pas testé http://www.ebouquin.fr/2011/10/21/test-kindle-4-la-lecture-numerique-sans-fioritures/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+ebouquin%2Farticles+%28eBouquin+-+Articles%29

Catégories
Humeur Tech

Un Huis-clos pas très net

Je re-publie cette note, désespérément trop longue au goût de certains journalistes (mais elle n’a pas vocation a être journalistique), plus d’un an après, parce qu’elle n’avait pas déplue, et que, malgré son ancienneté, j’en reste assez fier !

C’est aujourd’hui l’avant dernier jour de l’expérience du « Huis-Clos sur le Net » conduite par cinq journalistes de radio francophones. A la demande de Benjamin Muller, journaliste à France Info, je vais tenter de livrer un avis sur cette expérience d’un genre nouveau et d’en livrer quelques enseignements avant la grand-messe de conclusion orchestrée par David Abiker (J’attends toujours ma boîte de confit d’oie au passage). Bien entendu, tout a été plus ou moins dit sur le sujet, par des internautes, des sociologues, des journalistes…  Mais alors que nous approchons du dénouement et du retour à la civilisation des reclus du Périgord, qu’en retenir ?

  • Qu’est ce que le « Huis-Clos sur le Net » ?

Pour commencer, revenons tout d’abord sur la définition de ce qu’est, ou de ce que voulait être le Huis-Clos du Net. Le challenge consistait en ce que cinq journalistes francophones, exerçant leur profession à la radio, se coupent du monde en s’enfermant dans un gîte dans le Périgord. Coupés de tout (journaux, télévisions, passants, téléphone, etc…) mais uniquement branchés à Internet, les cinq « lofteurs » veulent observer s’il est possible de n’être informé uniquement qu’à travers les réseaux sociaux que sont Twitter et Facebook. Ils prohibent donc la consultation de leurs mails, des forums, et de tout autre site internet. Seule exception : ils peuvent consulter les pages dont le lien était présent dans un tweet ou sur Facebook.
Le but de cette expérience est multiple. Il s’agit de voir si, par ces seuls réseaux, il est possible d’être aussi bien informé que par les vecteurs traditionnels (radio, télé, site d’info, etc…) c’est à dire si, à travers les informations qui transpirent sur les timeline Twitter ou Facebook il est possible d’avoir une vision claire et exhaustive de l’information ou si, comme se plaisent à le dire une bonne partie des journalistes, ces réseaux ne sont que des nids à rumeurs et autres informations invérifiables.
D’ailleurs, ce type d’expérience est parfaitement déclinable sur d’autres modes. On pourrait très bien envisager qu’un journaliste lambda reste une journée entière assis dans un bus urbain en ayant, pour seule source d’information que les discussions des gens et, éventuellement les journaux qu’ils tiendraient dans leurs mains, les conversations s’apparentant aux Tweets et les journaux aux liens contenus dans ces mêmes messages.

Passé cette définition et ce constat, l’expérience en elle-même se fonde sur un certain nombre de questions – légitimes ou non – de présupposés, d’idées reçues, d’interrogations, de remises en questions et sur une certaine peur du monde journalistique traditionnel et pose à elle seule l’ambiguïté de certaines définitions. Tout ceci forme le contexte et l’état d’esprit dans lequel a été pensée, préparée et conduite cette expérience.

  • La presse et les médias face au Net

Le postulat de départ est donc simple : beaucoup d’informations circulent sur Internet et plus particulièrement sur les réseaux sociaux. « Nous, journalistes traditionnels et formés à ce métier, nous sommes confrontés à une compétition avec le Net qui entre en concurrence avec les vecteurs classiques d’information. Nous ne pouvons plus ignorer que le net est une source d’information. Nous allons donc vérifier si, d’une part, les informations qui circulent sur le Net et sur les réseaux sociaux en particulier sont réelles et fiables et si, d’autre part, dans la mesure où, effectivement, nous constaterions que la majorité de ce qui y circule est juste et fiable, il est donc possible de ne se tenir informé uniquement par ce média et ces réseaux. »
En effet, presque plus aucun journal ou émission ne fait plus référence même brièvement à internet, aux phénomènes qui s’y produise ou aux informations qu’on y apprend. Cela va même maintenant jusqu’à relayer des statuts sur des pages Facebook d’hommes politique (exemple du message de Nicolas Sarkozy suite au désistement de son fils pour la présidence de l’EPAD) ou à trouver des infos brutes sur Twitter, disponible nulle part ailleurs (émergence de la dispute entre Lance Armstrong et Alberto Contador lors du dernier Tour de France avec un message du 1er sur son fil Twitter).
Bref. Le net et les réseaux sociaux ont pris une bonne place dans la fabrique de l’information. Ils s’affirment comme relais d’informations brutes à travers la publication de liens (qui peuvent renvoyer vers des déclarations, des communiqués, etc…) ou la publication d’informations en tant que telles dans un message en 140 caractères ou dans un article sur Facebook. Dans les deux cas, les réseaux sont la source de diffusion de l’information brute, une information qui sera ensuite commentée et analysée.
Ce qui est nouveau, c’est cet accès et cette diffusion du contenu brut. Auparavant, les médias retranscrivaient ces infos, se fondant sur le contenu brut, mais ce dernier était inaccessible au commun des mortels. Désormais, puisque chacun y a accès sans autre forme de problème que de savoir détecter par quel biais trouver cette information (ce qui reviens à trouver les bons contacts), tout le monde peut être un commentateur de l’info, que ce soit à travers un blog ou même via ses réseaux sociaux. Cela donne naissance à une nouvelle forme de journalisme, sans doute moins professionnelle, mais sans doute plus authentique. Car le journaliste n’est pas seulement celui qui détecte l’information, qui la travaille pour la rendre compréhensible, c’est aussi et peut-être surtout celui qui la met en perspective, en liaison avec d’autres informations, qui la caractérise… Bref, un internaute qui se livrera à un concours de vannes sur un évènement ou une info quelconque est tout autant journaliste et commentateur que le pigiste ou le journaliste chevronné qui se lance dans une péroré stadardisante.

Dès lors, les réseaux sociaux sont tout autant pour les médias traditionnels un concurrent – et donc une menace – qu’un atout et un outil de développement. La question se pose donc désormais pour eux de savoir comment tirer parti des nouvelles technologies, d’internet et des réseaux sociaux. Chaque chaîne ou station de radio a désormais sa rubrique Web, Buzz, Techno, Geek, etc… (Au passage, faire une chronique sur le Web à la radio me semble être un pari risqué puisque le web est à 75% visuel. L’évoquer sans images est donc sans grand sens. Parenthèse fermée.)
Le Web est pour eux un sujet d’actu à la mode, une mode qui, pour certains, est vouée à disparaître et qu’il n’est donc pas nécessaire de chercher à s’adapter aux changements afin, non pas d’exploiter le sujet comme un vecteur d’audience pour plaire aux auditeurs/téléspectateurs qui aiment qu’on leur parle des trucs à la mode, mais bien de les intégrer pour faire évoluer la pratique de l’information et, au-delà, le métier de journaliste.

Le monde des médias est donc pour le moment en pleine traversée d’un terrain mouvant. Pas complètement à l’aise avec ces nouveaux outils, ne voulant pas trop y accorder d’importance mais sans complètement leur tourner le dos non plus, tout le monde dans le milieu cherche à savoir comment démêler la pelote. Alors, au lieu d’une domestication intelligente des nouveaux outils, on assiste à un « hold-up » plus ou moins partiel.

Quand les journalistes se lancent sur Twitter

Certains médias ont leur propre compte Facebook ou Twitter, leur servant à capter de nouveaux publics afin de recueillir des avis et des commentaires, à diffuser leur contenu de base de manière standard sans valeur ajoutée ou, pour d’autre, à surfer sur le Buzz et à faire joli. Certains journalistes ont leurs comptes, pour relayer leur travail – ce qui est normal – mais aussi pour une minorité, à le mettre en perspective et donc en valeur et, surtout, à sortir du vase clos de l’information pour partager plus que de l’information, mais du contenu (petite pensée pour Marjorie Paillon, Amaury Guibert et David Abiker). En dehors de ces quelques personnes (et d’autres qui ne sont pas citées) la venue de journalistes et de médias sur les réseaux sociaux n’est destinée qu’à renforcer leur statut d’experts de l’information et de se positionner en tant que référents absolu du domaine sur ce nouveau segment.

En découlent des opérations ponctuelles, menées par des journalistes, sur Twitter, sorte de défi lancé au monde du web sur un air de « Ah ! Vous voyez, nous aussi on est In et on est Hype. On exerce aussi notre métier sur le Net et sur Twitter ». On pensera notamment au live Tweet de l’interview de François Fillon mercredi 3 février, qui, certes, a fait un flop, mais qui surtout n’a pas trouvé son utilité : ni vrai débat ni vrai compte rendu; un exercice périlleux pas très concluant.

Le premier constat est donc celui-là : les médias ne savent pas quoi faire avec les réseaux sociaux. Et face à l’inconnu, la première des choses à faire est de bien connaître et de bien cerner l’ennemi. Cela est bien connu, pour détourner un avion il faut d’abord monter dedans. Voilà en partie pourquoi l’opération « Un gîte dans le Périgord pour 5 journalistes » euh… pardon… « Huis-Clos sur le Net » a vu le jour. Il s’agit, à gros traits, de comprendre comment cela fonctionne et de prendre la température d’un microcosme nouveau afin d’en dresser le portrait et de mesurer l’importance du phénomène.

  • Qu’est ce qu’une « Information » ?

Mais, et c’est une autre question de fond sur laquelle repose l’expérience du Huis-Clos du Net, il convient également de définir et de s’entendre sur ce qu’est une « information ». La définition de la notion ne sera pas la même pour un homme politique, un community manager, un Geek, un ado ou un chef d’entreprise. Si, pour certains la décision de renvoyer Dominique de Villepin en appel est une information importante, pour d’autre il va s’agir d’un rencard avec la plus belle fille de la classe. Ces deux informations vont toutes les deux se retrouver sur Twitter ou Facebook. Toutes deux ont le statut « d’information ». Seule différence l’une peut potentiellement intéresser plus de monde que l’autre. Cela signifie-t-il que cette information est plus importante que l’autre ? A stricto sensu, non, car les producteurs de ces informations estiment chacun de leur côté qu’elle est importante et qu’elle justifie qu’on la partage.
Ce n’est que l’interprétation et le commentaire de ces informations qui va leur donner une « valeur » et un écho. On imagine aisément que pour le renvoi en appel de Dominique de Villepin on dira qu’il s’agit d’un évènement important dans l’Histoire de la Vème république et que cela aura des répercussions sur l’avenir politique d’un certain nombre de personnes en plus que de pimenter l’élection présidentielle de 2012, alors que le rencard d’un ado n’a d’autre conséquence qu’un éventuel roulage de galoche sous un abris bus à Tourcoing.
Seulement, imaginons un instant que le rencard de cet ado n’ait pas lieu et que la demoiselle lui pose un lapin. Imaginons que le garçon, fou de rage et blessé dans son orgueil, revienne le lendemain armé du fusil chargé de son grand père pour expliquer la vie à la jeune fille et qu’au passage il dégomme une demi-douzaine de collégiens. On voit d’ici les gros titres du lendemain : « Nouveau drame à l’école : 7 morts », « Violence à l’école : l’échec du Gouvernement », « Face à une nouvelle montée de la violence en milieu scolaire les ministres de l’intérieur et de l’éducation démissionne », etc… Une information sans importance aura donc eu des conséquences retentissantes. Les voir et les détecter est donc également un enjeu.
L’information ne doit donc pas sa pertinence et son importance à ceux qui la commente mais aux publics qui en sont la cible. Dans la hiérarchie de l’information, l’augmentation du prix de l’essence est potentiellement plus importante que le nombre d’albums vendus par Carla Bruni, et pourtant, au regard des commentaires et de la reprise d’information on pourrait être amenés à penser qu’elles sont sur le même plan.
Si les faits sont neutres, l’information, et plus encore son traitement, sont subjectifs.

  • L’épineuse problématique de la fiabilité

Dès lors, après que l’on ait défini ce qu’est une information et quelle importante leur accorder selon la cible et la source, se pose la question de la fiabilité des informations diffusées sur le net et sur les réseaux sociaux. Le journalisme conventionnel accorde essentiellement du crédit aux sources officielles, à leurs informateurs (anonymes ou non) ou aux informations diffusées par leurs confrères. Par nature, le journaliste est méfiant vis à vis de ce qui circule sur le net. Les comptes sur les réseaux sociaux peuvent être des faux, servant à répandre des rumeurs, les infos erronées ou la source non certifiée. Pourtant, par exemple toujours, quelqu’un qui croise Jean-Claude Marin dans les rues de Paris en train de téléphoner et qui l’entend dire « Oui, bien entendu, je vais faire appel Madame le Ministre » et qui, dans la foulée le tweet, ne sera pas considéré comme étant une source fiable, vérifiée et crédible alors qu’il retransmet des propos.
Ce qui angoisse les journalistes, qui ont une éthique et une méthode à défendre, c’est que le lâché d’information non « démontrable » est passible de poursuites pour diffamation. L’information se transforme donc en un vaste procès dont les journalistes sont les accusateurs et devant disposer de preuves étayant leur thèse et leurs propos. Il faut donc une preuve par le son, par l’image ou par écrit. Un garde-fou nécessaire pour limiter les dérives et la désinformation. Mais la preuve ne fait pas la véracité de l’information. Les vidéos peuvent être truquées, les sons arrangés, les textes détournés. La preuve permet aux journalistes de se garantir contre les critiques, même s’ils se font abuser, au détriment de la véritable information.
Dans l’absolu, tout commentaire sur Facebook ou Twitter devrait donc être, dans cette logique, assorti d’un lien ou d’une illustration du propos afin de garantir sa véracité. Une contrainte qui ne rime pas vraiment avec le caractère spontané et immédiat des réseaux sociaux.
Dès lors, ces mêmes réseaux ne servent qu’à contextualiser une information vérifiable par ailleurs. Ceci nous renvoi donc au caractère souverain des sources « traditionnelles » du journalisme. Comme on l’a vu dans l’affaire du Buzz de l’explosion de Lille, le salut n’est venu que d’un article de la voix du nord alors même que l’information en elle-même, à savoir le probable passage du mur du son par un avion avait été évoquée dès les premières minutes, le reste des commentaires n’étant que du bruit négatif et un sac de rumeurs.

  • Le Net :  un éternel nid à rumeurs ?

Et c’est là finalement le principal reproche des journalistes à l’égard d’Internet en général et de Twitter en particulier : celui de ne relayer que des rumeurs et de les amplifier, niant ainsi tout potentiel caractère de fiabilité aux informations diffusées par ces canaux.
Et en matière de rumeur, on peut en distinguer trois types. Il y a tout d’abord la rumeur délirante du style « L’explosion à Lille est due à l’invasion du Nord de la France par les hordes Belges assoiffées de sang ». Ce n’est pas une information, juste une blague ou un délire, en rapport avec une information connue ou attendue et qui, si elle n’est pas interprétée comme telle vient brouiller les pistes.
Il y a ensuite la pure conjecture, dont les fans d’Apple sont adeptes, du genre : « La tablette d’Apple s’appellera iSlate et permettra d’envoyer des mails par la pensée ». Souvent entretenues par le fantasme et l’imagination, ces rumeurs deviennent information quand aucune autre source n’est disponible et que la demande en information et en exclusivité se fait de plus en plus forte.
Il y a enfin le premier jet d’une information qui n’a pas encore pu être corroborée par une tierce partie, un élément tangible ou d’autres sources. La plupart des informations naissent ainsi. A la différence qu’auparavant, l’information venait de sources réputées fiables et que désormais, le commun des mortels peut en être le producteur. Ainsi, avant, lorsque se produisait un accident de la route, les médias en étaient avertis par des canaux officiels (autorités). Désormais, si un twittonaute passe à côté d’un accident et le signale sur le réseau on aurait un message du genre « Énorme accident sur l’A6 entre Lyon et Paris. Plusieurs voitures impliquées et un autocar. Please RT ». Si le délai entre le signalement de l’accident et la confirmation technique de l’envoi de secours sur place est très important, alors il y a de fortes chances pour que les soupçons de fake et de rumeur aillent en grandissant.

Car intrinsèquement, le journaliste se méfie du citoyen lambda comme producteur d’information. Le commun des mortels n’est pas en mesure de retranscrire convenablement les faits et sa subjectivité va nécessairement nuire à la bonne transmission de l’information. Le journaliste est cultivé, a reçu une formation et sais être parfaitement neutre avec les faits qu’il rapporte. Ce qui n’est pas le cas des « autres gens ». Ce qui explique pourquoi, de leur point de vue, une information sortie des limbes de la plèbe ne saurait être fiable, honnête et certifiée.
Comment donc accorder un crédit aux réseaux sociaux si on élimine d’entrée ce qui constitue pour 90% sa population, les 10% restants étant (sauf dans le cas français ou la proportion est pratiquement inverse) des politiques, des célébrités, des médias et des journalistes et quelques chefs d’entreprises.
Ce qui rend incompatible journalisme et réseaux sociaux, c’est la conception même que se font de leur métier les premiers. Le journaliste est là pour traiter l’information, la digérer et l’expliquer aux « non journalistes ». Dès lors, les réseaux sociaux ne peuvent être vus que comme une source d’information supplémentaire et les contributeurs des informateurs gratuits pour les journalistes qui, ensuite, vendent l’information.

Les réseaux sociaux sont bien plus que cela. Il s’agit de lieu de circulation de l’information certes, mais également et surtout, des lieux d’échanges et un lieu où vit l’information. Contrairement à ce que l’on pourrait croire, il n’y a pas que les infos brutes qui circulent mais bel et bien des commentaires sur celles-ci qui sont autant d’analyses et d’explications de ces dernières. La vision de ces outils par les protagonistes du Huis-Clos du Net, et au-delà, par toute la profession, est donc biaisée d’entrée. Cela nécessiterait  bien plus de cinq jours pour parvenir à exploiter tout le potentiel informatif des réseaux.

  • Quel bilan pour le « Huis-Clos sur le Net » ?

L’expérience du Huis-Clos du Net cherchait donc à montrer :

– si on pouvait rester informé uniquement à travers les réseaux sociaux. Cela semble être oui.
– si les informations disponibles à travers ces réseaux sont fiables et pertinentes. Mis à part les Buzz et les rumeurs, cela semble être oui aussi.
– si les formes de journalismes traditionnelles sont obsolètes. Cela semble être non, tant la culture de la source officielle reste présente.
– s’il n’y a que des rumeurs qui circulent sur la toile. Cela semble être non, puisqu’ils ont réussi à obtenir la substantifique moelle de l’information durant ces cinq jours.

Le bilan ne semble donc pas être complètement négatif, ni même complètement à la charge contre les réseaux sociaux. Néanmoins, il convient d’attendre le bilan qu’eux même vont tirer de cette expérience.

Toutefois, comme cela a déjà été écrit çà et là, et malgré toute la bonne foi affichée des participants et des organisateurs, cette expérience n’est pas exempte de reproches, tant sur le fond, que sur la forme.

Sur la forme :

Une telle expérience annoncée à l’avance et dont les détails ont été exposés dans les grandes largeurs ne pouvait qu’entrainer des risques de dérive. Connaissant à l’avance les modalités de son déroulement ainsi que les protagonistes, il devenait un jeu d’enfant de perturber le déroulement de l’évènement en polluant les publications avec des fausses informations et des rumeurs. Par ailleurs, l’utilisation d’un Hashtag spécifique à l’expérience donnait donc naissance à une timeline dédiée qui biaisait encore plus l’expérience. Il était aisé de transmettre des infos aux enfermés via ce Hashtag afin de les tenir informés.
De plus, le folklore consistant à réaliser l’expérience dans un gîte en pleine campagne n’apporte aucune valeur ajoutée au projet car, s’il ne s’agissait que d’être dans un local uniquement raccordé à Internet, il était parfaitement possible de le faire en plein Paris.
Autre problème, celui de la demande d’information et de confirmation concernant des évènements ou des infos par les cinq journalistes quand ces derniers ne parvenaient pas à trouver ce qu’ils cherchaient sur les réseaux. Quand on affirme vouloir ne se tenir informé que par ce qui ressort de ces réseaux, on ne provoque pas la remonté d’infos pour parvenir à ses fins. C’est comme si quelqu’un entamant une grève de la faim disait « je ne me nourrirais plus – mais si on me met la cuillère dans la bouche ça ne compte pas ». Vouloir expérimenter la pertinence d’un réseau en observant ce qui en ressort n’est pas compatible avec des demandes expresses d’informations au risque de rompre la logique du projet initial.

Sur le fond :

Le fait que le Huis-Clos du Net ait été réalisé uniquement par des journalistes pose un problème de crédibilité. On n’assiste pas à un véritable test de l’acuité d’internautes vis à vis d’un nouveau média, mais bien plutôt à une opération marketing visant à redonner un peu de crédit à une profession qui peine ces derniers temps à trouver grâce aux yeux des français.
Par ailleurs, bien que ces journalistes ne soient pas forcément très connus, le fait que tout le monde ait su leurs noms avant le lancement du projet repose le problème cité plus haut d’interférences avec leur tentative d’information neutre à travers les réseaux sociaux.
Il y a un autre souci dans le fait que les cinq journalistes soient tous francophones, bien que pas tous français. Quand on sait qu’une infime proportion des internautes français se trouvent sur ces réseaux (quoique plus présents sur Facebook, mais qui n’est pas connu pour être un espace d’échange d’informations journalistiques mais bien plus personnelles), ce qui, ramené à la population totale du pays (ou même de l’ensemble des pays francophones) est ridiculement faible, on est en droit de douter de la pertinence des résultats de l’expérience tant il est clair qu’une écrasante majorité des tweets s’échangent en anglais. Le fait qu’ils soient francophones n’apporte donc encore une fois aucune valeur ajoutée et vient tronquer le résultat escompté.
Enfin, dernier problème, celui du média d’origine : la radio. Il y a des journalistes télé, des journalistes radio, des journalistes papier et désormais des journalistes internet (dont certains bloggeurs « professionnels »). Ce sont des mondes bien distincts, quoique, de plus en plus, les uns et les autres se trouvent sur deux types de médias à la fois. Néanmoins, ce à quoi nous avons assisté, c’est un peu le passage du Rubicon par une profession qui s’essaye à un nouveau monde. Mais il s’agit bien plus d’un coup de com’ pour un média assez confidentiel qui joue la carte de la nouveauté et de la soit disant « branchitude » pour sortir du bois et reconquérir un public volatile.

Alors au final, que retenir de ce Huis-Clos qui aura déchaîné les passions (presque autant que l’iPad).
Si on note la bonne volonté affichée d’une profession (mais réduite à cinq individus, est-ce représentatif ?) pour comprendre et saisir les enjeux des réseaux sociaux à travers le prisme de l’information qui s’y diffuse on remarque surtout un certain nombre de ratés.
La publicité faite autour du projet a joué contre lui. Si le projet devait être relancé, il faudrait que cela soit par des anonymes, plus nombreux, avec des journalistes et des non journalistes, dont certains anglophones et sans le décorum du Périgord.

  • En conclusion

Il est possible de se tenir informé via Twitter et, dans une moindre mesure, Facebook. Pour cela, il suffit par exemple, lors de déplacement en ville, d’avoir son téléphone avec soi et de suivre sa timeline Twitter et d’observer les sujets qui ont du succès pour avoir une bonne vision de l’actu. De là à ne vouloir être informé que par ce biais, ce serait comme vouloir marcher sur une seule jambe alors qu’on a les deux valides.
Internet ne se résume pas aux seuls réseaux sociaux même si ces derniers ont pris une ampleur considérable depuis l’an dernier. De même que l’information ne se résume pas au 13h de TF1, l’information sur le net est riche de milliers de sites dont Twitter et Facebook se font l’écho et les relais. Se priver de ces sources d’information n’est révélateur de pas grand-chose car personne sur la toile ne se limite à une seule source (la journée sans cliquer sur les liens des tweets était donc un bon coup de pub mais dont la pertinence n’est vraiment pas démontrée).
Plus encore, si on assiste à un flux d’information allant des sites vers les réseaux sociaux, un flux inverse allant des réseaux sociaux vers les sites va prendre de l’ampleur, même si ce phénomène est pour le moment minoritaire et, dans tous les cas, difficilement mesurable lors de cinq jours dans le Périgord.

Catégories
Humeur Tech

Quand Lille explose c’est le net qui s’enflamme

Voilà ce qu’il fallait redouter. Alors qu’il s’agissait d’une information tout à fait banale, à savoir une forte détonation ressentie à Lille et dans sa région et relayée via Twitter, Facebook et quelques forums, par certains riverains de la région, le net s’est emballé à une vitesse ahurissante.

Apparue aux alentours de 22h35, la nouvelle a produit, selon les estimations, pas moins de 5.000 tweets en 2 heures, soit environ 40 par minute. Le net va vite. Trop vite même pour que les médias traditionnels aient le temps de démêlé le vrai du faux.

Les hypothèses les plus invraisemblables ont été évoquées, allant de l’explosion de la centrale nucléaire de Gravelines à l’explosion d’une usine de peinture au sud de la ville en passant par une invasion du Nord de la France par l’armée Belge ou l’explosion d’un immeuble due à une fuite de gaz…
Tout ce tapage et cette excitation pour qu’au final ce qu’on subodorait au départ se révèle être en fin de compte l’hypothèse la plus probable et la plus réaliste à savoir le bruit d’un avion ayant passé le mur du son. Un évènement assez commun, qui peut surprendre par son aspect bref, soudain et imprévisible et qui peut reproduire les effets d’une explosion, tant par le volume sonore que par les sensations physiques de tremblements et de secousse. D’ailleurs, au delà du « Boom » ces effets ont été retranscrits par  les internautes.

Alors, emballement ou délire d’internaute en mal de buzz ? Car au delà du questionnement des riverains qui peuvent à juste titre partager leurs interrogations ou leur peur sur le net à travers les réseaux sociaux et autres forums, ce déferlement de communication et de délires paranoïaques montre à quel point la machine peut s’emballer.
Si, au départ, le but des messages postés était de savoir réellement quelle était la source de la déflagration afin de satisfaire une curiosité légitime ou s’assurer qu’il ne s’agissait pas d’un évènement tragique et grave, très vite les non lillois et ceux qui ne s’inquiétaient pas outre mesure d’une éventuelle catastrophe s’en sont donné à coeur joie pour lancer les rumeurs les plus farfelues jouant sur la confusion et  l’absence d’information confirmées.

Mais que penser de cet emballement, pas nouveau sur la toile (on se souviendra du même phénomène pour l’annonce de la mort de Johnny Depp sur Twitter), en le replaçant dans un contexte particulier à savoir la conduite en ce moment même de l’expérience du « Huit Clos du Net » par cinq journalistes de radios francophones dans un gîte du Périgord. Pour mémoire, il s’agit pour ces cinq journalistes de ne rester informé uniquement à travers Twitter et Facebook et les liens accessibles via les messages postés sur ces réseaux.
Depuis le lancement de cette initiative Lundi dernier, les internautes, et plus particulièrement les Twittaunautes, se sont donnés pour mission de perturber l’expérience des « lofteurs » en lançant de fausses informations, des rumeurs ou des informations tronquées. On est donc en droit de se demander si, en dehors de ce contexte particulier, l’affaire du « Boom de Lille » aurait eu la même ampleur. L’évènement aura eu le mérite de révéler (si tenté qu’il eut été encore besoin de le démontrer) la chasse et a course à l’information et à son authentification. Une chasse au scoop qui dans le cas présent accouche d’une souris puisque la voix du nord vient briser tous les espoirs de catastrophe nationale sanglante en reprenant à son compte l’hypothèse d’un avion qui aurait franchi le mur du son, une hypothèse hautement probable.

Cela repose la question de la pertinence de l’expérience du Huit Clos du Net et surtout de la pertinence d’en avoir annoncé avec grand bruit la conduite et ses modalités à l’avance assurant de manière presque certaine ce genre de dérives.

Voilà qui va encore renforcer les détracteurs du net dans leur haine de ce média qui, selon eux, dénature le journalisme et parasite l’information au profit du buzz et de la rumeur.

Tout comme les avions, l’information peut aller très vite, et plus elle va vite, plus elle fait de bruit ! Vive le web 2.0.

Catégories
Humeur Tech

Quand iPapy doit justifier son évangile

Ça n’aura échappé à personne. Ce qui marque ce début d’année 2010 ce n’est pas le WEF de Davos ou les quelques performances sportives, exceptionnelles, de l’équipe de France de Handball ou de Roger Federer, mais bien le lancement, quasi prophétique, de l’iPad d’Apple, en grandes pompes et par le boss en personne, Steeve Jobs, alias iPapy. La bonne parole a été répandue, et l’illumination de Steeve a été révélée au monde…

De ses propres mots, il s’agit du projet le plus abouti et le plus important sur lequel il se soit investi. Certes, nous sommes près à le croire. Surfant sur la vague du succès de l’iPhone et subodorant que l’inconfort relatif dans certains de ses usages permettait d’envisager un agrandissement du format afin de donner naissance à un « nouvel » outil, dont le design léché allait subjuguer la planète et créer un nouveau besoin, la firme et son patron lance donc cette tablette « révolutionnaire ».

Malheureusement pour Steeve, ce qui semble le plus « révolutionnaire » dans cette création, c’est la vague de critiques qui déferle sur le web, atteignant même, fait rarissime, les plus applemaniac. Pas de changement vis à vis de l’iPhone ou de l’iPod Touch, faible spécifications (mémoire assez ridicule), (toujours) pas de support de Flash, évolutivité nulle qui ne correspond pas au positionnement du produit en tant que concurrent des netbook (si tenté que que soit l’un des objectifs – http://bit.ly/aimcYj), etc…
Autant de critiques et de déceptions, justifiées ou non, qui ne donne pas l’impression voulue que l’outil est « révolutionnaire ». Modérons toutefois ce constat par deux éléments :
– tout d’abord, l’appareil n’est pas encore sorti, en ce sens qu’il n’est pas disponible pour le grand public et que, en dehors de la démo et de quelques tests rapides, il est impossible d’avoir des informations sur l’usage régulier de l’iPad, pas plus que sur les habitudes d’utilisations par un grand nombre d’utilisateurs.
– ensuite, personne n’est dans la tête de Steeve Jobs. Celui ci a sans doute quelque chose derrière la tête, une ambition pour son produit, une idée précise de l’utilisation qui doit en être faite et qui peut peut-être passer par une interconnexion avec des services futurs qui n’existent pas encore (domotique ?).

Et Steeve a peut-être levé une partie du voile lors de sa dernière intervention concernant la sortie de l’iPad, mais cette fois ci devant les employé de la firme à la Pomme. Assez étrange exercice que de refaire une tournée de communication en interne au sujet d’un produit déjà sortie et par le truchement d’une intervention physique, dans une société ou le patron n’est pourtant pas le dernier à communiquer par mail (annonce de son retrait temporaire début 2009 pour raisons de santé).

Le navire iPad prendrait-il l’eau au point que le capitaine du navire doivent écoper lui même ? Pas sûr. Et pourtant, cela ressemble pourtant à une mise au point pour faire taire les critiques. Sur le flash par exemple. Il fallait s’y attendre, le boss a quelques coups d’avance sur l’échiquier de la technologie. Tout comme les développeurs de Everquest il y a quelques années, qui pariaient sur une évolution notable des configurations des ordinateurs des joueurs et qui programmaient un jeu surdimensionné par rapport  à l’état réel du parc informatique au moment de la sortie du jeu, Steeve semble croire que le format Flash n’en a plus pour très longtemps à vivre et que l’ère du HTML 5 est bientôt arrivée. Un pari audacieux mais risqué, car, si cela traîne trop, cela risque d’agacer les utilisateurs, même les plus patients (car on peut vivre sans flash http://minu.me/1myk).
Sans trop entrer dans les détails, on perçoit donc que iPapy a une idée bien précise de ce que sera l’usage à terme de son nouveau terminal même s’il se garde bien de nous en dire d’avantage. Pour le coup, il faudra être patient, et ce, bien au delà des 2 mois qui nous sépare de la sortie réelle du précieux.

Mais là ou les propos de Steeve sont assez étonnant, c’est lorsqu’il aborde la question de Google. Car au rayon mise au point, il n’a pas été question que de défendre son dernier bébé. L’iPad c’est bien, mais Apple, c’est encore mieux et c’est surtout son plus gros bébé.
Ce n’est pas un mystère que les relations entre Apple et Google sont pour le moins… tendues. Le PDG de Google a quitté son poste d’administrateur d’Apple et Apple fait les yeux doux à Microsoft pour que son moteur de recherche Bing soit le moteur par défaut sur l’iPhone. Mais quelle est la raison de la colère de Steeve ? Et bien officiellement, parce que Google est venu piétiner les plates bandes d’Apple dans le secteur de la téléphonie. Et Steeve de déclarer haut et fort que sa société n’a pas été fourrer son nez dans le domaine de la recherche du Internet mais que Google ne s’est pas gêné pour venir sur celui de la téléphonie en déclarant même vouloir « tuer l’iPhone ». Et ça, Steeve, il a pas aimé.

La guerre est donc ouverte. Mais ce qui est étrange, c’est le prétexte.  Qu’une société veuille se battre contre un concurrent, c’est le jeu de la concurrence et la loi du marché. Cela étant, Google s’est certes inséré dans le marché de la téléphonie, mais Apple n’est pas la seule société sur ce créneau (même si elle a été a l’avant garde des Smartphones tactiles) et de plus, la téléphonie n’est pas l’activité principale d’Apple (encore que cela aurait tendance à changer). C’est pourquoi il parait étonnant que Steeve attaque en disant que sa société n’a pas été mettre les doigt dans la recherche du internet, qui est, rappelons le, le coeur de métier de Google, et que, pour cette raison, elle va se battre sur le terrain de la téléphonie, qui n’est une activité principale pour aucune des deux compagnies. On aurait pu comprendre et justifier la sortie de iPapy si Google s’était directement attaqué au coeur de métier d’Apple qui est… euh… ah oui : l’informatique et la conception d’ordinateurs, chose que ne fait pas (encore totalement) Google.

La bataille se joue donc sur un segment de marché pour ces deux entreprises, un segment qui va certes prendre de l’ampleur chez les deux protagonistes et qui déjà chez Apple prend énormément de place. L’imbrication de Google et de Apple au sein de l’iPhone a fait ses preuves et une vaste période d’incertitude vient de s’ouvrir ne laissant présager de rien sur les conséquences de ce clash (Morandini sort de ce corps).

Alors, quand verrons nous un moteur de recherche fonctionnant avec un algorithme made in Apple ? Wait and see.