- Création de sites web, blogs,
  pages Facebook
- Hébergement
- Gestion de mail avec antispam
- Dépôt de noms de domaine

3 rue Blomet
75015 Paris

Tél  01 47 31 85 41


Rechercher
 
[Tout voir]
Catégories
  C ds l'r
  HiTech
  Internet
  Siteparc
  Photo
  Ailleurs Land
  PC-Mac

   

Derniers commentaires
[Comment reconnaitre un email frauduleux]
Colette34 : Mise à jour de mon GPS Tomtom impossible sur le si (10/06/2017)

[Nouveau site : Alz Junior]
'Orientation scolaire : Tres intéressant dans le cadre de l'Orientation sc (16/12/2016)

[Nouveau site : Alz Junior]
ENfant : Tres intéressant dans le cadre de l'Orientation sc (16/12/2016)

[Le prix d'un CD]
MusicHome : Mon contact producteur et studio : dessabba@gmail. (02/09/2016)

[Le prix d'un CD]
MusicHome : je produis des artistes avec un vrai projet et un (02/09/2016)


Références
Mentions légales
Photo Zach Dischner
 
L'alimentation du PC à l'oscilloscope
Par Frédéric Dumas, mercredi 28 juin 2017 à 16:39 - HiTech

Un billet inhabituellement dédié à l'électronique qu'on trouve dans nos PC, et plus particulièrement au composant dont on n'entend jamais parler : le bloc d'alimentation électrique ATX, chargé de transformer un courant alternatif 230 volts en courant continu. Ce billet n'a pas d'autre prétention que de divertir le lecteur curieux, qui voudrait visualiser la forme des courants qui alimentent son PC, et de renseigner le hobbyiste, qui démontant sa machine, aimerait vérifier le comportement de son alimentation âgée de quelques années. Bien entendu, les manipulations décrites ici réclament de la minutie, pour ne rien mettre en court-circuit. Même si nous n'ouvrons pas le bloc d'alimentation lui-même, et ne travaillons donc que sur des courants basse tension, des risques subsistent pour la machine plus que pour l'opérateur; nous n'encourageons que les plus avertis à reproduire nos résultats avec leurs propres instruments.

Contrairement à d'autres appareils domestiques, la carte mère de l'ordinateur et les périphériques internes qui lui sont attachés (mémoires de masse, cartes d'extension), nécessitent plusieurs tensions d'alimentation produites en parallèle : 12 volts, mais aussi 5 volts, et encore 3,3 volts. Il fut un temps où deux tensions supplémentaires étaient elles aussi nécessaires : -12 volts (pour le fonctionnement des cartes PCI traditionnelles jusqu'au début des années 2000) et -5 volts (pour celui des cartes ISA jusqu'au milieu des années 90). Nous n'explorerons que les trois premières tensions de travail; nous laisserons également de coté le 5 volts "VSB - Stand By", qui ne délivre qu'une faible intensité, utilisée lors de la mise en veille.

L'alimentation, cette inconnue

Franchement, avant de rencontrer des dysfonctionnements sur des barrettes de RAM défectueuses et sur plusieurs machines, je n'avais jamais prêté attention à leurs blocs d'alimentation. Tant qu'elles démarraient, c'est que le courant était là. Mais les problèmes se répétant, il était nécessaire de remettre en cause un à un les différents composants : les cartes mères bien sûr et les alimentations aussi. J'ai commencé ces investigations un voltmètre à la main; je les ai terminées avec un oscilloscope, jusqu'à en avoir le coeur net. Une rapide recherche sur le web à propos des alimentations ATX fait remonter des histoires de composants en surchauffe car sous-dimensionnés, de routages PCB dangereux, de condensateurs chimiques fragiles par conception, dont l'électrolyte sèche ou se dilate sous l'effet d'une libération anormale d'hydrogène.

Ceux que ces anecdotes intéressent, et particulièrement la dégradation des condensateurs chimiques (ces composants les plus fragiles, dont 10°C de température supplémentaires divisent la durée de vie par deux), peuvent consulter entre autre cette video pédagogique d'introduction (en français) :

Au final, les défauts que j'observais sur mes barrettes de RAM n'étaient pas dus aux alimentations de ces machines. Mais ils furent un excellent prétexte aux mesures de courant en fonctionnement réel que je présente ici. 

Plus d'actions, moins de paroles

Le but de ce billet est de montrer comment mesurer les courants électriques produits par l'alimentation du PC à la norme ATX, à quels endroits les mesurer, et comment interpréter les résultats. Avant de passer à la pratique, et particulièrement à l'utilisation de l'oscilloscope dans ce but, il est nécessaire d'expliquer ce qu'on cherche à observer. Le titre de ce paragraphe est donc essentiellement trompeur, puisqu'on y trouvera au contraire une peu de théorie. Les impatients voudront bien sauter directement au suivant.

Pour qui a utilisé un voltmètre aux bornes d'une pile pour vérifier si elle est encore bonne, ou sur un adaptateur secteur pour voir s'il marche, réaliser des mesures à l'oscilloscope pour contrôler le fonctionnement d'une alimentation de PC paraîtra incongru. Après tout, une tension continue, par définition, ne change pas. Si l'alimentation du PC doit sortir 12 volts, 5 volts et 3,3 volts en continu, ne suffit-il pas de vérifier que ces tensions sont présentes ? 

Il y a un intérêt à enquêter un peu plus en détail. Générer un courant aux bonnes tensions n'est qu'une première exigence : le standard ATX dans sa version actuelle admet une tolérance entre 11,40 et 12,60 volts, entre 4,75 et 5,25 volts, et entre 3,15 et 3,45 volts; un résultat hors de ces fourchettes disqualifierait l'alimentation immédiatement. Pour autant, cette mesure ne laisse encore rien voir des caractéristiques plus fines de ces tensions, telles que leur ondulation et les bruits haute fréquence qui les parasitent. Il n'est pourtant pas question d'envoyer une ronflette ou des parasites à l'électronique délicate d'une carte mère, n'est-ce pas ?

Avant de prendre les sondes en main et de commencer les mesures, il faut donc comprendre ce qu'on cherche à observer. Contrairement à la différence trop simple que nous pourrions faire entre "courant continu" et "courant alternatif", en pratique le courant continu d'une alimentation de PC n'est pas parfaitement stable; il a beau être rectifié et filtré, il oscille toujours légèrement à la marge, il ne parvient jamais à faire totalement disparaître la trace du charcutage qu'il a subit dans le circuit secondaire de l'alimentation à découpage. J'encourage les curieux à consulter cette série de présentations didactiques, en anglais simple, pour comprendre les alimentations à découpage et l'origine de ces imperfections:

Ces caractéristiques techniques, ondulation ("ripple" en anglais) et bruit ("noise"), dont il n'est jamais fait la publicité dans les spécifications techniques, participent à la différence entre une alimentation médiocre et un modèle réputé d'un fabricant connu. Lorsqu'elle est neuve, il est attendu d'une alimentation qu'elle délivre des tensions en maintenant ces perturbations en dessous des seuils tolérés. Mais quelques années plus tard, l'usure à la chaleur des condensateurs aidant, toutes les alimentations ne se révèlent pas égales, et les caractéristiques du jour de leur première mise sous-tention peuvent avoir bien changées.

Pour vérifier le bon fonctionnement des alimentations ATX de mes PC, j'ai donc cherché à visualiser à l'oscilloscope ces micro-variations et à mesurer si elles restaient dans la plage de tolérance prévue par le standard ATX :

+12 volts +/- 60mV (120mV peak-to-peak)
+5 volts et +3,3 volts +/- 25mV (50mV peak-to-peak)

A noter au passage que ceux qui overclockent leur PC font attention à ces détails, et cherchent des alimentations ATX offrant des écarts plus faibles encore, plus exigeantes que le standard, afin de conserver la stabilité du processeur et de la RAM à tension constante lorsqu'ils les poussent eux-même au-delà de leurs spécifications. Les plus curieux trouveront ici (en anglais) une explication du pourquoi du comment.

J'ai un voltmètre, que puis-je mesurer ?

Nous y voilà, passons à la pratique.

Le voltmètre donne des résultats gratifiants, car il confirme facilement que les tensions attendues sont présentes. Une description pas à pas de la façon de l'utiliser sur une alimentation de PC peut être trouvée ici (en anglais simple); cette méthode propose de mesurer les tensions d'alimentation en deux étapes : hors charge, sans consommation électrique, c'est à dire la carte mère et tout autre composant étant débranchés; puis en charge, c'est à dire la carte mère et ses périphériques étant branchés et en fonctionnement.

Mesure hors charge

Cette première étape est pédagogique : elle permet de se familiariser avec le code des couleurs de cette forêt de fils, de repérer les endroits où faire contact avec les pointes de touche du voltmètre, de se rassurer sur la facilité de lecture des résultats. Pour l'essentiel, et sans se substituer au guide cité précédemment, on fera toucher à la pointe (-) du voltmètre la broche d'un connecteur d'alimentation terminant un conducteur noir (c'est la masse, la référence à 0 volt de l'ensemble de la machine), et toucher à la pointe (+) du voltmètre n'importe quel autre broche, terminant un conducteur d'une autre couleur : jaune pour 12 volts, rouge pour 5 volts, orange pour 3.3 volts.

Pour chaque couleur, le tableau suivant reprend les tolérances citées plus hauts, propres au standard ATX, entre lesquelles les tensions générées par l'alimentation doivent se situer :

Jaune ◼︎◼︎◼︎◼︎ 11,40 - 12,60 volts
Rouge ◼︎◼︎◼︎◼︎ 4,75 - 5,25 volts
Orange ◼︎◼︎◼︎◼︎ 3,15 et 3,45 volts

La lecture de résultats entre ces limites autorise à aller plus loin, et même si on est un peu éloigné de la tension nominale, on ne s'inquiètera pas : ce n'est qu'en charge, c.a.d. sur un ordinateur en fonctionnement, que l'alimentation donne des résultats qui doivent se conformer aux spécifications.

Mesure en charge

Cette deuxième étape consiste à observer les tensions délivrées en fonctionnement. L'ordinateur étant ouvert et allumé, on manipulera les pointes de touche du voltmètre avec une particulière minutie. Une mise en garde préalable est nécessaire : toute structure métallique dans l'ordinateur vous menace d'un court-circuit en cas de faux mouvement, car l'ensemble du boîtier constitue la masse électrique, la référence au 0 volt; autrement dit, toute structure métallique, celle de l'alimentation, celle du boîtier aussi, celle même d'un disque dur, est en contact avec le conducteur noir que nous touchions d'une de nos pointes l'instant d'avant. Dans un ordinateur ouvert, le plan de masse, c.a.d. le conducteur (-) vous cerne de toute part !

Accéder aux points de touche avec la sondeAlors même que je le savais, il m'est arrivé de court-circuiter mon alimentation en mettant involontairement une pointe de touche du voltmètre en contact simultané entre une broche et la structure du boîtier (la masse électrique). Je n'aurai jamais pensé avoir à ce point deux mains gauches, mais croyez moi, dès qu'on travaille sur un espace exigu, les mouvements malheureux sont beaucoup plus probables qu'on ne l'imagine. Bien entendu, les circuits de protection de l'alimentation ont fonctionné, elle s'est immédiatement coupée, et il a suffit de la réarmer en la débranchant physiquement du secteur pour faire redémarrer la machine. Soyons pourtant conscient que le risque de court-circuit est élevé en manipulant une machine ouverte.

A ce stade, et si nos mesures ont confirmé la présence des trois tensions dans les plages définies par les spécifications ATX, on peut commencer à être rassuré sur le fonctionnement de l'alimentation. Nous ne savons encore rien de la qualité de ces tensions, mais au moins la mesure au voltmètre a-t-elle montré qu'elles n'étaient pas grossièrement déficientes.

J'ai un oscilloscope, comment dois-je m'y prendre ?

Nos mesures à l'oscilloscope vont se dérouler en trois étapes :

  • nous observerons les tensions continues déjà mesurées au voltmètre, histoire de se familiariser avec l'instrument;
  • nous observerons l'ondulation de ces tensions continues et le bruit haute-fréquence qui s'y ajoute, et qui même faibles (comme requis par le standard ATX), existent pourtant bel et bien;
  • nous verrons que la mesure du bruit peut facilement être faussée et donner un résultat exagérément élevé, incriminant à tort l'alimentation.
Retrouver les composantes continues - mode DC

Rappelons que l'oscilloscope permet de visualiser à l'écran les tensions présentes dans un conducteur (qu'il suffit de toucher à l'aide d'une sonde) soit dans leur totalité (mais alors on ne voit pas beaucoup de détails), soit à la marge, en ne retenant que la composante alternative, celle qui gigote, le clapotis qui se superpose au courant continu... et là on peut zoomer sérieusement. Le premier mode est appelé "DC - Direct Current" (on observe la composante continue), le second "AC - Alternating Current" (on observe la composante alternative). Notre première étape s'intéresse à la composante continue, qui devrait être identique à la lecture faite au voltmètre. Trois copies d'écran de cette première série de mesures sont réunies dans le tableau ci-dessous :

 

+12 Volts DC +12 Volts 
+5 Volts DC +5 Volts 
+3,3 Volts DC +3,3 Volts 

 

Les résultats sont conformes : 11,60 volts au lieu de 12 reste dans la marge acceptée par la spécification, de même que 5,20 volts au lieu de 5 et 3,44 volts au lieu de 3,30. Les puristes diront que ces résultats sont médiocres; on peut aussi regarder le verre à moitié plein : les principales tensions générées par cette alimentation sont conformes aux exigences de la spécification ATX. Pour l'anecdote, l'alimentation ici testée est âgée de plus de 10 ans.

Un mot à propos de l'affichage généré par l'oscilloscope : dans le cartouche en haut à droite de l'écran, on peut lire en chiffre la tension mesurée, exactement comme sur un voltmètre. Cette facilité n'est offerte que parce que notre instrument est numérique. Car on peut aussi, et c'est la méthode classique sur un oscilloscope analogique, lire la mesure grâce aux graduations à l'écran. La valeur en bas à gauche nous indique l'échelle : selon la tension à mesurer, elle est différente. Ainsi, pour mesurer le 12 volts, j'ai été contraint de choisir une grande échelle, où chaque graduation correspond à un pas de 5 volts. La position du signal dans la partie haute de l'écran (au-dessus de la médiane) signale que nous sommes en présence d'une tension positive, tandis que le nombre de graduations parcourues (ici un peu plus de deux à partir de la ligne médiane de l'écran), signale que cette tension va au-delà de 2 x 5 volts, c.a.d. supérieure à 10 volts. Visuellement, on retrouve bien 12 volts environ en suivant les graduations. Même lecture pour le 5 volts : chaque division à l'écran représente cette fois-ci 2 volts, le signal s'inscrit à l'intérieur de la troisième division, le décompte s'établit donc ainsi : 2v + 2v + 1v = 5 volts. Il en va de même pour le 3,3 volts, ici visualisé sur une échelle à 1 volt par division.

Recourir à l'oscilloscope pour visualiser la composante continue de ces trois tensions n'apporte pas beaucoup plus que la mesure faite au voltmètre: on trouve normalement les mêmes résultats. Un écart entre les deux, dans les mêmes conditions de fonctionnement de l'ordinateur, s'expliquerait vraisemblablement par un défaut de calibration de l'un des instruments. Utiliser l'oscilloscope en mode DC montre aussi que la tension est stable, c.a.d. que la ligne qu'elle dessine à l'écran n'est pas déformée par des chutes ou des pics brutaux, tel que pourraient les provoquer par exemple un faux contact. Elle permet enfin de commencer à discerner le bruit sur-ajouté à la tension, et que trahit la granularité du trait et les petites échardes qui s'y dessinent. Ce sont ces déformations, minimes mais réelles, que nous allons maintenant observer de plus près, pour vérifier si elles aussi sont conformes aux spécifications ATX.

Zoomer sur la composante alternative - mode AC

Les six copies d'écran ci-dessous montrent à quoi ressemble ce "clapotis" à la surface de la composante continue de chacune de nos tensions d'alimentation. La colonne de gauche affiche cette composante alternative avec un zoom très grossissant (la base de temps est choisie à 2µs), celle de droite utilise un zoom 5 fois plus faible (chaque division horizontale représente cette fois un délai de 10µs). Ces bases de temps étaient choisies arbitrairement, dans le seul but de faire ressortir ces micro-variations bien en détail. Evidemment, la taille gigantesque que ces imperfections prennent à l'écran ne dit rien de leur importance réelle; sous une loupe, n'importe quel insecte devient monstrueux.

 

12 Volts AC 2us 12 Volts AC 10us +12 Volts
5 Volts AC 2us 5 Volts AC 10us +5 Volts
3,3 Volts AC 2us 3,3 Volts AC 10us +3,3 Volts

 

L'ondulation de la tension 3.3 volts présente la forme qui nous est la plus familière, on y reconnait une sinusoïde simple (c'est l'ondulation ou "ripple"), ce qui rend facile d'y distinguer les parasites haute-fréquence se manifestant sous la forme d'échardes dans la sinusoïde (c'est le bruit ou "noise"). Bien que la spécification ATX encadre la valeur maximale admissible de ces deux phénomènes pris globalement, il est utile de les distinguer avant de procéder à leur mesure, armé d'une sonde. Nous expliquerons dans un instant pourquoi.

Même si l'ondulation des tensions 5 volts et 12 volts ne présente pas de forme sinusoïdale, on y reconnait un motif carré répétitif, typique du phénomène électrique se répétant régulièrement dans l'alimentation à découpage. La forme de ce motif et même sa fréquence ne nous intéressent pas beaucoup, car ce que nous cherchons à connaître c'est son intensité. Remarquons pourtant que la différence de zoom entre l'affichage de droite et celui de gauche met en évidence la présence de plusieurs ondulations superposées à des fréquences différentes : à gauche, un cycle complet de l'oscillation occupe environ deux divisions horizontales, c'est à dire qu'il se répète en moins de 4µs (compte tenu d'une échelle de 2µs par division), soit environ 250.000 battements par seconde (250Khz); à droite, un battement plus lent apparaît, se répétant toutes les trois divisions, soit environ 30kHz, compte tenu de l'échelle de 10µs par division. Ce sont toutes ces déformations prises ensemble qu'encadrent les spécifications ATX.

Maîtriser la mesure

Ordinateur ouvert - Positionner la sondeAprès cet aperçu de l'ondulation et du bruit, et avant de les mesurer, il faut s'arrêter un instant sur la manière de poser la sonde de l'oscilloscope sur les conducteurs qui nous intéressent : noir pour la masse, jaune pour le 12 volts, rouge pour le 5 volts et orange pour le 3,3 volts.

En bonne théorie, la sonde devrait toucher les broches des connecteurs qui sont rattachés au plus près du bloc d'alimentation. Toute longueur de câble éloignant le point de mesure du bloc d'alimentation produit un mélange aléatoire d'effets capacitifs et inductifs, qui filtrent ou amplifient le bruit haute fréquence, c'est à dire faussent la mesure dans des proportions très importantes. Nous parlons ici des conducteurs électriques entre chaque connecteur d'alimentation et l'alimentation elle-même. Selon qu'ils courent à plat ou sont torsadés, selon même qu'on les écarte du doigt, l'éloignement entre la masse (-) et le pole (+) varie, et modifie les caractéristiques électriques du circuit; ces modifications n'ont aucune incidence sur la tension continue, mais en ont de plus en plus au fur et à mesure qu'on s'intéresse à des tensions alternatives à fréquences élevées. Or, le bruit dont nous cherchons à mesurer l'intensité ici, et dans une certaine mesure l'ondulation aussi même si sa fréquence est plus faible, sont précisément des tension alternatives, sensibles à la capacité et à l'inductance des conducteurs qui les transportent.

Sondes d'oscilloscope - Raccords à la massePar ailleurs, la même remarque doit être faite en ce qui concerne la sonde elle-même. Autant pour mesurer la composante continue avec l'oscilloscope, il était parfaitement légitime d'utiliser une sonde équipée de sa pince crocodile, et d'aller chercher la masse où on voulait, voir même en n'importe quel point du châssis de l'ordinateur, autant pour acquérir une mesure fiable des composantes alternatives, cette configuration conduirait à des résultats fantaisistes si elle était retenue.

La photo de droite illustre le propos : en haut la sonde que nous utilisions pour la mesure en continu; en bas la sonde que nous allons utiliser pour la mesure du bruit. Elles diffèrent par le moyen de les rattacher à la masse : par une bretelle et une pince crocodile pour le première, par un ressort de masse pour la seconde (visible à l'extrémité de la tête, à proximité de la pointe).

Une dernière raison doit nous dissuader d'utiliser la première configuration pour mesurer le bruit généré par une alimentation de PC : le fil de la bretelle sur la sonde du haut, tout comme les conducteurs entre le bloc d'alimentation et les connecteurs, se comporte aussi comme une antenne: au bruit provenant de l'alimentation s'ajoute alors celui d'autres appareils émettant dans la pièce leurs propres interférences électromagnétiques. Autant dire que vérifier la conformité au bruit haute fréquence d'une alimentation ATX s'avère un exercice qui comporte jusqu'au bout une part d'erreur. Nous pouvons tout au plus tenter de la minimiser.

Les deux mesures suivantes, capturées sur la ligne 12 volts, illustrent ces biais de façon flagrante : à gauche, le bruit observé à l'aide de la sonde du haut (équipée d'une bretelle), à droite celui observé avec celle du bas (équipée d'un ressort). A gauche, le bruit dépasse plus de 7 fois le maximum autorisé par les spécifications ATX (800 mVolts peak-to-peak contre 120mVpp autorisés), à droite il les respecte parfaitement ! Les deux mesures portent sur le même ordinateur, à quelques minutes d'intervalle. Cette différence ne tient donc qu'à la méthode de mesure.

 

Bruit mesuré avec bretelle de masse Bruit mesuré avec ressort de masse +12 Volts

 

Dans la pratique, réussir à poser le ressort de masse sur la broche d'un conducteur noir et la pointe de la sonde sur celle d'un autre pole n'est possible depuis le connecteur ATX 20 broche (le principal connecteur d'alimentation électrique de la carte mère) que pour les tensions 5 volts et 3,3 volts : toutes deux jouxtent un conduteur noir amenant la masse. Par contre, le conducteur jaune 12 volts est trop éloigné d'une broche de masse, et le ressort de la sonde trop court, pour pouvoir faire la mesure ici. Il faut donc chercher un point de test sur le connecteur d'un périphérique quelconque, toujours au plus court possible du bloc d'alimentation. Cette contrainte ne concerne pas le connecteur ATX 24 broches, qui offre un conducteur 12 volts et de masse suffisamment proches l'un de l'autre pour permettre la mesure.

Avant de livrer les résultats finaux de notre alimentation et la déclarer apte ou non à continuer le service après plus de 10 ans de fonctionnement, une nouvelle et dernière remarque de sécurité électrique est indispensable. En pratiquant des mesures à l'aide d'une sonde et d'un ressort de masse, on accroit encore (si c'était nécessaire !) les risques de court-circuit. Contrairement à une mesure au voltmètre, où inverser les polarités n'entraîne pas d'autre conséquence que de fausser l'affichage à l'écran (une tension positive devient négative et vice-versa), la même erreur avec un oscilloscope produit immanquablement un court-circuit. Toucher une polarité quelconque avec le ressort de masse la met en court-circuit avec la prise de terre, à laquelle est raccordé la masse de l'oscilloscope et donc le ressort de masse. Selon l'intensité déchargée vers la terre avant la coupure automatique de l'alimentation, des dommages pourront être infligés à l'oscilloscope. On prendra donc un soin particulier, en réalisant ces mesures, à éviter au ressort de masse tout contact avec un conducteur autre que noir ! Et croyez moi, cette petite aiguille aime à se glisser dans les mauvaises broches ! Consolation : on peut toucher par mégarde autant qu'on veut le châssis de l'ordinateur, lui-même étant la masse électrique, il ne se passe évidement rien.

Résultats de nos mesures

La conclusion de ce billet décrit comment lire les résultats de nos mesures d'ondulation et de bruit de l'alimentation du PC. Pour ce faire, nous devons déterminer si l'écart entre la valeur minimum et maximum de ces déformations (nommément l'ondulation et le bruit) restent inférieurs aux limites imposées par les spécifications ATX. Portant sur des valeurs min et max, on cherche donc à mesurer une tension "peak-to-peak".

Commençons comme d'habitude par regarder ce qu'affiche l'oscilloscope pour les trois tensions qui nous intéressent :

 

+12 Volts +12 Volts 
+5 Volts +5 Volts 
+3,3 Volts +3,3 Volts 

 

Nous pouvons tirer un coup de chapeau à l'électronique japo-taïwanaise; même âgés, les condensateurs de filtrage de cette alimentation font leur travail, c'est à dire contiennent efficacement les aspérités de nos trois tensions dans les limites exigées par les spécifications ATX : nous observons moins de 120 mVolts peak-to-peak pour le 12 volts (juste en dessous de la limite), moins de 35 mVolts peak-to-peak pour le +5 volts, là où la tolérance est de 50mVpp, moins de 50 mVolts peak-to-peak pour le +3,3 volts (juste à la limite là aussi). Ces mesures ont été réalisées l'ordinateur étant en fonctionnement, mettant ainsi l'alimentation en charge à 65% de sa puissance nominale. Compte tenu de nos points de mesure situés sur les connecteurs des câbles de l'alimentation et non sur l'alimentation elle-même, la réalité ne peut qu'être un peu meilleure que ce que nous montrent nos mesures. Par ailleurs, une inspection visuelle de l'intérieur du bloc d'alimentation (bien évidement hors-secteur et condensateurs déchargés) n'a montré aucun défaut visible parmi les condensateurs.

Apte pour le service et rendez-vous dans 10 ans.


Répondre  


Facile pamphlet du dimanche (je n'aime pas la SIM nano !)
Par Frédéric Dumas, dimanche 16 mars 2014 à 15:44 - HiTech

Avec le sens de la mesure qui me caractérise, je voudrais vous dire tout le mal que je pense de l'iPhone 5, pour ce que j'en connais : l'abandon du connecteur historique et l'adoption de la carte SIM nano.

Pour le connecteur, aucun commentaire : ça ne se branche plus là ou ça aurait dû se brancher. Tant pis pour vous.

Pour la carte SIM nano, ça soulève un peu plus de frustations. La carte SIM courante  (dite aussi SIM mini, la seconde sur l'illustration à droite) a un format physique normalisé qu'on utilise depuis 20 ans. Au début du siècle était normalisée la SIM micro (la troisième sur l'illustration à droite), il a fallu attendre une dizaine d'années pour la voir adoptée par les smartphones UMTS/3G). Dix ans plus tard (2011) apparaîssait la SIM nano (la dernière sur l'illustration) que l'iPhone 5 est à ce jour le seul à utiliser (en volume significatif) !

Un ami vient des Etats-Unis passer quelques jours chez moi, il me demande de lui acheter à l'avance une SIM prépayée locale. Il me précise qu'il possède un iPhone. À l'achat, je vérifie bien que la carte de l'opérateur est pré-oblitérée pour facilement se séparer en SIM micro.

Résultat des courses, vous le devinez : il possède un iPhone 5, la fameuse SIM nano est indispensable. Elle diffère de la SIM micro d'un gros millimètre sur un de ses bords, de moins d'un millimètre sur les autres. Pas d'inquiétude, je la lui rectifie fissa aux ciseaux de cuisine. Làs, ma SIM nano-faite-main est maintenant... trop petite d'un quart de millimètre, et passe à travers le minuscule chariot sur laquelle la déposer, dont l'arrête soutenant normalement la SIM a la largeur d'un poil de mollet de fourmis.

Mais pourquoi ?

Pourquoi en 2011 Apple poussait un tel format de carte SIM nano à l'ETSI, pour changer d'un ou deux millimètres la taille d'un bout de plastique normalisé depuis des années, ce qui aujourd'hui pose problème à des millions de clients auxquelles des anecdotes similaires arrivent forcément à travers le monde ? Pourquoi dans un environnement telecom massivement standardisé (c'est une formidable réussite de pouvoir emporter dans sa poche un combiné qui globalement sera capable de se connecter et s'authentifier partout dans le monde), Apple - le champion de l'ergonomie - introduit une disparité gênante dans la vie courante ? Où est l'innovation ? Pour gagner deux millimètres ?

J'ai du mal à croire que le routage du PCB de l'iPhone 5 soit si tragiquement optimisé, que ces quelques millimètres carrés de différence entre la SIM micro et la SIM nano soient indispensables. Au pire, l'iPhone d'Apple ne pouvait-il pas être un millimètre plus long ? Avec la marge de plusieurs centaines de dollars réalisée sur chaque vente, Apple aurait-il vraiment senti le coût de la matière première supplémentaire ?

Last and least, Apple me fait passer aux yeux de mon invité pour un benêt qui lui refile de la drouille (je plaide coupable, je n'ai pas d'iPhone), moi le Geek, et vous qui me lisez, nous à qui on s'adresse précisément pour nos bons plans, nos conseils, et pour se protéger de ce genre d'incidents.


6 commentaires - Répondre  


YABT (Yet Another Bitcoin Tutorial)
Par Frédéric Dumas, vendredi 07 février 2014 à 07:36 - HiTech

Graphique XBT/USD

Plus le taux de change de la monnaie créée à la fin de la décennie par "Satoshi Nakamoto" - le Bitcoin - grimpe contre dollar (1$ mi-2012, 10$ fin 2012, 100$ mi-2013, 1000$ fin 2013), plus les miners achètent et installent en batterie des ASICS capables de forger des bitcoins malgré la difficulté grandissante (ces équipements "du commerce" testent des milliards de digests par seconde, de quelques Ghash/s fin 2012 à quelques centaines fin 2013), plus se multiplient alors sur les blogs des articles et des avis personels, sur la désormais célèbre monnaie électronique.

Ce billet suit la tendance : son auteur n'a aucune autorité sur le sujet, mais s'en empare. Je ne fréquente pas assidûment les conférences ni ne lis tout ce qui s'écrit sur Bitcoin; j'ai de bonnes chances de cuisiner dans ce billet quelques erreurs et approximations. Cette "monnaie" repose sur des techniques qui ne nous sont pas familières; fouiller ses implications économiques, politiques et sociales entraine autant de questions nouvelles que n'apporte de réponses. Je m'en tiendrai donc à pousser quelques portes. Ma seule exigence, c'est de vérifier qu'elles ne se referment pas derrière moi, c'est à dire que je ne raconte pas n'importe quoi.

Ouvrir les bonnes portes, c'est aussi s'écarter de celles qui donnent sur quatre murs. Ce billet prend le contre-pied de conceptions erronnées associées à Bitcoin :

  • les bitcoins ne sont pas des pièces de monnaie électroniques, contrairement à ce que l'image du porte-monnaie laisse croire; mais que sont-ils alors ?
  • les bitcoins ne permettent pas les transactions financières anonymes, le système est construit au contraire pour garantir la tracabilité perpétuelle de chaque opération; tout au plus offre-t-il une forme de pseudo-anonymat ;
  • les bitcoins ne sont pas les mieux adaptés aux micro-payements, contrairement au ghetto dans lequel, faute d'y croire, on les cantonne habituellement.

Liquidités, mais sans monnaie

Bitcoin en piècesIl y a une image fausse du Bitcoin, celle de ces pièces scintillantes et entassées, forcément dorées ; elles sont frappées d'un B barré, singeant le dollar américain. On pourrait aussi les prendre pour des jetons de casino. L'illustration entretient le public dans l'illusion que les bitcoins sont des pièces électroniques. C'est la comparaison reprise dans la plupart des articles. On imagine ces bitcoins stockés dans un porte-monnaie (l'ordinateur de leur détenteur). Les faits divers rapportant le vol ("mon dépositaire s'est fait hacker") ou la perte de bitcoins ("j'ai formaté mon disque dur, tous mes bitcoins sont effacés") alimentent cette vision des choses. L'Autorité de contrôle prudentiel de la Banque de France elle-même parle du "risque de vols des bitcoins stockés sur un ordinateur". Pour comprendre où sont stockés et ce que sont les bitcoins, il faut recourir à un autre paradigme.

Qui a déja copié un fichier sur son ordinateur sait que cloner à l'identique est la caractéristique première de l'informatique. A vrai dire, échanger des fichiers est synonyme de les dupliquer : celui qui reçoît un fichier n'en prive pas celui qui l'envoie. Or, dans le cas de la monnaie, il est indispensable de dissocier ces deux propriétés : on cherche à faciliter l'échange mais aussi et surtout à s'opposer au clonage des "pièces". 

Pour concilier les deux exigences, la solution retenue par Satoshi Nakamoto consiste à publier et diffuser régulièrement vers tous les logiciels Bitcoin (qu'on pourrait par approximation appeler les "porte-monnaies") la totalité des transactions en cours. Toutes les 10 minutes environ, les transactions les plus récentes sont jointes ensemble en un block d'une taille variable (selon le volume de transactions). Ce block est une longue liste de tous les comptes ayant au cours des 10 dernières minutes émis ou reçus des bitcoins et de tous les montants impliqués dans chaque transfert. Ce block n'excède jamais la taille d'un méga-octet; anecdotique à ce stade, ce détail aura son importance plus tard.

Enfonçons donc une première porte ouverte. Les bitcoins ne sont pas ces pièces ou ces jetons qu'on imagine passer d'un porte-monnaie à l'autre. Contrairement à la croyance, ils ne sont pas stockés dans les "porte-monnaie" des utilisateurs. Les bitcoins n'ont pas d'autre existence que dans ce (très) long livre de comptes qui certifie le solde de chaque compte. Ce sont des unités dont on débite ou crédite des comptes et dont on tient scrupuleusement une comptabilité publique. En fait, Bitcoin est un vaste système public de compensation entre comptes, qui n'a d'autre existence que dans la block chain et les algorithmes du logiciel Bitcoin qui la manipule. Pas dans les fameux "porte-monnaie".

Block chainLes détails de chaque transaction sont diffusés publiquement pour ne pouvoir ultérieurement être falsifiés par personne. Les techniques de chiffrement à clés asymétriques certifiant la validité de ces blocks sont évidement beaucoup plus sophistiquées que ce résumé extrême. Je renvoie le lecteur voulant découvrir d'avantage ces mécanismes à cet excellent wiki sur Bitcoin.

Reste à comprendre ce qui arrive à ces malchanceux qui "perdent leurs bitcoins". Comment la disparition de leur "porte-monnaie" électronique peut les avoir "effacés", si précisément les bitcoins ne sont pas stockés localement, mais au contraire soigneusement et publiquement archivés dans la block chain ?

Il faut s'interroger sur ce dont est dépositaire en réalité le "porte-monnaie", le logiciel Bitcoin. Il ne détient jamais aucun bitcoin. Il détient les clés secrètes privées qui permettent d'autoriser les transferts depuis les comptes qu'il gère. Or, la force d'un système cryptographique à clés asymétriques est justement de tout faire pour qu'il soit impossible de "retrouver" une clé privée "perdue". Ce que malchanceux et imprévoyants perdent, ce ne sont pas leurs bitcoins, c'est la clé permettant de les dépenser. Les bitcoins, eux, restent attachés à ce compte désormais inutile, comme fossilisés dans la block chain.

Assez paradoxalement, il serait possible de continuer à créditer un tel compte dont on connait l'adresse (qui par définition n'est pas secrète) et d'augmenter ainsi leur encourt à fonds perdu. Ces bitcoins additionnels, ne pouvant plus jamais en être extraits, connaîtraient le confort du trou noir.

Pseudo-anonymat

L'ensemble des blocks, depuis ceux portant les toutes premières transactions de janvier 2009, constituent une information publique, ouverte, consultable par tous. Faites l'expérience d'installer et de commencer à utiliser le logiciel Bitcoin sur votre machine : sa première action est de télécharger la totalité de la block chain, morceau par morceau; il en vérifie au passage la complétude, comme les centaines de milliers d'autres clients Bitcoin en fonctionnement l'ont déjà fait. L'opération est d'ailleurs très laborieuse.

Inflation de la block chainRecensant et permettant de reconstituer la totalité des transactions passées pour la totalité des comptes existants, la taille de la block chain ne peut qu'être en inflation linéaire constante. En ce début d'année 2014, elle pèse une douzaine de gigaoctets. Toutes les transactions Bitcoin du monde entier tiennent donc encore sur un seul disque Blue-ray ! Le lecteur pourra vérifier si cette affirmation est toujours valide lorsqu'il lira mon billet.

Mais surtout, étant publique et ordonnée (sans être à proprement parler horodatée), la block chain permet à n'importe qui de prendre connaissance de tous les mouvements de bitcoins, depuis et vers n'importe quel compte. Là où nous sommes habitués à un relatif secret bancaire pour l'exécution de nos virements classiques, Bitcoin provoque au contraire la divulgation sans exception de toutes les transactions. Pourquoi alors flotte autour de Bitcoin cette réputation d'anonymat ?

Enfonçons une seconde porte ouverte. Pour transférer des bitcoins d'un compte à un autre, on a besoin de connaître l'adresse du compte bénéficiaire. Pour un usage commercial courant, on connaîtra évidemment l'identité du détenteur du compte dont on reçoit ou vers lequel on transfère les bitcoins. Mais contrairement au transfert bancaire classique, cette information n'est pas nécessaire. D'ailleurs, elle n'apparait nulle part dans les blocks. Nous connaissons l'identité du détenteur simplement parce que nous sommes en relation d'affaires avec lui.

Dès lors, pensent certains, si je ne dis à personne que ce compte m'appartient, je peux payer ou recevoir des bitcoins anonymement. Or, cet espoir repose largement sur un effet d'optique et sera le plus souvent déçu.

Loupe a la traceRappelons-nous que la block chain donne à connaître toutes les transactions passées et présentes de tous les comptes. Divulguer son identité pour une transaction (auprès d'un bureau de change de devises en ligne par exemple) donne à celui qui possède ce lien entre l'adresse d'un compte Bitcoin et l'identité d'une personne, la connaissance de toutes les transaction passées par cette personne. En sens inverse, en suivant la trace des transactions passées propres à un compte donné, retrouver et interroger les personnes ou les organismes qui ne font pas mystères, eux, de leur identité, et qui connaitraient celle de l'inconnu, est également faisable. Les Douanes en ont récemment fait la démonstration en interrogeant une plateforme de change pour connaître l'identité d'un client détenteur d'un compte Bitcoin utilisé pour un trafic de drogue "anonyme" et interpeler ensuite l'individu par des méthodes classiques.

Pour exister, l'anonymat devrait être scrupuleusement respecté pour toutes les transactions d'un compte donné, sans exception. Celui qui cherche à conserver son compte Bitcoin strictement anonyme devrait n'y recevoir des bitcoins que de personnes ou organismes qui ignorent qui il est vraiment, et n'en transférer qu'à des personnes qui ignorent de qui elles reçoivent ce payement. Dans la vie de tous les jours, celle dans laquelle Bitcoin se propose comme un nouveau moyen de payement, ces conditions draconiennes pour rester réellement anonyme ne sont jamais remplies !

En fait, à chaque fois que nous lions notre compte Bitcoin à notre identité réelle, nous brisons l'anonymat et laissons voir à tous ceux qui seraient en possession de cette information l'ensemble de nos transactions passées. Parmi beaucoup d'exemples, c'est un pouvoir phénoménal offert aux marchands en ligne, qui pourraient reconstituer en parcourant la block chain nos habitudes d'achats, à toutes les époques. Utiliser des comptes Bitcoin différents pour chaque transaction, dans l'espoir d'interdire les rapprochements, n'est qu'une protection incertaine: à un moment ou un autre, on souhaitera bien consolider les sommes éparpillées sur tous ces comptes. Une analyse un peu poussée de la block chain dévoilera ces corrélations; gageons que les logiciels pour le faire existent ou sont en cours de développement. L'histoire des remailers me laisse dubitatif face aux services de mélange des bitcoins. Au mieux pourra-t-on gêner un peu le travail des pisteurs les moins persévérants, sans jamais se cacher définitivement.

Europe sans cashQuoiqu'en pensent les libertariens, l'incapacité de Bitcoin à garantir l'anonymat est sans doute plus un atout qu'un handicap. Elle permet d'écarter une objection très forte formulée par les Etats, qui rejetteraient sans aucun doute dans l'illégalité un moyen de payement moderne vraiment anonyme. Il n'est qu'à voir les efforts en Europe pour limiter toujours davantage la possibilité d'utiliser des espèces. Par conception, les traces consignées par Bitcoin dans la block chain rendent au contraire possible le travail des enquêteurs de tous bords. L'utilisateur d'aujourd'hui ferait bien d'en prendre conscience.

Grosse monnaie contre micro-payements 

Une troisième et dernière idée fausse consiste à voir en Bitcoin le moyen par excellence des micro-payements, ces payements d'un ou deux euros pour la transaction desquels les cartes de crédit sont réputées prélever des frais astronomiques en comparaison de la somme en jeu. Faute de mieux, la solution habituellement retenue pour ces payements de très petits montants repose sur l'envoi de SMS "premium" depuis le téléphone mobile.

L'idée que Bitcoin est adapté aux micro-payements pourrait avoir deux origines :

  • Inconnu dans le commerce traditionnel, Bitcoin est actuellement sur-représenté sur les seuls sites web l'utilisant pour collecter des dons, qu'on imagine être de faibles montants. Cet usage participe à son image. L'arrivée de Bitcoin en 2014 sur des sites web marchands américains de premier plan changera la donne.
  • L'absence de système bancaire prélevant une commission au passage laisse faussement penser que les transactions par Bitcoin sont gratuites, ou au moins d'un coût forcément très faible. Ce qui est vrai aujourd'hui pourrait ne plus l'être demain.

Le wiki Bitcoin déjà cité donne quelques comparaisons éclairantes entre les capacités du réseau bancaire traditionnel et le réseau Bitcoin, en nombre de transactions à la seconde :

  • Visa est ainsi estimé supporter jusqu'à 10.000 transactions par seconde, avec un rythme de croisière d'environ 2000;
  • Paypal est estimé en supporter 100 fois moins, soit une centaine par seconde avec un rythme de croisière moitié moindre (environ 50);
  • Bitcoin est lui limité à 7 transactions par seconde, avec une charge aujourd'hui observée de moins d'une transaction par seconde.

Pourquoi une telle limite propre à Bitcoin ? Rappelons l'existence de deux constantes évoquées plus haut et liées au protocole lui-même :

  • un block réunissant les dernières transactions ne peut excéder une taille d'un méga-octet;
  • il faut environ 10 minutes pour calculer un block;
  • ajoutons enfin une variable : une transaction a une taille moyenne de 250 octets.

Bitcoin loadPar construction, et sans préjuger d'évolutions futures du protocole Bitcoin relevant ces limites, on comprend que le nombre de transactions ne peut être beaucoup supérieur à 4000 par block, toutes les 10 minutes. Quand on voit la différence de plusieurs magnitudes entre le trafic Bitcoin et le trafic Visa (un demi million de transactions possibles par tranche de 10mn chez Visa), on sait qu'une situation de congestion sur le réseau Bitcoin n'est pas théorique, mais se produira nécessairement avec sa popularité croissante. Dès lors qu'il y aurait plus de transactions dans cette fenêtre de 10mn que le block ne peut en agréger ensemble, sur quel critère choisir d'inclure telle transaction au dépend de telle autre ?

C'est là qu'interviennent les frais de transactions, payés par l'émetteur, et perçus par ceux qui attachent les transactions en block (les miners). Ces commissions sont consenties à la discrétion de celui qui émet le payement, elles peuvent varier pour chaque transaction et même être égales à zéro. Cependant, il n'est pas difficile d'imaginer que les miners privilégient en priorité l'inclusion dans le block des transactions leur rapportant les plus fortes commissions. Les transactions présentant à la demande de l'émetteur les frais les plus faibles seront au pire ignorées, au mieux traitées avec retard.

Enfonçons une troisième et dernière porte ouverte: quels sont les transactions pour lesquelles l'émetteur aura le plus de réticence à accepter des frais élevés ? Les micro-payements, évidemment. En ce début d'année 2014, le volume des transactions ne sature pas la capacité de 7 transactions par seconde du réseau Bitcoin. Aussi, les miners conservent un intérêt à attacher à chaque block toute transaction qui se présente: quelque soit la commission associée, même nulle, son exécution ne se fera pas au détriment d'une autre mieux rémunérée. Mais au fur et à mesure de l'accroissement du volume des transactions, un arbitrage deviendra nécessaire entre elles. Les transactions à faible commissions deviendront donc de moins en moins prioritaires. Au premier rang desquelles les micro-payements.

Par construction, Bitcoin favorise ainsi la rapidité d'exécution des transactions qui rémunèrent le mieux les miners (vraissemblablement les transactions de forts montants vers un petit nombre de bénéficiaires) et désavantage les transactions qui les rémunèrent le moins bien (vraisemblablement les micro-payements). L'avenir dira si les micro-payements conserveront une place dans le système, à condition de consentir à des délais d'exécution très rallongés.

Contrairement à son image de monnaie bien adaptée aux payements de coin de table, cette caractéristique oriente Bitcoin vers un rôle de monnaie faite pour payer les "vrais" achats.

Merci au lecteur de rectifier par ses commentaires les contre-sens que j'aurais pu commettre dans ce billet.


Répondre  


iOS 7 sécurise iPhone et iPad contre le vol (rappel)
mardi 15 octobre 2013 à 11:20 - HiTech

Petit rappel important sur iOS 7 ! En tant qu’utilisateur d’iCloud, les nouvelles fonctionnalités intégrées dont vous bénéficiez et qui sont intégrées à Localiser mon iPhone vont rendre la tâche plus difficile à quiconque voudrait utiliser ou vendre votre appareil s’il venait à être perdu ou volé.
Quand Localiser mon iPhone est activé sur iOS 7, votre identifiant Apple et votre mot de passe seront toujours requis avant de pouvoir :
désactiver Localiser mon iPhone sur votre appareil ;
effacer votre appareil ;
réactiver et utiliser votre appareil.
Vous n’avez rien à faire, à part maintenir Localiser mon iPhone activé et vous souvenir de votre identifiant Apple et de votre mot de passe. Pour plus d’informations, veuillez consulter la Foire aux questions.
Remarque : Comme toujours, si vous envisagez de donner votre appareil à quelqu’un d’autre, assurez-vous d’effacer tout le contenu et les réglages avant de le céder au nouveau propriétaire. Ceci supprimera l’appareil de votre compte pour permettre au nouveau propriétaire de l’activer. Pour plus d’informations, veuillez consulter l’article Procédure à suivre avant de vendre ou de céder votre iPhone, iPad ou iPod touch.

Répondre  


Liquide, vous avez dit liquide ?
Par Frédéric Dumas, vendredi 29 mars 2013 à 16:22 - HiTech

Logo du CeBITC'est un coup de coeur pour deux sociétés innovantes rencontrées au CeBIT de Hanovre ce mois-ci qui me fait écrire un billet à leur sujet. La première, BOSSG (installée à Wrocław en Pologne), détruit les disques durs de ses clients en les... liquéfiant. La seconde, Redpixtec (installée à Wiesbaden en Allemagne), offre un moyen de payement dématérialisé sur les lieux de vente grâce aux QR Codes, et compatible avec tout smartphone. Ces sociétés ont en commun la radicalité de leur solution (difficile de faire mieux que la liquéfaction ou le payement sans moyen de payement) et leurs noms imprononçables. Sans surprise, l'une comme l'autre communiquaient au CeBIT principalement sur son procédé, respectivement Liquidata et Paij. Ces noms là sont nettement plus faciles à retenir.

Un des "villages" polonais au CeBITJe souffre d'un tropisme polonais, pour des raisons familiales et professionnelles depuis quelques années. Coïncidence, la Pologne était partenaire privilégié du CeBIT 2013 et ses entreprises regroupées en "villages" dans presque tous les halls du salon. C'était un plaisir d'y trouver parmi elles la première de ces deux entreprises innovantes.

Un mot pour s'affranchir des idées reçues. De la Pologne, on imagine que le coût de la vie (et donc toute la chaîne jusqu'aux rémunérations) y est grosso-modo deux fois moins élevé qu'en France. C'est vrai. Moins connu, et pourtant tout aussi vrai, la Pologne est un pays d'excellents ingénieurs, particulièrement dans l'IT. Au point qu'une voix autorisée comme celle de Ramon Tancinco (responsable de la stratégie, des opérations et du développement à Cisco pour l'Europe de l'Est) compare explicitement Cracovie à Bombay et la Silicon Valley pour ses capacités d'outsourcing et d'innovation.

Je reviens à mes moutons, en commençant par la destruction des disques à la sauce polonaise. Les institutions telles que les banques, les organismes gouvernementaux, l'armée et les diverses officines ont besoin de détruire leurs supports de stockage numériques avant de les jeter, pour garantir l'irrécupérabilité des données par des tiers non-autorisés. On se rappelle de l'émoi provoqué par les pertes de supports numériques en série (ordinateurs portables volés, disques optiques égarés) par les services britanniques dans les années 2007-2008 pour comprendre l'importance de leur destruction quand ils sont réformés.

Limaille de plateaux magnétiquesDans un environnement professionnel classique, on se contentera d'une re-écriture répétée de données aléatoires sur la totalité de la surface du disque. Les plus déterminés passeront le disque à l'électro-aimant, ce qui le rendra inutilisable, les secteurs portant le firmware utilisé par son contrôleur interne se trouvant alors effacés eux aussi. Mais des travaux académiques montrent qu'il est encore possible en salle blanche d'accéder aux données originales, même après de tels traitements. Les moyens mis en oeuvre pour "détruire" les plateaux magnétiques de manière plus radicale vont donc être physiques: on découpe, on lacère et on broye en morceaux plus ou moins fins, selon la sécurité recherchée. Le croirez-vous, la densité d'enregistrement de nos supports magnétiques modernes est telle qu'il est possible de retrouver des fichiers intacts sur des morceaux de quelques millimètres carrés. Un risque que certains ne voudront pas prendre. 

Un article de la BBC estimait à plus d'un milliard de livres sterling la valeur pour la mafia des données nominatives perdues sur deux disques par l'administration britannique en 2007. On comprend que des moyens considérables puissent être mis en oeuvre pour une fraction de ce prix et permettent de récupérer des données sensibles sur des disques insuffisament "détruits". Tout n'est question que de valeur de l'information et de coût de sa récupération.

Du disque au liquideJe n'y ai jamais eu recours moi-même, mais j'observe que parmi les sociétés offrant des services de destruction plus ou moins protecteurs, leurs offres se perdent dans les détails pour parvenir à se différencier : finesse des morceaux, hauteur de coupe entre les plateaux et le corps du disque, nombre et profondeur des coupes dans le contrôleur électronique, nombre de passes au démagnétiseur, recyclage des métaux récupérés, etc. Ce qui m'a fait m'arrêter sur la solution Liquidata, c'est sa radicalité, qui met tout le monde d'accord: leur labo mobile (un camion) arrive dans les locaux de leur client, ils lui transforment ses plateaux magnétiques en liquide neutre, et pour la touche écologique (et probablement pour répondre d'avance aux derniers arguments de la concurrence), ils peuvent séparer et recycler les métaux. Le génie de Liquidata, c'est qu'on arrête d'ergoter sur les niveaux de sécurité, la finesse des copeaux et les prix qu'on met en face. Pas d'autre choix que de récupérer nos disques dans une éprouvette et d'arroser nos plantes avec. Ça cloue le bec à... tous les autres.

J'ai cru un moment à tort que la solution était encore en phase de rodage, que l'installation dans un camion de leur labo trahissait le besoin de "faire des démonstrations" et sur le stand j'ai poussé la discussion sur des détails pratiques. On m'a répondu que l'installation mobile du laboratoire est conditionnée par le souci des clients de ne pas faire voyager leurs disques loin de leurs locaux avant destruction. L'offre est d'autant plus attractive quand le moyen de destruction vient à la rencontre du client, et s'aligne en ça sur celles d'autres sociétés du secteur. Au rythme des commandes qu'ils reçoivent actuellement en Pologne, le labo mobile est amené à faire le tour du pays chaque semaine. Une courte vidéo permet de visualiser les opérations qu'on y réalise.

 

 

En réponse à mes questions, les chiffres étaient meilleurs que ceux auxquels je m'attendais: quelques centaines de disques peuvent être détruits par jour dans leur labo en situation normale, et jusqu'à 1500 en mobilisant une dizaine de personnes; les coûts s'étagent de 5 à 50 euros l'unité transformée en liquide, selon le volume traité dans la journée chez le client. Et preuve qu'on est bien dans un traitement industriel et non dans une campagne de communication, toutes les manipulations réalisées sur les disques dans le laboratoire sont enregistrées en vidéo; l'enregistrement est ensuite fourni au client avec le certificat de destruction de chaque disque.

Tarification Internet au CeBITCe billet est le résultat de l'intérêt qu'a suscité cette société chez moi: elle offre un très bel exemple d'innovation sortie du laboratoire et associée à la logistique adaptée pour devenir un beau produit commercial. Quand arrivera la version polonaise de la vidéo diffusée actuellement en allemand, je m'occuperai de la traduire en français. Cette société mérite d'être aidée dans son développement.

Il leur reste maintenant à concevoir le procédé pour dissoudre... les mémoires de masse SSD !

Au passage, voici à droite la tarification de l'accès Internet Wi-Fi dans les halls du CeBIT (cliquez pour agrandir). Question: avaient-ils, eux, des clients ? 

 

----

 

J'en arrive à présent à la deuxième société innovante qui a retenu mon attention.

Au siècle passé, j'avais écris un billet sur des applications machine-to-machine et des formes de paiement électronique utilisant notre téléphone mobile comme moyen principal. Dans ces exemples observés en 1999, il était question de glisser une carte bancaire dans le téléphone, ou de commander un distributeur de boissons par SMS. C'était l'époque où les blogs n'existaient pas encore sur l'Internet, et si vous suivez ce lien, vous verrez que ce n'est pas jeune.

Aucune des solutions de paiement envisagées à l'époque n'a été adoptée à grande échelle, tout au plus paye-t-on aujourd'hui quelques gaudrioles à l'aide de SMS surtaxés et peut-on parfois acheter son billet de tram par ce moyen dans certaines villes.

Paij - Tablet et smartphoneAvec Paij et les QR Codes, les choses changent. Ici l'usage vise tous les commerces et pas seulement les micro-paiements. Et il n'est pas question d'équiper l'utilisateur d'un quelconque matériel supplémentaire (carte Monéo, smartphone NFC comme on tente d'y accoutumer le public) dont la très lente pénétration (202 smartphones NFC recensés dans le monde sur plus de 5000 modèles, pour une technologie qui a déjà 10 ans) est un obstacle à l'adoption massive.

Imaginons régler nos achats en caisse. Sur notre ticket de caisse, un QR Code imprimé. Il suffit de le scanner avec notre smartphone, quelque soit sa marque. Le QR Code renvoie à une page web, comme c'est sa fonction, sur laquelle apparaissent déjà préparés tous les éléments de la transaction: le nom du commerçant, celui de l'acheteur, le montant à payer. Ne reste qu'à valider la transaction à l'écran du smartphone, pour que la caisse enregistreuse reçoivent confirmation de son exécution. N'est-ce pas génial de simplicité ? A-t-on déja fait aussi efficace avec aussi peu de moyens ? C'est la solution "toute logicielle" proposée par Paij. Finalement, le QR Code généré par Paij automatise la rédaction de ce qui n'est rien d'autre qu'un ordre de virement entre deux comptes Paypal. La simplicité est très convaincante vue du client. Aujourd'hui opérationnel avec le compte Paypal des utilisateurs, ce moyen de paiement sera ultérieurement compatible avec leur carte bancaire. Paij s'appuiera-t-il sur le portefeuille Google pour celà ? Je n'ai pas posé la question.

L'indépendance vis-à-vis des solutions matérielles (carte SIM NFC, porte-monnaie électronique type Moneo, etc.) donne envie de rêver au succès de Paij. Car ce qui est en jeu ici ne concerne pas le remplacement de la carte de crédit par le téléphone mobile, simple substitution d'un objet par un autre. Très au-delà de ça, en affranchissant le point de vente et le client d'un moyen physique de payement lié à un réseau bancaire en particulier, Paij ouvre la porte au libre choix par l'un et l'autre de leur intermédiaire financier pour sceller la transaction sur le lieu de vente. La dématérialisation du moyen de payement  par le QR Code apporte un peu la même libertée que le libre choix au début du siècle de son opérateur de téléphonie en présélection ou appel par appel. Aussi, l'enjeu est ici un rééquilibrage entre le pouvoir de négociation des banques et celui de leurs clients, professionnels et privés, au profit de ces derniers. Il est peut probable que le système bancaire encourage l'initiative.

Chez le commerçant et son prestataire de services, il faudra interfacer la plateforme Paij avec le système informatique d'encaissement, à condition que les caisses enregistreuses soient capables d'imprimer ou d'afficher à l'écran un QR Code. Mais c'est alors espérer la collaboration d'une demi-douzaine d'acteurs, de tous ceux qui forment la chaîne permettant à un système d'encaissement centralisé de réconcilier factures et payements. En fait, c'est là que le rêve se brise.

Paij - Transaction en coursLe monde des "réseaux à valeur ajoutée" ancêtres de l'Internet et de l'informatique dématérialisée, encore basés sur X.25, X.400 et l'EDI, règne largement sur les transactions financières. Je ne sais pas jusqu'où Paij en serait dépendant. Mais accéder aux caisses enregistreuses exigera probablement de passer par eux. C'est un monde oligopolistique, conservateur, où les nouveaux entrants susceptibles de prendre une part du gâteau sont encore moins bien vu qu'ailleurs, sauf à exténuer leur marge au bénéfice des acteurs en place. Paij en est probablement conscient. C'est pourquoi leur solution ne fonctionne pas comme je l'ai jusqu'à présent révée. J'ai commencé par la fin: l'interfaçage avec les caisses est un but visé par Paij, mais pour plus tard.

Pour l'heure, faute de pouvoir accueillir Paij directement sur ses caisses enregistreuses, le commerçant est invité à équiper ses caissières d'une tablette Wi-Fi ou 3G et de l'application Paij. La caissière saisit manuellement sur la tablette la somme à payer et l'application Paij génère un QR Code à l'écran, différent à chaque nouveau client. Le client photographie l'écran de la tablette qu'on lui présente et à partir de là, son smartphone lui permet de valider le payement comme déjà vu.

Mais les commerçants vont-ils se convaincre aisément d'équiper chaque caisse d'une tablette, même si celles-ci voient leur prix toujours baisser ? Que devient l'avantage compétitif de cette solution "toute logicielle" si comme les autres, elle exige la présence d'un nouvel équipement dédié ? Qui va croire que la saisie manuelle sur un appareil indépendant se fera sans erreur et sans ralentir encore les queues ? Quel degré de facilité rencontreront les commerçants pour réconcilier les sommes facturées et les transactions financières effectivement validées ? Ces questions rapides ont sans doute des réponses sensées, mais me font douter que la diffusion de ce moyen de payement soit plus aisée que ce que j'ai vu plus de 10 ans auparavant.

Une "jeune pousse" a-t-elle les moyens de faire bouger les lignes ? Je n'ai pas discuté de leur stratégie avec mes interlocuteurs sur le stand pour suffisamment la comprendre. Cherchent-ils à faire fonctionner une preuve de concept opérationnelle, à enregistrer une série de succès localisés, pour intéresser un gros acteur type Google (qui commence, au-delà de son porte-monnaie en ligne, à marcher sur les plate-bandes d'Amazon) ? Quand on voit la difficulté des plus grands à faire adopter leurs moyens de payement (T-Mobile en Pologne pousse actuellement ses cartes SIM NFC utilisable sur les terminaux de payement adaptés, sa vidéo sur Youtube n'a été vue que... 9404 fois), on a du mal à se convaincre que la solution viendra de petits acteurs prometteurs.

Et c'est pourtant tout ce que je souhaite à Paij de réussir à faire.


Répondre  


Articles suivants >>>