Archive des chroniques "Cybernotes de Bertrand Salvas", telles que publiées dans le magazine "Entracte"
de la Chambre des notaires du Québec et autres contributions en droit des technologies de l'information.

Juillet 2011 >>> Robot, chrono, tableau

Depuis des années, Hollywood nous sert à intervalle régulier des histoires futuristes où des robots prennent le contrôle de la terre et asservissent les humains. Cette idée s'alimente de la crainte que nous éprouvons tous, à des degrés divers, face au développement technologique. J'imagine que nos ancêtres ont vécu les mêmes angoisses en inventant la roue, la poudre à canon, ou l'imprimerie. Chaque nouvelle invention nous facilite certes la vie, mais comporte aussi son lot de questionnements et d'incertitudes qui nous amènent souvent à nous demander si nous n'allons pas un peu trop loin cette fois-ci. Mais, invariablement, nous poussons quand même un peu plus le bouchon, cherchons la limite, jouons avec le feu, etc.

R2D2 appelle C3PO

Il faut quand même admettre que notre société actuelle ressemble de plus en plus à certains films de science-fiction. L'actualité technologique nous en donne d'ailleurs de nombreux exemples. Le premier vient de l'annonce du projet RoboEarth (1), qui est carrément un réseau mondial réservé... aux robots! Pas question pour nous, pauvres humains, de nous y connecter pour naviguer ou y prendre nos courriels. Aucun être vivant, sauf ceux chargés de l'entretenir, ne peut y accéder. RoboEarth cherche à standardiser et à fédérer les robots du monde entier en leur permettant de communiquer directement entre eux et ainsi s'échanger des informations sans intervention des simples mortels qu'ils servent. Par exemple, un robot installé dans une usine alimentaire en Pologne pourrait, si on lui demande de préparer des pâtés chinois, communiquer directement avec le robot personnel de Josée DiStasio pour obtenir la recette. Le tout sans que Mme DiStasio ni le propriétaire de l'usine ne le sachent.

D'accord, la chose est certainement un peu plus compliquée que la vision simpliste que je vous présente! Il est d'ailleurs assez facile d'entrevoir les avantages d'un tel système en matière industrielle, et de comprendre que nos ingénieurs pourront s'en servir pour construire sur leurs acquis communs plutôt que de devoir constamment réinventer la roue. Mais s'il fallait que les robots l'utilisent un jour pour prendre le contrôle de la planète? Un doute m'assaille.... Gulp...

60, 59, 58...

Il faut de toute façon être un robot pour suivre le rythme effréné de la vie sur le Web. Le recours à des systèmes automatiques est tout à fait inévitable. Voici donc une minute dans la vie d'Internet (2).

En 60 petites secondes, pas moins de 168 millions de courriels circuleront sur le Web. L'histoire ne dit cependant pas combien vantent les mérites de certains produits augmentant le volume de certaines parties de nos corps... Pendant la même période, 70 nouveaux noms de domaine, soit plus d'un à la seconde, seront enregistrés. Votre admiration pour les prouesses techniques et le personnel de Google augmentera quand vous saurez que leurs serveurs traitent près de 700 000 requêtes à la minute ! Je ne sais pas pourquoi, mais cette nouvelle me rappelle soudainement le Registraire des entreprises...

Les réseaux sociaux ne sont évidemment pas en reste. Ainsi, chaque minute, 320 nouveaux comptes Twitter sont créés et 100 000 « tweets » sont rédigés. Pendant la même période, 600 vidéos sont téléchargés sur YouTube, et Facebook verra près de 700 000 mises à jour de ses statuts, 80 000 messages sur les murs et un demi million de commentaires ! Ouf ! C'est vraiment tout un nuage !

Du pire et du meilleur sur Facebook

Parlant de Facebook, je ne cesse de m'étonner à quel point ce site est devenu un incontournable sur le Web. Combien de compagnies combinent maintenant leur propre site maison à une page Facebook ? Combien d'internautes commencent leur navigation par une visite sur leur page FB, combien de campagnes publicitaires y démarrent et combien de mouvements populaires y sont lancés ou alimentés ? Facebook n'est plus un simple site parmi tant d'autres. Il est carrément devenu, face au Web, un genre d'État dans l'État. Il a littéralement provoqué un détournement de Web !

Une telle popularité emporte son lot d'histoires à raconter où on retrouve tant du bien que du mal. Deux nouveaux exemples nous sautent aux yeux au moment d'écrire ces lignes.

Tout d'abord un premier tiré du côté sombre de la force, en la personne de cette jeune américaine qui, poussée à bout par son ex-conjoint, écrit sur son profil qu'elle offre mille dollars à quiconque se chargera de le tuer ! Rien de moins... Moment de colère, signe de frustration, offre sincère, qui sait. Mais la chose a intéressé au moins un visiteur de son profil, et qui a offert ses services à la demoiselle. Heureusement, des connaissances communes des deux ex-tourtereaux auront averti la victime potentielle, le complot fût tué dans l'oeuf, expédiant ex-petite amie et assassin en herbe derrière les barreaux. La morale du conte, c'est qu'il faut y penser à deux fois avant d'écrire n'importe quoi sur un réseau social (3).

Facebook peut pourtant être mis à contribution de manière plus constructive. Ainsi l'Islande utilise les réseaux sociaux dans le cadre de la révision de sa Constitution (4). Les comités gouvernementaux en charge du projet y affichent le résultat de leurs travaux au fur et à mesure de leur évolution, utilisant le réseau comme un forum populaire pour recevoir les commentaires des citoyens et échanger avec eux pour faire progresser la réforme. Je serais curieux de constater comment un tel outil aurait changé le cours de notre propre réforme constitutionnelle dans les années 80 ! En tout cas, une nuit des longs couteaux annoncée sur Facebook aurait certainement eu moins de chances de réussir...

Une « frette » ou une tablette ?

Il y a un peu plus d'un an, l'arrivée des premiers Ipad était accueillie avec une certaine incrédulité par les observateurs du milieu. En bref, on trouvait l'idée géniale, mais on se demandait à quoi un tel bidule pourrait bien servir.

Beaucoup ont déchanté depuis, car l'Ipad aura carrément servi à lancer une nouvelle révolution dans le petit monde technologique, si bien que nous assistons maintenant à une avalanche de produits concurrents. Et le mouvement est fondamental, Microsoft annonçant récemment l'arrivée en 2012 de Windows 8, qui sera bâti dès le départ pour un usage en environnement tactile. Bien qu'une interface classique pour les antiques ordinateurs à clavier et souris (!) restera disponible, tout le système d'opération sera conçu pour animer des tablettes et autres appareils sans clavier. Faites marcher vos doigts...

À la prochaine!



Juin 2011 >>> Hey, Steve ! Arrête de me suivre !

Si vous regardez un tant soit peu la télévision au Québec, vous ne pouvez pas ne pas avoir subi au moins une fois l'un de ces commerciaux d'une compagnie de téléphonie cellulaire mettant en scène un groupe d'adolescents vivant toutes sortes d'aventures technologiques ridicules. Incarnés par des comédiens pourtant en âge d'avoir eux-mêmes des ados, ces commerciaux nous montrent à l'occasion comment leurs merveilleux appareils permettent de savoir, en temps réel, où se trouvent leurs amis. Quelle merveille, non ?

Cette merveille a un nom, la géolocalisation. En gros, on y combine les technologies du GPS et de la détection des ondes cellulaires pour déterminer précisément où se trouve un individu (ou plutôt son téléphone) à un instant déterminé. Je dois avouer que ces commerciaux, au départ plutôt agaçants en soi, m'ont toujours aussi dérangé à cause de mon allergie fondamentale face à toute atteinte à la vie privée. L'image des petites photos des amis de nos zigotos se promenant sur une carte routière à l'écran d'un cellulaire, censée faire la démonstration de la modernité et du caractère « cool » des appareils annoncés, me rappelait plutôt les termes de la Loi sur le cadre juridique des technologies de l'information : « [...] nul ne peut exiger qu'une personne soit liée à un dispositif qui permet de savoir où elle se trouve. » (1)  Je me suis en effet toujours demandé si le consentement des utilisateurs de ces téléphones intelligents était effectivement obtenu, et ce, de manière libre et éclairée...

La loi ne fait aucune distinction entre les types de technologies. On dit, à ce sujet, qu'elle fait preuve de « neutralité technologique ». Ses termes s'appliquent donc à tout type d'appareil qui répondent aux critères ou participent aux actions qu'elle décrit, qu'il s'agisse bien sûr d'ordinateurs, mais aussi de téléphones cellulaires, intelligents ou pas, tablettes informatiques, ou encore de lecteurs MP3, fours micro-ondes, automobiles, grille-pain ou n'importe quel gadget offrant un accès Internet. La palette ne faisant que s'étendre, ce n'était qu'une question de temps avant que l'épine de la géolocalisation ne s'enfonce douloureusement dans notre pied.

Le gâteau a atteint le ventilateur (2)  le mois dernier, quand des usagers ont découvert un fichier système propre aux iPhones et iPads, stockant toute localisation de l'appareil pendant un an. En clair, le système de votre appareil tient un journal de tous les endroits que vous avez traversés avec lui, dans un langage clair et non sécurisé, officiellement aux fins de faciliter vos connexions subséquentes... Le problème tient justement au fait que personne chez Apple ne s'entend pour dire à quoi sert vraiment ce dispositif, pour qu'elle raison il se trouve dans les appareils, ni qui peut y accéder. Le fait que ce fichier soit conçu pour se sauvegarder et se synchroniser avec tout appareil rattaché à votre copie de iTunes, qu'il survive à toute réinstallation/reformatage du système et que certains représentants d'Apple ont déclaré avoir appris par les médias son existence pour ensuite présenter ses principaux risques comme des « bogues » à corriger, laisse aussi plusieurs observateurs perplexes. Si, au pire, nous nous trouvons ici en présence d'intrusions dans la vie privée des gens, le meilleur scénario nous laisse quand même face à un risque de sécurité pour les usagers et à une attitude plutôt légère d'Apple en matière de confidentialité.

Graphique établi à partir de vraies données de géolocalisation retrouvées dans un iPhone 4



(réf : http://radar.oreilly.com/2011/04/apple-location-tracking.html)

La bonne, même très bonne nouvelle dans tout ça, c'est que les décideurs du monde entier n'ont pas pris la chose à la légère. Se pourrait-il qu'ils soient enfin sensibilisés aux questions de protection de la vie privée? L'Europe, qui fait office de précurseur dans le domaine, a déjà montré ses couleurs en dévoilant son intention de réviser ses politiques afin de faire en sorte que les données de géolocalisation soient considérées comme des données personnelles, avec toute la protection qui vient avec (3). Mais toujours est-il que certains sénateurs américains ont également pris les choses très au sérieux, et ont convoqué Apple mais aussi Google et Microsoft à comparaître devant un comité pour exposer leur point de vue sur les questions de sécurité de confidentialité liées à l'usage des téléphones cellulaires. Les présentations préliminaires des compagnies n'ont pas apporté grand-chose sauf des contradictions avec leurs déclarations précédentes, aussi il sera intéressant de voir les suites de cette comparution. Mais déjà, le problème de la localisation des usagers d'Internet par les compagnies de marketing fera déjà l'objet d'un projet de loi américain imposant que la possibilité soit offerte aux usagers de se retirer de tout tel système (4).

Tout ceci vu sous le spectre de l'intérêt manifesté pour ces questions par le président lui-même, nous permet d'espérer enfin l'arrivée d'un vent de protection des individus en provenance des États-Unis. Et pour une fois, souhaitons que le gouvernement fédéral poursuive dans sa politique d'agir comme une succursale de Washington, ne fasse pas sa fine bouche, et nous permette d'en bénéficier. Encore une fois, affaire à suivre...

Dis Bill, tu veux bien m'acheter?

J'ai eu une idée géniale ce matin... Je vais fonder une entreprise. (Rassurez-vous, je vais la constituer au fédéral car je souhaite recevoir mes statuts avant Noël!) J'irai chercher du financement public et bancaire, et j'offrirai des services gratuits sur Internet. Quels services au juste? Aucune idée! Ce n'est pas pertinent... L'important, c'est que ça ne coûte rien, afin que le plus de gens possible s'y inscrive.

Ensuite, une fois que j'aurai des millions d'abonnés, que la compagnie croulera sous les dettes et générera de solides pertes, récurrentes, régulières, j'irai voir mon ami Bill et lui offrirai de m'acheter pour plusieurs millions de dollars. Ma fortune est faite! Palm Beach, me voila! Et pour ceux qui croient que je suis fou, rappelez-vous que cette semaine, Microsoft a payé 8,5 milliards de dollars pour Skype, compagnie ayant généré l'an dernier sept millions de dollars de pertes sur environ 900 millions de revenus, et comptant des dizaines de millions d'abonnés ne payant pas un sou à l'entreprise. Moi qui croyais que la bulle technologique avait éclaté il y a dix ans...

À la prochaine!




(1)  Article 43, alinéa 2
(2)  Adaptation polie et très personnelle d’une l’expression anglaise que je ne citerai pas ici…
(3)  L'Europe veut faire de la géolocalisation une donnée personnelle,  13 Mai 2011, http://www.numerama.com/magazine/18787-l-europe-veut-faire-de-la-geolocalisation-une-donnee-personnelle.html
(4)  Sen. Rockefeller Announces Anti-Online-Tracking Bill,  Wired, 6 Mai 2011  http://www.wired.com/epicenter/2011/05/sen-rockefeller-announces-anti-online-tracking-bill/


Mai 2011 >>> Maux de mots

Il est fascinant de constater à quel point le langage informatique regorge de surprises. Cette science en perpétuelle mutation, animée principalement dans le langage universel qu'est devenu l'anglais, force les linguistes à repousser les limites du français pour nous permettre de suivre la cadence dans notre propre langue. Ce qui est une véritable aubaine pour les amants de la langue française ! Car contrairement aux folies furieuses à-plat-ventristes de la pseudo « nouvelle orthographe », la création de ces nouveaux termes démontre que notre langue peut s'actualiser plutôt que de se diluer et s'autodétruire face à la concurrence de l'anglais.

Deux nouveaux mots apparaissent donc ce mois-ci sur mon écran radar. Deux mots qui, quand on y pense bien, sont interreliés.

Zetta quoi?

Le premier est « zettaoctets ». Non, il ne s'agit pas d'un mot créé en l'honneur de l'épouse de Michael Douglas ! Comme la fin du mot l'indique, il s'agit plutôt d'une mesure de quantité d'informations informatiques. Composé de huit « bits » représentés chacun par un « zéro » ou un « un », chaque octet contient suffisamment d'information pour représenter un caractère. À partir de là, tout se multiplie. Un kilooctet, ou « ko » représente mille octets, un mégaoctet (« mo » ou « meg ») un million d'octets ou mille ko, etc. Le téraoctet (« to » ou « tet »), commence à être un peu plus connu à la faveur de l'apparition de disques durs « grand public » mesurés en de telles unités. Car nos besoins de stockage grandissants poussent à la production d'appareils de plus en plus gourmands.

Mais c'était la première fois que j'entendais parler de zettaoctets, dans un article nous informant que la quantité totale d'information ayant circulé sur le Web pendant l'année 2008 en comptait près de 10  (1). Bravo. Mais combien cela représente-t-il d'information au juste ? Ma curiosité était piquée... Il appert donc qu'un zettaoctet représente un milliard de ces téraoctets, qui contiennent chacun mille milliards d'octets (2)! Me souvenir qu'un téraoctet représente mille gigaoctets me donne carrément le vertige, aussi je suis content de trouver une correspondance un peu plus terre-à-terre en réalisant que ce zettaoctet représente tout simplement un milliard de clés USB d'un gigaoctet... L'estimé, très conservateur de l'aveu même de ses auteurs, nous dit donc que les informations échangées en 2008 auraient nécessité environ 10 milliards de ces clés USB pour les entreposer. Et en bonnes vieilles disquettes? Multipliez par 714.

Infoquoi?

Nous y trouvons en tout cas la confirmation que la terre tourne de plus en plus autour du soleil du numérique, ce qui m'amène à l'autre nouveau qui est venu ce mois-ci contribuer à combler un peu plus le gouffre de mon ignorance, l' « infonuagique ».

Bien que le mot soit, il faut le dire, moins joli que les dernières productions de l'Office de la langue française en matière informatique comme « courriel » ou « clavardage », il faut quand même dire qu'il suggère efficacement sa référence au monde du « cloud computing », ou « informatique dans les nuages » tel qu'utilisé aussi en pratique. L'effort est néanmoins louable, le terme anglais posant quand même un sérieux défi de traduction, et est un moindre mal quand on examine les alternatives proposées par l'Office, « informatique intranuage », « informatique nuagière » ou « nuage informatique »... À ce sujet la dernière proposition, « informatique en nuage » me semble personnellement promise à un meilleur avenir.

Mais de quoi parle-t-on au juste quand on parle d'informatique en nuage ? Tout simplement du futur de l'informatique. La croissance phénoménale du Web observée depuis une dizaine d'années ne s'est pas faite dans les airs, et nos données ne s'enregistrent pas non plus dans de la vapeur d'eau ! Les échanges de zettaoctets d'informations, la puissance des engins de recherche, la rapidité d'accès, le stockage en ligne, tout passe par une augmentation des capacités informatiques : plus de serveurs, plus de disques, tant en taille qu'en nombre. Les coulisses du Web sont le théâtre d'une recherche de croissance incessante des équipements informatiques. Facebook, par exemple, a emprunté cent millions de dollars en mai 2008 pour financer l'acquisition de nouveaux serveurs. Il en posséderait maintenant plus de 30 000, 20 000 de plus qu'en 2008, et en acquiert de nouveaux tous les jours. Des centres d'hébergement mondiaux comme Rackspace en ont près du double. Notons en passant que la quantité d'information enregistrée par Facebook sur l'utilisation de ses services par ses abonnés croît de 25 téraoctets par jour, soit 1 000 fois plus que le volume de courrier livré quotidiennement par le service des bureaux de postes américains !

Le Web se fonde donc sur des bases tout à fait tangibles. Le terme « nuage » pour référer à l'Internet se voit donc du point de vue de l'usager, pour qui toute cette mécanique reste invisible, comme suspendue au-dessus de lui.

La délocalisation des applications et des données sur des serveurs distants, et le confinement du poste de l'usager à un rôle d'utilisateur de toutes ses ressources partagées par le simple recours à un système d'exploitation et d'un navigateur Web est la meilleure façon de voir le cloud computing. En tenant pour acquis la sécurité des informations et l'actualité constante des applications ainsi logées à distance, l'usager d'un tel système peut se consacrer à son travail en se libérant de nombreuses tâches et soucis liés au maintien de l'équipement.

C'est pourquoi l'informatique en nuage est présentement sur toutes les lèvres, tout comme les mots qui la décrivent. Alors à quand le greffe dans les nuages ?

À la prochaine !




(2)  Je n’ai pas tout calculé ces données manuellement, ne vous inquiétez pas! Vous en apprendrez plus sur la page que j’ai consultée au http://www.journaldunet.com/solutions/0110/011018_caexiste_zettabyte.shtml

Avril 2011 >>> Le Registre des entreprises du Québec dans la mire

Ou quand une belle réforme législative dérape dans le virage technologique.

Dans ma jeunesse, la mode était d'offrir des cartes aux écoliers qui nous plaisaient le plus dans la classe. Garçon ou fille, donner un valentin signifiait innocemment « je te trouve gentil et j'aimerais être ton ami ». Les cartes pleuvaient littéralement dans la classe et nous craignions tous en silence de ne pas en recevoir. C'était le bon temps, avant que l'adolescence ne vienne compliquer les choses. Mais ça, c'est une autre histoire !

Il y avait longtemps que je n'avais pas attendu la St-Valentin avec autant d'impatience. Mais cette fois-ci, c'était pour une autre raison car le 14 février marquait la date d'entrée en vigueur de la nouvelle Loi sur les sociétés par actions (LSA) québécoise. Donnant des cours de formation sur le sujet depuis l'automne j'ai pu vivre de près, presque quotidiennement, le compte à rebours jusqu'au « jour J ». Comme je l'ai déjà écrit en ces pages, la LSA constitue une très belle réforme législative qui marque une étape importante dans l'évolution du droit des affaires au Québec. Côté loi, rien à dire sauf les ajustements d'usage et l'inévitable attente entourant l'interprétation jurisprudentielle de certains articles. Or, en plus du très beau ménage du printemps auquel elle procède dans notre droit des compagnies, cette réforme comporte un second volet essentiel, celui du passage des opérations du REQ à une plate-forme technologique transactionnelle.

Ici aussi, sur le principe, trois fois bravo ! L'annonce de cette décision avait de quoi réjouir tous les praticiens du droit des affaires en butte à des délais déraisonnables de traitement de certaines demandes, des erreurs de saisies dans la transcription des informations contenues dans les réquisitions, et tous les désagréments d'un système fondé sur le papier. Il restait cependant à voir comment le tout s'articulerait en pratique. Et c'est justement là que le bât blesse car contrairement à ce que nous avons pu voir lors d'autres réformes du genre, par exemple au registre foncier, la nouvelle plate-forme technologique du Registre des entreprises du Québec (REQ) fait tout sauf simplifier la vie de ses utilisateurs...

5,4,3,2,1... pfffttt

Attentes et curiosité étaient donc à leur comble au moment d'ouvrir mon ordinateur au matin du 14 février. Mais le ballon s'est vite dégonflé, car je n'ai trouvé sur le site du registraire qu'un message reportant au mercredi la mise en ligne de la nouvelle plate-forme. Ayant déjà oeuvré dans un milieu de programmation je pouvais voir, en fermant les yeux, des informaticiens prisonniers de leurs bureaux à cloisons, privés de sommeil, gavés de café et croulant sous la pression, travailler d'arrache pied pour respecter le délai et réparer ce qui avait déjà été mis en ligne et qui ne fonctionnait toujours pas (comme la recherche sur le registre...). Ils devaient finalement commencer à livrer au cours de la fin de semaine suivante, ce qui en a étonné plusieurs puisque la date de tombée était connue depuis fort longtemps, et que les opérations normales du REQ avaient presque été stoppées dans les semaines précédentes afin que toutes les énergies soient mises sur le passage au nouveau système. Mais passons sur cet aspect de la situation car, connaissant l'ampleur de pareilles tâches, je laisse volontiers le bénéfice du doute à ceux qui ont piloté ce projet fort complexe.

Mon questionnement porte plutôt, justement, sur la complexité du système : serait-elle trop grande ? A-t-on inutilement grossi et alourdi la bête et, de ce fait, démultiplié les problèmes, les délais de l'implantation et pavé la voie sans le savoir aux débuts plus que chaotiques de la nouvelle plate-forme ? Bref, a-t-on créé un monstre ?

La science informatique est la nouvelle reine du monde, et les informaticiens les mages qui peuvent l'invoquer. Grands prêtres posés en intermédiaires entre la déesse et les pauvres mortels qui implorent son secours, il est naturel pour eux de repousser toujours plus loin les limites de leur science. Par définition ils sont des scientifiques cartésiens, et leur pensée est hyper structurée. Il peut donc parfois être hasardeux de leur laisser la bride sur le cou. Comme je le disais souvent aux informaticiens de mon équipe, ce n'est pas parce que quelque chose peut être réalisée, qu'il est nécessairement souhaitable de le faire en pratique. Il faut donc souvent savoir les retenir et diriger leurs efforts dans la recherche d'un résultat efficace et facile d'utilisation.

Pourquoi faire simple...

C'est un peu ce que je suspecte qui soit arrivé dans le cas de la plate-forme du REQ. Le résultat est une interface inutilement lourde et complexe, structurée et découpée à l'extrême, résultant en une multiplication beaucoup trop grande des étapes à franchir. Par exemple, l'utilisateur qui souhaite faire une recherche sur le registre cliquera sur l'onglet « consulter les dossiers d'entreprises » en page d'accueil, puis sur le lien « Rechercher une entreprise au registre ». Ceci l'emmènera à une page d'instructions, à la droite de laquelle il devra cliquer sur un autre lien nommé « rechercher une entreprise au registre ». Il arrivera alors sur la page énumérant les services disponibles sur plate-forme électronique, ou il devra retrouver un troisième lien nommé « rechercher une entreprise au registre » pour finalement arriver à une boîte de dialogue où il pourra lancer sa recherche... Il est difficile de comprendre pourquoi il faut à l'usager quatre clics avant de pouvoir faire sa recherche. Pourquoi doit-il nécessairement passer chaque fois par la page d'instructions, plutôt que de simplement y accéder au besoin à partir de la page de recherche. Cette étape étire inutilement le travail et constitue une perte de temps pure pour l'usager professionnel. Pis encore, l'usager qui clique sur le lien en page d'accueil avec l'intention de faire une recherche au registre sait pertinemment ce qu'il veut, et ne devrait pas se faire présenter, après trois clics par surcroît, une page énumérant tous les services disponibles. Il s'agit ici encore d'une étape inutile. Un seul lien en page d'accueil devrait l'y emmener directement.

D'ailleurs, en passant, pourquoi ne pas avoir profité de l'occasion pour régler le problème des mots refusés pour une recherche, comme les prépositions et articles, ou encore les termes « inc », « ltée », etc., qui sabote les requêtes à l'engin de recherche et force les usagers à les reformuler. Il n'est pourtant pas tellement compliqué (je l'ai vécu sur certains projets informatiques) d'ajouter quelques lignes de code pour intercepter les requêtes, les épurer en retirant les mots ou caractères exclus, pour les envoyer ensuite au moteur de recherche. Le maintien en l'état de l'ancienne façon de faire est ici aussi décevant que l'usage du terme « compagnie » dans un système mis en place dans le contexte de la nouvelle loi sur les « sociétés par actions » est surprenant !

Trop c'est comme pas assez

La nouvelle interface de production des déclarations et demandes au registraire nous fait par ailleurs regretter que les belles réalisations d'autres instances gouvernementales n'aient pas servi de modèle aux programmeurs du REQ. Pourquoi en effet ne pas s'inspirer de recettes qui fonctionnent bien ? Pourquoi toujours réinventer la roue ? Le découpage en une série interminable de boîtes de saisies d'information des formulaires rend leur préparation longue et fastidieuse, et nous fait regretter les formulaires d'inscription de droits au registre mobilier, par exemple, qui présentent en une seule fenêtre le formulaire complet à remplir. Ceci permet à l'usager professionnel d'aller droit au but et de procéder de façon plus efficace. Quant à l'usager occasionnel, je ne suis pas sûr que de donner l'information section par section, sans savoir ce qui vient par la suite, ne constitue pas un élément stressant. Chose certaine, le temps requis pour compléter l'opération se trouve inutilement prolongé.

C'est bien beau tout ça, mais qu'est-ce qu'on fait ?

Mon but n'est pas ici de faire une longue litanie de problèmes, ni de chercher à blâmer qui que ce soit. Il est clair que le registraire faisait face à un projet de très grande envergure, et que sa réalisation représentait tout un défi. Le simple passage d'une ancienne base de données à une nouvelle sans perte d'informations est en soi une opération très délicate, dans laquelle on s'avance comme en terrain miné. Dans l'ensemble donc, le résultat est quand même très bon. Dans l'ensemble donc, chapeau.

Mais qui aime bien, châtie bien, voyez-vous. Il importait donc d'illustrer les améliorations qui devraient être apportées au système pour le rendre meilleur et efficace, et qu'il serve mieux la belle réforme que la LSA propose aux juristes québécois. Il est également clair que depuis le 14 février, le REQ est dans la mire de nombreux praticiens qui ont écopé des retards d'implantation, fait face aux récriminations de leurs clients, et qui doivent composer quotidiennement avec les faiblesses de la nouvelle plate-forme.

Des ajustements sont donc absolument nécessaires. Pour ce faire, le REQ devrait consulter ses usagers les plus fréquents, les praticiens, afin de prendre note des corrections à apporter. La façon de procéder importe peu : sondages, groupe de discussion, etc. Mais il est à mon avis essentiel que le REQ aplanisse les nombreuses difficultés qui résultent de l'usage de sa nouvelle plate-forme, et facilite la vie de ses clients et alliés, les praticiens du droit. Il en va carrément du succès de la réforme du droit des sociétés par actions.

À la prochaine !

Mars 2011 >>> Quand Mark détrône Hosni

Si le Web peut renverser une dictature, le CRTC n’a qu’à bien se tenir !

Il m'est particulièrement plaisant de réaliser que, de mon vivant, j'aurai pu assister à la chute de plusieurs régimes totalitaires, et souvent plus ou moins en direct. De Berlin aux Caraïbes, les médias nous ont montré beaucoup d'ex-potentats ou roitelets fuyant de nuit dans des limousines blindées vers un exil confortable, mais aussi d'autres chutes plus violentes comme celles de Noriega, de Ceausescu ou de Saddam Hussein. Mais tous ces tyrans ont en commun le fait d'avoir été renversés par la violence, lors de révoltes populaires ou de guerres.

Ce que nous venons cependant de voir en Tunisie et surtout en Égypte, même si le résultat est semblable, est pourtant légèrement différent. Tout d'abord bien sûr par la bouleversante démonstration de non-violence et de maturité donnée par la foule égyptienne, dont le grand Gandhi aurait été fier. Mais aussi par la coordination des actions populaires par leur usage des nouvelles technologies.

Au moment de la chute de Moubarak, les animateurs de CNN ont rejoint en direct Wael Ghonim. Ce résistant égyptien exilé qui a été aux premières loges de la révolution, était appelé à donner ses commentaires à chaud sur le départ de Moubarak. À la question de l'animatrice qui lui demandait quel avait été selon lui l'élément clé de la révolte, il s'écria spontanément « Facebook, Facebook, Facebook » !

S'il ne faut peut être pas accorder trop d'importance à ce cri du coeur, et que la volonté du peuple égyptien doit être bien plus retenue que l'impact du site de Mark Zuckerberg, il n'en demeure pas moins que les nouvelles technologies changent la donne dans les pays totalitaires qui comptent traditionnellement sur la désorganisation de leurs citoyens et sur le contrôle des médias pour garder la main mise sur leur pays. Le fait que le gouvernement égyptien ait déclaré la coupure de l'Internet en même temps que le couvre-feu est loin d'être anodin. L'Internet permet de lancer des mots d'ordre, de donner des points de rencontres aux manifestants, et à toute personne de diffuser de l'information et des images de ce qui se passe dans le pays. Les grandes dictatures de l'histoire, celles qui ont opprimé dans l'ombre leurs peuples pendant des années à une époque où il suffisait d'interdire des journaux pour jeter un silence de plomb sur un pays tout entier, n'auraient certes pas fait de vieux os devant pareil ennemi. Alors oui, en ce sens, les technologies de l'information ont probablement contribué à la chute de Moubarak et de Ben Ali.

Le réseau dans ma poche

La mobilité des accès Internet y est certainement aussi pour beaucoup. L'engouement pour les tablettes web et les téléphones intelligents accélère d'autant plus la vitesse de circulation des nouvelles. Plus de 300 millions téléphones intelligents ont été vendus l'an dernier seulement, soit le cinquième de tous les appareils. Quant aux tablettes, la réaction d'étonnement et le caractère de bizarrerie qui ont suivi le lancement du Ipad est loin derrière nous, et leur popularité est maintenant telle qu'on prévoit que le tiers des internautes les utiliseront pour naviguer sur le Web d'ici quelques années.

Donc, non seulement le Web change, mais aussi notre façon d'y accéder et de le « consommer » est en pleine mutation. Par exemple, une application pour Iphone lancée récemment, vise à préparer les pénitents en vue de leur séance de confession à l'église par une série de questions simulant l'exercice ! Préparée avec la collaboration de certains prélats, le lancement de l'application fit tellement de bruit que les autorités du Vatican n'ont pas attendu plus d'une semaine pour émettre un communiqué officiel informant les ouailles que la confession par Iphone n'était pas admise par l'Église ! Parions que les victimes de pédo-religieux qui attendent un geste de l'Église à leur endroit depuis des années et des années, ont dû trouver que Benoît avait la gâchette pas mal plus rapide quand vient le temps de protéger son modus operandi...


« Le CRTC ne comprend rien... comme d'habitude »

Et c'est avec ces nouvelles en toile de fond que le CRTC vient proposer une réforme du mode de facturation des services Internet. Alors que le Canada est un des pays au monde où les frais de connexion Internet sont les plus élevés, le brillant CRTC cédait aux pressions des grands de l'industrie qui cherchent à éliminer leurs concurrents en proposant d'abolir les forfaits illimités et d'introduire le concept de facturation à l'usage.

Rien de bien étonnant ici, les organismes fédéraux ayant démontré par le passé leur entière incompréhension du Web à travers quelques décisions malheureuses. Rappelons par exemple le rejet par la Commission canadienne du droit d'auteur d'une compensation des auteurs compositeurs de la proposition de tarif 22 qui aurait, à l'époque, assuré une compensation des auteurs compositeurs pour l'utilisation de leurs oeuvres sur le Web, en avait surpris plus d'un.

Mais ici, c'est une véritable levée de boucliers qui a suivi l'annonce de la décision du CRTC. Mis à part ceux qui se trouvent sur les listes de paie des grands fournisseurs de services Internet et dont l'objectivité peut donc être solidement remise en question, la plupart des commentateurs se sont objectés à une telle réforme. Même le ministre Clement a réagi vivement contre cette décision.

Quant aux internautes, la réaction fut tout à fait massive. De nombreux sites ont lancé des pétitions, par exemple « openmedia.ca » qui recueillait près de 400,000 signatures en quelques jours, lancé des mouvements sur Facebook, et ont mis tant de pression que le CRTC annonçait rapidement qu'elle réévaluerait sa mesure.

Ainsi, presqu'en parallèle, avons-nous pu assister au pouvoir du Web et à la façon dont il peut canaliser l'opinion publique. Que ce soit en Égypte pour renverser un dictateur qu'ici pour donner aux citoyens une voix imposante dans un débat public, le Web a démontré sa puissance de façon très éloquente. L'Internet serait-il donc devenu un vecteur de démocratie? Pourquoi pas... C'est Barlow (1) qui serait fier de lire ça...

À la prochaine!


(1) John Perry Barlow, auteur de la célèbre déclaration d’indépendance de l’Internet http://fr.wikipedia.org/wiki/John_Perry_Barlow

Février 2011 >>> "Mesdames et messieurs, attention !"

«"Mesdames et messieurs, attention ! Je vais vous faire une chanson, le sujet en est ambitieux, de mon image je suis soucieux, en 1990, c'est l'heure des communications. » Vous reconnaissez, n'est-ce pas? Certaines chansons marquent leur époque, et 1990 est certainement l'une de celles-là. Simplement d'entendre ces premières mesures me ramène vingt ans en arrière, et me rappelle le soir où j'assistais en direct, avec des millions de personnes, à la première invasion de l'Irak par les américains.

Jean Leloup est un grand artiste, capable de capter les changements qui affectent la société. Mais en rétrospective, il aura eu une inspiration absolument prophétique en écrivant sa chanson. 1990 aura vraiment marqué l'ère des communications. Car 1990 aura vu l'invention du Web, au fond du laboratoire universitaire d'un jeune chercheur du CERN, Tim Berners-Lee. C'est en effet lui qui a eu l'idée de créer un système de communication public permettant de naviguer d'un document à l'autre par hyperliens cliquables, à l'aide d'un logiciel appelé « navigateur », de grouper les documents sous forme de « sites » identifiés par un nom (de domaine) et d'utiliser le réseau Internet pour les interconnecter. Le génie de ce chercheur n'a donc pas été tellement de créer des nouvelles technologies, mais bien de combiner des concepts déjà connus dans l'élaboration d'un système de communication qui allait carrément révolutionner l'humanité. Le World Wide Web était né.

Le réseau Internet existait depuis longtemps. Développé dans les années soixante pour assurer le maintien des communications entre les militaires advenant une attaque nucléaire (sa structure décentralisé permettant de survivre à la disparition de plusieurs des ordinateurs qui y sont connectés), il a été également largement utilisé entre les universités. Les fonctions hypertextes aussi sont issues de recherches menées dans les années soixante, des souris rudimentaires permettant déjà, en 1968, d'actionner des liens cliquables entre des pages informatiques, concept repris par Apple dans ses premiers ordinateurs Macintosh et qui commençait, à l'époque, à gagner le monde du PC. Le génie de Berners-Lee a donc été d'avoir la vision d'un environnement combinant tous ces éléments, et de paver la voie à la libération de l'information et à l'explosion de la communication dans le monde informatique.

D'autres précurseurs prendront le relais, Marc Andreessen tout d'abord qui inventa le premier véritable navigateur Web populaire, Mosaic, qui deviendra par la suite Netscape. Jusque-là cependant, le potentiel d'Internet et surtout du Web avait été totalement sous-estimé par les grands joueurs de l'industrie, particulièrement de Microsoft. Par exemple, Windows 95 ne comportait aucun navigateur Web à son lancement... La popularité et la croissance de Netscape allait brutalement réveiller notre ami Bill qui allait faire du Web sa priorité à partir de 1995. Sa stratégie agressive allait s'articuler autour d'Internet Explorer, développé à la hâte à la suite du refus d'Andreessen de lui vendre Netscape. Bill devait alors décider de donner IE, notamment en l'intégrant à Windows 98, afin de pousser Netscape à la faillite. Ceci allait donner naissance à une saga judiciaire... « le mal était fait », Netscape vivotait depuis et n'était pas en mesure de bénéficier de cette victoire judiciaire, et devait finalement disparaître peu après, malgré sa vente à un autre grand joueur du temps, America Online (AOL). Ses dirigeants eurent cependant l'idée géniale de céder leur technologie à une fiducie, la fondation Mozilla, qui donna naissance à un important navigateur de code source libre (« Open Source »), Firefox. Ce dernier, dans un juste retour des choses, menant aujourd'hui la vie dure à Internet Explorer.

Rapidement, la masse d'information grandissante consignée sur le Web a rendue essentiels les outils de recherche. Les services comme Lycos ou Altavista connurent alors leur heure de gloire, avant que n'arrive la révolution Google, autre invention de chercheurs isolés propulsés à l'avant-scène et à la fortune par leur création à la croissance exponentielle, Larry Page et Sergey Brin. Les années 2000 devaient bientôt nous emmener le Web 2.0, acronyme symbolisant la prise de contrôle du réseau par les usagers qui font maintenant du réseau un outil interactif dynamique, bâti et réinventé quotidiennement par les internautes, et symbolisé par un autre visionnaire Mark Zuckerberg.

L'histoire du Web est tout à fait fascinante. Sa croissance phénoménale donne lieu à une nouvelle ruée vers l'or où tous les coups sont permis. Mais il est aussi le théâtre de belles histoires, comme celle de Wikipédia, encyclopédie mondiale gratuite et libre en 270 langues à laquelle contribuent environ 100 000 auteurs bénévoles. Le Web aura d'ailleurs alimenté la croissance de nombreux projets informatiques, en matière de logiciel libre notamment. Des concepts comme « Open office », n'auraient certainement pas connu un aussi grand engouement sans bénéficier du Web comme vecteur de croissance. Le retentissement de l'affaire Microsoft ayant également poussé de nombreux pays, particulièrement en Europe, à favoriser le logiciel libre.

Mais le plus grand impact du Web se retrouve sans contredit dans nos sociétés et nos habitudes elles-mêmes. Pensez-vous par exemple que le virage technologique vécu par notre belle profession aurait été aussi rapide et englobant sans l'invention de Berners-Lee? Ce raisonnement s'applique dans tous les domaines, maintenant que le Web est si imbriqué dans notre quotidien que nous en venons à tout bonnement oublier qu'il est là. Commerce électronique, transactions bancaires en ligne, disparition rapide de l'usage du papier, révolution des journaux, convergence médiatique, chaque composante de notre univers en ce début de XXIe siècle a une composante Web en amont ou en aval. Le monde de 1990 connaissait peut-être déjà tous les ingrédients requis pour amener le monde dans ce virage fondamental, certes le plus important depuis la révolution industrielle. Il ne lui en manquait que la recette, qu'allait lui donner Berners-Lee. Et le reste, comme on dit, fait partie de l'histoire.

À la prochaine !

Décembre 2010 >>> "Mon boss est un ci et un ça!"

Pièges et astuces Facebook (2e partie)


« Les choses étant ce caleçon », chaque innovation technologique facilitant l'utilisation des ordinateurs rendent ceux-ci de plus en plus invisibles à nos yeux, et les fait entrer de plus en plus profondément dans notre quotidien et modèle même notre façon de vivre. Vous trouvez que j'exagère ? Eh bien non. Même que la rapidité à laquelle progressent ces changements me surprend régulièrement moi-même...

Il est conseillé à toute entreprise d'établir pour ses employés une politique d'utilisation des ressources informatiques. Établir clairement ce qu'un employé peut ou ne peut pas faire avec le matériel informatique de son employeur, ainsi que comment il peut ou non utiliser son temps de travail, est en effet un bon moyen d'éviter certains malentendus et conflits sur les lieux de travail. Généralement parlant, de telles politiques comprendront des interdictions d'utiliser des outils de clavardage ou de visiter les réseaux sociaux comme Facebook ou autres.

Notre génération a inventé le « cyberslacking » ou cyberflânage, aussi il est logique que nos patrons aient combattu ce phénomène. La nouvelle génération, celle qui est pratiquement née avec le Web, a appris à écrire sur un clavier, à communiquer avec MSN et n'a aucune idée de ce qu'est un téléphone rotatif, une ligne à impulsions ou un téléviseur avec des oreilles de lapin, et n'a que faire de ces interdictions. Pour elle, « tweeter » est aussi naturel que respirer et le fait de réagir sur Facebook n'est aucunement une menace à sa productivité, au contraire ! Sa présence sur les réseaux sociaux ne fait que la rendre plus productive et peut même faire avancer ses affaires et celles de son employeur. Cette génération est celle du « multitasking », du multitâche.

Faut-il s'attendre à un nouveau choc des générations ? Pas du tout mes amis ! Car les patrons de demain émaneront aussi de cette génération et que, qui plus est, les patrons d'aujourd'hui commencent à prendre note de ce nouveau virage apporté par les réseaux sociaux. Ainsi le gouvernement de la Colombie-Britannique vient-il de rendre public sa nouvelle politique gouvernant l'usage des réseaux sociaux par ses employés qui, au lieu de les bannir, leur reconnaît carrément le droit de les utiliser : « Le gouvernement reconnait que les réseaux sociaux sont un nouvel outil en milieu de travail, dont l'usage peut être incorporé dans la journée de travail de ses employés plutôt qu'être interdit ou découragé. Nous avons pleinement confiance en nos employés. »

Un autre indice nous vient des États-Unis, où le National Labor Relations Board (NLRB) vient d'accepter d'étudier une plainte d'une employée congédiée pour avoir parlé contre son employeur sur Facebook (FB). Celle-ci s'était empressée de manifester sur FB son mécontentement face à une décision de son employeur, entraînant une discussion en ligne à ce sujet avec d'autres employés. Pour l'employeur, cette situation contrevenait à l'interdiction de parler de la compagnie sur les réseaux sociaux « de quelque façon que ce soit ». Pour le NLRB, au contraire, le congédiement est abusif. Sans aborder la question de la validité de la politique Internet de l'employeur, la NLRB se fonde sur un article de la loi américaine des relations de travail, et assimile les discussions des employés sur FB au  « droit de concertation » que celle-ci leur accorde. Les « protected concerted activities », que l'on pourrait interpréter comme étant une facette de leur droit d'association leur reconnaissant le droit de participer à des activités relatives à leur travail, comprendraient donc le fait de participer à des fils de discussion sur Internet concernant leur employeur. Cet état de fait donne ouverture à la reconnaissance d'un droit d'expression sur le Web 2.0. Vous trouvez toujours que j'exagère?


Astuce : Innovation chez Google



Nous avons souvent eu l'occasion de casser un peu de sucre sur le dos de Google. Il est vrai que sa position dominante sur le Web et les succès spectaculaires que cette entreprise a connus en affaires, notamment sur le marché boursier, lui ont un peu monté à la tête... C'est le propre des entreprises américaines qui se retrouvent en position de quasi-monopole, que l'on pense seulement à Microsoft il y a quelques années. J'imagine que c'est une conséquence de la férocité de la concurrence qui prévaut dans ce domaine. Enfin, bref.

Il faut quand même rendre à César ce qui est à César, et reconnaître que si Google est devenu ce qu'il est, c'est qu'il a carrément révolutionné la recherche sur le Web. Finies les requêtes complexes, le raffinement des recherches et les essais-erreurs avant d'arriver à la page désirée. Avec Google, nous arrivons rapidement à l'information que nous cherchions, et sans trop de chichi. Les autres moteurs de recherche ne font qu'essayer de copier et de se mesurer au moteur-étalon Google. Il ne nous reste plus qu'à visiter les pages qui nous sont présentées, pour voir ce qu'elles contiennent. Mais cette étape aussi est en train de changer... Ah oui ?

Lancer n'importe quelle recherche sur Google. Vous y êtes. Bien. Maintenant regardez à la droite du titre des pages trouvées et vous verrez qu'une petite loupe apparaît maintenant à côté de chacune d'elle. Vous ne la voyez pas ? Répétez alors l'exercice dans quelques temps, car Google implante la nouveauté graduellement selon les serveurs et les régions. Mais vous devriez la voir...

Maintenant, cliquez sur cette loupe. Vous verrez apparaître un panneau à la droite de votre écran, vous présentant la page vers laquelle pointe le lien. Vous pourrez ainsi, sans quitter votre page de recherche, visualiser un aperçu des pages trouvées, ce qui vous permettra d'éliminer certains résultats moins pertinents.

Voilà le genre d'outils qui me fait tant apprécier Google et qui me fait lui pardonner ses incartades et invasions de la vie privée... Un peu comme on pardonne les bévues de gens intelligents et innovateurs.

Et tant qu'à parler des résultats de recherche de Google, je vous rappelle que ces derniers vous fournissent aussi deux autres liens. Le premier, qui n'apparaît pas systématiquement, se nomme « pages similaires » et lancera une nouvelle recherche de pages comportant les mêmes mots clés ou comportant les mêmes caractéristiques afin de préciser votre recherche. L'autre, « en cache », permettra qu'apparaisse la page telle qu'elle se trouvait lors de sa dernière visite par Google. Car Google, bien entendu, conserve une copie intégrale des pages qu'elle visite, donc du Web au complet... Ce lien est pratique pour trouver des informations d'un site temporairement indisponible ou si, comme c'est fréquemment le cas pour les sites de nouvelles, lorsque la page a changé depuis l'indexation de Google. Il faut cependant dire que Google n'archive pas toutes ces pages et qu'elles changeront à sa prochaine visite. La solution est donc temporaire.

À la prochaine !

Novembre 2010 >>> "Chéri ! Il a dit Facebook !"

Pièges et astuces autour du Web Facebook (1ère partie)


J'ai dernièrement fait une découverte en fouillant dans de vieilles boîtes. Non, je n'ai pas trouvé de vieilles disquettes d'agendas... Je suis plutôt tombé sur des albums-souvenirs de mes années au secondaire. Ils m'ont rappelé une belle époque de ma vie, quoique assombrie ces derniers temps par les révélations des médias, puisque j'ai étudié au Collège Notre-Dame dans les années 1970... J'ai pu me rendre compte à quel point, contrairement à ce qu'on vit aujourd'hui, il était alors facile pour certaines crapules de donner libre cours à leurs bas instincts sans que personne ne s'en doute. Rien ne nous laissait croire à l'époque, en regardant les photos des coupables dans les albums, qu'ils agressaient et terrorisaient certains de nos condisciples. Ces albums ne nous montraient alors que leur beau profil...

Le virage technologique a, en ce sens, profondément changé la société où nous vivons. Tout le monde ou presque peut aujourd'hui prendre une photo ou une vidéo avec son cellulaire et placer le résultat sur Internet quasi instantanément. L'an dernier, un enseignant du secondaire a ainsi eu la surprise de trouver sur Youtube la crise qu'il avait piquée en classe le matin même ! (Plusieurs écoles ont par la suite interdit les téléphones mobiles en classe.) Mais si les nouvelles technologies facilitent la dénonciation des coupables, elles peuvent également détruire la vie d'innocents, pointés du doigt par erreur ou par malveillance. Il faut croire que c'est le prix à payer pour vivre dans une maison de verre technologique.

Non, la société n'est vraiment plus la même. Et on dirait parfois que la nouvelle génération cherche par tous les moyens à vivre sa vie publiquement et à en semer tous les détails, et parfois les plus intimes, aux quatre vents du Web. Le besoin de vivre son « quinze minutes de gloire » sur le Web l'emporte sur toute espèce de décence. Citons à témoin cette étudiante qui a diffusé une liste détaillée de ses exploits amoureux, avec noms et photos. Loin d'exposer l'auteure à un tollé et à l'opprobre général, ses indiscrétions lui ont plutôt attiré des offres de livres et de films. Le monde est fou...

Mais revenons à nos moutons. Le plus souvent, de telles indiscrétions sont publiées sur les réseaux sociaux, principalement sur Facebook. Ici, ma découverte de la fin de semaine vient me rattraper, car dans le milieu universitaire américain, le mot « facebook » désigne des bottins d'étudiants contenant leurs coordonnées et une photo permettant de les identifier. (Par extension, il est parfois utilisé pour désigner l'album-souvenir ou « yearbook ».) En 2004, le site Facebook a d'ailleurs été conçu à cette fin par un étudiant d'Harvard de 20 ans, Mark Zuckerberg, et trois acolytes. Aujourd'hui, six ans, cinq cent millions de comptes d'usagers et sept milliards de dollars dans son compte personnel plus tard, l'avenir de Marco semble bien assuré...

L'engouement pour Facebook est très important, et les Québécois en sont très friands. Une enquête récente du CEFRIO montre en effet qu'en 2010, « 78 % des internautes québécois ont fréquenté ou contribué au contenu d'au moins un média social » et que leur participation à de tels réseaux a augmenté de 41 % en un an. Pas étonnant que Facebook occupe aujourd'hui le second rang des sites les plus visités sur le Web, juste après Google.

La tempête des réseaux sociaux qui a cours depuis quelques années apporte pourtant son lot d'embûches. Les avertissements, notamment ceux du commissaire à la protection de la vie privée du Canada, sur leur gestion des données personnelles, les risques d'infection par les virus qui y circulent, les arnaques qui y sont menées, n'y changent rien : les gens adorent ces services, s'y inscrivent et y confient leur âme.


« Madame, poussez ! Monsieur, ouvrez un compte Facebook ! »



Indice suprême que ces avertissements tombent à plat : la présence des jeunes sur les réseaux sociaux. Les conditions d'utilisation de Facebook imposent pourtant clairement un âge minimum de 13 ans, mais des statistiques récentes montrent que la réalité est tout autre. La firme AVG a en effet publié une étude montrant que, par exemple, 5 % des bébés occidentaux de moins de deux ans ont leur propre compte Facebook ! En moyenne, les parents ouvriront un tel compte vers l'âge de six mois et les doteront aussi d'une adresse courriel. 80 % de ce groupe de cyber-bébés auront déjà laissé leur empreinte virtuelle sur le Web dès l'âge de sept ans, permettant de retracer déjà quelques pages, photos ou vidéos en tapant leur nom ! En voulez-vous plus ? L'échographie du quart des foetus se retrouve sur le Web avant leur naissance! Avant longtemps, l'album complet de la vie d'un humain se retrouvera en ligne, de l'échographie à la notice nécrologique... Je ne sais pas pour vous, mais j'ai soudainement un frisson dans le dos ...

L'importance des réglages de sécurité pour les usagers de tels sites est donc primordiale, tout comme celle de savoir y faire preuve de discrétion. D'autant plus que, malgré ses mea culpas et les modifications apportées à son site, il appert que Facebook conserve toujours les contenus de ses abonnés après qu'ils les aient volontairement retirés. Certaines photos seraient même restées disponibles en ligne près d'un an et demi après leur retrait. Le fait que Facebook génère autant de profits avec un service gratuit laisse également perplexe.

Bref, nous ne dirons jamais assez à quel point les réseaux sociaux ébranlent le Web et à quel point ces changements sont profonds non seulement pour le réseau, mais pour la société en général. Les présentations étant maintenant faites, dans notre prochaine chronique nous verrons les changements apportés récemment aux politiques et systèmes de Facebook en matière de protection de la vie privée ainsi que les meilleures façons de se protéger dans notre usage de ce service. J'aurai d'ici là vu le film consacré à la construction de Facebook et participé au volet du prochain colloque d'Educaloi portant sur « Les médias sociaux comme moyen d'accès à l'information juridique ». J'aurai donc encore beaucoup de choses à vous dire... 

Octobre 2010 >>> Mon code est plus fort que le tien !

Les fréquentes visites à l'école de mes héritiers qu'implique la rentrée scolaire me rappellent toutes sortes de souvenirs. Les pagailles dans les corridors, le respect du silence dans les rangs, la course aux casiers dès que la cloche retentit... Tant de choses ont changé depuis l'époque où je tentais moi-même de survivre à mon cours primaire, que j'ai parfois l'impression que mes souvenirs sont en noir et blanc... Mais il est rassurant de constater que même si les élèves font leurs exposés en PowerPoint ou soumettent souvent leurs devoirs par courriel, la bonne vieille atmosphère des écoles n'a pas trop changé.

Et en prime, défiler dans les rangées de casiers protégés à différents degrés m'a enfin donné l'angle que je cherchais pour aborder avec vous de façon, je l'espère, intéressante, un sujet particulièrement aride qui gagne de plus en plus en importance : l'authentification forte. En matière de sécurité informatique, cette notion technique réfère à une procédure d'identification qui impose le respect d'au moins deux éléments ou facteurs d'authentification.

Il fut un temps où la simple utilisation d'un nom d'usager et d'un mot de passe présentait un degré de sécurité suffisant pour transiger sur le Web. Si cette technique est encore largement en usage, il faut se rappeler qu'à l'époque, les utilisations que nous faisions de la toile portaient beaucoup moins à conséquences. Plus la société exige d'être en mesure de poser, en ligne, des gestes de plus en plus importants, plus il faut s'assurer de pouvoir restreindre l'accès aux outils requis aux seules personnes légalement aptes et autorisées à les poser. D'où l'intérêt de resserrer les contrôles. Et comme, d'autre part, les usagers cherchent également toujours plus de facilité d'accès et de transparence, le défi des techniciens est maintenant de doser les interventions pour combiner un degré de sécurité optimum à la meilleure fluidité de navigation possible pour les utilisateurs.

Comme pour les casiers à l'école de mes héritiers, qui peuvent être laissés ouverts ou verrouillés avec des cadenas de qualité très variable, l'authentification de l'usager d'un système informatique peut être plus ou moins solide. Le mot de passe constitue certes un moyen d'identification, mais plutôt faible, d'une part à cause du peu de précautions dont certains usagers font preuve pour en préserver la confidentialité, mais aussi à cause de l'existence de certains logiciels qui cherchent à les intercepter ou à les découvrir. Il faut donc chercher ailleurs.


Dis-moi ce que tu sais et je saurai qui tu es



Un système fondé sur l'authentification forte cherchera quant à lui à combiner des éléments inviolables et non subtilisables pour identifier une personne, par exemple :


Ce que la personne connaît, (un mot de passe, un code NIP, une phrase secrète, etc.)


Ce que la personne détient, comme une carte magnétique, une clé USB, une carte à puce, un téléphone portable ou un élément physique dédié appelé « authentifieur » ou « token ».


Ce que la personne est, ce que l'on appelle également l'identification par élément biométrique (empreinte digitale, empreinte rétinienne, structure de la main, structure osseuse du visage etc.)


Ce que la personne sait faire, (signature manuscrite, reconnaissance de la voix, un type de calcul connu de lui seul, comportement, etc.) ou connait (informations connues de lui seul)


Où la personne est, soit un endroit d'où, à la suite d'une identification et d'une authentification réussies, elle est autorisée (accéder à un système logique d'un endroit prescrit)

L'utilisation d'une signature numérique dans le cadre d'une infrastructure à clés publiques constitue déjà une amélioration face à un simple mot de passe, pourvu que le mot de passe rattaché à la signature soit solide et correctement protégé et ne soit pas dévoilé par son titulaire, volontairement ou non. En montant d'un degré l'escalier des mesures de sécurité, nous rencontrons l'usage du mot de passe à usage unique, qui offre un degré de sécurité encore supérieur. Par exemple, la carte matricielle. Fondé sur le concept du secret partagé, et bien qu'elle ne se qualifie selon les critères de l'authentification forte, la carte matricielle permet d'authentifier un usager sans avoir à maintenir un lourd système de signature numérique. Dans un tel système, l'usager se voit fournir une grille numérique unique qui sera utilisée par le site ou service informatique pour le questionner.



Exemple d'une carte matricielle



Tirez une carte
On demandera à l'usager de fournir un mot de passe à usage unique qu'il composera à partir des données figurant sur la grille. Par exemple, la bonne réponse à la question A1, E4 et G3 sera 2-8-2. Les bonnes réponses ne pouvant être fournies que par la personne détenant la grille, l'identification de l'usager pourra en être raisonnablement déduite. L'authentification repose donc ici sur un objet que l'usager détient, la grille matricielle.

Un autre exemple d'identification par mot de passe à usage unique concerne l'utilisation de la technologie SMS ou, plus simplement, de la messagerie texte. Ici, un usager demandant d'accéder à un service informatique recevra par messagerie texte un mot de passe lui permettant l'accès pour une seule session. Ce système repose également sur un objet que possède l'usager, son téléphone cellulaire d'un numéro donné et connu d'avance du service informatique.

Certaines technologies plus poussées utilisent un élément technique dédié à l'authentification des communications comme une carte à puce (comme celle qu'utilisent nos collègues français). Cette dernière technologie est un peu limitative puisqu'elle requiert par définition un lecteur à carte. Une autre technique utilise un port standard des ordinateurs, le port USB. Ici, on fournira à l'usager un identificateur, ou « token », ressemblant à une clé à mémoire et qui contiendra sa signature numérique et son certificat. Ces authentificateurs pourront - ou pas - contenir en plus un système pour générer des mots de passe à usage unique.


À la prochaine !

Septembre 2010 >>> "Bon loi, bad loi"

Quand une belle réforme en droit des affaires nous rappelle de vieux souvenirs...

Au risque d'être le premier à le faire, j'ai décidé ce mois-ci de souligner un anniversaire. Enfin... un anniversaire que nous ne fêterons officiellement que l'an prochain, alors que nous célébrerons dans l'allégresse le dixième anniversaire de l'adoption de la Loi concernant le cadre juridique des technologies de l'information (ci-après « Loi sur le cadre »). Mais il y a dix ans, nous étions déjà invité à examiner les avant-projets qui l'ont précédé et qui, il faut le dire, étaient plutôt tortueux et difficiles d'accès, ce qui n'a rien fait pour faciliter l'accueil du texte final.

Ainsi, mal introduite, la Loi sur le cadre a donc été accueillie dès le départ assez froidement et joui depuis d'un statut un peu spécial dans notre corpus législatif. Longtemps ignorée par la doctrine, tantôt violemment décriée par certains auteurs ou objet de simples survols rapides par d'autres, la Loi sur le cadre reste un peu en marge, comme si sa complexité la rendait si rébarbative qu'auteurs et praticiens tentaient de faire comme si elle n'existait pas...


Cachez cette loi que je ne saurais voir



Bien que cette loi ait apporté des changements importants aux règles du Code civil, elle n'a fait l'objet que d'une vingtaine de décisions de nos tribunaux depuis son adoption. Une seule a été prononcée par la Cour suprême... dont les juges ont d'ailleurs mal compris les dispositions. Mais enfin, là n'est pas l'objet de ma chronique de ce mois-ci, bien que je formule publiquement le souhait de voir apparaître quelques analyses sur l'impact réel de la Loi sur le cadre avant que l'on ne fête son vingtième anniversaire.

En fait, les bons souvenirs que je garde de la Loi sur le cadre m'ont été rappelés par l'arrivée d'une autre loi, la Loi sur les sociétés par actions (ci-après « LSA ») qui, sous peu, remplacera avantageusement notre bonne vieille loi sur les compagnies. Adoptée en décembre dernier, la LSA entrera en vigueur au moment déterminé par le gouvernement, probablement à la fin de 2010 ou au début de 2011. Or le moment d'entrée en vigueur de cette loi dépendra justement de questions technologiques, la LSA poursuivant également le virage mis en place par le gouvernement québécois en ce domaine avec la Loi sur le cadre. Voici comment.

Le but premier de la LSA est de moderniser et d'alléger le fonctionnement interne des sociétés par actions. Elle vise également à stopper la « migration » des gens d'affaires vers la loi fédérale, migration provoquée par la désuétude de la Loi sur les compagnies. Mais permettre aux sociétés québécoises de fonctionner dans un environnement de plus en plus technologique et au registraire des entreprises de tirer profit de la puissance des outils informatiques modernes demeure un objectif capital de la LSA. Un peu comme l'exercice mené au début des années 2000 au registre foncier, la LSA pave la voie au dépôt électronique, modernise le régime de la publicité des entreprises (en conjonction avec la nouvelle Loi sur la publicité légale des entreprises) et facilite l'emploi d'outils technologiques dans la régie interne des sociétés.


Du côté des sociétés
Assemblées d'actionnaires et réunions d'administrateurs pourront se tenir à l'aide de tout moyen permettant à tous les participants de communiquer immédiatement entre eux. La LSA respecte en ce sens l'esprit de neutralité de la Loi sur le cadre, préférant définir les buts qu'une technologie de communication doit atteindre plutôt que d'en désigner certaines de façon spécifique. Dans l'état actuel des choses, pourront alors se qualifier, par exemple, les appels conférences classiques, les vidéoconférences par webcam ou autrement (par « Skype » par exemple). Les actionnaires ou administrateurs qui participeront de cette façon aux activités de la société seront réputés présents à la réunion et pourront également exercer leur droit de vote de cette façon. Une société pourra cependant empêcher ou encadrer de telles pratiques dans ses statuts ou dans son « règlement intérieur » (successeur des règlements généraux sous la LSA).

La LSA règle aussi une problématique issue de la pratique du droit des affaires. En effet, les livres et registres des sociétés sont souvent conservés ailleurs qu'au siège de la société (chez leur notaire par exemple). Sauf disposition contraire, cette pratique sera permise par la loi.

Ainsi, la société qui conservera ses registres ailleurs qu'à son siège devra s'assurer tout d'abord que l'information contenue dans ces livres est accessible sur un support adéquat et qu'elle fournit l'aide technique nécessaire à la consultation de l'information.

En y regardant bien, la LSA régit « l'information » contenue dans ses livres et registres plutôt que simplement ces derniers en distinguant cette « information » de son « support ». Elle emploie donc un langage propre à la Loi sur le cadre qui définit le document comme étant « constitué d'information portée par un support ». De cette manière, la LSA ouvre la porte au livre de minutes électronique et à la tenue des registres des sociétés sur un support autre que le papier, selon les règles générales établies par la Loi sur le cadre.


Dépôt des documents



La LSA va cependant plus loin en permettant le dépôt de documents sur support technologique. Elle présume en effet qu'un tel document sera valable si l' « intermédiaire ou représentant de toute personne tenue de le signer » s'est assuré de l'identité et du consentement du signataire. La porte est donc ouverte au dépôt électronique de tous documents ou rapports sur déclaration, oserons-nous dire « d'attestation », par un intermédiaire ou représentant autorisé. Nous remarquons également l'usage de l'expression « document transmis sur un support faisant appel à la technologie de l'information », propre à la Loi sur le cadre, indiquant la volonté claire du législateur de se rattacher à cette loi pour la gestion et l'interprétation de toute situation liée aux technologies de l'information.

Un tel changement viendra à coup sûr modifier et moderniser la pratique du droit des affaires et confirme encore, si besoin était, le caractère incontournable du virage technologique.

À la prochaine!

Juin 2010 >>> Retour vers le futur

Où étiez-vous il y a dix ans, et comment pratiquiez-vous ? Regard sur l'évolution technologique du notariat et ses conséquences.

Comme le temps passe... Cette édition marque le dixième anniversaire de la présence des cybernotes dans les pages d'Entracte. Qui l'aurait cru ! Je ne sais pas lequel, des lecteurs ou de l'auteur, aura montré le plus de résistance ou d'endurance mais les faits sont là : le merveilleux monde des technologies de l'information a de quoi occuper et faire parler les gens ! Et si votre humble serviteur se questionnait, à l'époque, sur sa capacité à alimenter une chronique sur les technologies de l'information, force est de constater qu'il a souvent plutôt dû faire des choix déchirants entre les sujets d'intérêt à aborder ! Il faut dire que ces dernières années auront vu survenir de profonds changements, souhaités ou non, dans les habitudes technologiques des notaires du Québec, dont les effets ont provoqué une véritable révolution de notre façon de pratiquer.

En présumant bien entendu que vous y étiez et y êtes toujours, souvenez-vous de votre pratique d'il y a une dizaine d'années. On retrouvait bien quelques ordinateurs et imprimantes dans nos études. Dans bien des cas il pouvait s'agir de modèles d'un certain âge, survivants de l'époque confinés à de simples tâches de traitement de texte. Car à cette époque, rare encore étaient ceux qui les voyaient autrement que comme des dactylos de luxe ! Je me souviens que plusieurs collègues utilisaient encore à cette époque des appareils datant de la fin des années quatre-vingt, fonctionnant sous MS-DOS et Word Perfect 4. Un autre se contentait par ailleurs d'un vieux portable de cette même époque, sans disque dur, et dont le ressort tenant l'écran ouvert avait rendu l'âme le forçant à le tenir ouvert avec une règle...

Certains avant-gardistes, des révolutionnaires, des contestataires même, osaient en avoir plus d'un et poussaient l'audace jusqu'à les mettre en réseau ! Car l'ordinateur était alors un appareil confiné au secrétariat, n'ayant pas encore été admis dans le saint des saints, le bureau du notaire ! Quant aux logiciels de gestion d'étude, bien peu s'en offraient le luxe. Comme nous étions loin des réseaux publics, de la numérisation du registre foncier, de la publication en ligne ! Internet ? De quoi parlez-vous ? Un copain me disait à l'époque qu'il ne s'y connecterait pas tout de suite, qu'il attendait que la mode passe et qu'il y aurait moins de monde par la suite... Notarius était certes déjà dans le portrait, mais peinait toujours à percer la résistance au changement manifestée par plusieurs confrères. À vrai dire, le plus gros débat à l'époque était la fin de la distribution gratuite des mises à jour aux répertoires de droit en version papier... Qui s'en plaindrait aujourd'hui ? Et qui se souvient de certaines pratiques courantes aujourd'hui oubliées, comme commander des étiquettes pré-adressées pour la production des rapports testamentaires sur papier ? Nous en avons fait du chemin, et personne ne voudrait plus se passer de l'Inforoute notariale, de ses services en ligne, ni de sa signature numérique.

Mais le virage technologique négocié par la profession a eu des impacts que le simple renouvellement perpétuel des gadgets et l'arrivée de vagues successives de nouveaux sites ou services offerts par le Web. Loin de se résumer à la réception de nouvelles générations de photocopieurs ou autres outils et à l'apprentissage de leurs fonctions, les changements amenés par la révolution technologique ont modifié nos comportements, notre environnement professionnel, notre façon de pratiquer et notre vision de la pratique. En somme, le notariat n'est plus le même aujourd'hui, en grande partie à la suite de sa décision de plonger à plein dans la révolution informatique. Mais comme rien n'est jamais parfait, il faut aussi constater que ces mutations ont créé autant de problèmes qu'elles en ont réglé.

Le notaire d'aujourd'hui, connecté au monde qui l'entoure comme il l'est sans quitter son fauteuil, se retrouve aussi plus isolé. Finis les rencontres impromptues entre collègues au bureau de la publicité des droits. Finies aussi les discussions et échanges, parfois banals mais souvent enrichissants, qui y avaient cours et à mon avis, la plus grande cohésion de la profession qui en résultait. Le notaire qui souhaite prendre le pouls de ses confrères, même dans sa propre région, doit chercher ou provoquer les occasions pour le faire. Mais le fait-il ? L'accélération du rythme de déroulement des dossiers, autre conséquence du virage informatique, l'en empêche bien souvent. Au moins l'arrivée de stagiaires et la tendance au regroupement des notaires en plus grandes études, poussée par notre ordre professionnel, mais aussi imposée par la nécessité de suivre le tempo et le besoin d'investir dans les outils technologiques, vient-elle briser un peu l'isolement. Tout comme les rencontres obligées aux cours de formation professionnelle, d'ailleurs.

Les notaires d'aujourd'hui me semblent aussi plus ouverts au changement. Pas vraiment le choix, cette qualité leur aura été imposée par la succession de nouveautés qu'ils ont dû assimiler depuis dix ans ! Ceux qui restent et y ont survécu seront donc les plus flexibles, c'est de la pure sélection naturelle. Darwin serait fier de moi ! Mais ces changements successifs sont également porteurs de nouvelles incertitudes : pensons par exemple au dossier de la sauvegarde en ligne où le notaire est invité à protéger ses données en en conservant copie en dehors de son étude, mais où ses choix en la matière peuvent le placer en contravention à sa réglementation professionnelle ou l'exposer à des lois étrangères. Et si la pratique notariale a toujours été fertile en incertitudes, il faut bien admettre que celles posées par le virage technologique sont toujours plus difficiles à cerner ou à contrôler. Quant à notre capacité à les éviter, malgré tous nos efforts et notre bonne foi, elle semble certains jours être aussi incertaine que la couverture de nos assurances responsabilités face à ces nouvelles embûches.

Car en définitive, si nous sommes aujourd'hui plus « productifs », si nous pouvons faire une recherche de titres sur un lot situé à l'autre bout du Québec sans sortir de notre bureau, obtenir en ligne des états de taxes d'à peu près n'importe quelle institution, générer un acte de vente à la seconde, et le publier en moins d'une journée, nous sommes exposés à des problématiques nouvelles qui nous empêchent de profiter de ces avancées technologiques et nous font parfois regretter le bon vieux temps. La volatilité de l'information et la vitesse à laquelle elle circule désormais nous apportent en effet une flopée de problèmes de confidentialité et de sécurité. Par exemple, sauf dans un incendie, il était autrefois difficile d'imaginer perdre ou se faire voler tous ses dossiers et documents d'un coup. Ce qui est non seulement possible, mais facile, en cette époque où la totalité de notre greffe et de nos dossiers peut tenir sur un gadget gros comme un briquet ou être entreposé dans les nuages. Et qui se souciait de la fichue compensation des effets de commerce il y a dix ans ?

Non, il faut bien l'admettre, le praticien d'aujourd'hui est bien seul face à ces problèmes. Mais il faut tout de même admettre que le notariat a bien su tirer profit du virage technologique qui a secoué, et secoue toujours, toute notre société et qu'il est mieux armé pour y faire face. Quant à moi, je repars pour un autre contrat de dix ans en nos pages, si Dieu me prête vie et si vous voulez bien continuer de me lire !

À la prochaine ! 

Avril 2010 >>> Prêt, pas prêt, j'y vais !

Au moment de lancer un nouveau produit, l'industrie informatique est toujours prise entre deux feux. D'un côté, tout le monde sait que, dans n'importe quel domaine, il faut un jour cesser de développer et lancer son produit. Le mieux étant l'ennemi du bien...

En témoigne par exemple l'histoire d'un célèbre jeu vidéo, Duke Nukem 3D. Dès son lancement en 1996, ce jeu provoqua une révolution sur le plan technique et domina rapidement le marché en se vendant à plus de 4 millions d'exemplaires. Les auteurs décident de frapper un autre grand coup en annonçant rapidement l'arrivée prochaine d'une suite, Duke Nukem Forever. Plutôt classique comme cheminement, non ? Sauf que le projet n'aboutit jamais, ses créateurs faisant preuve de trop de perfectionnisme, refusant même d'annoncer une date de lancement. « Le jeu sera lancé quand il sera prêt », clamaient-ils sur leur site. Eh bien en mai 2009, douze ans plus tard, la compagnie annonçait son abandon. À force de reporter le lancement pour intégrer de nouvelles technologies sans cesse dépassées l'intérêt du public s'est perdu et les fonds consacrés au développement, autrefois considérés comme illimités, se sont épuisés.

Mais de l'autre côté, un autre danger guette : lancer un produit imparfait. Quel meilleur moyen en effet de perdre sa clientèle, et de tuer un produit et la compagnie qui le pilote ! Les affaires sont les affaires, mais le client a toujours raison. Et il rejettera rapidement un produit bâclé. Alors comment concilier les deux ? Y a-t-il moyen d'avoir le meilleur des deux mondes ?

C'est ici qu'entre en scène le concept du logiciel de version « Bêta », terme que vous avez certainement déjà entendu. Un logiciel traversant différents stades au cours de son développement que les développeurs ont normalisé afin de s'y retrouver. Par exemple, immédiatement après la production d'un prototype, viendra une version Alpha. Par référence à la première lettre de l'alphabet grec, une version Alpha désigne la première mouture d'un logiciel encore incomplet destiné à une série de tests internes visant à l'améliorer et à finaliser certaines fonctions. Vous ne trouverez normalement donc jamais de version Alpha sur les tablettes...


« ...mais non mon gros bêta, s'il n'en avait pas il ne marcherait pas ! » (comptine connue)



Les plus vieux se souviendront de leur cours classique, en faisant le lien avec la deuxième lettre de l'alphabet grec, Bêta, qui désignera donc le seconde version née de ce processus d'amélioration. Ici encore, il s'agit d'une version test, mais qui pourra circuler dans le public sous ce nom. Installer une version Bêta n'est donc pas dénuée de tout risque car elle peut encore comporter de sérieuses lacunes, ou « bugs ». Car le but de l'opération est justement de tirer profit des installations d'une version Bêta sur de nombreux postes afin de faire ressortir les problèmes, les usagers étant invités à les communiquer au développeur. Viendront ensuite deux version, soit une version dite admissible destinée à déceler tout « bug » de dernière minute, puis la version finale, dite « stable » qui fera l'objet du lancement commercial. Tout ce qui viendra par la suite sera considéré comme des ajouts ou versions corrigées. On peut penser aux fameux « Service packs » de Microsoft qui corrigent des problèmes soulevés lors de la distribution de masse d'un logiciel.

Mais il faut cependant comprendre que ces règles ne sont pas d'application obligatoire et que chaque développeur est libre de gérer ses versions et ses lancements à sa guise. Par exemple, on se souviendra que le pionnier des applications de clavardage, ICQ, a pendant des années distribué ses produits qu'avec la mention « Bêta release », dans un but évident de limiter sa responsabilité. Mais la simple existence de ces catégories peut nous permettre d'être prudents avant d'installer un logiciel. Ainsi, mieux vaut y penser avant de plonger dans un logiciel Bêta, surtout dans un contexte professionnel.

Les développeurs doivent aussi être honnêtes et éviter de lancer des versions dites « stables » trop vite, tout en prenant rapidement en compte les commentaires des usagers et les problèmes qu'ils rencontrent. Il est difficile de comprendre par exemple, et je ne nommerai personne, que la distribution d'une importante mise à jour d'un logiciel de gestion d'étude provoque des problèmes pour tout un bureau, et que le service à la clientèle répondre être au courant car le même problème s'est manifesté chez plusieurs autres de ses clients. La distribution limitée, l'expérimentation d'une version sous étiquette « Bêta » et la correction des problèmes apparus avant la distribution massive d'une version stable aurait permis d'éviter de nombreux problèmes pour les clients, particulièrement dans le cas d'une application aussi capitale pour une étude notariale.


Donnez-moi de vos nouvelles !



Je profite de l'occasion pour vous redire à quel point j'aime recevoir vos commentaires ou suggestions. Depuis dix ans que je rédige cette chronique en ces pages, votre usage des technologies de l'information s'est étendu de façon spectaculaire. Aussi votre expérience pratique ne peut que contribuer à enrichir cet espace et à nous assurer que les sujets qui y sont traités collent à votre quotidien. Vous pouvez donc m'écrire au bsalvas@yahoo.ca pour toute question, commentaire ou suggestion, ou tout simplement pour me dire s'il fait beau chez vous ou pour me dire bonjour. Je ne suis pas gênant.

Un futé collègue m'écrit d'ailleurs ces jours-ci pour me dire qu'il est parvenu à déjouer le système, et à passer à Windows 7 même si le Registre foncier et Entrust ne supportent pas encore ce nouveau système de Microsoft. Ce confrère a utilisé la fonction de compatibilité disponible depuis quelques versions de Windows, afin de faire fonctionner Entrust sous Windows 7. Cette fonction fait en sorte que Windows 7 fonctionnera avec Entrust en faisant semblant d'être une version antérieure, soit XP ou Vista. Windows 7 reste lui-même, mais porte un masque pour confondre les logiciels qui ne lui sont pas encore compatibles.

Bien que cette solution semble avoir fonctionné pour ce confrère, je vous invite néanmoins à la prudence, et à contacter votre informaticien préféré ou Notarius pour vous assurer que des problèmes ne surgiront pas d'une telle configuration. S'il s'agissait de faire fonctionner le vieux jeu vidéo préféré de fiston, je vous dirais de foncer. Mais pour des applications professionnelles aussi importantes, je dois m'avouer un peu plus frileux. Ce doit être l'âge...

À la prochaine !

Mars 2010 >>> Qu'advient-il de notre "patrimoine virtuel" à notre décès?

Vous accueillez aujourd'hui dans votre étude un client qui souhaite faire rédiger son testament. Vous lui posez les questions d'usage, vous vous informez sur l'étendue et le type de biens qu'il possède, etc. La routine habituelle, quoi. Mais voici que votre client se met à vous parler de ses « avoirs virtuels ». Il vous demande ce qu'il adviendra, après son décès, de son site Web, de ses archives courriel, des documents qu'il a entreposés sur des serveurs distants, etc. Qu'allez-vous lui répondre ?

Ce client vous pose d'excellentes questions, des questions sur lesquelles je devrais moi-même me pencher sérieusement. Car si notre droit tente le plus possible d'adapter à l'univers informatique des solutions éprouvées, certains aspects des relations qui se tissent sur le Web sont influencés par des contraintes qui leur sont propres. Une chose est certaine toutefois : le sort au décès de ce que nous appellerons ici, pour alléger le texte, le « patrimoine virtuel » d'un individu, est un sujet fascinant qui mérite que l'on s'y attarde.

Au coeur du sujet, une question prend forme : les traces que nous laissons dans l'univers informatique, particulièrement sur le Web, constituent-elles des biens transmissibles en vertu des règles de notre droit civil, ou la volatilité fondamentale qui les caractérise les appelle-t-elle à disparaître en même temps que nous ? De façon accessoire, il faut aussi s'interroger sur l'état pratique des choses ayant cours actuellement sur le Web à cet égard, et sur la possibilité ou non pour un individu de poser des gestes de son vivant, notamment dans un testament, pour influencer le cours des choses au jour de son décès. Nous ne pourrons certainement qu'effleurer ici les grandes lignes de ce vaste programme. Mais tentons tout de même un bref tour du jardin, en guise d'invitation à de plus profondes analyses.


De quoi se compose un patrimoine virtuel ?
Ce que nous appellerons ici un actif virtuel, à défaut de meilleure expression, peut englober divers concepts. Dressons tout d'abord une liste sommaire du type de traces virtuelles qu'un individu peut laisser derrière lui, et que nous pourrions considérer comme faisant partie de son patrimoine virtuel. Nous pourrions par exemple penser tout simplement à un compte courriel ou aux archives de messages et de documents... Ou encore aux documents entreposés sur des serveurs locaux ou distants, surtout depuis que le concept d'« informatique dans les nuages » (cloud computing) gagne en popularité. Qu'en est-il également des signatures numériques ou des sites Web ?

Si le patrimoine virtuel pouvait sembler jusqu'à tout récemment être un concept plutôt flou, la professionnalisation de l'usage des nouvelles technologies que nous vivons présentement aide à le préciser et nous permet de le décortiquer et de le classer en catégories, en utilisant par exemple le but ou l'usage visé des données qui le composent.

Ainsi, nous pourrions établir un classement selon l'usage privé ou professionnel qu'en fait l'internaute, leur caractère permanent (stockage d'archives ou de documents) ou volatile (courriels ou archives de conversations, par exemple), ou encore leur localisation.

1.Usage professionnel
Éliminons d'emblée aux fins du présent article les éléments de patrimoine virtuel à caractère professionnel, par exemple les archives électroniques d'un notaire ou d'un comptable agréé. Dans un premier cas, de toute évidence, ces biens seront affectés par les dispositions des lois et règlements régissant la profession en question ayant trait à la tenue et à la conservation des dossiers. De plus, leur transmission pourrait être régie par un contrat de société ou convention entre actionnaires. De la même façon, un employé peut détenir et utiliser certains actifs virtuels dans le cadre de son emploi. Les archives de courriels, fichiers ou applications détenus sur les serveurs de son employeur sont sous son contrôle, mais, comme les biens physiques utilisés dans le cadre de son emploi, ne font pas partie de son patrimoine. Leur sort au décès de l'individu sera donc régi par les contrats de travail existants, la politique informatique de l'employeur ou les règles propres au droit du travail.

Également, l'homme d'affaires oeuvrant au sein d'une compagnie ou d'une société pourra voir la conservation de ses informations ou données régie par de telles ententes d'association, partenariats, licences, franchises, etc.

Les cas sont trop multiples pour être abordés ici en détail, mais mentionnons que le notaire prudent devrait s'enquérir de l'existence de telles ententes avant de s'aventurer en ce domaine. Nous nous limiterons donc pour l'instant aux éléments d'actifs virtuels détenus par des particuliers.

2.Usage privé
Un individu, dans le cadre de ses activités personnelles, laissera de nombreuses traces de son passage sur le Web. Le traitement de ces actifs virtuels au décès par les différents intervenants qui les détiennent ou en ont la garde variera énormément. Aussi il importera pour le notaire :

°tout d'abord de préciser le plus possible chacun des éléments d'actif afin d'identifier l'organisme en charge ;

°de vérifier les intentions de son client face à chaque élément d'actif, c'est-à-dire s'il souhaite que les données soient détruites, transmises sous le contrôle d'une personne en particulier, ou conservées pendant une période déterminée ou non ;

°vérifier auprès des organismes concernés, avant de rédiger sa ou ses clauses testamentaires, quel traitement sera réservé aux données qu'ils détiennent advenant décès du client et, le cas échéant, de quels détails ou informations ils auront besoin en temps et lieu pour exécuter ses volontés.

Il est en effet primordial de comprendre qu'en cette matière le droit seul ne règle pas toutes les problématiques ; une grande part des règles applicables, sinon toutes dans bien des cas, découle des contrats conclus entre le client et le détenteur des données ou tout simplement des politiques internes de ce dernier. Ainsi, sans prétendre à l'exhaustivité, nous vous présentons quelques exemples montrant les différences dans le traitement au décès de certains actifs virtuels par les acteurs concernés

Adresse et archives courriel
Un compte courriel n'est ni plus ni moins qu'un espace disque sur un serveur dédié à l'échange de messagerie électronique. Le serveur appartenant à un fournisseur de services, il faut s'en remettre à leurs politiques ou au contrat intervenu avec l'utilisateur pour déterminer ce qui se passera avec les données au décès de ce dernier. Nous avons contacté les représentants des deux plus importants fournisseurs d'accès Internet au Québec, Vidéotron et Bell. Il appert que les deux sociétés appliquent la même politique, soit la fermeture des comptes courriel et la destruction automatique de toutes les données qui y sont détenues, sur transmission d'un certificat de décès.

Il en résulte tout d'abord l'inutilité de stipuler quoi que ce soit à cet égard dans le testament d'un client qui souhaiterait voir ces archives transmises à ses héritiers, la seule solution en pareil cas étant pour lui de leur transmettre ses informations de connexion afin qu'ils puissent accéder au contenu avant d'informer le fournisseur d'accès de son décès, en les laissant dans son coffret de sûreté ou en les confiant à son notaire par exemple. Et en n'oubliant pas de le faire à nouveau s'il change son mot de passe. Sinon, mis à part la contestation judiciaire de la politique en vigueur, aucune procédure ne permet le dévoilement des informations de connexion aux héritiers.

Mais l'autre conséquence est au moins de nous permettre de rassurer nos clients sur la suppression de leurs courriels après leur décès, ce type de fichiers étant souvent de nature confidentielle et très personnelle.

Le traitement variera dans le cas des fournisseurs de services de courriel Web. Hotmail supprime ses comptes systématiquement après 270 jours d'inactivité, mais laissera libre accès aux successeurs sur présentation d'un certificat de décès et ne permet d'aucune façon à un usager de bloquer un tel accès post mortem à sa boîte. Gmail pour sa part, laissera aussi accès aux successeurs, mais demandera en plus du certificat de décès, une preuve de discussion entre les successeurs et le défunt démontrant une permission de sa part à cet effet. Une clause au testament pourrait être intéressante à cet égard. Tous les deux, comme Yahoo !, permettent la suppression de la boîte sur demande du successeur. Yahoo ! ne permettant officiellement à ce dernier aucun accès au contenu. Nous avons cependant trouvé sur le Web une citation d'un représentant de Yahoo ! qui mentionne qu'il pourrait en être autrement si le testament du défunt donne spécifiquement une permission à ce sujet.


1.Données entreposées et sites Web
En ce domaine, la palette est plus large et mériterait beaucoup plus d'approfondissement. Un élément clé dont il faut tenir compte à ce sujet réside dans la localisation des fournisseurs de services d'hébergement. Que ce soit pour des données entreposées, des dossiers de travail dans les nuages ou des fichiers composant un site Web, la propriété, le contrôle et les droits d'accès seront largement déterminés par l'entente intervenue et la politique du fournisseur, mais également par le droit applicable. Il est certain que la propriété intellectuelle des documents demeurera celle de leur auteur, mais leur sort au décès comme du vivant de ce dernier variera beaucoup d'un cas à l'autre.

En ce qui concerne les noms de domaine eux-mêmes, ils appartiennent clairement à leur titulaire enregistré. De nombreuses décisions en matière de « cybersquattage » le confirment. Un tel enregistrement est également transférable auprès du registraire concerné. Il serait donc tout à fait possible de léguer, par testament, les droits sur un nom de domaine.


2.Sites de réseautage
Les sites de réseautage comme Facebook, MySpace et autres, sont tellement en vogue qu'on peut presque dire qu'ils sont en train de révolutionner Internet. Les usagers de ces services y stockent de plus en plus d'informations personnelles comme des photos, des vidéos, des fils de conversation, etc. Que se passe-t-il au décès ? Ces informations demeurent-elles accessibles pour l'éternité ? Ont-ils quand même un certain droit à l'oubli ?

La question est assez nouvelle, et la multiplication de ces sites rendra très importante la vérification des conditions entourant l'utilisation de ces sites. Le notaire sera avisé de conseiller à son client de vérifier ces informations auprès de l'opérateur du site en question. À titre d'exemple, MySpace ne dispose d'aucune politique claire en la matière. Il accepterait cependant de supprimer les données à la demande des héritiers. La politique d'utilisation de Twitter reste par ailleurs muette sur le sujet. Quant à Facebook, une fois informée du décès, elle bloquera l'accès classique à l'espace du défunt rendant toute modification impossible. Le profil du défunt deviendra ainsi une sorte de sanctuaire en sa mémoire, géré par les héritiers. Ces derniers pourront également demander sa suppression.

Plus nous avancions dans ce projet d'article, et plus nous étions à même de constater la richesse de ce sujet et l'actualité des questions soulevées. Plus notre société intégrera les nouvelles technologies à sa vie quotidienne, et plus des situations demandant des interventions sur les avoirs virtuels des individus seront requises. L'approfondissement de ces notions devra donc accompagner l'évolution de son importance qui émanera de la pratique. Mais il n'en demeure pas moins que le virage technologique nous offre encore un domaine intéressant à explorer !