L’irruption de l’Internet au sein de tous nos échanges, au cœur de notre vie quotidienne même, n’en finit pas de bouleverser nos habitudes. Ce bouleversement, amplifiant certaines « dérives », conduit généralement à la volonté, somme toute assez naturelle pour certains, de « vouloir reprendre le contrôle ». Mais faute de bien comprendre la nature de cette transformation, ses causes et ses fondamentaux radicalement différents de notre monde habituel « régalien », on en vient trop souvent à mal réfléchir par manque d’information, par crainte de devoir apporter une réponse rapide, par peur de ne bientôt plus pouvoir contrôler. Ce qui conduit trop souvent à se poser de mauvaises questions et dans ce cas, il ne faut pas s’étonner de la nature de la réponse.
Aussi, dans ce document, nous allons nous attacher à donner des éléments de compréhension du problème, pour que chacun puisse se forger une opinion, en toute objectivité.

Mais tout d’abord clarifions un élément de langage et un faux semblant :

Filtrage ou blocage ?

Dans l’inconscient collectif, on ne fait pas grande différence entre bloquer et filtrer. Et c’est pourtant fondamental. On comprend difficilement la différence de nature de moyens mis en œuvre et même que le filtrage révèle une notion d’obligation de résultat que le blocage n’a pas forcément.

Bloquer

Bloquer, c’est raisonnablement interdire. On bloque une route. Bien sûr, on sait que rien n’est parfait et qu’une minorité motivée parviendra toujours à passer. On bloque pour « protéger » le général du particulier.

Filtrer est une tout autre notion.

Des moyens supérieurs vont être mis en place pour faire un peu plus que de regarder les trains passer. Par exemple, on va filtrer l’accès à la tribune présidentielle pour le 14 Juillet. Seuls ceux qui auront été préalablement autorisés et pourront le prouver pourront passer. On met en place un cordon de sécurité, des accès surveillés et on demande les papiers, les autorisations, voir on fouille les sacs pour vérifier que rien d’illicite ne va entrer. Filtrer est donc plus délicat car il va falloir s’interroger sur les critères permettant de différencier les passants et forcement installer un mécanisme sophistiqué pour comprendre la « nature du trafic », qui veut entrer, voir ce qu’il entend transporter … au cœur même de l’infrastructure d’accès. Et plus l’infrastructure est complexe, plus le dispositif va être complexe. Lorsqu’il s’agit de contrôler l’accès aux aéroports, c’est une chose. Filtrer toutes les routes d’un pays, c’est une autre chose.
Avec l’Internet, nous sommes même au delà, du fait du volume et de la rapidité des échanges, mais aussi à cause de la nature même de sa topologie et de son mécanisme de construction. (de proche en proche) Ainsi, le chemin préfigurant le contrôle devient non déterministe mais mieux encore, l’Internet permet d’assez facilement créer de nouveaux chemins, qui peuvent contourner ou passer au dessus des lignes Maginot potentielles. Tout cela sans compter la capacité de se déguiser (chiffrer) de façon bien plus efficace que dans « le monde réel ».

Que veut-on filtrer ?

Une menace

Des usages abusifs potentiellement dangereux pour le réseau ou les autres

Filtrer n’est pas un sujet nouveau. Le filtrage ou plutôt le blocage existe depuis la nuit des temps dans l’Internet. Initialement pour des raisons purement techniques et/ou de sécurité des infrastructures. En un mot : pour préserver et maintenir le bon fonctionnement général d’un système perméable « à l’autre » et aux effets de bord. Deux types de besoins légitimes sont vites apparus :

  • Le besoin de se protéger de possibles agressions (extérieur ou venant de ses propres clients, volontaires ou non), non pas en établissant un filtre, mais en bloquant un certain type de trafic qui pourrait être préjudiciable à la santé du réseau, donc à l’usabilité (venant de « usability ») de tous.
  • Le besoin de protéger ses ressources système, souvent nécessaire au bon fonctionnement du tout, chez soi mais aussi ailleurs, l’Internet est une responsabilité partagée.

Par la suite, le réseau grandissant, le filtrage a aussi été nécessaire pour contrer des attaques de différents types, la plus connue étant le déni de service, le retrait des spam et des virus de nos boîtes de courrier électronique ou même de certains contenus, avant qu’ils ne nous infestent.
Pendant longtemps, malgré la pression de la société civile, les mesures TECHNIQUES qui étaient prises étaient prises pour des RAISONS TECHNIQUES par des gens qui les dominaient encore. Il a été évité de mettre le doigt dans l’interprétation du bien fondé d’une demande de la société civile et toujours, d’encourager les mécanismes démocratiques en place et de demander une décision judiciaire, avant que de fournir des renseignements ou s’éloigner de ces règles de bon sens.
Ceci dit, ceci n’a pas empêché, d’exercer notre devoir de citoyen « éclairé », malgré le risque d’être en infraction avec la législation en vigueur : preuve de responsabilité et de maturité.

Virus / spam / fishing / menaces diverses

Les solutions de lutte anti-spam utilisent généralement une analyse du contenu des mails et la comparaison avec des bases de signatures pour distinguer le spam ou les virus du courrier légitime. La distinction peut se faire sur l’adresse mail d’origine tout comme sur le titre ou le corps du mail. Ces techniques sont mises en œuvre soit au niveau des fournisseurs de service Internet qui protègent leur messagerie, soit au niveau des utilisateurs par des outils appropriés.
Les infections ou les arnaques utilisant le Web sont généralement filtrées par les navigateurs Web qui consultent une base de données en ligne avant de permettre l’affichage du site et qui informent l’utilisateur en cas de risque potentiel.

Un contenu, un service, un flux ?

Site Web ou partie de site web ou contenu

Le but est, par exemple, d’empêcher l’accès à http://www.filmspirates.com :

  • Le blocage par l’adresse IP du site n’est que faiblement efficace, le site web pouvant changer d’adresse en quelques minutes ou bien, dès le début, utiliser plusieurs adresses sans que celles-ci puissent être toutes infailliblement connues. Le risque de surblocage aveugle est par ailleurs très important, puisqu’il est impossible de connaitre précisément la liste des sites Web ou services Internet abrités par une même adresse IP, potentiellement plusieurs centaines voire milliers selon la solution d’hébergement utilisée. Le cas de Megaupload qui est en train de défrayer la chronique est intéressant. On sait que du contenu illégal est hébergé par ce site, mais on sait aussi qu’il n’héberge pas que tu contenu illégal. Des arrêts sont en train d’être rendus en ce moment même pour invalider des mesures de blocages qui ont conduit à un surblocage aveugle. D’une frappe « atomique », on se dirige vers une guerre plus chirurgicale, mais qui nécessite d’autres techniques de filtrage dont nous parlerons plus après. (mot clé : DPI : Deep Packet Inspection)
  • Le blocage du nom de domaine entrainerait, d’une part, un très fort taux de surblocage : plusieurs milliers de sites Web pourraient être bloqués en même temps que le site visé (Argentine – Blogger.com). D’autre part, cela n’empêcherait aucunement l’accès au site par d’autres noms ou, à l’extrême, par les adresses IP directement. Il nécessite en plus la publication du listing des sites à filtrer, ce qui n’est pas nécessairement souhaitable. De plus, changer de nom de domaine est une opération rapide et quasi triviale. Les moyens de communication du nouveau nom sont ensuite nombreux (réseaux sociaux, chat, forums spécialisés…).
  • Le filtrage par URL permettrait un filtrage précis avec un risque minime de surblocage mais il nécessite l’utilisation de technologies plus intrusives (DPI) pour comprendre ce qui est demandé et vérifier que ce qui est fait doit être bloqué. (ie : filtré dans ce cas). Dans le cas d’une architecture, telle celle de l’Internet, ceci est extrêmement coûteux et difficilement déployable à grande échelle, soit dangereux (nous reviendrons sur ce point dans la 2ème partie de ce document)  de par l’inévitable centralisation qui sera nécessaire.
  • Le filtrage sur le contenu permettrait de filtrer des parties de sites Web en fonction de leur contenu (mot clés interdit, etc…). Ce type de filtrage nécessite également l’utilisation de DPI. Le risque de surblocage est aussi possible. Bloquer un mot ou un terme ou une expression bloquera l’ensemble des sites comportant ce mot, ce terme ou cette expression, même s’ils ne sont pas directement visés par le filtrage. Le principe du blocage par URL décrit plus haut est une application de filtrage du contenu. Il est bien sûr possible de mélanger le filtrage d’URL et le filtrage de mot clé … la combinatoire résultante risque de produire un résultat non déterministe, sauf pour sa complexité et son cout et pour un résultat faible par rapport aux moyens consacrés et l’image pour nos sociétés démocratiques modernes.
  • Le filtrage hybride, mélange d’un filtrage par IP puis d’un filtrage sur le contenu. Il évite de devoir effectuer du DPI sur la totalité des communications mais nécessite un ancrage fort dans le réseau du FAI et pose, in fine, les mêmes problèmes que le DPI.

Un utilisateur, un diffuseur, un créateur ?

Usage illicite sur le réseau

Le but est, par exemple, d’empêcher le téléchargement d’œuvres protégées sur un site de direct download :

  • Comme déjà indiqué, les filtrages par adresses IP ou par nom sont inefficaces puisqu’on ne peut préjuger du caractère licite ou illicite d’un contenu à partir de son adresse ou de son nom.
  • Le filtrage complet du site mettant le contenu à disposition conduit à un surblocage et sous-blocage, celui-ci ne proposant pas que du contenu illégal et ce même contenu pouvant être proposé ailleurs (sur un autre site par exemple).
  • Le filtrage par contenu utilisant le DPI et basé sur une liste de signatures peut être efficace mais connait les mêmes problématiques de coût, de déploiement et de respect de la vie privée que le filtrage de sites Web.

Messagerie instantanée

Le but est, par exemple, de bloquer une messagerie instantanée sur une zone géographique prédéfinie:

  • Les filtrages par IP ou par nom sont inefficaces, sauf à admettre qu’il est nécessaire d’empêcher totalement l’accès à la messagerie concernée.
  • Le filtrage protocolaire est inefficace, les réseaux sociaux utilisant, comme tout autre site, le protocole http (Web).
  • Le filtrage par contenu par zone géographique, en utilisant des technologies DPI dans des endroits ciblés du réseau, peut permettre d’interdire certains usages sur des sites Web tout en créant un sur- ou un sous-blocage important, tant les modes d’accès sont différents (Web, application mobile…) et les réseaux hétérogènes (nationaux, internationaux, roaming, VPN…).
  • Les risques sont également les mêmes que le filtrage des usages illicites, mais il est en plus très difficile de déterminer automatiquement la licéité d’un message transitant sur le réseau.
  • Le retrait du contenu à la source serait le seul moyen potentiellement efficace mais il est dépendant de la législation du pays où sont hébergées les données et/ou de la bonne coopération de l’hébergeur.

Une technologie ou un Usage ?

Nous entrons dans une complexité de plus en plus grande et surtout, dans la notion d’arbre qui cache la forêt et qui nous fait perdre de vue le but poursuivi en s’attachant à une conséquence et non en voulant volontairement revenir au niveau des causes.

Parler des problèmes engendrés par l’Internet est un abus de langage.

[notice]
L’Internet est un ensemble de technologies, assemblées avec sens, qui ne se pense pas en terme de régulation, mais avec de gouvernance, tant on touche à la notion de “bien commun”. Ce n’est pas l’Internet qui est mauvais, tout comme ce ne sont pas les technologies ou une technologie particulière (le P2P (le paire à paire), le streaming …) qui est mauvaise, mais potentiellement l’usage que nous en faisons. Tout comme un objet (un couteau) qui peut se révéler indispensable à notre quotidien mais en même temps une arme dangereuse et qui mal utilisé m’entraine dans un terrain, non pas de non droit, mais simplement d’illégalité ou généralement toutes les peines ont déjà été largement pensées et prévues.
[/notice]
Tout comme l’Internet ne peut pas être réduit au Web ou à un service Web précis, il est fondamental de ne pas commettre l’erreur de confondre les causes et les conséquences, les moyens et les buts. L’Internet n’est pas un réseau de diffusion .. diffusion.. il peut être utilisé pour cela. L’Internet n’a pas besoin de « diffuser » pour exister et l’Internet a existé avant ces usages. De même que Facebook ou Google ne sont pas l’Internet. L’Internet a existé et existera sans eux, l’inverse n’est pas vrai, même si ces services ont pu voir le jour, en moins évolué sur des réseaux différents comme notre réseau télématique : Minitel.
Si l’on entend raisonner au niveau du protocole, outre commettre une immense erreur de raisonnement nous entraine dans une solution encore plus complexe que précédemment : cela reviendrait à vouloir filtrer tous ceux qui parlent Français dans le monde et potentiellement jeter l’opprobre sur ceux qui parlent cette langue.
De plus, l’identification d’un protocole, même si des sociétés s’en font une spécialité, est complexe et quasiment impossible si l’on se met à chiffrer l’ensemble de ses échanges. Là aussi, on pourrait être tenté de vouloir réguler cette possibilité (l’autorisation de chiffrement), tout comme cela a été fait précédemment. La conséquence est immédiate … un monde a à deux vitesses. Ceux qui peuvent se « protéger » normalement et qui peuvent aussi héberger des services évolués utilisant ces mécanismes (sites de commerces électronique …) et les autres.

Un espace / temps ?

Mais tout ceci n’est rien si l’on ajoute la dimension planétaire de l’Internet et le volume des échanges. En effet, où commence et ou où s’arrête l’Internet ?
Un usage ne peut-il être légal sur un territoire précis et illégal dans un autre ? Et même mieux, comme par exemple avec le jeu en ligne. Un usage n’est il pas illégal et à un autre moment, il devient légal, sur le même territoire ?
L’analogie entre l’Internet et un réseau routier n’est pas si mauvaise. Bien sûr, il existe un « code de la route » … tout comme aujourd’hui, il existe des lois, souvent suffisamment de lois et aussi des règles, des habitudes … on appelait cela dans le temps la N-Etiquette. Mais au delà de cela, ceux qui ont inventé ces mécanismes, ont bien fait attention que leur invention ne détermine pas à priori des usages que par définition et par habitude aussi, on sait ne pas connaître. Tout ce qui a fonctionné à très grande échelle n’avait été anticipé par aucun industriel ou grand centre de recherche : que ce soit l’Internet lui même, le courrier électronique, le Web, les SMS … tout ceci est né par une combinaison entre un possible technique et des utilisateurs qui se sont emparés des moyens pour en déterminer un usage.
On n’a pas créé des routes spécialement pour des vélos ou pour des camions ou même des voitures blanches ou jaunes. On a des infrastructures, on tente d’avoir un minimum de sens commun et on parlera dans le cas de l’Internet de bien commun et on ne les colore pas en fonction du type de trafic (ou d’usage) que l’on entend faire. L’Internet n’est pas un réseau de diffusion, ce n’est pas un média. L’Internet est un réseau d’ECHANGES et dont l’expérience du passé et l’humilité de reconnaître que l’on se trompe souvent lorsque l’on tente de prévoir le futur de ces technologies, nous enseigne qu’il vaut mieux qu’il soit neutre et symétrique et si possible, au plus haut débit envisageable.

Comment ?

A la source

On ne parle généralement pas de filtrage ou de blocage dans ce cas. Il est question de retirer le contenu ou le service purement et simplement.
C’est la piste la plus efficace pour empêcher l’accès au contenu puisque l’hébergeur est (normalement) à la source / à l’origine de la diffusion.
On dira que c’est compliqué, que c’est long, voir que c’est impossible. C’est partiellement vrai, mais ne devrions nous pas commencer toujours et systématiquement par là pour que les mesures de répression que l’on nous propose et les contraintes que l’on entend imposer aient un sens ?
Sinon ne serait-ce pas comme organiser une société où l’on sait que les crimes seront impunis, en tentant, non pas de combattre leurs instigateurs, mais en s’arrangeant pour filtrer leur présence pour éviter qu’ils ne côtoient trop facilement la société civile ou qu’un pauvre quidam ne se retrouve « par hasard » (comme on nous a prétendument fait croire que le hasard avait une quelconque responsabilité dans le contenu pédopornographique), en contact avec un criminel.
Le cas de l’usage illicite de fichiers / d’œuvres, qui se transfèrent et se multiplient et qui n’ont plus d’origine, par définition, est un autre sujet. Il sera traité dans un autre document à venir, avec le concept des Labs Réseaux & Techniques de la Hadopi tout à fait original d’OPEN RIGHTS.

Modèles « Man in the middle »

Il s’agit d’une simplification du problème. On a un problème, on tente de le résoudre au moins mal et au plus vite. Remonter aux causes est complexe et long, trop de possibilités, trop de contenus, trop de services, trop d’utilisateurs, trop d’inconnues, trop de combinaisons … alors on va droit au commun dénominateur : l’intermédiaire. Celui qui permet, par la mise à disposition de ses « tuyaux » de « solliciter » ou de « constater » l’infraction en faisant circuler ce que l’on ne veut pas voir utiliser. On ne réprimande alors pas l’usage (et on ne risque pas d’entrer dans une pédagogie de responsabilisation) … on (essaye d’) épure le milieu.
L’analogie avec le dispositif routier serait de décréter qu’au delà du vol et du meurtre qui sont interdits, on va maintenant empêcher ceux qui les commettent ou même pourraient les commettre (on parle bien de cela quand on imagine certaines solutions de filtrage) de circuler. Vous pensez que cela existe déjà avec les contrôles de police, je réponds que nous sommes ici ailleurs. La technologie toute puissante, utilisé sans discernement, va créer l’illusion d’un contrôle totale. Contrôle qui n’est pas le but et à peine le moyen tant, il sera impossible à généraliséer. (cf plus haut)
Alors ce qui va arriver, après que les intermédiaires se seront manifestés pour que la société leur donne les moyens (remboursement par l’état) qu’on lui impose et qui ne serviront aucunement les intérêts de ladite société, arrivera. On décrètera que le problème est trop compliqué et parce qu’il sera donc trop couteux, on modifiera la topologie, la nature même de nos routes pour forcer tout le monde à passer au travers de « Check point Charly ». Les déplacements et les échanges seront, à n’en point douté, beaucoup plus efficaces … sans parler des risques associés à une société qui met en place de telles infrastructures, véritables goulets d’étranglement.

Dans le cœur du réseau 

Mais le problème c’est que l’Internet n’a pas vraiment de milieu, de début ou de fin. On ne peut pas créer des stations d’épuration, comme pour l’eau qui se retrouveraient forcément sur le passage de la collecte des eaux usées ou de la distribution des eaux propres. L’Internet est un réseau a-centré. Il va donc falloir tenter d’épurer (NDLR: c’est une remarque cynique et c’est volontiers que j’emploie un terme aussi fort qu’EPURER) tous les tuyaux et comme ils sont nombreux :

  • Soit on met des mécanismes d’épuration partout (en tous les cas, à chaque croisements possibles)
  • Soit on se débrouille pour qu’il y ait moins de croisements en rendant plus prévisible et donc plus « centrée » le mécanisme et la possibilité de flux dans l’Internet. A l’extrême, on créée de gros « check point Charly » qui nous permettront de mieux faire fonctionner la grande lessiveuse.

Ceci se fait soit au détriment de la décentralisation, entrainant donc une baisse des performances et de la résilience, soit à un coût (humain et technique) très élevé de par le nombre d’équipements et de configurations à mettre en production et à maintenir.
Tout ceci sans même parler des risques opérationnels d’un réseau hérité du meilleur des années 50. L’Internet a été pensé au départ pour des raisons de sécurité et de résilience … ici, nous faisons juste un pas de 50 ans en arrière.

Au niveau du Nœud de Raccordement Abonné (DSLAM ou autre)

Le Nœud de Raccordement de l’Abonné (ou NRO dans le cas de la fibre) sont les centraux dans lesquels aboutissent les lignes de communication des abonnés. C’est dans les NRA que se trouvent les DSLAM, qui sont les équipements qui accueillent la partie ADSL des lignes de téléphone.
Tous les DSLAM en service ne sont cependant pas forcément capables de traiter les paquets IP. Beaucoup ne sont en effet dédiés qu’au simple transport depuis le DSLAM vers un autre équipement et n’embarquent aucune capacité d’analyse, ne serait-ce que de la source ou de la destination des paquets. De manière générale, leur mission ne concerne que le transport de paquets et leurs capacités de traitement sont orientées vers cette mission.
L’ajout d’équipements permettant ce genre de traitement serait envisageable, sachant qu’il existe environ 13 000 centraux téléphoniques. Cela revient à l’ampleur du travail qui a dû être effectué pour déployer l’ADSL ces dix dernières années

Au niveau des serveurs de noms (DNS) de l’opérateur

C’est un cas particulier du filtrage qui intervient sur un service et non sur l’infrastructure elle-même. Mais en l’espèce, sans DNS, la plupart des services de l’Internet, utilisés au quotidien ne fonctionneraient plus. Il n’empêche pas de consulter le contenu mais limite son accessibilité.
L’analogie la plus proche est celle du réseau routier sur lequel on retire les panneaux indicateurs : vous pouvez toujours vous rendre à votre destination si vous connaissez déjà le chemin. Il est aussi possible d’orienter différemment les utilisateurs en indiquant d’autres directions.
La plupart des utilisateurs utilisent le mécanisme de résolution d’adresses (abusivement appelé DNS) de leur opérateur. Ils seraient alors facilement trompable. Mais il serait alors possible d’utiliser d’autres DNS, qui eux, diraient la vérité (et ne filtreraient plus en remplaçant une destination par une autre). Nous rentrons donc dans une escalade sans fin qui consisterait alors à imposer un filtrage sur la capacité de l’utilisateur final d’héberger son propre mécanisme de résolution d’adresses. Autant dire que cela serait une lourde erreur, mais tout à fait impossible pour de nombreuses entreprises.

A la destination

Avec son accord explicite (et sa participation)

Et oui, c’est un autre moyen de flltrer et le succès des logiciels de contrôle parental est là pour nous le confirmer. Evidement, pour le moment, il faut l’accord de l’utilisateur, pour qu’il en vienne à accepter la restriction de son accès, c’est à dire de ses usages potentiels. Mais cela ne pose généralement pas de problème tant on nous expliquer depuis des années, que le contrôle parental est LA solution.
Pour de nombreuses raisons, trop longues et hors sujet, il n’est pas le lieu de traiter ce sujet, sauf sur un point. Avec la multiplication des écrans « connectés » à la maison (Télévision, ordinateurs, consoles de jeu, smartphones … voir demain quasiment tout objet ayant un intérêt à remonter de l’information ou que l’on doit « actionner »), il devient totalement illusoire de penser « contrôle parental » comme avant. On ne va pas protéger objet par objet … et d’ailleurs de quoi, de qui et pour qui ? (que se passe t’il si nous sommes plusieurs à utiliser le même objet ?)
Tout comme on protège l’ensemble de sa maison en pensant à fermer la porte et non une fois que le voleur est entré dedans, en ayant mis des cadenas sur tous nos objets.
[warning]
Qui (et quoi) sera la porte blindée de notre « chez nous » numérique ?
Qui la contrôlera ?
Au delà d’une grande responsabilité, ne s’agit t’il pas d’un grand pouvoir qui se dessine ?
[/warning]
C’est en tous les cas le point de complexité majeur du sujet. Quel monde voulons nous demain ?
Voulons nous un système clé en main, où d’autres pensent la complexité et la responsabilité ailleurs et nous transforment en utilisateurs / consommateurs. Ou voulons nous pouvoir agir, décider, inventer … en un mot avec le pouvoir sur notre vie numérique et ne pas abandonner sa maitrise au profit du contrôle opéré par d’autres ?
Dans un document annexe, nous vous présenterons le fruit de nos réflexions sur ce sujet, permettant de tenter de réconcilier l’impossible et d’apporter une solution UTILE et qui devient d’ailleurs de plus en plus indispensable.
Le mot clé ici est ALF : l’Anamorphique Logical Filtering.

A l’insu de son plein gré

La méthode ici s’apparente à un appartement qui nous est livré avec une porte blindée, mais dont d’autres ont aussi la clef. Si nous ne sommes pas particulièrement vigilent, la sécurité de chacun va être sous traitée à quelques uns qui verront leur rôle d’orchestrateur de nos vies numériques renforcé. Ceci va potentiellement à l’encontre d’une politique de responsabilisation.
Nous pensons ici à tous les mécanismes qui s’installent dans les objets de notre quotidien et dont on ne sait pas trop bien à quoi et à qui, ils servent. Les Américains sont d’ailleurs en train de se poser la question au niveau de certains smartphones venus massivement (et forcement) d’Asie.
Il en irait de même de dispositifs qui pourraient agir sur les usages des utilisateurs, tracer, déchiffrer, restreindre, empêcher … donc le bénéfice dans les mains de quelques uns, surement pour de bonnes raisons, pourraient, assez facilement, être détournés par d’autres.

Les risques associés

Si l’on connaît assez bien les maux que l’on cherche à résoudre ou à combattre, il est indispensable de comprendre leur origine : ce qui attrait aux causes ou aux conséquences des effets que l’on est censé « corriger ». La réponse de la société, le temps d’action et qualité du résultat ne seront pas les même. On se retrouve trop souvent à penser de la même façon et à traiter des cas inconnus (les futurs d’une société qui se « numérise » par exemple) en tentant de revenir à des cas connus avec un raisonnement « classique » et trop souvent une faible connaissance de l’histoire et en n’apportant pas assez d’attention à la qualité de la prospective. Ceci conduit alors à une réflexion transitive d’une logique implacable :

  1. Le piratage c’est mal (ou la pédopornographie, c’est mal)
  2. L’Internet permet le piratage (d’accéder à des images pédopornographiques situés en des lieux où notre juridiction n’a pas de pouvoir)
  3. Conclusion : l’Internet c’est mal

On tente alors de corriger rapidement le dispositif en s’attaquant aux conséquences, plus faciles à appréhender et « à ceux qui tombent naturellement sous la main ». Qui apporte l’Internet : les Fournisseurs d’Accès (FAI), c’est leur problème, tout comme c’est au responsable d’un réseau de diffusion de contrôler la qualité et la nature des programmes qu’il diffuse … et au CSA d’y veiller.
Malheureusement c’est faire une erreur d’analyse que de placer sur un pied d’égalité, aveuglé par une certaine convergence, le métier d’opérateur de télé-communication, le métier de télé-diffusion et pire … l’Internet, bouc émissaire du tout. Ne nous trompons pas l’Internet est le tout et non le contenu contrôlé par quelques uns. C’est pour beaucoup d’abord un moyen de télécommunications et accessoirement un support de diffusion. On ne peut pas réduire la puissance des concepts « user centric » de l’Internet au travers d’une habituelle démarche « network centric ».
Vouloir restreindre l’Internet, ou l’adapter à des problématiques de télédiffusion ne va pas aller tout seul car il est un bien trop grand contenant. Il faudra bien un jour se poser la question suivante : « souhaitons nous adapter l’Internet à la société que l’on imagine et qui a été structurée par quelques siècles d’habitude ou est-ce une chance qui est donnée à la société pour faire plus librement, plus égalitairement et plus fraternellement ? » … en un mot : plus vite et mieux.
 
[warning]
C’est aussi pour cela que restreindre « le numérique » et l’Internet à une dimension régalienne et / ou économique est rater la nature du sujet, l’incroyable potentiel de transformation et les risques associés.
[/warning]

Limites du filtrage / blocage

On l’a vu dans ce document et vous le verrez d’autant mieux, quand on parlera de filtrage et de blocage, appliqué à l’Internet : on touche à quelque chose de TRES sensible et surtout, on a l’impression que rien ne fonctionne .. et c’est vrai. Il y a toujours quelqu’un pour expliquer que ce qui est mis en œuvre, ce qui est pensé ne peut pas fonctionner car il a un contre exemple.
Ce qui est très intéressant, c’est que l’on peut imaginer assez facilement la dérive répressive et les dangers d’une telle démarche, qui participe à l’escalade et au clivage plus que de l’intelligence collective :

  • On ne peut pas filtrer car on peut chiffrer : ce n’est pas entièrement faux …
  • Donc il faut encadrer le chiffrement, comme il était encadré (considéré comme une arme de guerre et non accessible « à bon niveau » par la population) jusqu’en 1996 : et ce n’est pas forcement vrai …
  • Le chiffrement est surtout un moyen défensif et créer des règles locales dans un monde global, qui tendra à diminuer notre protection et notre compétitivité est une erreur : et là malheureusement c’est totalement vrai.

La nature du réseau, les sous-jacents philosophiques ne permettent pas de rendre le tout déterministe, hormis recentraliser toute l’intelligence du réseau en quelques points, accepter que l’utilisateur final n’ai plus à sa disposition que des « terminaux » et juste refuser l’ampoule électrique pour privilégier la chandelle.
Alors, est ce une raison pour ne rien faire et le moins mal ne serait pas de faire vite quelque chose, pour montrer que la société civile ne peut tolérer que certains pensent que l’Internet est un territoire de non droit ?
Et est-on déjà bien sûr que rien ne fonctionne ?

Rien ne fonctionne ?

Faut-il ne rien faire alors ?

L’affaire de Copswatch et l’action du ministère de l’Intérieur est assez illustrant d’une situation « perdue d’avance » et pour autant qui n’était pas si inutile.
A première vue, on pourrait penser à un échec complet. Il s’agissait d’agir « contre » un contenu qui ne pouvait pas être laissé sans réaction. Le ministère a alors demandé, en justice, le blocage intégral. C’était d’ailleurs la meilleure réaction, ne pouvant pas forcément utiliser le cadre de la LOPPSI pour cela … et même si cela avait été possible, il était beaucoup plus « enseignant » et utile d’associer la société civile et la justice dans cette affaire.
Cependant, l’action pourrait sembler vaine car le contournement des mesures était enfantin et surtout, la publicité faite à l’affaire a permis d’apporter une plus large audience et participé à la dissémination de l’information.
Mais à bien y réfléchir, tout comme il y a des tables de la lois qui expliquent « tu ne tueras pas » et des lois pour expliquer ce que l’on risque à le faire … n’est-il pas le rôle, de rematérialiser la ligne jaune que l’on franchit, surtout si elle était un peu oubliée et/ou potentiellement immatérielle car « numérique » ? Le Ministère était bien dans son rôle pour affirmer que les bornes avaient été franchies et permettait utilement à la libre responsabilité de tous décider.
Il s’agit d’agir avec SENS et calme, de façon à rappeler UTILEMENT cette ligne jaune en ne tombant pas dans une répression excessive, voir stupide qui verra se lever de nombreux opposants, pas parce que la cause n’est pas juste mais parce que le moyen ne l’est pas.

Obligation de moyen versus obligation de résultat

Toute la subtilité est dans la notion de moyens proportionnés pour action structurante qui permettent une véritable politique de responsabilisation du plus grand nombre.
Il devient important alors de ne pas perdre de vue le but (une action responsabilisante et structurante) et ne penser le filtrage ou le blocage que comme l’un des moyens pour y parvenir. L’obligation de résultat n’est pas forcement le but et si tant est qu’il doive être recherché, il faut savoir qu’il sera sans doute contre productif, couteux, dangereux et en plus de mauvais goût dans l’inconscient collectif.

Conséquences attendues

Ces points peuvent assez facilement être étudiés dans des mesures d’impacts qui devraient toujours éclairer des décisions touchant à l’Internet. Il n’est pas le lieu d’étayer tous les sujets indiqués, mais simplement de les mentionner pour bien comprendre la portée extrêmement large d’une politique numérique pour un pays.

Pour les infrastructures et les services (Internet) qui en dépendent

La mise en place d’infrastructures performantes est un enjeu clair de la compétitivité de notre pays et de ses territoires. A l’instar de ce qui s’est passé avec le développement du chemin de fer, il y a eu des régions qui ont tout de suite jouées le jeu et qui se sont retrouvées en première ligne du développement économique et d’autres qui bien des années plus tard sont encore bien en retard.
Le sujet n’est pas seulement d’apporter le « broadband » aux citoyens, comme on leur donne de l’eau, l’électricité ou la télévision. Il ne s’agit pas simplement de donner un moyen de distraction de plus, il s’agit de donner les moyens, au plus grand nombre, de prendre part, au monde numérique qui va baigner, faciliter et permettre la plupart de nos échanges. Pas seulement en tant qu’utilisateur, mais surtout comme CREATEUR, INITIATEUR, CONCEPTEUR, HEBERGEUR de notre propre innovation et de nos services / contenus.
On l’a vu, imposer des mécanismes de filtrage pour aller jusqu’à une obligation de résultat va nécessairement avoir un coût en terme de :

  • Qualité et de « fluidité » de nos réseaux,
  • Définition d’un autre Internet, un Internet plus centralisé, plus dépendant de points de passages, moins rapide que d’autres Internet, dans d’autres pays et dont même certains protocoles ou certains services pourraient être difficilement rendus. A trop recentraliser et obliger une analyse à priori, on en revient à ne plus pouvoir faire fonctionner des protocoles qui ont besoin d’un temps réel (comme la voix) pour fonctionner. Aujourd’hui, c’est la voix ou d’autres échanges commerciaux nécessitant le temps réel (bourse, réseaux bancaires …), demain on peut prédire des interventions de télémédecines, mais surtout, c’est à l’Internet du futur auquel on peut penser. En effet, notre Internet d’aujourd’hui est globalement fait à partir de sous jacents qui ont été pensé il y a plus de 40 ans par des gens qui n’avaient aucune idée de ce que nous en ferions aujourd’hui et qui n’avait que comme ligne d’horizon que les technologies « analogiques » de leur époque. Hors aujourd’hui, les usages ont évolué et surtout les possibilités techniques. La fibre optique permet une avancée sans commune mesure avec ce que permettait le cuivre. On ne parle plus de temps de commutation en centaines de milli secondes, mais en nano secondes. De quoi demain sera fait … certains y travaillent déjà. N’allons nous pas être de facto écarté de ces sujets, n’ayant plus les moyens techniques de nous en rapprocher ?
  • Risque de compétitivité : Infrastructure moins performante, territoire moins performant et la qualité de vie ne sera pas forcement toujours l’élément N°1 qui permette de choisir le pays où exprimer son talent. Ne risquons nous pas de 1/ désespérer toute une population d’entrepreneurs, d’inventeurs et 2/ de ne pas attirer à nous les meilleurs à l’échelle internationale ? L’infrastructure ne fait pas tout … c’est pour beaucoup, quand même un élément essentiel.
  • Risque de dénaturer et de passer à coté : On l’a vu aussi, pour des raisons économiques et de « pragmatisme », il pourrait être décidé de recentraliser à l’extrême les points d’échange et de « routage » de l’Internet. Nous appelions cela des « check point charly ». Ce genre de réseau ne serait dès lors plus réellement de l’Internet et on ne voit pas trop ce qui le distinguerait des réseaux de diffusion d’avant.  Les risques de fragilisations, volontaire (attaques terroristes …) ou involontaire (bug d’équipements, effets de bords imprévisibles, erreur de manipulation / configuration …) seront alors beaucoup plus sensibles qu’aujourd’hui et il deviendra beaucoup plus simple de paralyser complètement ce genre de réseau. A partit du moment où nous nous dirigeons de plus en plus vers un monde « baigné » dans l’Internet … on parle ici de paralyser entièrement l’économie d’un pays, ses échanges, ses communications …

Pour la société

Les risques pour la société découlent logiquement des précédents risques techniques :

  • Attractivité de notre territoire, commerce, expatriation …
  • Attaque / blocage des échanges de notre pays …
  • Risques administratif et légaux
  • Risques « sociétal » / politique
  • Risques de contre réaction
  • Risques d’efficacité
  • Risques de proportionnalités
  • Risques de contagion
  • Risques de sécurité nationale

Alors que faire ?

Rien … surtout rien car si on continue comme cela, le risque est grand d’aller dans le mur. Mais comme l’humain a de la ressource et que, comme le disait Michel Bon, le Français est bon dans le coup de rein (pour se redresser) … on s’en sortira toujours. Le seul problème est :

Avons nous encore le temps et les moyens de passer à coté des trains en marche
Et si nous utilisions nos moyens, notre temps, notre intelligence, nos moyens, pour nous aussi avancer avec les autres ?

Dans une deuxième partie de ce document, nous présenterons une approche originale du filtrage, dont la réflexion est partie, non pas par le coté légal du sujet mais par l’UTILITE pour l’utilisateur final et la nécessité de passer du contrôle à la maîtrise.
 
NDLR: document réalisé avec l’aide d’un premier travail du Lab R&T de la Hadopi et dont j’indiquerais l’URL dès que je la retrouverais. (vous pouvez m’aider dans les commentaires)
Il y a peut être de nombreuses coquilles car ce billet provient d’un copie/coller d’un document Word qui n’était pas initialement fait pour être publié, mais pour “éclairer” un document qui est en cours de construction sur le site des Labs HADOPI, mais vue la tournure que prennent les choses, j’ai préféré continuer avec le franc parlé que certains semblent de moins en moins apprécier.
 
Crédit photo : la grande lessiveuse, bonux, checkpoint charlie, insu de son plein gré,

Leave a Reply

Your email address will not be published. Required fields are marked *