La question de la responsabilité des réseaux sociaux, et plus globalement des hébergeurs et fournisseurs d’accès à Internet, dans l’organisation d’attentats et le passage à l’acte de groupes terroristes est de plus en plus régulièrement pointée du doigt par les politiques, l’opinion publique et plus récemment par des familles de victimes. Plusieurs actions en Justice ont été intentées visant à faire reconnaître et condamner les firmes contrôlant Facebook, Twitter ou encore Google pour le soutien logistique qu’elles auraient apporté aux terroristes.
Or, Internet constitue par essence un espace de liberté : dès lors, le brider vient contrecarrer la nature-même du Web et ce qui en fait sa force et son moteur. De plus, est-il légitime de faire peser une telle responsabilité sur les hébergeurs et les gestionnaires de réseaux sociaux ? Et surtout est-ce réellement faisable ? Une nouvelle fois le difficile équilibre entre liberté et sécurité publique fait débat.
Le secteur numérique : le nouvel enjeu de la lutte contre le terrorisme :
La multiplication des attaques terroristes se caractérise par une évolution des modes opératoires des extrémistes, et c’est particulièrement le cas lorsque ces actes sont revendiqués par l’Etat islamique (EI). En effet, paradoxalement très modernes dans leur mode opératoire, ces derniers font une utilisation massive des nouvelles technologies de l’information, et surtout des réseaux sociaux et des services de messagerie instantanée dans des buts propagandistes et organisationnels.
C’est ainsi que de puissantes firmes mondiales telles que Facebook, Twitter ou encore Google ont été assignées en justice par plusieurs proches de victimes du terrorisme. Elles sont accusées d’avoir constitué des outils de communication en vue d’organiser des attentats, mais aussi d’avoir servies de support à la radicalisation. Ce dernier phénomène est particulièrement complexe à appréhender et à freiner pour les autorités dans la mesure où les terroristes peuvent alors planifier des attaques et agir seuls, sans avoir nécessairement besoin d’un solide réseau sous-entendant l’existence de liens exploitables par les agents de sécurité publique.
C’est ainsi que le débat sur l’accès pour ces agents aux données privées de certains internautes s’est installé ces derniers mois. Si un compromis temporaire a été conclu, il reste une zone grise : celle des messageries cryptées et des diffuseurs de vidéos instantanées rendant très difficile le filtrage des contenus publiés.
Vers la fin de la liberté du Net face à l’enjeu de sécurité publique ?
C’est au cours de la première partie de la décennie 2010 que l’usage des nouvelles technologies de l’information, dont les réseaux sociaux, dans l’organisation et la planification d’actes terroristes s’est généralisé. L’accès à Internet devenant de plus en plus global et permettant de toucher un maximum de cibles, elles sont aussi devenues des vecteurs de la diffusion de courants de pensée extrémistes.
Face à la montée de l’insécurité et au prosélytisme de plus en plus poussé des groupes terroristes, le débat portant sur la liberté de l’Internet – qui constitue pourtant l’essence-même du Web – se fait de plus en plus houleux entre des partisans d’une sécurité nationale toute puissante et ceux rappelant que les libertés fondamentales et le respect à la vie privée juridiquement hissés au rang de pilier de l’Union européenne par ses textes fondateurs comprennent la protection des données personnelles. Légalement, toute législation trop intrusive serait donc amenée à être abrogée par la Justice européenne, comme l’a par exemple été le Safe Harbor en octobre 2015 du fait de sa non adéquation avec les normes européennes en vigueur sur la protection des données numériques.
Outre-Atlantique, une plainte a été déposée par le père d’une victime des attentats de Paris contre Facebook, Twitter et Google auprès du tribunal de première instance du district Nord de Californie à la mi-juin 2016. L’accusation affirme que ces firmes auraient « sciemment » fourni un soutien logistique aux terroristes. La première audience est prévue pour le 21 septembre mais elle a peu de chance d’aboutir du fait de la prégnance de la liberté d’expression et d’information protégée par le Premier Amendement. En Europe en revanche, la responsabilité des hébergeurs peut être mise en cause lorsque ceux-ci n’accomplissent pas leur obligation de modération des discours de haine.
La tenue de propos haineux et extrémistes via le Web entre dans la qualification des actes relevant de la cybercriminalité. Les autorités européennes, et notamment l’Union européenne et le Conseil de l’Europe, oeuvrent actuellement à l’élaboration d’un cadre juridique pénal spécifique à la cyber-haine.
Toutefois, la question de la compétence se pose : la sécurité du Web est-elle du ressors des pouvoirs publics ou des hébergeurs de sites et autres gestionnaires de réseaux sociaux ?
Etats-Unis – Union européenne : des priorités différentes :
La privatisation de la censure fait craindre des dérives, d’autant que la sécurité publique est à la charge de l’Etat. Mais les agents de sécurité publique n’ont pas accès au contenu privé des internautes au nom du respect de la vie privée. Le filtrage des contenus est en partie assuré par les hébergeurs eux-mêmes notamment concernant la nudité et / ou la pornographie. Toutefois, les pages et contenus portant sur l’apologie du terrorisme ne sont pas nécessairement supprimés. En ce qui concerne les messageries instantanées, le contrôle des conversations privées des internautes est d’autant plus complexe à appréhender que la plupart met en avant la solidité du chiffrement qu’elles proposent afin de sécuriser lesdites discussions.
Une autre problématique intrinsèque à Internet tient à sa dimension internationale : les géants de l’Internet – Google, Apple, Facebook, Amazon et autres – sont des firmes américaines qui entretiennent une activité en Europe : dès lors, les soumettre à une législation s’avère complexe et demande une coopération certaine : Internet comme le terrorisme sont des enjeux globaux et nécessitent donc une prise en charge tout aussi vaste, d’autant que la multiplicité des cadres différents ne laisse que peu de chance d’aboutir à une solution.
Se pose ainsi la question de la possibilité pratique d’empêcher – ou de façon plus pragmatique de limiter – l’utilisation par les groupes terroristes des services numériques : quelle est dans ce cadre la responsabilité des hébergeurs et gestionnaires de réseaux sociaux et autres plateformes digitales ? Les GAFA et leurs confrères, tout en mettant en avant une politique de gestion des contenus stricte, se refusent à endosser un rôle de ‘police du Web’. Les polémiques successives sur l’utilisation de leurs services dans l’organisation d’attentats a conduit à une évolution de la position d’une partie des firmes digitales qui a accepté d’oeuvrer de concert avec les autorités. C’est le cas par exemple en France avec la production conjointe de ‘contre-discours’ visant à contrecarrer la portée et les effets de la propagande numérique menée par l’EI et les autres groupes terroristes.
La pression exercée par une partie croissante des pouvoirs et de l’opinion publics en vue d’un renforcement du contrôle des contenus se fait cependant de plus en plus forte. Une telle politique s’avère pourtant contraire à l’esprit de la majorité des firmes numériques puisqu’elles se sont bâties sur une liberté d’expression largement revendiquée, à l’exception notable des contenus sexuels – ceux-ci font très majoritairement l’objet d’une censure rapide. Les posts violents et / ou faisant l’apologie du terrorisme passent assez étrangement plus facilement au-travers de ce ‘tri’. Il faut cependant souligner un certain revirement ces derniers temps, notamment via le « blocage automatisé » reposant sur l’usage de mots-clés pour les contenus « extrémistes ». Facebook a récemment reconnu du bout des lèvres employer cette pratique.
Ces débats transparaissent dans la plainte qui a été déposée auprès de la justice américaine par Monsieur Reynaldo Gonzalez, dont la fille avait été tuée lors des attentats du 13 novembre à Paris sur la terrasse de La Belle Équipe. Comme indiqué plus haut, le Premier Amendement laisse peu de chance à cette action d’aboutir, mais elle se heurte aussi paradoxalement au Patriot Act. Si ce texte condamne dans une acception très large le soutien à toute activité terroriste par le biais de services fournis par exemple, une autre mesure protège les sites et gestionnaires de réseaux sociaux contre toute sanction résultant d’un contenu indépendant de leur volonté posté par leurs utilisateurs.
Si d’autres plaintes ont été cette année déposées aux Etats-Unis, leurs chances de conduire à une condamnation des firmes incriminées sont donc faibles. Qu’en est-il en Europe ? La législation européenne est beaucoup moins permissive en termes de surveillance que le Patriot Act, mais l’actuel climat anxiogène vient renforcer une aspiration à un renforcement de la sécurité et donc de la responsabilité numérique. Plusieurs Etats membres de l’Union ont d’ailleurs durci leur législation, parfois à la limite du libertaire selon certaines voix. Les autorités européennes ont elles aussi travaillé à l’élaboration d’une nouvelle directive visant la lutte contre le terrorisme qui vient caractériser le seuil de la notion de complicité envers une organisation ou un individu ayant des velléités terroristes dès lors qu’une entité leur fournit « des services, des actifs ou des biens ». Cette définition très large vient se rapprocher des termes du Patriot Act et pose donc la question de la responsabilité des hébergeurs et des gestionnaires de réseaux sociaux vis-à-vis des conséquences d’une attaque terroriste.
La question des techniques d’encadrement : le cheval de bataille des géants du numérique :
Les chefs d’accusation des plaintes déposées se recoupent : les firmes numériques mises en cause sont accusées d’avoir « sciemment » fourni un support organisationnel à l’EI, contribué de par les services qu’elles proposent à la propagande et servi de support à l’apologie du terrorisme, au financement de groupes, d’individus ou d’action à visée terroriste ainsi qu’au recrutement de ces cellules.
Ces actions emportent deux conséquences centrales : d’une part, elles se penchent sur l’enfermement algorithmique qui entraine la suggestion de contenu à caractère extrémiste et/ou terroriste à des individus déjà sensibilisés et susceptibles de se radicaliser ayant déjà effectué des recherches sur ce sujet sur le Web ; d’autre part, elles posent la question des techniques d’encadrement par les hébergeurs et les gestionnaires de réseaux sociaux et leurs possibilités pratiques : est-il réellement possible d’encadrer Internet afin de limiter la liberté d’expression – laquelle n’est ni plus ni moins que le droit de choquer et d’inviter à réagir les concitoyens sur des thématiques sujettes à débat ?
Selon les porte-paroles de Facebook et Twitter, il s’agit d’actions « sans fondement » (propos tenus en réponse à la plainte déposée par Monsieur Gonzalez). Ces firmes ont par ailleurs rappelé, tout comme Google, leur participation aux politiques de lutte contre le terrorisme menées tant par les Etats-Unis que par l’Union européenne.
Au sein de l’Union, la problématique de l’apologie du terrorisme et de la responsabilité des gestionnaires et des hébergeurs de sites Internet et de réseaux sociaux a été traitée par la Cour européenne des droits de l’homme sous la qualification de discours de haine.
La responsabilité des firmes digitales : une action européenne complexe mais en construction :
Face au déficit de législation, une jurisprudence en demi-teinte de la Cour européenne des droits de l’homme : le discours de haine :
La liberté d’expression est consacrée par l’article 10 § 2 de la Convention européenne des droits de l’homme et concerne « les idées qui […] heurtent, choquent ou inquiètent l’Etat ou une fraction quelconque de la population ». En conséquence, « toute formalité, condition, restriction ou sanction […] doit être proportionnelle au but légitime poursuivi » (CEDH, Handyside c. RU 07 décembre 1976, § 49). Les principes de nécessité et de proportionnalité sont donc à respecter selon la jurisprudence de la Cour. Deux voies sont prévues par la Convention européenne des droits de l’homme pour encadrer la liberté d’expression : d’une part, sous l’égide de l’article 17, l’exclusion de la protection offerte en cas de négation des valeurs fondamentales protégées par la Convention ; d’autre part, la limitation de la protection instiguée par l’article 10 § 2 est prévue en cas de discours haineux sans qu’il ne soit destructeur des valeurs fondamentales défendues par la Convention. Les discours de haine peuvent entrer sous l’une ou l’autre de ces exceptions.
Les supports digitaux font de ‘formidables’ véhicules pour les discours de haine de par leur faculté à toucher un maximum de cibles en un minimum de temps tout en permettant de rester anonyme. Dans ce contexte, la Cour européenne des droits de l’homme a édicté dans une jurisprudence récente du 16 juin 2015 Delfi AS c. Estonie l’existence de « devoirs et responsabilités » pour les plateformes, services et réseaux sociaux numériques lorsque leurs utilisateurs emploient ces outils pour dispenser des discours haineux et / ou des propos incitant au terrorisme et à la violence, en application de l’article 10 § 2 de la Convention européenne des droits de l’homme.
Pour la Cour, Internet constitue un vecteur, l’outil par excellence de la liberté d’expression. En conséquence, les portails et autres plateformes et réseaux sociaux peuvent être tenus responsables par les Etats lorsqu’ils ne prennent pas de mesures adéquates afin de supprimer les contenus litigieux « sans délai » et sans nécessité de notification.
Mais jusqu’à quel point la responsabilité des hébergeurs et des réseaux sociaux est-elle engagée et engageable ? Pour Monsieur Gonzalez et les autres requérants, la publication de contenus faisant l’apologie de la violence et / ou terroriste est en soi attaquable puisque la publication de propagande terroriste est illicite. Facebook, Twitter et Google ont toutefois vivement insisté sur le fait qu’ils ne pouvaient être tenus pour responsables de tout ce qui transite via leurs services du fait de l’importance en termes de quantité des données partagées. Ils ont également mis en avant leurs politiques de gestion des contenu radicaux. Il s’agit d’un discours communément employé par ces firmes lorsque leur responsabilité est mise en cause dans ce domaine.
La Cour européenne des droits de l’homme est venue rappeler et tenter d’éclaircir toute la complexité de cette problématique le 02 février 2016. Les juges sont ainsi venus préciser qu’il y avait violation caractérisée de la Convention en cas d’incitation à la haine et / ou à la violence dans les contenus publiés. Les posts et commentaires comprenant des injures entrent, eux, sous l’égide de l’article 10 § 2 et n’engagent pas la responsabilité de l’hébergeur et / ou du gestionnaire, au contraire de l’article 17 qui induit un retrait obligatoire et « sans délai » des contenus incriminés. D’après la jurisprudence de la Cour, il apparaît que les juges se fondent sur le caractère extrême à la fois illicite et haineux des contenus postés, mais la qualification reste complexe : à partir de quel moment les injures deviennent de l’incitation à la haine et à la violence ? Quel est le seuil ? La jurisprudence Handyside a en partie répondu à cette question : la Cour a déterminé que pour qu’un discours soit qualifié de discours de haine, il doit exhorter clairement à la violence. Dans le cas contraire, la Cour condamne les ingérences de l’Etat envers la liberté d’expression sous l’égide de l’article 10 § 2.
Face à ces injonctions des autorités judiciaires, les gestionnaires de réseaux sociaux, bien que la liberté d’expression soit leur credo, commencent à réellement intervenir et à accepter une certaine forme de responsabilité envers les contenus publiés.
Juridiquement, la responsabilité pénale des hébergeurs est régie par le principe d’irresponsabilité pour les contenus postés par les internautes. Ils n’ont d’ailleurs aucune obligation légale de surveillance. Il existe toutefois une responsabilité pénale en cas de preuve réelle et effective de la connaissance du caractère illicite du contenu posté. Un simple signalement à l’auteur n’est alors pas suffisant sauf s’il est exhaustif. Pour qu’il le soit, il doit réunir plusieurs éléments : notification dans le signalement de l’identité du notifiant, la description des faits, la localisation, les motifs du retrait, une copie de la correspondance avec l’auteur, les dispositions légales et la justification du retrait. Il existe une unique exception caractérisée par le législateur : l’apologie à la haine, au terrorisme et aux crimes contre l’humanité. L’hébergeur ou le gestionnaire de réseau social, qui a pour obligation de participer à la lutte contre la diffusion de tels contenus, est alors tenu d’élaborer et de mettre en place un dispositif visant à un signalement facilité. Il doit également assumer un devoir d’information envers les autorités et rendre publics les moyens consacrés à cette lutte.
La responsabilité pénale de l’utilisateur est évidemment engageable, non pas sous le motif de réprimer la tenue d’un discours de haine en tant que tel mais sur celui de le rendre public et de chercher à diffuser des incitation à la violence et à la haine.
Finalement, la Cour européenne de droits de l’homme affiche une position en demi-teinte. Elle a affirmé sa volonté d’appliquer à Internet le corpus classique des droits fondamentaux inhérents à la citoyenneté européenne, et dont fait partie la liberté d’expression, mais tout en mettant en avant en tant que circonstance aggravante la diffusion – et non la tenue – des discours de haine. Cela signifie que sur la Toile, l’ingérence des autorités publiques via l’article 10 de la Convention est plus facilement admise que pour les autres médias. Les juges de Strasbourg ont ainsi admis les spécificités que présente l’outil numérique et en ont donc dégagé des responsabilités différentes que celles endossées par les médias traditionnels du fait du caractère anonyme de l’auteur du contenu litigieux. Leur objectif est de tenter d’adapter le Droit actuel aux nouvelles technologies de l’information numériques, mais ils ne peuvent pas anticiper. Cela explique le décalage entre le développement de ces technologies et l’avancement du cadre législatif les légiférant. Une décision-cadre pénalisant les auteurs de discours de haine a ainsi été adoptée en 2008 (2008 / 913 / JAI) mais Internet en est le grand absent puisque le caractère anonyme des posts freine toute condamnation. La Commission et le Parlement européens examinent actuellement l’option de la pénalisation des hébergeurs et des gestionnaires de réseaux sociaux. Cela signifierait une obligation pour ces derniers, sous peine de sanction pénale, de modérer avant la mise en ligne les propos postés, et de bloquer et / ou fermer les sites et comptes à contenus illicites. Les principales firmes numériques invoquent l’intenabilité de cette option du fait de l’ampleur de la tâche. Si des outils de reconnaissance automatique des contenus illicites sont de plus en plus employés, ils emportent un risque de sur-blocage et d’atteinte à la liberté d’expression. C’est pourquoi la Cour européenne des droits de l’homme, mais aussi la Cour de justice de l’Union européenne, se penchent avec attention sur les cas où le paragraphe 2 de l’article 10 de la Convention est employé.
Face à cet appel à une plus grande implication des hébergeurs et des gestionnaires de réseaux sociaux dans la prévention et la répression des discours de haine et de la propagande terroriste, le risque de privatisation de la censure est réel et demande l’élaboration d’un cadre clair concernant les techniques de détection et de surveillance légales. Internet change en effet les moyens de lutte contre la publication de contenus illicites mais pas la portée ou la teneur des droits et libertés fondamentales protégés par les textes fondateurs de l’Union.
En revanche, l’usage en tant que support organisationnel a très peu de chances d’être légalement encadré du fait d’une législation européenne très protectrice de la vie privée.
Face à cette nécessité de trouver un cadre empêchant les dérives d’une censure ‘privatisée’, il est impératif que les pouvoirs publics interviennent sans pour autant empiéter sur les contenus qui transitent sur le Web : afin de trouver un équilibre, un travail de coopération a été mis en place.
Une difficile coopération entre les firmes et les autorités européennes :
A la suite des attentats du 13 novembre 2015 à Paris, les autorités françaises ont pris contact avec les principales firmes du secteur digital : Facebook, Twitter, Google – ciblées par la plainte aux États-Unis de Monsieur Gonzalez – mais aussi Apple et Microsoft en vue de mener des actions conjointes. Dès juin 2016, ces mêmes firmes à l’exception d’Apple ont oeuvré en partenariat avec la Commission européenne en vue d’élaborer un Code de bonne conduite contre les propos haineux publiés sur la Toile. Ce dernier, s’il fait preuve de leur bonne volonté, n’a aucune valeur légale ou contraignante. Si ses signataires s’engagent à tenir « des procédures claires et efficaces » dans l’examen des discours de haine sur leur plateforme respective, il reste cependant relativement flou. Il prévoit toutefois la suppression d’un contenu illicite sous 24h et un renforcement des moyens dédiés à la formation de leur personnel afin de mieux identifier les propos haineux appelant à la violence. Mais rien sur le nombre des employés dédiés à cette tâche n’est précisé. Est également prévu une augmentation de la rapidité et de la facilité des procédures de signalement, sans pour autant que cette mesure n’ait encore été mise en oeuvre : si elle est certes récente, la situation appelle toutefois à des réactions rapides. De plus, rien ne vient contraindre les firmes digitales au retrait des contenus problématiques. La véritable portée de ce Code de bonne conduite est de permettre d’appréhender cette question à échelle européenne et en partenariat avec les acteurs principaux. Il cible également, en plus de l’apologie au terrorisme, les propos antisémites, homophobes ou encore racistes. La difficulté majeure de ce texte tient en réalité à l’évolution des réglementations régissant l’approche européenne vis-à-vis des plateformes numériques : la directive de 2008 est en effet désormais largement obsolète et si une proposition de révision centrée sur la lutte contre les discours de haine a bien été votée le 25 mai 2016, il faudra deux ans avant qu’elle ne soit pleinement applicable. Il est donc difficile d’édicter des mesures concrètes et d’assurer une formation effective des équipes alors que les textes ne sont pas fixés.
Dans le même esprit et suite à la pression grandissante de plusieurs gouvernements européens – notamment français et allemand – le partenariat de la Online Civil Courage Initiative a été créé, alliant Facebook et le Centre international d’étude sur la radicalisation et la violence politique, l’Institut du dialogue stratégique et la Fondation Amadeu Antonio. Il a pour objectif une meilleure compréhension des discours de haine et faisant l’apologie du terrorisme afin de leur opposer des réponses plus effectives.
Face à ce « djihad médiatique », Twitter a également supprimé 125 000 comptes faisant l’apologie du terrorisme.
Deux types de réponses ont été mises en oeuvre : d’une part, la suppression pure et simple des contenus problématiques et d’autre part, une tentative de désillusion face aux messages utopistes diffusés par l’EI, soit assurer une réponse sur le même terrain.
Si la question de l’efficacité du retrait des contenus radicaux fait toujours débat, occuper la scène tout autant qu’eux constitue un mode de réponse nouveau qui doit également faire preuve de son efficacité. Cette question de l’adaptabilité des sanctions face à l’utilisation par les groupes terroristes des réseaux sociaux et des services de messagerie instantanée pose le problème de la gestion d’un futur contentieux de masse. Cela montre également la problématique du déficit de coordination entre les autorités des Etats membres de l’Union, mais aussi entre l’Union européenne et le reste de la communauté internationale, dans la mesure où le terrorisme et la diffusion de discours radicaux est une problématique mondiale utilisant des outils – dont Internet – globaux.
En 2013, la conférence annuelle de l’Agence européenne des droits fondamentaux s’est concentrée sur la problématique de la cyber-haine. Est sortie des débats une proposition d’harmonisation des législations et des codes pénaux des Etats membres de l’Union en parallèle de la création d’outils préventifs et répressifs, avec un accent toutefois posé sur la prévention. Cette proposition a été suivie par un corpus de textes de soft law visant à permettre une recherche adéquate des moyens les plus à même de déterminer le point d’équilibre entre liberté d’expression et sécurité publique. La voie choisie par ces guidelines s’orientent d’ailleurs vers la mise en place d’outils de prévention visant à lutter contre le terrorisme et les discours de haine par un renforcement de la démocratie.
Toutefois, le caractère illicite de la publication de discours de haine devient plus complexe tant à qualifier qu’à encadrer dès lors qu’il se fait de manière ‘privée’, c’est-à-dire via notamment des logiciels de messagerie instantanée chiffrés.
WhatsApp et Telegram notamment bénéficie d’un cryptage très solide et sont prisés par les terroristes en tant que supports organisationnels de leurs actions. Plusieurs d’entre eux avaient même publié des messages indiquant assez clairement leur intention de commettre un attentat, et parfois même des détails tels que le lieu ou encore la date de l’attaque. D’autres individus radicalisés profitent également du caractère instantané des publications sur Facebook, Twitter, Youtube et les différentes messageries pour diffuser leurs attaques. Cette instantanéité impose presqu’aux personnes ayant accès à de tels contenus de les regarder puisque les vidéos s’affichent et se mettent en route sans que les cibles n’aient à faire quoi que ce soit. Ce fut le cas sur Périscope à la suite du double assassinat de Magnanville. Dès lors, les services de police et même ceux des firmes gestionnaires de ces services n’ont que peu d’emprise sur les contenus diffusés.
Le dernier exemple en date est celui de Saint-Étienne-du-Rouvray et de l’attentat perpétré dans l’église du village le 26 juillet dernier qui s’est soldé par l’assassinat du prêtre Hamel. Plusieurs messages postés sur Telegram notamment par l’un des responsables de l’attaque démontraient d’une envie manifeste de commettre « un gros truc » (post du 25 juillet, la veille de l’attaque). Il appelait également vivement à un partage des vidéos qu’il prévoyait de poster et une heure avant l’attentat, il avait enjoint ses 200 abonnés à « partage[r] ce qui va suivre ». De même, les comptes Facebook et Twitter de ce même individu démontraient clairement que, contrairement à ce qu’il avait affirmé, il n’avait aucunement « pris conscience de ses erreurs » puisqu’il y diffusait largement des contenus faisant l’apologie du terrorisme. Son compte Twitter, ouvert en mai 2016, s’il était accessible à ses seuls abonnés (il suffit toutefois de cliquer sur l’onglet « suivre » pour y avoir accès) présentait en photos d’accueil et de couverture le leader et le drapeau de l’EI. Et, plus de 48h après les faits, Twitter n’avait toujours pas supprimé le compte.
Face aux difficultés rencontrées par les enquêteurs pour avoir accès aux données qui transitent par les applications de messagerie instantanée cryptées, la pression des politiques s’accroit sur les firmes incriminées : les ministres des affaires étrangères français et allemand, Messieurs Cazeneuve et de Maizière, demandent la mise en place d’un accès. Le 23 août dernier, à Bratislava, ils ont ainsi ébauché des pistes pour la Justice de se voir offrir des possibilités d’accéder au contenu des conversations cryptées dans le cas précis d’enquêtes en lien avec une entreprise terroriste, tout en écartant la possibilité d’une surveillance en amont. De même, ils ont demandé à ce que ces firmes, même si elles ne sont pas européennes, coopèrent de manière obligatoire avec les services de police toujours dans ce cas précis : si c’est déjà le cas pour certaines comme Twitter, les autorités ne disposent d’aucun interlocuteur pour Telegram par exemple. Ils ont enfin réclamé une action rapide, conjointe et globale de la part des autorités européennes, d’autant que les firmes concernées sont américaines (WhatsApp dépend de Facebook) ou russes (Telegram), ce qui complexifie lourdement les travaux conjoints. Cet enjeu devrait être présenté à l’ordre du jour du Sommet des chefs d’Etat prévu le 16 septembre prochain.
Emmanuelle Gris
Pour en savoir plus :
- Communiqué de presse de la CE, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, 03 décembre 2015, publié sur Twitter par @axellelemaire :
https://twitter.com/axellelemaire/status/672423364917612544/photo/1?ref_src=twsrc%5Etfw
- Commission européenne, communiqué de presse : La Commission met à jour la réglementation de l’UE dans le domaine de l’audiovisuel et présente une approche ciblée des plateformes en ligne, 25 mai 2016 :
http://europa.eu/rapid/press-release_IP-16-1873_fr.htm
- Code of conduct on countering illegal hate speech online :
http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf
- Cour européenne des droits de l’homme, division de la recherche, Internet : la jurisprudence de la Cour européenne des droits de l’homme, màj juin 2015 :
http://www.echr.coe.int/Documents/Research_report_internet_FRA.pdf