Table des matières
- RAPPORT SUR L’ÉTAT DE LA SOCIÉTÉ CIVILE 2026
- PANORAMA: RÉSISTANCE À CONTRE-COURANT +
- DÉMOCRATIE: UNE ASPIRATION DURABLE +
- TECHNOLOGIE: INNOVATION SANS RESPONSABILITÉ +
- GOUVERNANCE MONDIALE: LA POLITIQUE DE PUISSANCE MET À L’ÉPREUVE LES RÈGLES +
- CONFLIT: L’IMPUNITÉ SANS LIMITES +
- CLIMAT ENTRE EFFONDREMENT ET PERCÉE +
- MIGRATION: LA CRUAUTÉ COMME POLITIQUE +
- LUTTES DE GENRE: RECUL ET RÉSISTANCE +
- LA GÉNÉRATION Z: UNE NOUVELLE RÉSISTANCE SE LÈVE +
- REMERCIEMENTS +
- Télécharger le rapport +
- Les oligarques de la tech ont accumulé un pouvoir considérable et l’utilisent de manière irresponsable. Beaucoup se sont alignés avec des dirigeants autoritaires, nationalistes et populistes, notamment en nouant des liens avec l’administration Trump et en soutenant publiquement des mouvements extrémistes. La convergence entre les élites militaires, politiques et technologiques favorise les atrocités liées aux conflits et menace l’espace civique ainsi que les droits des groupes exclus.
- Les entreprises technologiques déploient rapidement l’IA générative sans garanties adéquates en matière de droits humains, tandis que les réglementations ne suivent pas le rythme. L’IA amplifie la désinformation électorale, alimente des « kill lists », favorise des technologies de surveillance utilisées contre la société civile et permet la diffusion de deepfake pornographiques visant principalement les femmes et les filles. Les États ne parviennent pas à réglementer ces technologies par crainte de perdre des avantages économiques et militaires.
- La société civile mène la campagne visant à rendre la technologie plus responsable : elle met en place des initiatives de vérification des faits, engage des poursuites contre les entreprises technologiques pour discours de haine et leur amplification dans les situations de conflit, dénonce la complicité des entreprises dans les violations des droits humains et réclame des normes mondiales pour les technologies, y compris pour l’IA.
Les entreprises technologiques déploient rapidement l’IA générative afin de prendre de l’avance sur l’éclatement potentiel d’une bulle financière. Sous la pression intense de la concurrence, elles ont relégué au second plan leurs engagements éthiques, lançant des produits sans se soucier de leur éventuel impact sur les droits humains. Les dirigeants du secteur technologique montrent également de plus en plus qu’ils ne sont pas dignes de confiance en s’alliant à des responsables politiques qui s’attaquent aux droits. Les entreprises exploitent les lacunes en matière de gouvernance, car les technologies évoluent plus vite que les réglementations, tandis que les États, de plus en plus influencés par les intérêts du secteur technologique ou complaisants à leur égard, ne parviennent pas à agir.
La société civile encourage un usage responsable des nouvelles technologies tout en explorant leurs utilisations militantes. Les réseaux sociaux jouent un rôle clé dans la mobilisation de la résistance menée par la génération Z contre des pouvoirs politiques et économiques irresponsables. Dans des contextes répressifs, les militants de la diaspora utilisent les réseaux sociaux pour collaborer avec ceux qui sont restés au pays. Alors que les sources de financement s’effondrent et que les restrictions de l’espace civique s’intensifient, les groupes de la société civile utilisent des outils d’IA pour leurs campagnes, leurs recherches et leurs demandes de subventions.
La société civile utilise également des outils technologiques pour demander des comptes en cas de violations des droits. En Ukraine, des enquêteurs utilisent l’IA et des outils open source pour identifier et collecter des preuves de crimes de guerre. La société civile mexicaine a créé une plateforme pour aider les familles à identifier les personnes disparues à partir d’effets personnels retrouvés. De jeunes militants du Myanmar ont développé une plateforme pour aider la population à s’organiser en toute sécurité dans les zones de conflit.
Dans le même temps, les États et les entreprises utilisent des outils numériques pour restreindre et réprimer la société civile. Les entreprises de réseaux sociaux se sont montrées disposées à déprioriser et à censurer les contenus militants à travers le « shadow banning » et à appliquer des politiques de modération opaques, tout en échouant à lutter efficacement contre la désinformation, les discours de haine et les menaces. Les États autoritaires imposent des coupures d’Internet, limitent l’accès aux réseaux sociaux et criminalisent les militants et les journalistes pour leurs expressions en ligne.

Des journalistes manifestent contre la législation sur les « fake news » utilisée pour criminaliser les opinions et museler la dissidence à Lahore, au Pakistan, le 31 janvier 2025. Photo d’Arif Ali/AFP
Les gouvernements du Cameroun, de Tanzanie et d’Ouganda ont imposé des coupures d’Internet lors d’élections non compétitives. Les autorités iraniennes ont suspendu l’accès à Internet pendant leur répression meurtrière des manifestations antigouvernementales. Le gouvernement népalais a bloqué 26 plateformes de réseaux sociaux, avant de faire rapidement marche arrière face aux manifestations menées par la génération Z. Face aux manifestations de la génération Z, les autorités turques ont sévèrement limité la bande passante des principales plateformes de réseaux sociaux. Les autorités indiennes ont ordonné le blocage d’environ 10 000 comptes Twitter/X dans le cadre du conflit avec le Pakistan au sujet du Cachemire.
Les États utilisent les lois sur la cybercriminalité et les soi-disant lois contre les « fausses informations » pour criminaliser la dissidence en ligne. La junte militaire du Mali invoque des lois sur la cybercriminalité contre des militants, des journalistes et des responsables de l’opposition, en recourant à des infractions fourre-tout telles que « atteinte à la crédibilité de l’État ». En Bélarus, pays répressif, le gouvernement arrête des personnes pour avoir suivi des chaînes Telegram qu’il juge extrémistes. En Indonésie, huit militants risquent de longues peines pour avoir soutenu sur les réseaux sociaux les manifestations menées par la génération Z.
Au Kenya, l’activiste Albert Omondi Ojwang a été tué en détention après avoir été arrêté pour avoir critiqué un responsable de la police sur les réseaux sociaux. Les autorités turques ont renvoyé deux blogueurs exilés au Turkménistan sur la base de fausses accusations de terrorisme ; on ignore toujours où ils se trouvent.
Les entreprises technologiques s’alignent souvent sur les États répressifs, se conformant à leurs demandes de suppression de comptes et de transmission de données sur les utilisateurs. YouTube, par exemple, a cédé aux exigences d’Israël de bloquer les diffusions en direct d’Al Jazeera.
La désinformation prospère en ligne, et les voix régressives sont souvent les plus bruyantes. Les algorithmes favorisent les contenus sensationnalistes, tandis que les messages plus nuancés de la société civile peinent à rivaliser.
Les populistes et les nationalistes ont suivi l’exemple de Donald Trump, exploitant les réseaux sociaux pour construire leur image. Le président argentin Javier Milei a contourné les médias traditionnels pour se forger une image antisystème grâce à des contenus riches en mèmes et à des images générées par l’IA sur Instagram et TikTok. Au Japon, le parti d’extrême droite Sanseitō dépasse largement le parti au pouvoir en nombre de vues sur YouTube, ce qui l’aide à recruter de jeunes électeurs. Le parti d’extrême droite Alternative pour l’Allemagne dispose d’une forte présence sur TikTok. Au Burkina Faso, le dirigeant militaire Ibrahim Traoré s’est attiré des partisans grâce à une désinformation qui met en avant son charisme et minimise les violations des droits humains.

Une entrevue avec Alice Weidel, présidente fédérale de l’AfD, pour la chaîne YouTube du parti lors du congrès national du parti à Essen, en Allemagne, le 29 juin 2024. Photo de Bernd von Jutrczenka/DPA via AFP
Des responsables politiques utilisent la portée des réseaux sociaux pour attaquer la société civile. En Slovaquie, le Premier ministre populiste Robert Fico a lancé une campagne de diffamation en ligne contre une militante des droits reproductifs. Un homme politique portugais d’extrême droite a publié les noms d’étudiants migrants, les accusant de prendre la place d’enfants nés au Portugal et qualifiant d’extrémistes les militants qui les soutiennent.
Dans un contexte de pandémie de misogynie en ligne, les militantes sont particulièrement vulnérables aux attaques sexistes, notamment au « doxxing », au harcèlement en ligne et à la pornographie deepfake, amplifiées par l’IA. Le danger est que les femmes se retirent de l’espace numérique et laissent le champ libre à ceux qui propagent la haine. En Tunisie, la diffamation en ligne alimente la violence, comme peuvent en témoigner les personnes LGBTQI+. Le climatosceptisme en ligne est également omniprésent, les autorités espagnoles mettant en garde contre la montée des discours de haine à l’encontre des chercheurs sur le climat.
Les entreprises technologiques ont délibérément amplifié la désinformation de droite. Lors de l’élection présidentielle polonaise, l’algorithme de TikTok a proposé aux nouveaux utilisateurs deux fois plus de contenus d’extrême droite que de contenus centristes ou de gauche. En Éthiopie, Facebook est accusé d’avoir amplifié par son algorithme les contenus haineux pendant le conflit.
Outre la Pologne, les élections en République tchèque, en Moldavie et en Roumanie ont été inondées de désinformation pro-russe. La Moldavie a été le théâtre de la tentative d’ingérence la plus intense de la Russie, avec des personnes rémunérées pour diffuser secrètement de la propagande sur Facebook et TikTok. En Roumanie, la Cour constitutionnelle a annulé de manière controversée une élection après la découverte d’une campagne massive de manipulation sur TikTok.
Les campagnes de désinformation visent souvent la société civile. En Thaïlande, des documents divulgués ont révélé l’existence d’une équipe gouvernementale secrète menant des campagnes de diffamation en ligne contre des organisations telles qu’Amnesty International. En Syrie, les Casques blancs, un groupe de secours bénévole, sont régulièrement visés par des campagnes de désinformation les qualifiant de réseau terroriste.
Les entreprises technologiques permettent aux États de placer les militants et les organisations de la société civile sous surveillance. L’une des méthodes utilisées est le logiciel espion (spyware) : le gouvernement autoritaire du Togo l’a déployé contre des journalistes. En Italie, le gouvernement a piraté les téléphones de militants et de journalistes, notamment de personnes travaillant sur les droits des migrants. En Serbie, il a été utilisé contre un étudiant militant impliqué dans des manifestations menées par la génération Z.

La police métropolitaine déploie un système de reconnaissance faciale en temps réel à Oxford Circus, à Londres, en Angleterre, le 13 mai 2025. Photo de Leon Neal/Getty Images
Les logiciels espions les plus utilisés, Pegasus et Graphite, ce dernier étant celui utilisé en Italie, sont produits par des entreprises israéliennes. Israël est un leader mondial dans ces technologies hostiles. Ses entreprises technologiques sont étroitement liées à ses forces militaires et ne vendent leurs produits qu’à des États, bien que des réseaux de sous-traitants complexes masquent la destination finale des logiciels espions. Le gouvernement israélien protège ses entreprises technologiques ; son refus de coopérer a contraint un tribunal espagnol à abandonner une enquête sur un logiciel espion.
Les manifestants sont menacés par l’utilisation croissante de la technologie de reconnaissance faciale. L’IA permet la reconnaissance faciale en temps réel sans supervision humaine. Introduite pour des raisons de sécurité, cette technologie banalise la surveillance intrusive et le maintien de l’ordre préventif. Les États autoritaires en ont été les pionniers, et la Chine l’exporte notamment vers l’Afghanistan. La Russie l’utilise pour intercepter de manière préventive les personnes susceptibles de manifester contre sa guerre en Ukraine. La Turquie l’a utilisée pour identifier les participants aux manifestations pour la démocratie de 2025. La nouvelle loi hongroise interdisant les événements Pride est appliquée grâce à la reconnaissance faciale.
L’IA permet également une surveillance systématique de l’activité sur les réseaux sociaux. Le gouvernement américain utilise l’IA pour scanner les comptes des titulaires de visas étudiants, à la recherche d’expressions de sympathie envers le Hamas afin de justifier des expulsions. Il utilise des lecteurs automatiques de plaques d’immatriculation et des technologies de caméras de sonnette pour identifier les migrants et les manifestants, tandis que la théocratie iranienne utilise des lecteurs de plaques d’immatriculation pour faire respecter les restrictions imposées aux femmes. La police israélienne a désormais le pouvoir de contrôler les caméras et les microphones des appareils privés.
Les entreprises technologiques collaborent ouvertement avec les régimes autoritaires. Lorsque des entreprises et des dirigeants du secteur technologique ont fait don de millions de dollars au fonds d’investiture de Trump, ils ont abandonné toute prétention de responsabilité sociale. Des entreprises telles qu’Amazon, Google et Meta ont rapidement abandonné ou minimisé leurs initiatives en matière de diversité, d’équité et d’inclusion, tandis que Meta a annoncé la fin de son programme indépendant de fact-checking aux États-Unis.
Trump a généreusement récompensé les dirigeants technologiques en s’opposant aux réglementations et en leur accordant davantage de pouvoir. Plusieurs d’entre eux sont devenus ses conseillers, tissant des liens étroits entre les élites de la défense, de la politique et de la technologie. L’administration Trump façonne le paysage technologique, en forçant la vente de la branche américaine de TikTok à un consortium comprenant Oracle, détenu par son allié Larry Ellison. Cela risque de transformer la plateforme en un outil de surveillance contre les personnes ciblées par l’agence fédérale de contrôle de l’immigration et des douanes (Immigration and Customs Enforcement, ICE) ainsi que celles qui protestent contre les violences d’État.

Les dirigeants du secteur technologique Mark Zuckerberg, Jeff Bezos, Sundar Pichai et Elon Musk assistent à l’investiture présidentielle de Donald Trump à Washington DC, aux États-Unis, le 20 janvier 2025. Photo de Julia Demaree Nikhinson/Pool via Reuters/Gallo Images
L’alignement idéologique est évident. Parmi les alliés de Trump figure Peter Thiel, l’extrémiste de droite obsédé par l’Antéchrist qui possède la société de courtage de données Palantir. Cette entreprise fournit des technologies qui soutiennent le génocide commis par Israël et les expulsions menées par les États-Unis. Elon Musk, propriétaire de Twitter/X, a collaboré avec l’administration Trump dans le cadre de son opération chaotique de réduction des coûts. En 2025, il s’est exprimé lors d’un rassemblement d’extrême droite au Royaume-Uni et a apporté son soutien au parti Alternative pour l’Allemagne, tandis que son chatbot d’IA Grok a diffusé à plusieurs reprises des affirmations selon lesquelles un « génocide blanc » serait en cours en Afrique du Sud.
En 2026, Musk a été impliqué dans une autre controverse lorsque la plateforme a permis aux utilisateurs de publier des photos de femmes nues générées par l’IA. Cette soi-disant nudification par l’IA a déshumanisé les femmes en ligne ; certains enfants ont également été pris pour cible. Lorsque le Royaume-Uni a présenté des projets visant à interdire la création et la fourniture d’outils de nudification, Musk a été contraint de les bloquer dans les pays où ils sont illégaux, mais pas avant d’avoir proposé de limiter l’accès aux abonnés, comme si la misogynie était un privilège que l’on pouvait acheter.
Une fois de plus, les femmes et les filles sont prises pour cibles, et dans des cas comme celui-ci, les problèmes découlent moins d’une absence de réglementation que de choix politiques délibérés. La masculinité toxique, l’extrême droite et le pouvoir incontrôlé des oligarques de la tech sont des problèmes interconnectés.
L’omniprésence des technologies fournies par les entreprises américaines alimente également des inquiétudes croissantes quant à la sécurité des données et à la possibilité pour le gouvernement américain d’utiliser le refus d’accès comme un outil de coercition. Cela a conduit le gouvernement français à prendre la décision de poursuivre une indépendance numérique en remplaçant les technologies américaines. La France peut s’attendre à des menaces de représailles, tandis que les États moins puissants ne pourront pas se permettre un tel choix.
Les géants de la technologie sont également à la tête d’une véritable course à l’armement dans le domaine de l’IA, nouant de plus en plus de partenariats avec les forces militaires, même si cela implique de réécrire les déclarations de mission qui excluaient auparavant toute coopération militaire.

Des militants de la campagne « Stop Killer Robots » organisent une manifestation devant la porte de Brandebourg à Berlin, en Allemagne, le 21 mars 2019. Photo d’Annegret Hilse/Reuters via Gallo Images
Les forces israéliennes utilisent des systèmes algorithmiques pour générer des « kill lists » et suivre les membres du Hamas afin de pouvoir les bombarder chez eux, avec leurs familles. Plusieurs États possèdent désormais des systèmes d’armes autonomes – des « robots tueurs » – capables de sélectionner et de frapper des cibles sans intervention humaine. Le gouvernement britannique a récemment signé un accord avec Palantir pour développer une « chaîne de destruction » assistée par l’IA. Les systèmes automatisés sont dépourvus de conscience, d’empathie et de perception des conséquences. Parce qu’ils s’appuient sur la reconnaissance de formes et des calculs de probabilité, et que leurs algorithmes sont entraînés à partir de données biaisées, ils commettent des erreurs.
La technologie progresse rapidement et pourrait bientôt devenir trop ancrée pour faire marche arrière. Les discussions menées dans le cadre d’un traité en vigueur, la Convention des Nations unies sur certaines armes classiques, ont été lentes, en raison du blocage par les grandes puissances. En décembre 2024, une résolution de l’Assemblée générale des Nations unies a établi un nouveau processus visant à élaborer une réglementation mondiale, sur la base des discussions tenues en 2025.
La campagne « Stop Killer Robots » joue un rôle de premier plan. La plupart des États soutiennent l’approche à deux niveaux qu’elle propose, qui consisterait à interdire les armes autonomes les plus dangereuses et à réglementer les autres.
La société civile s’efforce également de demander des comptes aux entreprises technologiques pour leur rôle dans le génocide perpétré par Israël. Un groupe néerlandais a révélé qu’un centre de données Microsoft aux Pays-Bas stocke des informations pour le renseignement militaire israélien, qui utilise des services basés sur le cloud pour surveiller systématiquement les Palestiniens. La société civile exhorte les employés à protester et s’efforce de sensibiliser le public à la complicité des entreprises technologiques dans ces atrocités.
La propagation rapide de l’IA générative a mis en évidence un éclatement réglementaire. On ne peut faire confiance ni aux États ni aux entreprises pour élaborer seuls des réglementations fiables. Compte tenu de la nature transnationale des technologies, la société civile appelle à l’établissement de normes de gouvernance mondiale fondées sur le droit international relatif aux droits de l’homme. Ces normes devraient être élaborées dans le cadre de processus consultatifs, et la société civile devrait jouer un rôle central dans leur supervision.
Des progrès réglementaires ont été réalisés au niveau de l’Union européenne (UE). La loi européenne sur la liberté des médias protège les journalistes contre les logiciels espions, même si les États peuvent abuser des exceptions prévues. En 2024, l’UE a adopté la loi sur l’IA, qui sera mise en œuvre sur plusieurs années. En 2025, elle a ouvert un code volontaire de bonnes pratiques en matière d’IA que les entreprises technologiques peuvent signer.
La loi sur l’IA adopte une approche à plusieurs niveaux basée sur le risque, interdisant les applications à haut risque et imposant des exigences de transparence aux applications à risque plus faible. La société civile a influencé son élaboration mais elle exprime des préoccupations majeures, notamment en ce qui concerne les applications de l’IA dans la défense, le maintien de l’ordre et la gestion des migrations.

Le président américain Donald Trump fait un geste après avoir signé un décret lors du sommet « Winning the AI Race » (Gagner la course à l’IA) à Washington, DC, aux États-Unis, le 23 juillet 2025. Photo : Andrew Caballero-Reynolds/AFP
Mais les dirigeants du secteur technologique sont furieux des contraintes imposées à leur pouvoir et bénéficient du soutien de Trump. Sous leur pression, l’UE a proposé en novembre de reporter l’entrée en vigueur de la loi à décembre 2027. L’administration Trump s’est également opposée au Règlement général sur la protection des données de l’UE, qui régit le traitement des données personnelles. Les États membres de l’UE pourraient finir par affaiblir les réglementations sur l’IA et d’autres réglementations afin d’éviter les droits de douane.
La Chine a proposé ses propres règles, fortement axées sur le développement économique, la sécurité et la souveraineté de l’État plutôt que sur les droits humains. Le plan d’action américain pour l’IA de 2025 reflète l’influence des leaders technologiques, donnant la priorité à la déréglementation et affirmant l’objectif de domination mondiale des États-Unis dans le domaine de l’IA. Lors du sommet pour l’action sur l’Intelligence Artificielle qui s’est tenu à Paris en février 2025, les États-Unis et le Royaume-Uni ont refusé de signer une déclaration soutenant une gouvernance éthique, inclusive et ouverte de l’IA. Le dernier sommet, qui s’est tenu en Inde en février 2026, n’a pas permis de réaliser de progrès en matière de garanties des droits humains.
En août 2025, l’ONU a fait un pas en avant avec une résolution qui a créé un groupe d’experts scientifiques indépendants et un dialogue mondial sur la gouvernance de l’IA. Adoptée à l’issue de longues négociations, cette résolution visait à trouver un compromis entre les approches de la Chine, de l’UE et des États-Unis. Des négociations plus complexes sont à venir, et il est difficile d’être optimiste étant donné que les États puissants sapent de plus en plus l’ONU et que les entreprises technologiques continuent d’utiliser leur influence pour entraver les efforts de réglementation.
En septembre, la lauréate du prix Nobel de la paix Maria Ressa a lancé un appel mondial en faveur de « lignes rouges » en matière d’IA, soutenu par des centaines de personnalités et d’organisations publiques. Cet appel exhorte les gouvernements à établir des limites claires en matière de surveillance et de systèmes d’armement, et réclame des règles claires et contraignantes, des mécanismes solides de conformité ainsi qu’un organisme de contrôle puissant et efficace. Il illustre la manière dont la société civile prend l’initiative dans l’élaboration de garanties et de normes.
Une évolution inquiétante a toutefois offert aux États répressifs une nouvelle arme : la Convention des Nations unies contre la cybercriminalité. Ce traité, adopté en décembre 2024 et ouvert à la signature en octobre, a déjà été signé par 74 États, ce qui laisse penser qu’il franchira le seuil de ratification nécessaire pour entrer en vigueur. La société civile a constamment critiqué cette convention, qui a été proposée par la Russie et soutenue par des États autoritaires.
Bien que la société civile ait participé au processus, le traité ne prévoit pas de garanties suffisantes en matière de droits humains, et son champ d’application large laisse aux États une grande marge de manœuvre pour commettre des abus. Il pourrait contribuer à lutter contre les cyber-infractions préjudiciables telles que le partage non consensuel d’images intimes, mais il pourrait également intensifier le recours aux lois sur la cybercriminalité pour réprimer la dissidence ou faciliter l’extradition des dissidents en exil. La manière dont les États intégreront les dispositions du traité dans leurs systèmes de justice pénale sera cruciale. La société civile doit avoir son mot à dire dans l’examen de la mise en œuvre.
La réglementation peut entraîner des conséquences inattendues. Lorsque l’UE a adopté en 2024 son règlement sur la transparence et le ciblage de la publicité politique, elle visait à protéger les processus démocratiques contre la désinformation grâce à des règles plus strictes sur le ciblage des publicités politiques. Mais en juillet, Meta a déclaré ne pas pouvoir distinguer les publicités politiques des publicités non politiques et a annoncé qu’il n’autoriserait plus aucune publicité portant sur les questions électorales, politiques ou sociales dans l’UE. Cela inclut les publicités militantes, ce qui signifie que les groupes de la société civile risquent de perdre un canal essentiel. À l’inverse, les forces anti-droits et les États qui disposent de ressources importantes et qui diffusent de la désinformation ont recours à de nombreux autres moyens d’influencer le débat public. La décision de Meta a accentué cette inégalité de communication, illustrant le pouvoir des entreprises technologiques sur le discours public et leur volonté de s’opposer aux réglementations.
Parallèlement, l’Australie a pris une mesure radicale que d’autres pourraient suivre, en interdisant aux moins de 16 ans d’utiliser les principales plateformes de réseaux sociaux telles qu’Instagram, TikTok et YouTube. Cette mesure est controversée : ses partisans, notamment le gouvernement et des militants pour la protection de l’enfance, estiment qu’elle protégera les enfants contre les contenus préjudiciables, préservera leur santé mentale et préviendra le harcèlement. Ses détracteurs y voient un danger dans le fait que le gouvernement décide qui peut accéder à l’information et s’inquiètent du fait que les contrôles d’identité créent des risques pour la vie privée et pourraient permettre une utilisation abusive des données. Ils affirment également que cette interdiction pourrait isoler les jeunes vulnérables, en particulier les jeunes LGBTQI+. Il sera essentiel d’évaluer ce qui fonctionne et ce qui ne fonctionne pas avant que d’autres pays ne suivent cet exemple.
La société civile s’efforce de se défendre contre les menaces en ligne. Les pratiques en matière de sécurité numérique s’améliorent et les organisations de la société civile ont mis au point des outils de soutien. Les militants utilisent régulièrement des VPN pour contourner la censure et adoptent des plateformes plus sécurisées.

La journaliste philippine et lauréate du prix Nobel Maria Ressa prévient que « des temps extrêmement dangereux » s’annoncent après la décision de Meta de mettre fin à son programme de vérification des faits sur Facebook et Instagram, le 8 janvier 2025. Photo de Jam Sta Rosa/AFP
La société civile lutte contre la désinformation grâce à des initiatives de vérification des faits dans de nombreux pays, notamment en Argentine, en Bolivie et en Équateur. Lors des récentes élections au Malawi, la société civile a utilisé des systèmes d’alerte précoce pour traquer la désinformation et les discours de haine en ligne, contribuant ainsi à réduire les tensions. Au Nigeria, un groupe de la société civile a lancé un chatbot WhatsApp permettant aux utilisateurs de vérifier les informations.
La société civile œuvre également pour demander des comptes aux entreprises technologiques, notamment par le biais de poursuites judiciaires. Meta et ses partenaires d’externalisation font face à trois procès au Kenya les accusant d’avoir encouragé la haine et l’incitation à la violence pendant le conflit en Éthiopie. Un Éthiopien dont le père a été tué après avoir été victime de « doxxing » figure parmi ceux qui accusent Meta de ne pas avoir empêché l’amplification des discours de haine. Ces procès visent à obtenir une amélioration des politiques de modération des contenus ainsi que la création d’un fonds d’indemnisation.
On peut s’attendre à de nombreuses autres actions de ce type. Dans un domaine en rapide évolution qui touche tous les aspects de la vie humaine, la société civile doit rester engagée et actualiser en permanence sa compréhension des technologies et ses réponses à celles-ci. La société civile doit continuer à dénoncer le pouvoir incontrôlé et irresponsable des oligarques de la tech et à défendre les normes en matière de droits humains que les États et les entreprises technologiques jugent manifestement superflues.