Índice
- INFORME SOBRE EL ESTADO DE LA SOCIEDAD CIVIL 2026
- PANORAMA: RESISTENCIA A CONTRACORRIENTE +
- DEMOCRACIA: UNA ASPIRACIÓN PERENNE +
- TECNOLOGÍA: INNOVACIÓN SIN RENDICIÓN DE CUENTAS +
- GOBERNANZA GLOBAL: LA REALPOLITIK CONTRA LAS NORMAS INTERNACIONALES +
- CONFLICTO: IMPUNIDAD DESENFRENADA +
- CLIMA: ENTRE EL COLAPSO Y LA TRANSFORMACIÓN +
- MIGRACIÓN: LA CRUELDAD COMO POLÍTICA +
- LUCHAS DE GÉNERO: REACCIÓN Y RESISTENCIA +
- LA GENERACIÓN Z: LA NUEVA RESISTENCIA +
- AGRADECIMIENTOS +
- Descargar el informe +
- Los oligarcas tecnológicos han acumulado un enorme poder y lo están utilizando de forma irresponsable. Muchos se han alineado con líderes autoritarios, nacionalistas y populistas e, incluso, han forjado vínculos con el gobierno de Trump y respaldado públicamente a movimientos extremistas. La convergencia entre las élites militares, políticas y tecnológicas facilita que se cometan atrocidades en los conflictos y constituye una amenaza para el espacio cívico y los derechos de los grupos excluidos.
- Las empresas tecnológicas están desplegando rápidamente la inteligencia artificial (IA) generativa sin las garantías adecuadas en materia de derechos humanos, mientras que la normativa no ha logrado avanzar a la misma velocidad. La IA está amplificando la desinformación electoral, alimentando listas de personas a las que las fuerzas militares han de eliminar, impulsando tecnologías de vigilancia que se utilizan contra la sociedad civil y facilitando la difusión de deepfakes pornográficos que afectan de forma desmesurada a mujeres y niñas. Los Estados se muestran reticentes a regularla por temor a perder sus ventajas económicas y militares.
- La sociedad civil lidera los esfuerzos para promover una tecnología más responsable mediante iniciativas de verificación de datos, litigios contra las empresas tecnológicas por difundir discursos de odio y amplificarlos en situaciones de conflicto, denuncias por la complicidad de las empresas en las violaciones de los derechos humanos y la exigencia de marcos normativos internacionales para regular la tecnología, incluida la IA.
Las empresas tecnológicas están desplegando rápidamente la IA generativa en un intento por adelantarse al estallido de una posible burbuja financiera. Bajo una intensa presión competitiva, han restado importancia a sus compromisos éticos y han lanzado productos sin evaluar debidamente sus posibles repercusiones en los derechos humanos. Además, al alinearse con políticos que atentan contra los derechos, los líderes tecnológicos también están demostrando cada vez más que no se puede confiar en ellos. Las empresas están aprovechando las lagunas en materia de gobernanza, ya que el desarrollo tecnológico avanza más rápido que la capacidad normativa, mientras que los Estados, cada vez más cautivos o acomodaticios con los intereses tecnológicos, no se han decidido a actuar.
La sociedad civil promueve el uso responsable de las nuevas tecnologías, al tiempo que explora cómo usarlas para el activismo. Las redes sociales desempeñan un papel clave en la movilización de la resistencia liderada por la generación Z contra la ausencia de rendición de cuentas por parte del poder político y económico. En contextos represivos, el activismo de las diásporas utiliza las redes sociales para colaborar con quienes se encuentran en su país de origen. A medida que se agotan las fuentes de financiación y se intensifican las restricciones al espacio cívico, los grupos de la sociedad civil integran herramientas de IA a sus campañas, investigaciones y solicitudes de subvenciones.
La sociedad civil está empleando herramientas tecnológicas para la rendición de cuentas por las violaciones de derechos. En Ucrania, los investigadores recurren a la IA y a herramientas de código abierto para identificar y recopilar pruebas de crímenes de guerra. En México, la sociedad civil ha creado una plataforma que ayuda a las familias a identificar a sus parientes desaparecidos a partir de objetos recuperados, mientras que en Birmania, jóvenes activistas han desarrollado una plataforma para ayudar a las personas a organizarse de forma segura en zonas de conflicto.
Al mismo tiempo, tanto los Estados como las empresas utilizan herramientas digitales para reprimir a la sociedad civil y restringir su labor. Las empresas de redes sociales han optado por relegar y ocultar de forma encubierta los contenidos producidos por activistas, así como por aplicar políticas de moderación opacas, sin hacer frente a la desinformación, los discursos de odio y las amenazas. Mientras tanto, los Estados autoritarios imponen cortes de internet, limitan el acceso a las redes sociales y criminalizan a los activistas y periodistas por expresarse en línea.

Periodistas protestan contra la legislación sobre “noticias falsas” utilizada para criminalizar la opinión y silenciar el disenso en Lahore, Pakistán, el 31 de enero de 2025. Foto de Arif Ali/AFP
Asimismo, los gobiernos de Camerún, Tanzania y Uganda impusieron cortes de internet durante unas elecciones que se celebraron sin competencia real. Del mismo modo, las autoridades iraníes cortaron el acceso a internet durante la represión mortal de las protestas antigubernamentales, mientras que en Nepal el gobierno bloqueó veintiséis redes sociales, aunque se vio obligado a dar marcha atrás rápidamente ante las protestas lideradas por la generación Z. En Turquía, las autoridades limitaron severamente el ancho de banda de las principales redes sociales en respuesta a las protestas de la generación Z, mientras que en la India las autoridades ordenaron bloquear alrededor de 10.000 cuentas de Twitter/X en el contexto del conflicto con Pakistán por Cachemira.
Los Estados utilizan leyes sobre los delitos informáticos y las llamadas noticias falsas para criminalizar la disidencia en internet. Por ejemplo, en Mali, la junta militar aplica estas normativas contra activistas, periodistas y políticos de la oposición, amparándose en tipos penales ambiguos, como “atentado contra la credibilidad del Estado”. En la represiva Bielorrusia, el gobierno detiene a ciudadanos por el hecho de seguir canales de Telegram que considera extremistas, mientras que en Indonesia, ocho activistas enfrentan largas penas de prisión por expresar su apoyo a las protestas de la generación Z en redes sociales.
En Kenia, el activista Albert Omondi Ojwang fue asesinado mientras se encontraba bajo custodia tras ser detenido por criticar a un agente de policía en redes sociales. En Turquía, las autoridades devolvieron a Turkmenistán a dos blogueros exiliados que habían sido acusados falsamente de terrorismo; actualmente se encuentran en paradero desconocido.
Las empresas tecnológicas suelen alinearse con los Estados represivos y acceder a sus peticiones para cerrar cuentas y proporcionar datos de los usuarios. Por ejemplo, YouTube ha cedido a las demandas de Israel para bloquear las retransmisiones en directo de Al Jazeera.
La desinformación prospera en internet, donde las voces regresivas suelen ser las más estridentes. Los algoritmos promueven contenidos sensacionalistas, mientras que los mensajes más matizados de la sociedad civil tienen dificultades para ganar visibilidad.
Los populistas y nacionalistas han seguido el ejemplo de Donald Trump y han utilizado las redes sociales para construir sus marcas personales. En Argentina, el presidente Javier Milei rehuyó los medios de comunicación tradicionales y optó por cultivar una imagen antisistema mediante la difusión en Instagram y TikTok de contenidos plagados de memes y de imágenes generadas por IA. Asimismo, en Japón, el partido de extrema derecha Sanseitō supera con creces las cifras de YouTube del partido gobernante, lo que le ayuda a reclutar votantes jóvenes. En Alemania, el partido de extrema derecha Alternativa para Alemania cuenta con una fuerte presencia en TikTok, mientras que en Burkina Faso, Ibrahim Traoré, el líder de la junta militar que gobierna el país, ha ganado numerosos seguidores gracias a la desinformación que exagera su carisma y minimiza las violaciones de derechos.

La presidenta federal de la AfD, Alice Weidel, es entrevistada para el canal de YouTube del partido durante la conferencia nacional partidaria en Essen, Alemania, el 29 de junio de 2024. Foto de Bernd von Jutrczenka/DPA vía AFP
Los políticos aprovechan el alcance de las redes sociales para atacar a la sociedad civil. Por ejemplo, el primer ministro populista de Eslovaquia Robert Fico promovió una campaña digital de difamación contra una defensora de los derechos reproductivos. En Portugal, un político de extrema derecha publicó los nombres de estudiantes migrantes, a quienes acusó de quitarles las plazas a niños nacidos en Portugal, y calificó de extremistas a los activistas que los respaldan.
En medio de una pandemia de misoginia en internet, las activistas son especialmente vulnerables a los ataques por motivos de género potenciados por la IA, entre ellos la divulgación de datos personales, el ciberacoso y los deepfakes pornográficos. Existe el peligro de que las mujeres cesen de participar y dejen el espacio libre para quienes difunden el odio. Además, la difamación en línea fomenta la violencia, como pueden atestiguar los miembros del colectivo LGBTQI+ tunecinos. La negación del cambio climático está muy extendida en internet y, de hecho, las autoridades españolas ya han alertado sobre el aumento de los discursos de odio contra los investigadores del cambio climático.
Las empresas tecnológicas han promovido de forma deliberada la desinformación de derechas. En el caso de Polonia, durante las elecciones presidenciales, el algoritmo de TikTok mostró a los nuevos usuarios contenidos de extrema derecha con una frecuencia que duplicó a la de los contenidos de centro o de izquierdas, mientras que, en Etiopía, se acusa a Facebook de favorecer algorítmicamente los contenidos de odio en situaciones de conflicto.
No solo Polonia fue víctima de este fenómeno, ya que la desinformación prorrusa también saturó las elecciones en la República Checa, Moldavia y Rumania. Moldavia fue testigo del intento de injerencia rusa más intenso y, de hecho, hubo personas que recibieron pagos por difundir propaganda de forma encubierta en Facebook y TikTok. Asimismo, en Rumania, el Tribunal Constitucional procedió a una anulación controvertida de las elecciones tras acreditarse la existencia de una campaña de manipulación a gran escala en TikTok.
La sociedad civil es un blanco habitual de las campañas de desinformación. En Tailandia, la filtración de diversos documentos reveló la existencia de una unidad gubernamental secreta encargada de orquestar campañas de difamación en internet contra organizaciones como Amnistía Internacional. En Siria, los cascos blancos, un grupo de rescate formado por voluntarios, suele ser objeto de campañas de desinformación que los acusan de ser una red terrorista.
Las empresas tecnológicas están facilitando que los Estados vigilen a los activistas y las organizaciones de la sociedad civil. Entre los métodos que utilizan, destacan los programas espía: el gobierno autoritario de Togo los ha utilizado contra periodistas; mientras que en Italia, el gobierno jaqueó los teléfonos de activistas y periodistas, incluidos aquellos que defienden los derechos de las personas migrantes. En Serbia se utilizó esta herramienta contra un activista estudiantil que participaba en las protestas lideradas por la generación Z.

La Policía Metropolitana instala un sistema de reconocimiento facial en tiempo real en Oxford Circus, Londres, Inglaterra, el 13 de mayo de 2025. Foto de Leon Neal/Getty Images
Tanto Pegasus —el software de vigilancia más extendido— como Graphite —utilizado en Italia— han sido desarrollados por empresas israelíes. De hecho, Israel se ha consolidado como el líder mundial en la producción de estas tecnologías de vigilancia. Sus empresas tecnológicas mantienen vínculos estrechos con las fuerzas militares israelíes y solo venden sus productos a los Estados, si bien un entramado complejo de proveedores oculta el destino final de estos programas. Además, el gobierno israelí protege a sus empresas tecnológicas. Por ejemplo, su negativa a cooperar obligó a un tribunal español a abandonar una investigación sobre los programas espía.
Los manifestantes se enfrentan a la amenaza que supone el uso creciente de la tecnología de reconocimiento facial. La IA posibilita el reconocimiento facial en tiempo real sin supervisión humana. Aunque esta tecnología se introdujo alegando motivos de seguridad, su uso normaliza la vigilancia intrusiva y las actuaciones policiales preventivas. Los Estados autoritarios han sido pioneros en su uso; por ejemplo, China la exporta a diversos países, incluido Afganistán. Rusia la utiliza para interceptar de manera preventiva a las personas que podrían protestar contra su guerra en Ucrania. En Turquía, se recurrió a esta tecnología para identificar a los participantes en las protestas prodemocracia de 2025. En Hungría, se emplea el reconocimiento facial para hacer cumplir una nueva ley que prohíbe los eventos del Orgullo.
La IA también facilita la vigilancia sistemática de la actividad en las redes sociales. El gobierno de Estados Unidos la utiliza para revisar las cuentas de personas con visados de estudiante en busca de muestras de apoyo a Hamás para justificar procesos de expulsión. También emplea lectores automáticos de matrículas de vehículos y cámaras instaladas en puertas para identificar a manifestantes y personas migrantes. Asimismo, el régimen teocrático iraní utiliza lectores de matrículas para hacer cumplir las restricciones impuestas a las mujeres, mientras que ahora la policía israelí está autorizada a controlar las cámaras y los micrófonos de dispositivos privados.
Las empresas tecnológicas colaboran abiertamente con regímenes autoritarios. Estas empresas y sus directivos abandonaron cualquier apariencia de responsabilidad social cuando donaron millones al fondo para la toma de posesión de Trump. Empresas como Amazon, Google y Meta rápidamente dejaron de lado o restaron importancia a los programas para la diversidad, la equidad y la inclusión, mientras que Meta anunció el fin de su programa independiente de verificación de datos en Estados Unidos.
Trump ha recompensado generosamente a los líderes tecnológicos, oponiéndose a regular el sector y otorgándoles más poder. Varios de ellos se han convertido en sus asesores, estrechando así los lazos entre las élites políticas, tecnológicas y del sector de la defensa. El gobierno Trump está reconfigurando el panorama tecnológico al forzar la venta de la división estadounidense de TikTok a un consorcio participado por Oracle, propiedad de su aliado Larry Ellison. Esta situación amenaza con convertir la plataforma en una herramienta de vigilancia contra las personas perseguidas por el Servicio de Inmigración y Control de Aduanas, así como contra quienes protestan contra la violencia estatal.

Los ejecutivos de empresas tecnológicas Mark Zuckerberg, Jeff Bezos, Sundar Pichai y Elon Musk asisten a la toma de posesión de Trump en Washington DC, Estados Unidos, el 20 de enero de 2025. Foto de Julia Demaree Nikhinson/Pool vía Reuters/Gallo Images
La alineación ideológica resulta evidente. Entre los aliados de Trump figura Peter Thiel, un ultraderechista obsesionado con el Anticristo y propietario de la empresa de datos Palantir. Esta entidad proporciona tecnología que facilita el genocidio perpetrado por Israel y las deportaciones desde Estados Unidos. Por su parte, Elon Musk, propietario de Twitter/X, colaboró con el gobierno de Trump en el marco de su caótica operación de recorte de gastos. En 2025, pronunció un discurso durante una manifestación de extrema derecha en el Reino Unido y expresó su respaldo al partido Alternativa para Alemania. Asimismo, Grok, su chatbot de IA, ha afirmado en repetidas ocasiones que se está produciendo un “genocidio blanco” en Sudáfrica.
En 2026, Musk se vio envuelto en una nueva polémica cuando su plataforma permitió que los usuarios publicaran fotos de mujeres desnudas generadas por IA. Esta práctica, denominada nudificación, deshumanizó a las mujeres en internet y algunos niños también fueron víctimas de ella. Cuando el Reino Unido presentó propuestas para prohibir la creación y el suministro de herramientas de nudificación, Musk se vio obligado a bloquearlas en los países donde eran ilegales, no sin antes proponer limitar su acceso a los suscriptores, como si la misoginia fuera un privilegio que se pudiera comprar.
Las mujeres y las niñas son blanco de estos ataques de forma reiterada y, en casos como este, los problemas no se derivan tanto de la ausencia de regulación como de decisiones políticas deliberadas. La masculinidad tóxica, la extrema derecha y el poder sin rendición de cuentas de los oligarcas tecnológicos son problemas interconectados.
La omnipresencia de la tecnología suministrada por las empresas estadounidenses también está alimentando una preocupación creciente por la seguridad de los datos y la posibilidad de que el gobierno de Estados Unidos utilice las restricciones de acceso como una herramienta coercitiva. Esta situación ha llevado al gobierno francés a tomar la decisión de buscar la soberanía digital mediante la sustitución de la tecnología estadounidense. Si bien Francia podría enfrentar amenazas de represalias, los Estados menos poderosos no podrán tomar la misma decisión.
Los gigantes tecnológicos también lideran una auténtica carrera armamentística en el sector de la IA y están estrechando cada vez más su colaboración con fuerzas militares, incluso cuando ello implica reescribir las declaraciones de misión que, en otro tiempo, excluían la cooperación militar.

Activistas de la campaña Stop Killer Robots protestan en la Puerta de Brandeburgo en Berlín, Alemania, el 21 de marzo de 2019. Foto de Annegret Hilse/Reuters vía Gallo Images
Las fuerzas israelíes utilizan sistemas algorítmicos para generar listas de personas que eliminar y rastrear al personal de Hamás, con el fin de bombardearlos cuando se encuentren en sus hogares con sus familias. Actualmente, varios Estados poseen sistemas de armas autónomas, también conocidos como robots asesinos, capaces de seleccionar y atacar objetivos sin intervención humana. El gobierno del Reino Unido ha firmado recientemente un acuerdo con Palantir para desarrollar una “cadena de exterminio” equipada con IA. Cabe señalar que los sistemas automatizados carecen de conciencia, empatía y capacidad para comprender las consecuencias de sus acciones. Además, cometen errores, ya que se basan en el reconocimiento de patrones y cálculos de probabilidad, y sus algoritmos han sido entrenados con datos sesgados.
La tecnología avanza rápidamente y pronto podría estar tan arraigada que sería imposible dar marcha atrás. El diálogo en el marco de la Convención de las Naciones Unidas sobre ciertas armas convencionales, actualmente en vigor, ha avanzado con lentitud y las grandes potencias han bloqueado los avances. En diciembre de 2024, una resolución de la Asamblea General de las Naciones Unidas estableció un nuevo proceso para desarrollar una normativa internacional, cuyas negociaciones se desarrollaron en 2025.
La campaña Stop Killer Robots está desempeñando un papel destacado. La mayoría de los Estados respaldan su propuesta de un enfoque de dos niveles, consistente en prohibir las armas autónomas más peligrosas y regular todas las demás.
La sociedad civil también está trabajando para que las empresas tecnológicas rindan cuentas por su papel en el genocidio perpetrado por Israel. Un grupo neerlandés reveló que un centro de datos de Microsoft en los Países Bajos almacena datos para la inteligencia militar israelí, que utiliza servicios en la nube para ejercer una vigilancia sistemática sobre la población palestina. La sociedad civil está instando a los empleados a que protesten y está concienciando sobre la complicidad de estas empresas en las atrocidades.
La rápida expansión de la IA generativa ha puesto de manifiesto la fragmentación del panorama normativo. No se puede confiar en que los Estados o las empresas desarrollen regulaciones por iniciativa propia. En este sentido, dada la naturaleza transnacional de esta tecnología, la sociedad civil reclama la implementación de normas de gobernanza global basadas en el derecho internacional de los derechos humanos. Dichas regulaciones deben elaborarse mediante procesos participativos y la sociedad civil debe desempeñar un papel central en las labores de supervisión.
Se han producido algunos avances normativos a nivel de la Unión Europea (UE). No obstante, si bien la Ley Europea de Libertad de los Medios de Comunicación protege a los periodistas contra el uso de programas espía, los Estados pueden abusar de las excepciones. En 2024, la UE adoptó la Ley de IA, que se implementará de forma progresiva a lo largo de varios años. Asimismo, en 2025, la UE presentó un código de prácticas facultativo en materia de IA para que las empresas tecnológicas lo firmaran.
La Ley de IA adopta un enfoque por niveles basado en el riesgo: prohíbe las aplicaciones de alto riesgo, mientras que impone obligaciones de transparencia a las de menor riesgo. Pese a que la sociedad civil influyó en su proceso de elaboración, persisten importantes preocupaciones, en particular respecto a las aplicaciones de IA en los ámbitos de la defensa, la seguridad y la gestión migratoria.

El presidente de los Estados Unidos, Donald Trump, gesticula tras firmar una orden ejecutiva en la cumbre “Winning the AI Race” (Ganar la carrera de la IA) celebrada en Washington DC, Estados Unidos, el 23 de julio de 2025. Foto de Andrew Caballero-Reynolds/AFP
Sin embargo, los líderes tecnológicos están furiosos por las restricciones a su poder y cuentan con el respaldo de Trump. Ante esta presión, en noviembre la UE propuso posponer la entrada en vigor de la Ley de IA hasta diciembre de 2027. Asimismo, el gobierno de Trump ha manifestado su oposición al Reglamento General de Protección de Datos de la UE, que regula la gestión de los datos personales. Es posible que los Estados miembros de la UE acaben por suavizar la nueva ley y otras regulaciones para evitar que les impongan aranceles.
Por su parte, China ha propuesto sus propias normas, mucho más centradas en el desarrollo económico, la seguridad y la soberanía estatal que en los derechos humanos. El Plan de Acción de IA de 2025 de Estados Unidos refleja la influencia de los líderes tecnológicos, prioriza la desregulación y reafirma el objetivo del país de dominar este sector a nivel mundial. Durante la Cumbre de Acción sobre IA, celebrada en París en febrero de 2025, los Estados Unidos y el Reino Unido se negaron a firmar una declaración que abogaba por una gobernanza ética, inclusiva y abierta de la IA. Al año siguiente, en febrero de 2026, durante la última cumbre celebrada en la India, no se logró ningún avance en cuanto a las salvaguardias en materia de derechos humanos.
En agosto de 2025, la ONU dio un paso adelante con una resolución que estableció un panel de especialistas científicos independientes y el Diálogo Global sobre la Gobernanza de la IA. El documento, fruto de extensas negociaciones, buscaba un compromiso entre los enfoques de China, la UE y Estados Unidos. No obstante, quedan por delante negociaciones más arduas y resulta difícil mantener el optimismo, ya que los Estados poderosos no cesan de erosionar la ONU y las empresas tecnológicas siguen utilizando su poder para frustrar los esfuerzos reguladores.
En septiembre, la premio Nobel de la Paz María Ressa presentó la iniciativa Global Call for AI Red Lines, un llamamiento mundial para establecer límites a la IA que cuenta con el respaldo de cientos de figuras públicas y organizaciones. En ella se insta a los gobiernos a establecer límites claros en materia de vigilancia y sistemas de armas, y se solicita que se establezcan normas claras y aplicables, mecanismos de cumplimiento sólidos y un organismo de control robusto. Esta iniciativa es un ejemplo de cómo la sociedad civil está liderando la elaboración de normas y salvaguardias.
No obstante, un acontecimiento preocupante ha proporcionado una nueva arma a los Estados represivos: la Convención de las Naciones Unidas contra la Ciberdelincuencia. Fue adoptada en diciembre de 2024 y quedó abierta a la firma en octubre. Actualmente, el tratado ya ha sido firmado por 74 Estados, lo que sugiere que superará el umbral de ratificación y entrará en vigor. La sociedad civil ha criticado constantemente la convención, que fue promovida por Rusia y respaldada por Estados autoritarios.
Pese a que la sociedad civil participó en el proceso, el tratado carece de salvaguardias adecuadas en materia de derechos y su amplio alcance da a los Estados un gran margen para abusar de él. Si bien puede contribuir a la lucha contra ciberdelitos perjudiciales, como la difusión no consentida de imágenes íntimas, también podría intensificar el uso de las leyes sobre ciberdelitos para reprimir la disidencia o facilitar la extradición de disidentes en el exilio. Resultará determinante la manera en que los Estados integren las disposiciones del tratado a sus sistemas de justicia penal. Es necesario que la sociedad civil desempeñe un rol preponderante en la supervisión de su aplicación.
La regulación también puede tener consecuencias no deseadas. En 2024, con la adopción del Reglamento sobre transparencia y segmentación de la publicidad política, la UE pretendía proteger los procesos democráticos frente a la desinformación mediante normas más estrictas. Sin embargo, en julio, Meta alegó que era incapaz de diferenciar entre anuncios políticos y no políticos, y anunció que ya no permitiría ningún tipo de publicidad sobre cuestiones electorales, políticas o sociales en la UE. Esta decisión también afecta a los anuncios de incidencia, por lo que los grupos de la sociedad civil corren el riesgo de perder un canal de comunicación crucial. En cambio, las fuerzas antiderechos y los Estados que difunden desinformación, que cuentan con abundantes recursos, disponen de muchas otras vías para influir en el debate público. La decisión de Meta ha agravado esta desigualdad en la comunicación, evidenciando el poder de las empresas tecnológicas sobre el discurso público y su voluntad de oponerse a las regulaciones.
Mientras tanto, Australia ha prohibido el uso de las principales redes sociales, como Instagram, TikTok y YouTube, a los menores de dieciséis años, una decisión drástica que otros podrían emular. Se trata de una medida controvertida: quienes la apoyan, entre ellos el gobierno y los activistas defensores de la seguridad infantil, argumentan que protegerá a los niños de contenidos nocivos, salvaguardará su salud mental y evitará el acoso escolar, mientras que quienes se oponen a ella consideran que es peligroso que el gobierno decida quién puede acceder a la información y han expresado su preocupación por la posibilidad de que los controles de identidad supongan un riesgo para la privacidad y puedan dar lugar a un uso indebido de los datos. También arguyen que la prohibición podría aislar a los jóvenes en situación de vulnerabilidad, en particular a los jóvenes LGBTQI+. Será fundamental evaluar qué funciona y qué no antes de que otros tomen medidas similares.
La sociedad civil está trabajando para defenderse de las amenazas en internet. Las prácticas de seguridad digital están mejorando y las organizaciones de la sociedad civil han desarrollado herramientas de apoyo. Los activistas utilizan a menudo redes privadas virtuales (VPN) para eludir la censura y también están usando plataformas más seguras.

La periodista filipina y premio Nobel María Ressa advierte de que se avecinan “tiempos extremadamente peligrosos” tras la decisión de Meta de poner fin a su programa de verificación de datos en Facebook e Instagram el 8 de enero de 2025. Foto de Jam Sta Rosa/AFP
En Argentina, Bolivia, Ecuador y muchos otros países, la sociedad civil también está combatiendo la desinformación mediante iniciativas de verificación de datos. Durante las recientes elecciones en Malaui, la sociedad civil utilizó sistemas de alerta temprana para rastrear la desinformación y los discursos de odio en línea, contribuyendo así a reducir las tensiones. En Nigeria, un grupo de la sociedad civil lanzó un chatbot de WhatsApp que facilita que los usuarios verifiquen la información.
La sociedad civil también está trabajando para que las empresas tecnológicas rindan cuentas, incluso mediante litigios. En Kenia, Meta y sus subcontratistas enfrentan tres procesos judiciales por promoción del odio e incitación a la violencia durante el conflicto en Etiopía. Entre las personas que acusan a Meta de no haber impedido la amplificación de los discursos de odio se encuentra un ciudadano etíope cuyo padre fue asesinado después de que se divulgaran sus datos personales. Estas causas judiciales buscan mejorar las políticas de moderación de contenidos y crear un fondo de compensación.
Cabe esperar muchas más acciones de este tipo. En un ámbito en rápida evolución que afecta a todos los aspectos de la vida humana, la sociedad civil debe mantenerse movilizada y actualizar continuamente su comprensión de la tecnología y sus respuestas a ella. Asimismo, la sociedad civil debe seguir denunciando el ejercicio irresponsable del poder y la falta de rendición de cuentas por parte de los oligarcas tecnológicos, y defendiendo las normas sobre los derechos humanos que tanto los Estados como las empresas tecnológicas consideran claramente innecesarias.