Nos encontramos ante una encrucijada histórica. Por primera vez las organizaciones de la sociedad civil tienen acceso a herramientas tecnológicas de una potencia sin precedentes. Pero esta ventana de oportunidad viene acompañada de un riesgo igual de grande: que la inteligencia artificial (IA) se convierta en un nuevo instrumento de concentración de poder, exclusión y control social.
El informe de Google sobre el uso de IA en organizaciones sin fines de lucro nos ofrece datos reveladores. Sin embargo, lo que realmente importa no son solo los números, sino lo que significan políticamente. Detrás de cada estadística hay una pregunta de fondo: ¿quién decide qué tecnología se desarrolla, para qué propósitos y bajo qué valores?
La IA no es neutral
Antes de entrar a analizar los datos que arroja este informe, ubiquémonos. La inteligencia artificial no es una herramienta neutral. Es el resultado de decisiones políticas, inversiones económicas masivas y prioridades corporativas. Cinco empresas tecnológicas concentran el 80% de la capacidad global de IA avanzada. Esas mismas empresas deciden qué problemas merece la pena resolver, qué datos se usan para entrenar sistemas y, fundamentalmente, qué visión del mundo será automatizada.
En ese contexto, que las organizaciones de la sociedad civil tengan acceso a la IA generativa no es un regalo. Es el nuevo escenario de acción por los derechos. Necesitamos formar parte de estos espacios de discusión con los ojos bien abiertos.
Las oportunidades y los riesgos
El dato es contundente: el 58% de las ONG ya utilizan IA generativa en algún grado. Esto marca un punto de inflexión histórico. Hace apenas cinco años, tecnologías como la generación automatizada de contenido eran exclusivas de grandes corporaciones con presupuestos millonarios.
Hoy, una pequeña organización comunitaria puede usar herramientas de IA para redactar informes de impacto en múltiples idiomas, analizar grandes volúmenes de testimonios o datos cualitativos, generar materiales educativos adaptados a diferentes contextos y automatizar tareas administrativas que consumen tiempo valioso.
Esta democratización del acceso es real. Pero tiene condiciones. La mayoría de estas herramientas son propiedad de corporaciones que definen sus términos de uso, extraen datos de nuestras interacciones y pueden cambiar las reglas del juego en cualquier momento.
El informe de Google estima que la IA puede aumentar la productividad en un 66%. En un sector donde los recursos son escasos y las demandas son urgentes, esto suena como una bendición. Y puede serlo, pero solo si hacemos la pregunta correcta: ¿productividad para qué?
Si usamos la IA para hacer más de lo mismo —más informes que nadie lee, más contenido que no transforma realidades—, habremos perdido la oportunidad. Pero si liberamos tiempo de tareas repetitivas para profundizar en incidencia política estratégica, fortalecer nuestro trabajo comunitario, construir alianzas y redes de acción colectiva y formar liderazgos críticos, entonces sí estaremos usando la tecnología a favor de la transformación social, no solo de la eficiencia operativa.
Comunicar lo que realmente importa
El 75% de las ONG creen que la IA puede transformar su trabajo en comunicación. Y es cierto. La IA permite producir más contenido, en más formatos, con mayor alcance. Puede traducir automáticamente campañas a decenas de idiomas, adaptar mensajes a diferentes audiencias, generar visualizaciones de datos complejos.
Pero, ¿estamos amplificando voces o reproduciendo narrativas hegemónicas? Los sistemas de IA se entrenan con textos de internet, donde predominan voces en inglés y perspectivas occidentales. Si no intervenimos críticamente, podemos terminar usando la IA para «comunicar mejor» pero despolitizando nuestros mensajes, invisibilizando saberes comunitarios, o suavizando discursos incómodos para los algoritmos de las plataformas.
La pregunta que debemos hacernos no es si la IA nos ayuda a comunicar más, sino si nos ayuda a comunicar lo que realmente importa, en nuestros propios términos.
Las oportunidades de formación también son desiguales
Google y otras empresas tecnológicas ofrecen iniciativas como el AI Opportunity Fund, cursos gratuitos y programas de aceleración para ONG. Esto es, en principio, positivo. Pero si miramos críticamente, quienes acceden a esos recursos son organizaciones que ya tienen capacidad instalada para escribir propuestas en inglés, así como redes y contactos en el ecosistema tecnológico, y estructuras formalizadas que pueden cumplir requisitos burocráticos complejos.
¿Quiénes quedan fuera?, las organizaciones colectivas de base sin personería jurídica, organizaciones indígenas o afrodescendientes sin acceso a internet estable, personas defensoras de derechos humanos en territorios rurales, y movimientos que no hablan el lenguaje de la «innovación social».
Los fondos para «democratizar la IA» terminan concentrándose en quienes ya tienen privilegios relativos. Mientras tanto, las comunidades más afectadas por los sistemas algorítmicos, como la vigilancia policial predictiva, la exclusión financiera automatizada, y la censura digital, son precisamente las que menos acceso tienen a formación y recursos para defenderse.
Las brechas de capacidades y los sesgos algorítmicos
El dato más alarmante del informe indica que el 40% de las ONG encuestadas no tiene a nadie con formación en IA. Pero esto es solo la punta del iceberg. El problema no es solo quién tiene formación técnica, sino quién tiene poder para cuestionar, regular e incidir en el diseño de estos sistemas.
La brecha de conocimiento es una brecha de poder. Cuando no entendemos cómo funciona un algoritmo que decide si nuestra campaña es «contenido seguro» o si será censurada, o si nuestros beneficiarios califican para ayudas automatizadas, e incluso si nuestras actividades son perfiladas como «amenazas», no tenemos herramientas para defendernos. La ignorancia tecnológica se convierte en vulnerabilidad política.
Y aquí viene lo más grave: esta brecha no es accidental. Es estructural. Las empresas que desarrollan IA tienen incentivos para mantener sus sistemas opacos, protegidos por secretos comerciales inauditables. Mientras más compleja y misteriosa sea la IA, más dependientes nos vuelve.
Recordemos además que la IA se entrena con datos históricos que reflejan las desigualdades del mundo. Esto no es un problema técnico que se arregla con más datos. Es un problema político. Los sistemas de IA reproducen y amplifican:
- Racismo: con sistemas de reconocimiento facial que fallan más en personas negras e indígenas.
- Sexismo: a través de algoritmos de reclutamiento que descartan resúmenes curriculares de mujeres.
- Clasismo: aplicando modelos de acceso a créditos que penalizan a personas pobres.
- Colonialismo epistémico: con desarrollos de IA que ignoran lenguas indígenas, saberes tradicionales, epistemologías no occidentales.
Para las organizaciones de derechos de las mujeres esto es especialmente peligroso, pues la IA puede censurar contenido feminista por considerarlo «polémico», invisibilizar campañas sobre derechos sexuales y reproductivos, perpetuar estereotipos de género en asistentes virtuales y chatbots, y excluir a mujeres trans de sistemas de reconocimiento de identidad. Todo esto sucede a escala masiva, automática, invisible. Los sesgos se automatizan y se vuelven más difíciles de identificar y combatir.
¿Quién define el futuro?
Este es quizá el riesgo más estratégico. Los mayores avances en IA están siendo liderados por empresas privadas. No por gobiernos democráticos, no por universidades públicas, ni por la sociedad civil. Por corporaciones cuyo objetivo es maximizar ganancias.
Esto significa que las prioridades son comerciales: vender más, vigilar mejor, automatizar trabajo. Además, los valores que guían el diseño son la eficiencia, el crecimiento, el control. Y la rendición de cuentas es mínima. Una autorregulación voluntaria sin consecuencias reales.
Mientras tanto, las OSC somos invitadas a «usar» esas herramientas, a «capacitarnos» en ellas, a «beneficiarnos» de su filantropía tecnológica. Pero no somos invitadas a la mesa donde se decide qué sistemas de IA deberían prohibirse, qué datos pueden usarse para entrenar modelos, cómo se auditan algoritmos que impactan derechos humanos y cómo se reparan daños cuando la IA causa exclusión o discriminación.
Si las OSC no nos organizamos para disputar ese poder, el diseño del futuro digital será una extensión de la lógica del mercado y el control, no de los derechos humanos. El riesgo más sutil es que las OSC veamos la IA solo como una herramienta técnica, como un software más que nos ayuda a «hacer nuestro trabajo mejor». Que la adoptemos acríticamente.
Entonces, ¿qué nos toca hacer?
El informe de Google nos muestra que las OSC están entrando al mundo de la IA. Pero los datos no nos dicen cómo debemos entrar ni para qué. Eso lo decidimos nosotras. No necesitamos solo aprender a usar ChatGPT o Gemini. Necesitamos entender cómo funcionan estos sistemas, qué sesgos contienen y cómo identificarlos, qué impactos tienen en derechos humanos, qué marcos legales y éticos deberían regularlos, y cómo construir alternativas desde nuestros valores. La formación no puede ser solo instrumental. Debe ser política y crítica.
La batalla por el futuro de la IA no la ganamos solas. Necesitamos redes regionales de OSC que compartan análisis y estrategias, alianzas con academia crítica, tecnólogas feministas, juristas de derechos humanos, observatorios que documenten los impactos de los sistemas algorítmicos y plataformas de intercambio para construir propuestas desde nuestros territorios. Solo organizadas podremos incidir en espacios de regulación, exigir transparencia, litigar estratégicamente y proponer alternativas.
Además debemos estar presentes en los espacios de poder. No podemos quedarnos solo en usar la IA. Tenemos que estar donde se decide la regulación nacional y regional, en los foros multilaterales de discusión, en las consultas públicas sobre marcos normativos y en los procesos de auditoría de sistemas algorítmicos de alto riesgo. Tenemos legitimidad, experiencia y compromiso con la justicia. Eso es poder. Y debemos usarlo.
La urgencia es política
Las OSC no podemos quedarnos al margen de la conversación sobre inteligencia artificial. No porque sea «el futuro», sino porque ya está reconfigurando el presente: los derechos, la democracia, la participación, la igualdad de género.
El informe de Google nos muestra oportunidades. Pero también nos revela riesgos estructurales que no se resuelven con más capacitación o más fondos corporativos. Se resuelven con organización, pensamiento crítico y acción política colectiva.
Debemos formar liderazgos que usen la IA como herramienta de justicia y transformación, no de control ni exclusión. Que entiendan que la tecnología no es neutral y que, por lo tanto, debe ser disputada. Porque al final, la pregunta no es si vamos a usar IA. La pregunta es: ¿al servicio de quién estará? ¿De las corporaciones que la diseñan? ¿De los gobiernos que la despliegan para vigilarnos? ¿O de las comunidades, de las defensoras, de las luchas por la justicia social? La respuesta depende de lo que hagamos hoy. Y el momento de actuar es ahora.

