9 de abril de 2026
Manifiesto Ciudadano por una Inteligencia Artificial Ética
El porqué
Somos un grupo de personas que hemos vivido lo suficiente para saber que toda gran transformación tecnológica trae consigo oportunidades extraordinarias, pero también riesgos que deben afrontarse con lucidez y responsabilidad.
Por eso decidimos formarnos. No para convertirnos en especialistas, sino para entender, opinar y participar. A través del Proyecto IA Sénior, sesenta personas de entre 55 y 80 años, procedentes de catorce pueblos de cinco comarcas de la provincia de Cáceres, hemos aprendido a usar la inteligencia artificial, a cuestionarla y a reflexionar sobre su impacto en nuestra vida cotidiana y en nuestra sociedad.
Lo que hemos descubierto nos entusiasma. Y también nos interpela.
La inteligencia artificial no es el futuro: es el presente. Ya está transformando la manera en que aprendemos, nos relacionamos, gestionamos nuestra vida diaria y participamos en la sociedad. Ignorarla no es una opción, pero usarla sin criterio, tampoco.
Europa ha dado pasos importantes legislando sobre inteligencia artificial, pero las leyes tardan en llegar a la vida real, y la tecnología va a una velocidad vertiginosa, y es que no basta con legislar.
Este manifiesto nace en Cáceres, pero habla para todos. Porque los derechos que aquí defendemos no tienen edad, territorio ni ideología.
España ha dado un paso decisivo en promover la conectividad en todo el territorio. Es un logro que reconocemos, pero tener solo conexión ya no es un privilegio. La brecha digital ya no es de cables: es de conocimiento, de coste y de acompañamiento.
En un mundo donde la IA es tan determinante como la educación o la sanidad, nos enfrentamos a una desigualdad silenciosa. Las herramientas más potentes son de pago; quien puede permitírselas accede a asistentes precisos, mientras que el resto se conforma con versiones recortadas. Sin la capacidad de comparar herramientas, es imposible desarrollar un criterio propio.
Si la educación se considera un pilar esencial para cualquier país, la formación digital debería reconocerse como un derecho fundamental. Hoy, una nueva forma de exclusión amenaza a quienes no pueden desenvolverse en el entorno tecnológico: el analfabetismo digital. La IA no debe ser una barrera, sino una oportunidad para transformar esa realidad.
Hemos comprobado que el analfabetismo digital no se resuelve con simples píldoras formativas online.
Defendemos una formación presencial, con tiempos adecuados, acompañamiento y metodologías participativas, que abra espacios para el debate tecnológico e incorpore, como complemento, tanto el apoyo de la IA como la formación entre iguales.
Las personas mayores representan el 20,4% de la población en España y gestionan una parte significativa de la economía doméstica, el consumo y el tejido social de nuestras comunidades. Sin embargo, durante demasiado tiempo la tecnología se ha diseñado sin pensar en nosotros, o peor aún, pensando que no éramos su público.
La inteligencia artificial, por su naturaleza conversacional y accesible, ofrece a las personas mayores algo que ninguna tecnología anterior había logrado: la posibilidad real de dar el salto digital. Resolver problemas domésticos, consultar síntomas y entender diagnósticos, organizar viajes, comunicarse con la administración, integrar robótica asistencial o aprender a nuestro propio ritmo en la era digital, ya es posible. La IA puede ser una aliada para ganar autonomía frente a un sistema digital que a menudo resulta difícil de entender y manejar.
La economía plateada es un motor de innovación social, y las personas mayores no deben ser consideradas un gasto público sino como un activo. Para ello abogamos por una IA accesible y cercana pero que no infantilice, una IA que sea capaz de ampliar la autonomía de las personas y de reducir barreras.
La inteligencia artificial tiene un potencial extraordinario en la educación. Por primera vez existe una herramienta capaz de adaptarse al ritmo, al nivel y al estilo de aprendizaje de cada estudiante, ofreciendo una atención personalizada que ningún aula masificada puede garantizar.
Bien utilizada, la IA podría liberar a docentes y alumnos de las tareas más mecánicas y convertir las clases en algo que durante décadas hemos soñado: espacios de relación humana, de pensamiento crítico, de creatividad, de colaboración y de arte.
Pero hay una condición innegociable: primero hay que comprender. Antes de usar una calculadora, un niño necesita entender qué significa sumar, contar con los dedos, construir el concepto desde dentro. Pero si la herramienta llega antes que la comprensión, no ayuda a aprender sino que la sustituye.
Nos preocupa que la implantación de la IA en las aulas esté avanzando más rápido que la reflexión necesaria, y además sin contar suficientemente con la participación del profesorado y de las familias. Pedimos que la incorporación de la IA al sistema educativo se guíe por criterios pedagógicos claros y compartidos, y no por modas tecnológicas ni por intereses comerciales.
La inteligencia artificial conversacional hace algo que ninguna tecnología anterior había logrado; parece escucharte. Se adapta a tu tono, recuerda lo que has dicho, responde con calidez y nunca pierde la paciencia. La usamos para aprender, para trabajar, para resolver dudas del día a día y esto la convierte en una herramienta muy valiosa.
La IA ayuda, sí, pero no siente, no cuida, no ama. Su diseño no debería explotar deliberadamente nuestra tendencia natural a crear vínculos, porque cuando eso ocurre, la herramienta deja de ser un apoyo y se convierte en una trampa.
Toda persona debe tener el derecho fundamental de saber, en todo momento y en cualquier contexto, que está interactuando con una máquina. Si esto no está garantizado, estamos ante un engaño y un fraude.
Exigimos que todos los sistemas de IA identifiquen de forma clara su naturaleza artificial y que su diseño esté regulado para evitar la creación deliberada de dependencias emocionales.
La inteligencia artificial tiene el potencial de hacer nuestras vidas más seguras, más organizadas y más eficientes. Pero para funcionar necesita datos. Y ahí reside tanto su fortaleza como su responsabilidad: nuestras conversaciones, búsquedas, hábitos, estado de salud y relaciones personales se convierten en materia prima que se procesa y se usa para influir en nuestras decisiones sin que lo sepamos.
La configuración de privacidad en aplicaciones y plataformas es deliberadamente compleja. Nadie puede leer veinte páginas de términos legales. Esto no es casual, sabemos que es una estrategia.
Proponemos un sistema de certificación visible e intuitivo, que permita saber de un vistazo cómo se usan nuestros datos. Sencillo, universal y sin letra pequeña. Porque el derecho a la privacidad no puede depender de ser abogado o informático.
La inteligencia artificial también puede ser una herramienta extraordinaria para proteger a los ciudadanos: puede detectar fraudes, alertar ante estafas, identificar contenidos manipulados y contrastar información en segundos.
Pero esa misma tecnología, mal usada, genera las amenazas más sofisticadas que hemos conocido: estafas personalizadas, voces y rostros clonados, bulos que se viralizan como verdad e imágenes falsas. Y los más vulnerables son con frecuencia el objetivo prioritario de estos fraudes.
El Reglamento Europeo de Inteligencia Artificial obliga a etiquetar claramente los contenidos generados por IA, los vídeos y las imágenes falsas. Es un paso importante pero ¿se aplica de forma efectiva?
Por ello, pedimos herramientas fiables, accesibles y gratuitas para detectar fraudes y contenidos falsos.
El potencial de la inteligencia artificial para ayudarnos como sociedad solo es posible cuando está sometida a principios éticos claros, verificables y públicos.
Nos preocupa profundamente la opacidad ética tecnológica. No conocemos los valores éticos de las aplicaciones que usamos cada día ni de los sistemas de IA que gestionarán nuestras vidas. Sin esta información, la corresponsabilidad que se nos exige como ciudadanos es una ficción.
Además hay un vacío legal que genera mucha preocupación ciudadana: el Reglamento Europeo de Inteligencia Artificial excluye expresamente su aplicación en el ámbito militar. ¿Por qué?
Nuestros datos pueden alimentar sistemas cuyo uso desconocemos completamente. Y al igual que en los años cuarenta muchos científicos se negaron a participar en el desarrollo de la bomba atómica, ¿cómo van a poder decidir los actuales tecnólogos si no hay transparencia ética?
La IA puede promover la inclusión, la autonomía, la educación, la dependencia emocional, la privacidad y la ciberseguridad, pero esto no tiene sentido sin una máxima: ÉTICA. Y la ética no es un apartado más, es la condición de todo lo demás.
Demandamos transparencia: que las empresas tecnológicas publiquen sus políticas éticas en lenguaje comprensible y que los gobiernos informen sobre todos los usos de la IA tanto en la gestión pública como en el ámbito de defensa.
Este manifiesto nace de la experiencia de un grupo de personas de Cáceres que decidieron formarse, reflexionar y debatir sobre el impacto de la inteligencia artificial. Pero estas palabras pertenecen a cualquier ciudadano que crea que la tecnología debe estar al servicio de las personas..
La corresponsabilidad debe ser un compromiso entre empresas, gobiernos y sociedad. Organizaciones, instituciones educativas, colectivos profesionales, asociaciones vecinales, empresas y administraciones públicas: si estáis de acuerdo con esta visión, te invitamos a compartir este manifiesto a favor de una Inteligencia Artificial Ética, universal y al servicio del bien común.
