Este texto parte del artículo de Ramón López de Mántaras La inteligencia artificial generativa y el colapso de la credibilidad, publicado en Retina.

López de Mántaras plantea un problema real: la IA generativa permite fabricar identidades digitales completas a escala industrial, con coste mínimo y verosimilitud creciente. Apoyándose en el trabajo de Daniel Dennett sobre las «personas falsas», advierte de que esta capacidad podría erosionar la confianza hasta poner en riesgo el funcionamiento de nuestras sociedades. Propone marcos legales, herramientas de verificación y educación crítica como respuesta.

El diagnóstico es pertinente. Pero merece la pena observar que todas esas soluciones operan sobre el canal de transmisión del engaño y no sobre lo que lo hace eficaz: el receptor. La distinción no es menor, porque determina si estamos ante un problema tecnológico o ante un problema sistémico que la tecnología simplemente acelera.

• • •

La pregunta previa: quién y para qué

Antes de analizar la vulnerabilidad del receptor conviene hacer una pregunta que el artículo de López de Mántaras no formula: ¿quién produce esas identidades falsas y con qué finalidad? Las personas falsas no aparecen espontáneamente. Alguien las diseña, las financia y se beneficia de su circulación. Nombrar a esos agentes cambia el análisis: ya no es «la IA amenaza la confianza» sino «actores concretos usan la IA para fines concretos».

La lógica común es sencilla: quien dispone de recursos puede ahora automatizar y escalar prácticas que antes requerían aparatos costosos. La novedad no está en la intención sino en la eficiencia. En el ámbito político, partidos y servicios de inteligencia fabrican movimientos sociales ficticios, políticas de opinión artificial y campañas de desprestigio con identidades que no existen. En el ámbito económico, la industria del marketing ya operaba sobre la manipulación de la percepción —la IA generativa simplemente le da herramientas más baratas y más precisas. En el financiero, la fabricación de credibilidad falsa —historiales, avales, identidades de operadores— no es nueva: es la misma dinámica del fraude de siempre, ahora automatizada. En el mediático, los contenidos generados compiten con el periodismo real por la misma atención, con la ventaja de que pueden producirse sin coste y sin compromiso con la verificación.

Lo relevante no es el catálogo de usos —que crecerá con cada avance técnico— sino la observación de fondo: los agentes que hoy usan la IA generativa para fabricar falsedades son, en gran medida, los mismos que ya las fabricaban antes. La tecnología no ha creado nuevos actores del engaño: ha dado a los existentes una herramienta más eficiente. Esto confirma que el problema no es tecnológico. Es estructural.

Conviene además no sobreestimar el efecto democratizador de estas herramientas. Si bien la delincuencia menor las aprovechará para fraudes a pequeña escala, los movimientos que realmente alteran la percepción colectiva requieren infraestructura sostenida, financiación y protección institucional —recursos que no se democratizan con la tecnología. La experiencia histórica sugiere que el poder establecido tiende a absorber o neutralizar a los actores genuinamente nuevos antes que a verse desplazado por ellos.

• • •

Confianza o credulidad funcional

El artículo describe la confianza como pilar invisible de la civilización: confiamos en que el dinero tiene valor, en que un título acredita conocimientos, en que una fotografía documenta un hecho. Vale la pena preguntarse si eso es confianza o algo distinto.

La confianza genuina se construye desde la experiencia verificada. Lo que sostiene buena parte del funcionamiento social es otra cosa: la disposición a aceptar señales de autoridad sin procesamiento propio. Podríamos llamarlo credulidad funcional. El sistema económico, mediático e institucional necesita esa disposición para funcionar. La necesitaba antes de la IA generativa. Lo que la IA hace es explotar una dependencia epistemológica preexistente a una escala sin precedentes.

• • •

Los receptores del fraude

Si la eficacia del engaño depende del receptor tanto como del emisor, conviene observar qué produce receptores vulnerables. Se pueden identificar al menos cuatro factores.

El primero es la disociación somática. Una población desconectada de su percepción corporal carece de acceso a un sistema de verificación anterior al razonamiento: la sensación de incongruencia. La vida mediada por pantallas, el sedentarismo, la ausencia de contacto con la naturaleza para la mayoría y una educación exclusivamente cognitiva reducen ese acceso.

El segundo es la delegación del criterio. El sistema educativo, mediático y laboral entrena para buscar la respuesta fuera: en la autoridad, en el experto, en el algoritmo. Esto no es especulación: la psicología social lo ha documentado con rigor. Los experimentos de Asch demostraron que una mayoría unánime puede hacer que un sujeto niegue lo que percibe con sus propios ojos. Milgram mostró hasta dónde llega la obediencia a la autoridad cuando el sujeto delega su criterio. Sherif estableció cómo se forman normas de grupo que sustituyen al juicio individual. La disposición a ceder el criterio propio ante señales externas no es una debilidad ocasional: es inducible, sistemática y está ampliamente estudiada. La IA generativa ofrece un alimentador más eficiente para una disposición que ya estaba instalada.

El tercero es la rigidez ideológica como sustituto de criterio. Ante la dificultad de procesar la complejidad desde dentro, la defensa habitual es aferrarse a una narrativa cerrada. Pero la rigidez no protege del engaño, lo canaliza: quien tiene una posición rígida es manipulable en una dirección predecible. Los algoritmos de personalización operan sobre esta base: es más fácil industrializar la manipulación para sectores ideológicamente definidos que para personas con criterio propio.

El cuarto es la captura sistémica de la atención. La atención es el recurso primario del discernimiento. Cuando está capturada por una estructura —no solo digital, también educativa, mediática, laboral, de consumo— diseñada para dirigirla, la capacidad de procesamiento interno que permite distinguir se reduce. Este artículo también opera dentro de esa estructura: compite por atención, circula por los mismos canales y se lee en el mismo dispositivo que el contenido que analiza. Conviene asumirlo antes de seguir señalando. Pero es precisamente por estar dentro —no a pesar de ello— por lo que comunicarlo se vuelve una responsabilidad con la colectividad.

• • •

La ironía del medio

Hay un quinto factor que opera a plena vista. El artículo de López de Mántaras, que denuncia la erosión de la credibilidad, se publica flanqueado por botones de compartir en redes sociales. Un clic y el análisis entra en el circuito que describe: difusión viral, propagación por encima de comprensión, tráfico como modelo de negocio. Este texto que aquí se lee no escapa a la misma lógica. Todos operamos dentro de lo que analizamos.

Esto no invalida el artículo. Pero señala algo que el análisis no contempla: el exceso de uso digital como forma de relación con el mundo no es solo el entorno del problema, es parte de él. Conviene sin embargo distinguir lo estructural de lo funcional. La vulnerabilidad al engaño es estructural: reside en el sujeto, y quien es permeable lo es tanto ante una pantalla como en una conversación presencial. El medio digital es funcional: no crea la desconexión, pero ofrece un entorno en el que la escala y la velocidad del engaño se multiplican. La denuncia viaja por las mismas tuberías que el engaño, pero el problema de fondo no está en las tuberías. Está en la escasez de lo que circula por ellas con intención genuinamente crítica.

• • •

La pregunta ausente

Los factores descritos no parecen accidentales. Cabe preguntarse si una población con discernimiento propio, enraizada en su percepción y capaz de verificar desde la experiencia directa, sería gobernable con las herramientas actuales. La credulidad funcional quizás no sea un fallo del sistema sino una de sus condiciones de funcionamiento.

López de Mántaras tiene toda la razón en pedir que se legisle. Desde la estructura actual, la regulación es el único terreno de acción disponible, y reclamarla es un acto de responsabilidad. Pero conviene explicar por qué esa acción tendrá efectos limitados. La regulación legal opera dentro de un marco institucional cuya permeabilidad al poder económico está documentada. La verificación tecnológica inicia una carrera entre falsificación y detección sin final previsible. Y la educación crítica convencional enseña a verificar fuentes, pero opera en el mismo plano cognitivo que el engaño. El planteamiento, siendo necesario, recuerda a buena parte de la medicina actual: tratar el síntoma sin interrogar las causas que lo producen. La hipertensión se medica, pero rara vez se pregunta qué la genera. Las identidades falsas se regulan, pero no se pregunta qué hace que funcionen.

• • •

Dos ausencias

El problema tiene dos caras que rara vez se miran juntas. Por un lado, una población masivamente permeable al engaño por las razones expuestas. Por otro, una escasez notable de agentes que aborden esta cuestión con credibilidad y desde una perspectiva sistémica.

La política no lo aborda porque la credulidad le es útil. Los medios no lo abordan porque su modelo de negocio depende de la captura atencional. La academia tiende a circunscribir el análisis al ámbito tecnológico. Cada actor permanece en su parcela, y la pregunta de fondo —por qué el sistema produce sujetos tan permeables y quién se beneficia— queda sin espacio donde formularse.

Cabe preguntarse qué ocurriría si los mismos canales de difusión que hoy transportan análisis compatibles con el sistema empezaran a difundir voces genuinamente críticas con él. Probablemente descubriríamos que legislar es un gesto formal, pero comunicar es lo que realmente altera las cosas. El sistema lo sabe. Quizás por eso la cuestión nunca fue regular el canal, sino lo que circula por él.

• • •

Lo que la IA hace visible

La cuestión de fondo no es cómo detectar lo falso, sino por qué lo falso encuentra terreno fértil. Mientras el análisis no llegue ahí, las soluciones seguirán operando sobre el síntoma.

La IA generativa no ha creado la crisis de credibilidad: la ha hecho visible. Ha expuesto una arquitectura de vulnerabilidad que ya estaba ahí, con una nitidez que ya no permite mirar hacia otro lado. Esa visibilidad es, quizás, lo más útil que esta tecnología puede ofrecernos. No como solución, sino como espejo.

Imaginen con qué se ha escrito este artículo. Quizás la capacidad creativa de la IA no sea el problema.