El original desaparece. No se arregla.

Si hoy en día hace una pregunta a un motor de búsqueda sobre un destino turístico, recibirá una respuesta en cuestión de segundos. Pero, ¿de dónde procede la información? ¿Quién hizo la investigación, tomó las fotos, recogió impresiones in situ? Eso permanece en la oscuridad. La respuesta procede de textos e imágenes. Creados en algún momento. En algún lugar. Por alguien. Ese alguien es sistemáticamente expulsado del sistema.

El caso Plasselb: un experimento con consecuencias

Para demostrar cómo la IA aliena, me atreví a realizar un experimento. Elegí como sujeto de la prueba una de mis fotos más auténticas: cuatro ancianos con trajes tradicionales de lecheros de los Alpes suizos, tomada en Plasselb con una Canon EOS D1. Esta imagen simboliza el hogar, la tradición y la fotografía artesanal.

Die bärtigen Männer von Gruyère (Les Barbus de la Gruyère) bei der Alpprozession in Oberschrot, Plaffeien. Sie tragen die traditionelle Tracht des Greyerzerlandes. Die Weste wird Bredzon genannt, der Sack Loyi / © Foto: Georg Berg
Los barbudos de Gruyère (Les Barbus de la Gruyère) en la procesión alpina de Oberschrot, Plaffeien. Llevan el traje tradicional de la región de Gruyère. El chaleco se llama Bredzon, el saco Loyi / © Foto: Georg Berg

Le pedí a una moderna IA llamada Nano Banana que incorporara la foto a una infografía. El resultado fue aleccionador. La IA no colocó el original, sino que lo “repintó”. El letrero de la ciudad “Plasselb” se convirtió en “Alpenschatz”, la bolsa de tabaco de un hombre en un bloque de queso suizo. La IA reconoció Suiza, los trajes tradicionales y las barbas, e inventó un rótulo con el nombre del lugar y el queso correspondiente.

Bild einer echten Quelle wird als Datenstrom zu einem Trainingsdatenset [KI-generiert (gemini)]
La imagen de una fuente real se convierte en un flujo de datos para un conjunto de datos de entrenamiento [generados por la IA (gemini)].
Original wird von der KI in seine Bestandteile zerlegt. Elemente aus dem Foto (Tracht, Bärte, Pfeifen, Ortsschild) sind nur noch abstrakte Konzepte, die in einem digitalen Netzwerk schweben [KI-generiert (gemini)]
La IA descompone el original en sus componentes. Los elementos de la foto (traje, barbas, tuberías, letrero de la ciudad) son ahora sólo conceptos abstractos que flotan en una red digital [generada por IA (gemini)].

Cuando la precisión se considera falsa

Surge un ciclo paradójico: los sistemas de IA se entrenan con contenidos existentes de una época en la que los medios de comunicación aún tenían corresponsales locales. Pero, ¿qué ocurre cuando estas fuentes se agotan?

A lo largo de generaciones de modelos de IA, los orígenes desaparecen. Una foto se fragmenta, los fragmentos pasan al entrenamiento del siguiente modelo, que genera nuevas imágenes alienadas a partir de ellos. La conexión con la investigación original se corta. Al final, los modelos crean copias digitales que ya no tienen nada que ver con la realidad: Demencia artificial.

La paradoja de la perfección: la trampa del “falso positivo

Mi experimento reveló un problema técnico que debería alertar a los fotógrafos. El sistema SynthID de Google etiquetó mi foto auténtica como “generada por IA”, con todas las consecuencias desagradables para mí. La razón: para resaltar perfectamente a los hombres disfrazados, los había editado selectivamente en mi foto con Lightroom. Esta precisión creó patrones estadísticos que el algoritmo calificó de “antinaturales”. La amarga constatación: cuanto más profesional es un fotógrafo, más probable es que los sistemas automatizados lo etiqueten como falsificador. Una etiqueta técnica no prueba la verdad: a menudo es sólo una señal ciega.

Antecedentes técnicos: la comprobación cruzada de la procedencia

En mi informe para el Programa de Vulnerabilidad de la IA de Google (número 483464959), propuse una solución: La integración de la detección SynthID con los manifiestos de procedencia C2PA (credenciales de contenido).

El problema: SynthID interpreta las anomalías estadísticas de píxeles como artefactos generativos de IA mediante enmascaramiento profesional, independientemente de si la imagen tiene un certificado C2PA verificado con un historial de procesamiento documentado.

La solución: una comparación entre la señal de detección y el manifiesto de procedencia. Si C2PA documenta: “Enmascaramiento local en Lightroom Classic v15.1.1, fuente Canon RAW”, el sistema no debería malinterpretar este procesamiento manual como generación de IA.

El rechazo: la respuesta de Google: “Won’t Fix (Intended Behaviour)”. La clasificación errónea de obras auténticas no se considera un riesgo para la seguridad, sino un comportamiento aceptado del sistema.

Consecuencia: dos verdades contrapuestas: Adobe dice “humano”, Google dice “IA”. El usuario se confunde entre las dos. La confianza en la prueba de origen digital se erosiona.

Informe detallado disponible en pdf

La erosión económica e institucional

Desde hace 25 años, los motores de búsqueda y los agregadores utilizan los contenidos de los medios de comunicación establecidos. Mientras estos contenidos entrenan a los sistemas de IA, los autores se quedan con las manos vacías. Para muchos periodistas de viajes, esto significa el fin.

Incluso las instituciones que se supone deben preservar el conocimiento salen perdiendo. Wikipedia documenta la muerte de los medios de comunicación establecidos, pero revistas en línea como Tellerrandstories están cayendo en el olvido a pesar del ISSN y el archivo de las bibliotecas nacionales. ¿Quién documentará quién sigue haciendo investigación original en el futuro si los criterios de relevancia se basan en una era mediática pasada?

Medium oder Website? Bei Wikipedia gehören Online-Magazine und Preisvergleichsportale in dieselbe Kategorie und der Traffic bestimmt die Relevanz [KI-generiert (gemini)]
¿El medio o el sitio web? Con Wikipedia, las revistas en línea y los portales de comparación de precios pertenecen a la misma categoría y el tráfico determina la relevancia [generado por IA (gemini)].

La autenticidad como modelo de negocio

Hay salidas. El modelo de Tellerrandstories se basa en la independencia financiera: publicamos gratuitamente partes de nuestras investigaciones y recibimos honorarios de otros medios. Mis fotos tienen licencia de la agencia fotográfica Alamy. Esta agencia también está comprometida con los derechos de autor accesorios y el etiquetado de la fuente. La transparencia no es un lujo, sino algo esencial para la credibilidad.

¿Qué queda por hacer? Un manifiesto por la transparencia

Necesitamos nuevas formas de etiquetado, no como sello de calidad, sino como prueba de producción. Al igual que la prueba de origen es habitual en los alimentos, la información necesita un “prospecto” digital.

  1. Vincular detección y procedencia: sistemas como SynthID deben armonizarse con sellos criptográficos como C2PA (Content Credentials). Sólo la prueba de las etapas de procesamiento protege a los autores.
  2. Responsabilidad de las plataformas: Google, Meta y compañía también deben proteger y remunerar activamente a las fuentes que utilizan.
  3. Adoptar unapostura: Los periodistas deben revelar su metodología. “Yo estuve allí. Hice esta foto. La avalo con mi nombre. “

Epílogo: El muro de código – cuando hay un método para el error

Tras mi descubrimiento, busqué el diálogo. Comuniqué el problema (issue 483464959) al Programa de Vulnerabilidad de Google AI y propuse una solución para enlazar con los datos de C2PA.

La respuesta fue rápida, automática y aleccionadora: “Won’t Fix (Intended Behaviour)”. La respuesta llegó un minuto después del envío. ¿Un minuto para revisar un informe técnico de varias páginas con una cadena de pruebas? No es probable. La respuesta mostraba todos los signos de una selección automatizada: redacción estándar, referencias a categorías irrelevantes (desvíos de seguridad, escapes de sandbox alucinados), ningún compromiso con el contenido real.

Mi informe no fue rechazado porque fuera erróneo. Se rechazó porque es demasiado común. “Este es uno de los problemas más comunes”, escribe el sistema. En otras palabras, muchos fotógrafos y periodistas han descubierto el mismo problema. Pero en lugar de solucionarlo, Google clasifica sistemáticamente estos informes.

Ya no se trata de un error, sino de política.

El hecho de que una obra auténtica sea tachada de producto de la IA no es un error para el gigante tecnológico, sino un “comportamiento conocido”. En la lógica de Silicon Valley, un etiquetado incorrecto no es un riesgo para la seguridad, sino un ruido aceptado en el sistema.

Para periodistas y fotógrafos, esto significa una pérdida de autoría. Si el algoritmo se equivoca, la gente no tiene derecho a objetar. La tecnología define la verdad, y cualquiera que caiga en la trampa no tiene suerte.

Cuanto más “protegen” las máquinas la realidad, más fácil nos resulta perder a la gente de la foto. Pero precisamente por eso es hoy más importante que nunca insistir en la propia autoría. Un “no se arreglará” no debe ser la última palabra sobre nuestro trabajo.

Am Ende ist das Bild verschwunden. Nur noch die Information über das visuelle Original bleibterhalten. Völlig egal ist die schöpferische Leistung des Fotografen [KI-generiert (gemini)]
Al final, la imagen ha desaparecido. Sólo queda la información sobre el original visual. El logro creativo del fotógrafo es completamente irrelevante [AI-generated (gemini)].
¡Un momento! Fotos en el Tellerrand-Stories

Nuestro método de trabajo se caracteriza por un trabajo de texto propio y bien documentado y una fotografía profesional y vívida. Todas las historias, impresiones de viaje y fotos se crean en el mismo lugar. De este modo, las fotos complementan y apoyan lo que se lee y lo llevan adelante.

¡No vuelvas a perderte nuevas Tellerrand-Stories! Mithilfe eines Feed-Readers lassen sich die Information über neue Blogartikel in Echtzeit abonnieren Con la ayuda de un lector de feeds, es posible suscribirse en tiempo real a todas las Tellerrand-Stories (historias sobre el borde del plato).

Permalink de la versión original en alemán: https://tellerrandstories.de/journalismus-quelle-verschwindet