El original desaparece. No se arregla.

Si hoy en día hace una pregunta a un motor de búsqueda sobre un destino turístico, recibirá una respuesta en cuestión de segundos. Pero, ¿de dónde procede la información? ¿Quién hizo la investigación, tomó las fotos, recogió impresiones in situ? Eso permanece en la oscuridad. La respuesta procede de textos e imágenes. Creados en algún momento. En algún lugar. Por alguien. Ese alguien es sistemáticamente expulsado del sistema.

El caso Plasselb: un experimento con consecuencias

Para demostrar cómo la IA aliena, me atreví a realizar un experimento. Elegí como sujeto de la prueba una de mis fotos más auténticas: cuatro ancianos con trajes tradicionales de lecheros de los Alpes suizos, tomada en Plasselb con una Canon EOS D1. Esta imagen simboliza el hogar, la tradición y la fotografía artesanal.

Die bärtigen Männer von Gruyère (Les Barbus de la Gruyère) bei der Alpprozession in Oberschrot, Plaffeien. Sie tragen die traditionelle Tracht des Greyerzerlandes. Die Weste wird Bredzon genannt, der Sack Loyi / © Foto: Georg Berg
El original deslegitimado: los hombres barbudos de Gruyère – Una foto que, según Google, no existe / © Foto: Georg Berg

Le pedí a una moderna IA llamada Nano Banana que incorporara la foto a una infografía. El resultado fue aleccionador. La IA no colocó el original, sino que lo “repintó”. El letrero de la ciudad “Plasselb” se convirtió en “Alpenschatz”, la bolsa de tabaco de un hombre en un bloque de queso suizo. La IA reconoció Suiza, los trajes tradicionales y las barbas, e inventó un rótulo con el nombre del lugar y el queso correspondiente.

Bild einer echten Quelle wird als Datenstrom zu einem Trainingsdatenset [KI-generiert (gemini)]
La imagen de una fuente real se convierte en un flujo de datos para un conjunto de datos de entrenamiento [generados por la IA (gemini)].
Original wird von der KI in seine Bestandteile zerlegt. Elemente aus dem Foto (Tracht, Bärte, Pfeifen, Ortsschild) sind nur noch abstrakte Konzepte, die in einem digitalen Netzwerk schweben [KI-generiert (gemini)]
La IA descompone el original en sus componentes. Los elementos de la foto (traje, barbas, tuberías, letrero de la ciudad) son ahora sólo conceptos abstractos que flotan en una red digital [generada por IA (gemini)].

Cuando la precisión se considera falsa

Surge un ciclo paradójico: los sistemas de IA se entrenan con contenidos existentes de una época en la que los medios de comunicación aún tenían corresponsales locales. Pero, ¿qué ocurre cuando estas fuentes se agotan?

A lo largo de generaciones de modelos de IA, los orígenes desaparecen. Una foto se fragmenta, los fragmentos pasan al entrenamiento del siguiente modelo, que genera nuevas imágenes alienadas a partir de ellos. La conexión con la investigación original se corta. Al final, los modelos crean copias digitales que ya no tienen nada que ver con la realidad: Demencia artificial.

La paradoja de la perfección: la trampa del “falso positivo

Mi experimento reveló un problema técnico que debería alertar a los fotógrafos. El sistema SynthID de Google etiquetó mi foto auténtica como “generada por IA”, con todas las consecuencias desagradables para mí. La razón: para resaltar perfectamente a los hombres disfrazados, los había editado selectivamente en mi foto con Lightroom. Esta precisión creó patrones estadísticos que el algoritmo calificó de “antinaturales”. La amarga constatación: cuanto más profesional es un fotógrafo, más probable es que los sistemas automatizados lo etiqueten como falsificador. Una etiqueta técnica no prueba la verdad: a menudo es sólo una señal ciega.

Antecedentes técnicos: la comprobación cruzada de la procedencia

En mi informe para el Programa de Vulnerabilidad de la IA de Google (número 483464959), propuse una solución: La integración de la detección SynthID con los manifiestos de procedencia C2PA (credenciales de contenido). Después de todo, Google forma parte desde hace dos años del comité directivo de la Coalition for Content Provenance and Authenticity (C2PA).

El problema: SynthID interpreta las anomalías estadísticas de píxeles como artefactos generativos de IA mediante enmascaramiento profesional, independientemente de si la imagen tiene un certificado C2PA verificado con un historial de procesamiento documentado.

La solución: una comparación entre la señal de detección y el manifiesto de procedencia. Si C2PA documenta: “Enmascaramiento local en Lightroom Classic v15.1.1, fuente Canon RAW”, el sistema no debería malinterpretar este procesamiento manual como generación de IA.

El rechazo: la respuesta de Google: “Won’t Fix (Intended Behaviour)”. La clasificación errónea de obras auténticas no se considera un riesgo para la seguridad, sino un comportamiento aceptado del sistema.

Consecuencia: dos verdades contrapuestas: Adobe dice “humano”, Google dice “IA”. El usuario se confunde entre las dos. La confianza en la prueba de origen digital se erosiona.

Informe detallado disponible en pdf

La erosión económica e institucional

Desde hace 25 años, los motores de búsqueda y los agregadores utilizan los contenidos de los medios de comunicación establecidos. Mientras estos contenidos entrenan a los sistemas de IA, los autores se quedan con las manos vacías. Para muchos periodistas de viajes, esto significa el fin.

Incluso las instituciones que se supone deben preservar el conocimiento salen perdiendo. Wikipedia documenta la muerte de los medios de comunicación establecidos, pero revistas en línea como Tellerrandstories están cayendo en el olvido a pesar del ISSN y el archivo de las bibliotecas nacionales. ¿Quién documentará quién sigue haciendo investigación original en el futuro si los criterios de relevancia se basan en una era mediática pasada?

Medium oder Website? Bei Wikipedia gehören Online-Magazine und Preisvergleichsportale in dieselbe Kategorie und der Traffic bestimmt die Relevanz [KI-generiert (gemini)]
¿El medio o el sitio web? Con Wikipedia, las revistas en línea y los portales de comparación de precios pertenecen a la misma categoría y el tráfico determina la relevancia [generado por IA (gemini)].

La autenticidad como modelo de negocio

Hay salidas. El modelo de Tellerrandstories se basa en la independencia financiera: publicamos gratuitamente partes de nuestras investigaciones y recibimos honorarios de otros medios. Mis fotos tienen licencia de la agencia fotográfica Alamy. Esta agencia también está comprometida con los derechos de autor accesorios y el etiquetado de la fuente. La transparencia no es un lujo, sino algo esencial para la credibilidad.

¿Qué queda por hacer? Un manifiesto por la transparencia

Necesitamos nuevas formas de etiquetado, no como sello de calidad, sino como prueba de producción. Al igual que la prueba de origen es habitual en los alimentos, la información necesita un “prospecto” digital.

  1. Vincular detección y procedencia: sistemas como SynthID deben armonizarse con sellos criptográficos como C2PA (Content Credentials). Sólo la prueba de las etapas de procesamiento protege a los autores.
  2. Responsabilidad de las plataformas: Google, Meta y compañía también deben proteger y remunerar activamente a las fuentes que utilizan.
  3. Adoptar unapostura: Los periodistas deben revelar su metodología. “Yo estuve allí. Hice esta foto. La avalo con mi nombre. “

Epílogo: El muro de código – cuando hay un método para el error

Tras mi descubrimiento, busqué el diálogo. Comuniqué el problema (issue 483464959) al Programa de Vulnerabilidad de Google AI y propuse una solución para enlazar con los datos de C2PA.

La respuesta fue rápida, automática y aleccionadora: “Won’t Fix (Intended Behaviour)”. La respuesta llegó un minuto después del envío. ¿Un minuto para revisar un informe técnico de varias páginas con una cadena de pruebas? No es probable. La respuesta mostraba todos los signos de una selección automatizada: redacción estándar, referencias a categorías irrelevantes (desvíos de seguridad, escapes de sandbox alucinados), ningún compromiso con el contenido real.

Mi informe no fue rechazado porque fuera erróneo. Se rechazó porque es demasiado común. “Este es uno de los problemas más comunes”, escribe el sistema. En otras palabras, muchos fotógrafos y periodistas han descubierto el mismo problema. Pero en lugar de solucionarlo, Google clasifica sistemáticamente estos informes.

Google está jugando un juego peligroso con la ley. Mi propuesta no era una mera indicación técnica, sino un puente hacia la seguridad jurídica. Quien declare los originales como salida genérica de la IA, está interfiriendo en el núcleo del derecho de autor. El hecho de que Google rechace este mecanismo de protección y declare el error sistémico como «característica intencionada» muestra lo lejos que se han alejado las plataformas de la realidad jurídica de los creadores. En un mosaico global de leyes de derechos de autor, este «comportamiento intencionado» podría salir muy caro.

Ya no se trata de un error, sino de política.

El hecho de que una obra auténtica sea tachada de producto de la IA no es un error para el gigante tecnológico, sino un “comportamiento conocido”. En la lógica de Silicon Valley, un etiquetado incorrecto no es un riesgo para la seguridad, sino un ruido aceptado en el sistema.

Para periodistas y fotógrafos, esto significa una pérdida de autoría. Si el algoritmo se equivoca, la gente no tiene derecho a objetar. La tecnología define la verdad, y cualquiera que caiga en la trampa no tiene suerte.

Cuanto más “protegen” las máquinas la realidad, más fácil nos resulta perder a la gente de la foto. Pero precisamente por eso es hoy más importante que nunca insistir en la propia autoría. Un “no se arreglará” no debe ser la última palabra sobre nuestro trabajo.

Am Ende ist das Bild verschwunden. Nur noch die Information über das visuelle Original bleibterhalten. Völlig egal ist die schöpferische Leistung des Fotografen [KI-generiert (gemini)]
Al final, la imagen ha desaparecido. Sólo queda la información sobre el original visual. El logro creativo del fotógrafo es completamente irrelevante [AI-generated (gemini)].

Una nota sobre transparencia que me parece importante: este artículo contiene imágenes generadas por IA, algo que normalmente evito por completo.

En un principio, tenía pensado escribir un artículo sobre la avalancha de imágenes generadas por IA en Internet, que, irónicamente, quería ilustrar exclusivamente con imágenes generadas por IA. Pero mientras experimentaba con Gemini Chat para generar variantes de mi imagen original, descubrí el problema tan tratado: cómo la herramienta maneja los derechos de autor. El artículo tomó otra dirección, pero las imágenes generadas por IA se quedaron.

Esta contradicción me molesta. Pero tal vez también sea sintomática: lo rápido que nos enredamos en tecnologías que queremos cuestionar críticamente.

El caso documentado se basa en una fotografía propia. Se envió un informe de vulnerabilidad a Google, pero fue rechazado por estar «fuera de alcance». Este artículo se ha elaborado con el apoyo de Google Gemini.

¡Un momento! Fotos en el Tellerrand-Stories

Nuestro método de trabajo se caracteriza por un trabajo de texto propio y bien documentado y una fotografía profesional y vívida. Todas las historias, impresiones de viaje y fotos se crean en el mismo lugar. De este modo, las fotos complementan y apoyan lo que se lee y lo llevan adelante.

¡No vuelvas a perderte nuevas Tellerrand-Stories! Mithilfe eines Feed-Readers lassen sich die Information über neue Blogartikel in Echtzeit abonnieren Con la ayuda de un lector de feeds, es posible suscribirse en tiempo real a todas las Tellerrand-Stories (historias sobre el borde del plato).

Permalink de la versión original en alemán: https://tellerrandstories.de/journalismus-quelle-verschwindet