- Instagram valora cambiar el enfoque: etiquetar el contenido real en lugar de perseguir solo el generado por IA.
- Adam Mosseri alerta de que la autenticidad se vuelve escasa ante la mejora de los deepfakes y la abundancia de contenido sintético.
- La plataforma propone colaborar con fabricantes de móviles y cámaras para firmar criptográficamente fotos y vídeos.
- La confianza en los creadores y las señales de autenticidad serán claves para el futuro del consumo de contenidos en redes sociales.

La irrupción masiva de contenidos generados con inteligencia artificial en redes sociales ha llevado a plataformas como Instagram a replantearse cómo gestionar la autenticidad. Hasta ahora, la respuesta habitual ha sido intentar señalar qué publicaciones proceden de herramientas de IA, pero el debate empieza a girar hacia una estrategia casi opuesta.
Adam Mosseri, director de Instagram, ha abierto la puerta a un cambio de enfoque profundo: en lugar de centrarse solo en marcar lo sintético, la plataforma podría apostar por etiquetar con claridad el contenido auténtico, capturado en el mundo real. Esta idea, que cobra especial relevancia en Europa y en países como España donde la preocupación por los deepfakes va en aumento, pretende reforzar la confianza de los usuarios en lo que ven y comparten a diario.
De señalar la IA a remarcar lo que es real
En los últimos años, la mayoría de redes sociales han optado por avisar cuando una foto o un vídeo han sido generados o modificados por IA. Este contenido sigue estando permitido y convive con las publicaciones tradicionales, pero a medida que las herramientas se han popularizado, la frontera entre lo auténtico y lo artificial se ha vuelto cada vez más difusa.
Mosseri considera que este modelo se está quedando corto. En una reflexión compartida en Threads, explicó que la autenticidad se está volviendo “infinitamente reproducible” gracias a la inteligencia artificial, hasta el punto de que será más difícil distinguir qué es real y qué no solo mirando la imagen o el vídeo.
Según el directivo, ya se observa cómo la IA es capaz de replicar con enorme realismo contenidos creados por personas, lo que complica que el usuario promedio pueda detectar cuándo está ante un montaje. En ese contexto, el papel de las etiquetas y de las señales de credibilidad gana peso para que las publicaciones no pierdan valor informativo.
Mosseri apunta que, en poco tiempo, habrá más contenido generado por IA que material capturado con cámaras tradicionales. Esa avalancha hará que perseguir las falsificaciones sea una tarea casi interminable para las plataformas, que tendrán que apoyarse en nuevas fórmulas técnicas y normativas.
De ahí que plantee que podría ser más efectivo darle la vuelta a la lógica actual: en vez de intentar marcar cada pieza sintética, identificar de forma robusta lo que sí es real y ofrecer a los usuarios una especie de “sello” de autenticidad asociado a las publicaciones capturadas en el mundo físico.

La escasez de autenticidad como valor para los creadores
En su análisis, Mosseri insiste en que la abundancia de contenido no va de la mano de mayor confianza. De hecho, describe un entorno digital marcado por la “abundancia infinita” de publicaciones y las “dudas infinitas” sobre su veracidad. En ese escenario, los creadores que consigan transmitir autenticidad saldrán reforzados.
El responsable de Instagram sostiene que la autenticidad se convertirá en un recurso cada vez más escaso y, por tanto, más valioso para quienes viven de su presencia en redes sociales. No se trata solo de producción técnica, sino de la percepción de que detrás de una cuenta hay una persona real, con motivaciones claras y un historial coherente.
De acuerdo con lo que ha planteado, empezarán a apreciarse más aquellos contenidos que muestren cierta “imperfección” como prueba de su origen genuino.
Mosseri lo resume en la idea de que, cuando todo es fácilmente retocable, “la imperfección se convierte en una prueba”. La foto movida, el encuadre poco cuidado o el vídeo grabado con el móvil sin apenas edición pueden ganar relevancia precisamente porque son más difíciles de imitar de forma convincente sin dejar rastro.
Este cambio de percepción puede afectar directamente a creadores en España y Europa, donde la audiencia ya muestra cierto cansancio con los contenidos excesivamente pulidos. La naturalidad y la transparencia se consolidan como elementos clave para mantener la relación de confianza con las comunidades.
Un futuro de escepticismo por defecto ante las imágenes
Instagram ya ha puesto en marcha mecanismos para identificar y marcar parte del contenido generado con inteligencia artificial, y no es la única plataforma que lo hace. Sin embargo, Mosseri advierte de que estas soluciones se verán tensionadas a medida que la calidad de los deepfakes mejore.
Según sus previsiones, llegará un punto en el que las grandes plataformas harán un buen trabajo inicial detectando la IA, pero con el tiempo lo tendrán cada vez más complicado porque las propias herramientas generativas evolucionan muy rápido. Lo que hoy es detectable, mañana puede resultar casi indistinguible de una grabación real.
Ese avance técnico implicará también un cambio en el comportamiento de los usuarios. En lugar de asumir de entrada que una foto o un vídeo son auténticos, la reacción predominante será la duda. La gente mirará con más atención quién publica, desde dónde, con qué historial y qué posibles intereses puede tener.
En contextos sensibles, como la política europea, los conflictos internacionales o la desinformación sobre temas sociales, ese giro hacia el escepticismo puede tener impacto directo en la opinión pública. Las etiquetas de origen y de autenticidad dejarán de ser un detalle técnico para convertirse en una herramienta útil a la hora de interpretar lo que se ve en pantalla.
Para plataformas con una base importante de usuarios en España, este viraje obligará a reforzar los sistemas de transparencia: avisos claros, paneles de información sobre el contenido y más controles sobre cómo se ha generado cada pieza multimedia.
Etiquetas para contenido real: colaboración con fabricantes
El punto más llamativo de la propuesta de Mosseri es la idea de que la verificación de los contenidos reales no dependa solo de Instagram, sino también de los fabricantes de cámaras y smartphones. Su planteamiento pasa por que los dispositivos incluyan, en el momento de la captura, una especie de firma digital.
Esta firma funcionaría como una marca criptográfica incrustada en la foto o el vídeo, que viajaría con el archivo a lo largo de su vida útil en internet. De esta forma, sería posible reconstruir una “cadena de custodia” digital, es decir, trazar el origen del contenido y verificar que realmente proceda de una cámara física y no de un generador sintético.
Si esta idea se concreta, las plataformas sociales podrían mostrar una etiqueta específica para el contenido identificado como real, diferenciándolo del material que no disponga de esa huella digital o que haya sido creado directamente por IA. No se trataría de prohibir lo sintético, sino de resaltar qué publicaciones cuentan con verificación de origen.
Para que ese sistema funcione a escala global, Mosseri considera imprescindible la implicación de la industria tecnológica y, en particular, de las marcas de móviles que dominan el mercado europeo. La propuesta encajaría con iniciativas ya debatidas en la UE relacionadas con la transparencia de la IA y la trazabilidad de los contenidos.
La adopción de estas etiquetas podría afectar a creadores, medios y usuarios de España, que verían cómo sus publicaciones captadas con el móvil obtienen una señal adicional de confianza cuando se comparten en Instagram u otras redes compatibles con este tipo de certificación técnica.
Priorizar la confianza en los creadores y las señales de credibilidad
Más allá de la tecnología, Mosseri subraya el papel de los propios creadores como núcleo de la confianza. En su visión, la identidad y la trayectoria de la persona que hay detrás de una cuenta serán tan importantes como la etiqueta que acompañe a cada publicación.
Instagram planea seguir ofreciendo herramientas creativas tanto tradicionales como basadas en IA, pero el objetivo es que el usuario pueda diferenciar mejor cuándo está ante un experimento creativo y cuándo consume un contenido que pretende reflejar hechos reales. Para ello, las etiquetas de autenticidad y el contexto sobre el autor resultan claves.
Entre las medidas que se barajan se encuentran sistemas de huella digital que permitan identificar medios auténticos, así como indicadores más claros de credibilidad para las cuentas que mantengan un historial fiable. No se trata solo de verificación de identidad, sino de un conjunto de señales que ayuden a evaluar la fiabilidad de lo que se publica.
En Europa, donde la regulación sobre desinformación y transparencia en plataformas digitales es cada vez más estricta, este tipo de iniciativas puede alinearse con las exigencias regulatorias y al mismo tiempo ofrecer a los usuarios una experiencia algo más segura frente a los contenidos manipulados.
En última instancia, el planteamiento de Instagram apunta a un ecosistema en el que coexistan contenidos reales, piezas generadas por IA y formatos híbridos, pero con una capa adicional de información para que cada persona pueda decidir qué creer y qué uso hacer de lo que ve.
Todo este debate acerca de las etiquetas para el contenido real en Instagram refleja hasta qué punto la autenticidad se ha convertido en un recurso estratégico en la era de la inteligencia artificial. A medida que las imágenes sintéticas ganan calidad y volumen, se hace más necesario distinguir aquello que procede del mundo físico, reforzar la confianza en los creadores y dotar a las plataformas de herramientas técnicas y normativas capaces de sostener esa diferencia en el tiempo.
Editor profesional de Tecnología y Software