¿Ya no sabes diferenciar un video real de uno generado por IA? Gemini te ayuda
La IA de Google ahora puede detectar si te la están colando, aunque no es perfecto.
El Papa con plumífero blanco. ¿Te la colaron?
El mes pasado, la IA 'Gemini' debutó con la capacidad de verificar si una imagen ha sido generada con herramientas de inteligencia artificial. Ahora han dio un paso más allá y también puede detectar videos generados con ella.
Usar la función de detección de videos con IA de Gemini es muy fácil. El proceso es bastante similar a usar su herramienta de detección de imágenes. Simplemente hay que abrir la aplicación de Gemini en nuestro teléfono o visitar su página web. Luego, ponemos el video que creemos que fue creado con IA y le preguntamos: “¿Este video fue generado con IA?”.
Sin embargo, el problema es que, de momento, Gemini solo puede detectar videos creados con las herramientas de Google. Esta es la misma limitación que existe al usar su herramienta de detección de imágenes con IA. Además, actualmente solo podemos subir vídeos con un tamaño máximo de 100MB y una duración máxima de 90 segundos.
Dicho esto, el chatbot tarda unos segundos en analizar tanto las imágenes como el audio del vídeo subido y nos informa si alguno o ambos se generaron con IA. También veremos una mención de la marca de agua SynthID en los resultados, que es básicamente lo que ayuda a Google a identificar el contenido de IA creado con sus propias herramientas.
Gemini
Se puede usar IA generativa para producir imágenes, vídeos y texto. Sin embargo, para facilitar la identificación de si el contenido es creado por IA o por humanos, Google utiliza la tecnología SynthID, que añade una marca de agua a todo el contenido generado con sus herramientas de IA. Esta marca de agua digital es imperceptible para los humanos, pero puede ser detectada fácilmente por el detector.
Básicamente, cuando le preguntas a Gemini si la imagen o el vídeo subido están generados por IA, utiliza el Detector SynthID para buscar sus marcas de agua. Si se encuentra alguna, el chatbot responde que se ha detectado IA en el contenido subido. De lo contrario, recibirá una respuesta negativa, lo que indica que el contenido no contiene ningún rastro de IA.
Esta marca de agua solo se integra en el contenido producido o modificado por las herramientas de IA de Google. Por eso, al subir contenido creado con otras herramientas de IA como ChatGPT, Gemini no puede detectar su veracidad.
Para garantizar que los detectores puedan identificar el contenido creado con cualquier herramienta de IA, las empresas están trabajando para establecer la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) como estándar universal. Como parte de este esfuerzo, la mayoría del contenido generado por IA contendrá metadatos C2PA.
Sin embargo, esto aún está en desarrollo, y muchas herramientas de IA aún no han adoptado el estándar. Google anunció recientemente que las imágenes creadas con Nano Banana Pro se integrarán con metadatos C2PA.
Con el avance de las herramientas de IA, cada vez es más difícil distinguir entre contenido real y contenido generado por IA. Podemos pensar que eso no nos va a pasar a nosotros, pero seguro que ya hemos caído en la trampa más una vez.
No estamos hablando de videos hechos claramente para sacar unas risas, sino otros más peligrosos, como pueden ser los de corte político. Las cosas no son tan fáciles de distinguir, sobre todo para personas mayores, y ya empiezan a circular por redes sociales videos muy bien hechos.
2025 nos ha dado el nacimiento de la imagen y el video generado a demanda por IA. Veamos qué tiene el futuro preparado para nosotros.
Luis J. Merino
Técnico de sonido, melómano y amante de los dos...Técnico de sonido, melómano y amante de los dos pilares fundamentales del entretenimiento: cómic y videojuegos. Escribiendo sobre ello desde los 19 años, he pasado por medios como Guía del Ocio, Game40, Elpais.com y ahora en Los40.com, donde sigo haciéndolo con el mismo gusto y pasión que el primer día.