Durante décadas el Derecho asumió algo que casi nunca necesitó explicar: si hay un video, probablemente lo que muestra realmente ocurrió. Como consecuencia, la imagen —la foto, el audio, el registro de cámara— fue tratada como una extensión confiable de la realidad. Podía ser incompleta o ambigua, pero nadie dudaba de que registraba algo que había pasado de verdad.
Pero hoy ese supuesto ya no se sostiene.
La inteligencia artificial generativa puede fabricar, en minutos, un video en alta definición donde una persona reconocible confiesa un delito que no cometió, amenaza a alguien, o aparece en un lugar donde jamás estuvo.
No hablamos de montajes toscos ni de efectos especiales de película. Hablamos de piezas que reproducen la voz, los gestos, los movimientos faciales y la iluminación del ambiente con un realismo capaz de engañar incluso a quienes saben que podrían estar viendo una falsificación (¿Han visto el maravilloso deepfake de Lola Flores en una publicidad de cerveza?).
Esto no es un problema tecnológico. Es un problema jurídico-procesal.
LA INTUICIÓN QUE NOS FALLÓ
«Ver para creer» dejó de ser una regla prudente.
El video que antes podía decidir un juicio tiene ahora, con la misma apariencia de veracidad, la posibilidad de ser una creación computacional. Y aquí surge la primera consecuencia grave: la fuerza que un documento audiovisual ejerce sobre quien lo observa ya no coincide necesariamente con su valor como prueba.
La razón es cognitiva antes que jurídica. Tendemos a creer lo que percibimos con nitidez y con emoción. Un video falso puede ser más convincente que un testimonio verdadero precisamente porque se presenta como una experiencia sensorial directa: vemos al acusado, escuchamos su voz, observamos sus expresiones. Y aunque ese video sea posteriormente excluido del proceso por no poder acreditarse su origen, ya habrá dejado una huella en la memoria y en el ánimo del juez.
Por eso, frente a evidencia audiovisual de alta carga emocional, la posición correcta ya no es la confianza sino la duda razonada. No como paranoia, sino como rigor.
DE REGISTRAR HECHOS A FABRICARLOS
La tecnología siempre pudo distorsionar la realidad: recortar una foto, editar un audio, alterar el contexto de una imagen. Lo nuevo es la escala y la accesibilidad.
Con una fotografía, algunos segundos de voz y una instrucción escrita en lenguaje natural, hoy es posible generar confesiones que nunca existieron, amenazas que nunca se pronunciaron, escenas de violencia que nunca ocurrieron o reuniones que nunca se celebraron.
Lo que antes exigía equipos profesionales y semanas de trabajo, hoy se obtiene en plataformas abiertas, gratuitas o de bajo costo, en cuestión de minutos.
Aunque la mayoría de los jueces parece ignorarlo, la imagen ha perdido el privilegio que tuvo durante más de un siglo. Ya no puede «hablar por sí sola». Necesita contexto, trazabilidad y examen técnico.
EL PELIGRO REAL: NO SOLO FALSEDAD, SINO CONVICCIÓN
El mayor riesgo no está en que el archivo sea falso. Está en que sea emocionalmente eficaz.
Las falsificaciones generadas con IA están construidas para parecer humanas en el punto exacto donde el observador deposita confianza: la mirada, la respiración, la sincronía entre los labios y la voz, la vacilación natural del habla. A veces incluso incluyen imperfecciones deliberadas —una ligera pixelación, un fondo levemente movido— para parecer más auténticas.
La pregunta judicial ya no puede ser «¿se ve real?». Debe ser: «¿puedo justificar racionalmente que esto es auténtico?».
De hecho, hasta los testimonios por videoconferencia pueden ser falsificadas, a pesar de que son en línea. Los jueces pueden estar tomando declaraciones a supuestos imputados o peritos, cuando el rostro real y/o la voz de quien aparece en pantalla, es de una persona distinta, tal como nos muestra el profesor Lorenzo Cotino en un video de ejemplo.
EL DIVIDENDO DEL MENTIROSO
Hay una dimensión aún más perturbadora: la IA no solo facilita producir pruebas falsas. También permite impugnar estratégicamente pruebas verdaderas.
Cuando cualquiera sabe que la falsificación es técnicamente posible, cualquier parte enfrentada a un video auténtico tiene disponible una objeción culturalmente creíble: decir que es un deepfake.
Pensemos en un caso de violencia intrafamiliar donde la víctima presenta un video grabado desde su teléfono. El imputado alega que el video fue manipulado con IA, en base a algún detalle de difícil comprobación o argumentalmente plausible. El tribunal duda. Y vuelve a la víctima la sensación de desamparo.
Por eso, la sola alegación de manipulación no puede ser suficiente. Quien impugna debe ofrecer fundamentos técnicos concretos: inconsistencias en los metadatos, problemas en la cadena de custodia, anomalías verificables. La objeción sin sustento no puede paralizar el proceso.
EL CASO MÁS DIFÍCIL: LO QUE FUE ALTERADO SOLO EN PARTE
Más complejo aún que la falsificación total es el documento auténtico con intervención parcial.
El hecho ocurrió. El video existe. Pero alguien modificó una frase, sustituyó un rostro, eliminó un fragmento de la secuencia o alteró el audio en un tramo específico.
Imaginemos un video de una cámara de seguridad que registra una pelea. El archivo es auténtico, pero alguien editó cinco segundos en los que aparecía un tercer implicado. Todo es real y relevante para la decisión de caso; esos cinco segundos, no.
En ese escenario, la discusión ya no es «verdadero o falso». Es más precisa: ¿qué parte de este soporte merece confianza y qué parte no? A mi entender, la decisión judicial requiere entonces una labor más fina que la exclusión o la admisión total.
CUATRO CRITERIOS MÍNIMOS PARA VALORAR EVIDENCIA AUDIOVISUAL
No propongo desconfiar de todo, sino que propongo un estándar mínimo de racionalidad.
Primero, el origen y la cadena de custodia digital. ¿De dónde proviene el archivo? ¿Quién lo obtuvo, cómo y cuándo? Si no hay respuesta clara, la sospecha debe aumentar proporcionalmente.
Segundo, la consistencia técnica interna. Los archivos digitales dejan rastros: metadatos, historial de modificaciones, marcas de dispositivo. Una pericia debe examinar si esos datos son coherentes entre sí y con el relato procesal.
Tercero, corroboración con evidencias independientes. Ningún video de alta carga persuasiva debería sostener por sí solo una condena. Si el documento no es consistente con otras pruebas —testimonios, registros, documentos—, esa inconsistencia debe pesar.
Cuarto, pericia especializada, evaluada con criterio. El perito sigue siendo indispensable, pero su informe no puede ser tratado como verdad revelada. Las herramientas que usa también se basan en IA y también son falibles. El juez debe comprender al menos sus límites.
UN CAMBIO CULTURAL, NO SOLO TECNOLÓGICO
Lo que está pasando no es solo que aparecieron herramientas nuevas, sino que cambió la naturaleza misma del problema probatorio.
Durante años, el desafío era conseguir evidencia suficiente. Hoy el desafío es saber en cuál evidencia confiar, en un entorno donde fabricar apariencias es más fácil que nunca.
El juez del siglo XXI no solo debe preguntarse si una prueba es pertinente y suficiente. Debe preguntarse, ineludiblemente, algo bastante más básico: ¿estoy frente a un registro de algo que ocurrió, o frente a una simulación de algo que nunca existió?
Esa pregunta no es un detalle técnico. Es el centro del problema. Y si el Derecho no desarrolla respuestas serias, la justicia quedará expuesta a que quien mejor maneje la tecnología tenga más poder para construir —o destruir— la verdad procesal.