Si bien es posible que todavía no existan en el mercado soluciones de descubrimiento electrónico “mágicas” para identificar deepfakes generativos impulsados por IA, eso no significa que los profesionales quedarán completamente indefensos.
Ojos en blanco, manos extraterrestres o demasiados dientes: algunas de las fotos y videos generados por IA a veces han sido bastante reconocibles. Pero en otros casos, los clones de voz y otros tipos de deepfakes hiperrealistas se han vuelto casi imposibles de discernir para el ojo humano.
Para los profesionales del descubrimiento electrónico que se encuentran en la primera línea de defensa contra pruebas no auténticas que llegan a los tribunales, los deepfakes ya están generando preocupación, especialmente porque su conjunto de herramientas puede quedar obsoleto rápidamente.
Por ahora, los proveedores de descubrimiento electrónico dicen que no existe una solución mágica en el mercado para detectar deepfakes impulsados por inteligencia artificial generativa. Si bien es probable que los proveedores pronto actualicen las herramientas existentes o lancen nuevos productos para ayudar a detectar contenido fraudulento, el juego del gato y el ratón entre los deepfakes y el e-discovery significará que los profesionales tendrán que operar sin una solución por un tiempo.
Aún así, los proveedores señalan que eso no significa que los expertos en descubrimiento electrónico estarán indefensos contra los deepfakes. En cambio, examinar los metadatos y aprovechar la informática forense podría ayudar a llenar los vacíos.
“En este momento, no tenemos una forma distintiva de detectar los deepfakes. Todas las herramientas de la industria deben empezar a adaptarse a esto”, dijo Kousik Chandrasekharan, director de producto de Exterro. Y añadió: “Eso es en lo que estamos trabajando muy seriamente. No existe una solución milagrosa para esto, al menos por el momento”.
Primera línea de defensa: los metadatos
Aun así, los deepfakes no son inmunes a las prácticas de los profesionales del descubrimiento electrónico. E identificarlos podría ocurrir incluso antes de la etapa de revisión gracias a los metadatos del archivo.
De hecho, los archivos normales de vídeo, audio y fotografía vienen con metadatos integrados, a menudo en el estándar de formato de archivo de imagen intercambiable (EXIF), explicó Todd Marlin, líder global de innovación y tecnología de servicios forenses y de integridad de EY. Estos metadatos podrían brindar a los profesionales suficiente información sobre la legitimidad del documento que están viendo.
“Imaginemos por un segundo que se trata de contenido generado a través de una de estas herramientas generativas, ¿existen esos datos? ¿Que muestra? ¿Cuáles son las características? él dijo. «Por lo tanto, será importante observar la existencia de los datos EXIF y los metadatos y pensar en cómo se analizan como parte del proceso de descubrimiento electrónico para tratar de identificar de antemano [si se trata de] contenido generado».
Segunda línea de defensa: análisis forense
Es más, muchas de las técnicas forenses que hasta ahora se han empleado en fotos, vídeos o documentos para autenticar archivos podrían seguir aplicándose a los deepfakes.
“Creo que hay aspectos de ello. Uno es el aspecto forense, como si haces un análisis de un video deepfake o si intentas determinar si ChatGPT genera texto. Es lo mismo si quieres determinar si una huella digital es real, o si una foto o un video tradicional ha sido retocado o modificado con IA generativa”, dijo Jan Scholtes, científico jefe de datos de IPRO. «Todavía es posible hacer esos análisis, pero es un análisis altamente técnico, un análisis forense».
De hecho, cerrar la brecha entre la ciencia forense y el descubrimiento electrónico podría resultar especialmente importante en la era de la IA generativa, señaló Chandrasekharan.
«La mayoría de las veces se obtiene esta pista clara cuando se utiliza un motor de procesamiento forense… se puede combinar eso con la pieza de descubrimiento electrónico que tenemos y colocar un vínculo claro de cómo se creó este flujo de información». él dijo. «¿Como fue creado? ¿Estaba en un navegador? ¿Fue una situación de mecanografía, etc.?
Además del software forense, que según Scholtes puede ser costoso y no siempre completamente confiable, el análisis semántico también puede ayudar a llenar los vacíos.
«Se adopta ese enfoque, se resume lo que hay en los datos y se crea lo que llamamos un análisis más semántico», dijo.
Explicó que “si estás aplicando herramientas de detección de anomalías o de detección de eventos, muy rápidamente verás que descubrirás que cierta información está fuera de contexto. Y ese es un tipo de descubrimiento electrónico que definitivamente nos ayudará a detectar este tipo de deepfakes junto con el software forense”.
¿Nuevas herramientas en el mercado?: Por determinar
En última instancia, la última línea de defensa, y el área en la que se centra la mayor parte de la investigación y el trabajo de los proveedores, es combatir fuego con fuego, es decir, utilizar IA generativa para detectar deepfakes impulsados por IA generativa.
«La tercera pieza es probablemente una de las más comentadas en estos días, que utiliza el mismo modelo que generó la salida para detectar la salida generada por IA», dijo Chandrasekharan. Añadió: «Eso es, nuevamente, entrenar un sistema para detectar ese tipo de información también será muy crucial y eso es, una vez más, una cosa importante en la que estamos invirtiendo continuamente y en la que estamos trabajando».
Quizás sea demasiado pronto para saber cuándo podrían llegar al mercado estas herramientas, especialmente porque a menudo hay un retraso entre las soluciones de descubrimiento electrónico y los problemas que pretenden resolver. La puntualidad detrás de los lanzamientos de productos de los proveedores se verá impulsada en última instancia por la urgencia del problema, es decir, hasta que los deepfakes lleguen a los tribunales.
«Con la inversión, generalmente se basa en cuestiones financieras y las finanzas generalmente se basan en la magnitud del problema», dijo Xavier Diokno, director senior de soluciones innovadoras de Consilio. Añadió: “Creo que probablemente dentro del próximo año. Una vez más, creo que eso se basa realmente en la prevalencia de que consideramos que los deepfakes son un problema”.
Si bien la IA generativa ha sido un tema prioritario en toda la industria legal, las fuentes dijeron a Legaltech News que pocos profesionales del descubrimiento electrónico están discutiendo todavía los deepfakes impulsados por la IA generativa.
«Todavía estamos incluso educando a nuestros clientes sobre qué es la IA generativa», dijo Diokno. Y añadió: «En los últimos tres años, sigo dando CLE sobre revisión asistida por tecnología».
Revísalo en law.com