Por Hans Henseler, profesor de análisis forense digital y descubrimiento electrónico de la Universidad de Ciencias Aplicadas de Leiden y científico forense digital sénior del Instituto Forense de los Países Bajos.
La Inteligencia Artificial (IA) se está convirtiendo en un cambio de juego para una sociedad más segura. Su despliegue cambiará drásticamente el campo de la investigación forense. ChatGPT ya está acelerando el despliegue de IA, según Hans Henseler. No es el detective digital ideal, pero ciertamente puede convertirse en un asistente inteligente.
La tecnología de IA ya se está utilizando en el reconocimiento facial y de voz, por ejemplo. Desde el servicio de chat Encrochat, por ejemplo, se interceptaron 25 millones de mensajes y se sometieron a técnicas de aprendizaje profundo para filtrar actividades delictivas como secuestros y liquidaciones, y así prevenirlas[1]. Con la disponibilidad de ChatGPT a fines de noviembre, el despliegue de IA ha cobrado impulso. ChatGPT es un gran modelo de lenguaje desarrollado por OpenAI y ha ganado una gran atención en los últimos meses por su capacidad única para responder preguntas en un diálogo natural sobre una amplia gama de temas que ha visto durante el proceso de aprendizaje.
ChatGPT parece ser un estudiante inteligente y también puede ayudar a los detectives a investigar casos de manera más eficiente y efectiva con evidencia digital que nunca antes había visto. Por ejemplo, al traducir preguntas de investigación en lenguaje natural en consultas de búsqueda estructuradas, los detectives pueden encontrar la evidencia correcta más rápido sin tener que aprender un lenguaje de búsqueda sofisticado (consulte la barra lateral 1 «Ayudando a escribir consultas de búsqueda»). ChatGPT también puede leer rastros digitales como correos electrónicos, mensajes instantáneos e historial del navegador y resumirlos a pedido, lo que permite a los investigadores ver rápidamente quién, qué, dónde y cuándo sucedió algo (consulte la barra lateral 2 «Resumen de la información»). ChatGPT también puede analizar vínculos entre datos, como direcciones de correo electrónico o números de teléfono mencionados repetidamente, lo que permite a los investigadores identificar rápidamente de forma interactiva a personas clave y temas relevantes.
Otros investigadores en el campo de E-Discovery también creen que ChatGPT y las técnicas relacionadas pueden jugar un papel importante aquí. En un artículo reciente, «¿Qué harán los abogados de descubrimiento electrónico después de ChatGPT?» en LegalTech News and Law[2], los autores describen una serie de experimentos en los que le piden a ChatGPT que construya una consulta booleana compleja basada en una pregunta bastante simple. En cuanto al contenido, ChatGPT no puede responder consultas sobre información que no ha visto antes. Sin embargo, ChatGPT está familiarizado con el conocido caso de Enron, que se discute ampliamente en Internet y también se usa con frecuencia en la educación de E-Discovery. Cuando se le pidió que proporcionara ejemplos de cómo Enron violó los estándares contables del gobierno federal de los EE. UU., ChatGPT respondió sin esfuerzo (y, según los autores, de manera impresionante).
Los autores sospechan que ChatGPT reunió estos ejemplos de WikiPedia e innumerables otras publicaciones en línea que analizan exhaustivamente la caída de Enron. Tales análisis, por supuesto, no existen en las nuevas investigaciones. La pregunta es si ChatGPT también puede analizar documentos en nuevas investigaciones. Basado en una prueba limitada, ChatGPT, dada una pregunta específica, parece ser capaz de determinar si un correo electrónico del conjunto de Enron es relevante o no y, además, puede explicar por qué es así. Pero esto no funciona para casos nuevos porque el modelo GPT-3 subyacente no ha leído información sobre ellos. Esta nueva información puede ser aprendida por GPT-3, y OpenAI ofrece la capacidad de ajustar modelos en la nube (consulte la barra lateral 3 «Hacer que GPT sea más inteligente: diseño rápido versus ajuste fino»). Pero eso es costoso y los abogados son reacios a subir los documentos confidenciales de sus clientes. Es probable que esa situación cambie a medida que surjan alternativas a GPT3 en el próximo año que se pueden entrenar en hardware propietario (que también se está volviendo cada vez más poderoso).
ChatGPT es una versión mejorada de GPT-3.5. Ese ajuste fino se basa en el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Es decir, ChatGPT ha aprendido con la ayuda de revisores humanos a no utilizar lenguaje indeseable (violento, sexista, racista, etc.) en las conversaciones. Además, ChatGPT ha aprendido cuáles son las respuestas útiles para que las conversaciones fluyan sin problemas. Emplear personas para revisar miles de avisos es costoso y parece ser uno de los factores clave de éxito de ChatGPT. Pero para un detective digital encargado de ayudar a analizar conversaciones entre delincuentes, obviamente es una desventaja cuando un investigador recibe la respuesta «Lo siento, no puedo generar un lenguaje inapropiado o agresivo». La conversación que ha proporcionado contiene blasfemias y lenguaje ofensivo, y como modelo de lenguaje de IA, estoy programado para abstenerme de participar en ese tipo de comportamiento”.
Entonces, ChatGPT aún no es el detective ideal que puede ayudar a buscar a través de la evidencia digital, pero está claro que los modelos de lenguaje grandes pueden ser invaluables. Lo que necesitan los detectives es SleuthGPT. Al mensaje «Dado que ChatGPT ha sido capacitado en conversaciones sobre una amplia gama de temas, ¿cómo se debe capacitar a SleuthGPT?», ChatGPT responde de la siguiente manera:
“Se podría entrenar un modelo SleuthGPT ajustando el modelo GPT-3 original en un conjunto de datos centrado específicamente en el trabajo de investigación y detectives. Este conjunto de datos podría incluir ejemplos de investigaciones y trabajos de detectives, incluidos casos ficticios y de la vida real, informes policiales, transcripciones judiciales y otro material relevante. El proceso de ajuste permitiría que el modelo aprendiera el lenguaje, las técnicas y la lógica utilizados en la investigación y generar respuestas más informadas y precisas cuando se le hicieran preguntas sobre procesos y técnicas de investigación. El objetivo del ajuste sería crear un modelo que pueda apoyar y ayudar a los detectives humanos en su trabajo, proporcionando información relevante, haciendo conexiones y generando hipótesis”.
Todavía no está tan lejos pero, como esperábamos de ChatGPT, la respuesta suena muy convincente.
Ayudar a formular preguntas de búsqueda
Hansken[3] es una plataforma abierta para agencias de investigación y seguridad para buscar y analizar rastros digitales de dispositivos digitales incautados, como teléfonos y computadoras. Hansken existe desde hace más de 10 años. Fue desarrollado por el Instituto Forense de los Países Bajos y se basa en Hadoop y Elasticsearch, entre otros, lo que lo hace capaz de procesar y almacenar petabytes de datos digitales. Hansken procesa huellas digitales usando un modelo de huellas. Usando el lenguaje de consulta de Hansken (HQL), estos rastros se pueden buscar en la base de datos de búsqueda elástica a la velocidad del rayo. HQL es un lenguaje poderoso similar a otros lenguajes de consulta como SQL pero completamente enfocado en el modelo de seguimiento de Hansken. Gracias a las funciones de ChatGPT, con algunos ejemplos y explicaciones de la sintaxis HQL, no es difícil convertir las consultas de ChatGPT en un lenguaje sencillo a la sintaxis HQL. Por ejemplo, ChatGPT traduce fácilmente la consulta «Buscar seguimientos de correo electrónico con archivos adjuntos enviados entre el 1 y el 28 de julio de 2022 en HQL» como «email.hasAttachment:true email.sentOn>=’2022-07-01′ email.sentOn <=’2022-07-28′”. Para hacerlo, ChatGPT leyó el manual de Hansken HQL y leyó una serie de definiciones en el modelo de seguimiento, incluido el tipo de correo electrónico.
Resumiendo información
Los teléfonos y las computadoras contienen muchos rastros de comunicación. Piense en mensajes instantáneos como WhatsApp, Telegram, SMS y correos electrónicos. Al comienzo de una investigación, se sabe muy poco. Por ejemplo, el nombre de un sospechoso y la sospecha de un delito. Usando contactos en un teléfono y una computadora portátil, un investigador puede obtener información sobre la red del sospechoso, ciertos eventos y ubicaciones vinculadas a la fecha y la hora. Desenterrar toda esa información lleva mucho tiempo y no siempre conduce a información relevante. ChatGPT puede resumir y organizar transcripciones de chats. Entonces ChatGPT también puede responder preguntas. Algunos breves experimentos con la versión actual de ChatGPT muestran que la extensión de dichos resúmenes es limitada. Pero ilustra el poder de un asistente inteligente que se puede consultar en lenguaje natural sobre qué personas aparecen en las comunicaciones y sobre qué se están comunicando. Ciertamente no será una prueba, pero un investigador puede usar un asistente de este tipo para procesar la información más rápidamente y seguir el rastro que finalmente puede conducir a la prueba.
Hacer que GPT sea más inteligente: diseño rápido versus ajuste fino
Un modelo de lenguaje grande como GPT es capaz de responder preguntas relacionadas con el texto utilizado durante el entrenamiento. Pero GPT también puede seguir evolucionando. A través de un aviso con algunos ejemplos, GPT en muchos casos entiende de forma intuitiva qué tarea significa y puede completar nuevos avisos por sí solo. Esto también se denomina aprendizaje de pocos disparos y es muy útil para lograr que el modelo dé una respuesta con un número limitado de ejemplos. Pero la capacidad de este es limitada. Por lo tanto, OpenAI también ofrece la capacidad de ajustar un modelo con datos específicos. Al hacerlo, indican que la calidad de los resultados es mejor que con un diseño de solicitud, que puede entrenar con más datos de los que son posibles con las solicitudes, que termina ahorrando costos porque un modelo ajustado puede funcionar con solicitudes más cortas y que mejora el tiempo de respuesta.
[1] https://www.forensischinstituut.nl/actueel/nieuws/2021/05/05/nfi-leert-computers-om-berichten-met-doodsbedreiging-uit-grote-hoeveelheden-data-te-filteren
[2] https://www.law.com/legaltechnews/2023/01/25/what-will-ediscovery-lawyers-do-after-chatgpt/
[3] https://www.hansken.org
Léelo en Forensic Focus