El ICAB aborda en gran reto de los 'deepfakes' en el su VI Congreso de Prueba Judicial

El ICAB aborda en "gran reto" de los 'deepfakes' en el su VI Congreso de Prueba Judicial

Vida

Los abogados de Barcelona abordan el "gran reto" de los 'deepfakes': "La IA está preparada para complicar procesos judiciales"

Los expertos reflexionan sobre la manipulación de pruebas con inteligencia artificial y los mecanismos para combatir esta creciente práctica en el VI Congreso de Prueba Judicial del Ilustre Colegio de la Abogacía de Barcelona

Contenido relacionado: Cristina Vallejo, precandidata a decana del ICAB: "Sin medios ni voluntad política, las leyes se quedan en papel mojado"

Publicada
Actualizada

El Congreso de Prueba Judicial, que organiza el Ilustre Colegio de la Abogacía de Barcelona (ICAB) de la mano del Instituto de Probática y Derecho Probatorio (IPDP), aborda este año, en su sexta edición, problemáticas como el deepfake, que se define como la manipulación de contenidos a través de técnicas de aprendizaje profundo como la inteligencia artificial (IA). "Es un gran reto para los juristas", han explicado los ponentes de la primera mesa redonda.

Celebrado en el salón de actos del Palauet Casades de Barcelona, sede del ICAB, la primera jornada de este congreso, que se extenderá hasta este viernes, ha contado con las intervenciónes inaugurales del decano de la institución, Jesús M. Sánchez García, y el presidente del IPDP, Frederic Munné Catarina. La conferencia inaugural, por su parte, ha corrido a cargo de José Luis Seoane Spiegelberg, magistrado de la Sala primera del Tribunal Supremo

VI Congreso de Prueba Judicial

VI Congreso de Prueba Judicial

"La IA está preparada para complicar procesos judiciales"

La ponencia y posterior debate enfocado en el concepto de deepfake y el valor probatorio de los símbolos digitales lo han protagonizado Berta Pellicer Ortiz, magistrada del juzgado mercantil número tres de Barcelona, y Joan Picó i Junoy, catedrático de Derecho Procesal de la Universitat Pompeu Fabra. Moderado por Roser Casanova Martí, profesora de derecho procesal de la URV, la principal conclusión se ha basado en el "potencial" de la IA para manipular pruebas judiciales, todavía un reto desde el punto de vista del peritaje

Pellicer ha explicado que esta circunstancia se ha intensificado recientemente debido a que las técnicas de manipulación de contenidos --imágenes, audios y vídeos-- son hoy "accesibles a usuarios medios". Tienen poco coste, no hace falta ser un experto para utilizar las herramientas y estas son "más perfeccionadas" y "eliminan las huellas" de las representaciones sintéticas, ha añadido la jurista, destacando que esto dificulta el trabajo de jueces y magistrados.

VI Congreso de Prueba Judicial

VI Congreso de Prueba Judicial

En cuanto a las leyes que inciden en la inteligencia artificial, ha apuntado Pellicer, se cataloga al deepfake con un alto riesgo, lo que implica una serie de restricciones. Contextualizar el documento con la mayor precisión posible, tener en cuenta la geolocalización y contrastar las pruebas con otras imágenes, audios o vídeos son algunas herramientas que se utilizan en la actualidad para hacer frente a las pruebas generadas artificialmente, ha concluído, y utilizar estas técnicas de falsificación en un juicio "tiene consecuencias penales en concepto de estafa procesal". 

Los emoticonos de WhatsApp, "peligrosos"

Picó, por su parte, ha incidido en su ponencia en el valor probatorio de los símbolos digitales. Los emoticonos que se utilizan de forma recurrente en conversaciones de WhatsApp pero también en otras redes sociales como Instagram --concretamente en conversaciones de tipo privado-- han "ayudado" a esclarecer casos relacionados por ejemplo con abusos sexuales, ha advertido el profesor. "Pueden ser peligrosos", ha apuntado, exponiendo una serie de sentencias judiciales donde una cara sonriente o una berenjena han contribuido a condenar a los acusados.