Santiago Martín Caravaca analiza el borrador del Reglamento AI del Parlamento Europeo, pendiente de aprobación.

CONSULTA LA PRESENTACIÓN COMPLETA AQUÍ

 

El mundo moderno, impulsado por rápidos avances en inteligencia artificial (IA), se encuentra en una encrucijada: ¿Cómo lograr que la tecnología y la ley no solo coexistan, sino que también se complementen y se potencien mutuamente? GC LEGAL, reconociendo la necesidad de abordar este tema, organizó un evento en el que Santiago Martin Caravaca, Abogado LL.M (ICAM y Ord. Avv. Torino) experto en Tecnología de Futura Law Firm de Turín (Italia) ofreció su autorizada opinión.

Una ponencia en la que Caravaca analizó el borrador de la propuesta de Reglamento del Parlamento Europeo y del Consejo (de 14 de junio), por el que se establecen las normas armonizadas en materia de Inteligencia Artificial.

Desde sus primeras palabras, Caravaca subrayó que comprender la IA va más allá de desentrañar algoritmos o decodificar líneas de programación. Es adentrarse en cómo estos avances tecnológicos interactúan e incluso colisionan con los Derechos Fundamentales de los individuos. Enfatizó con convicción: “Hablar de IA es hablar de Derechos Fundamentales”. Caravaca señaló la vital importancia de distinguir entre la igualdad formal y la material, tanto en la estructura algorítmica como en los resultados que emanan de la IA. Recalcó que nos encontramos ante un desafío de proporciones significativas. Además, destacó la relevancia de ciertas normativas en España, especialmente la Ley 15/2022, del 12 de julio, que busca asegurar la igualdad de trato y erradicar cualquier forma de discriminación. Esta norma insta a integrar mecanismos en el diseño y los datos con los que se alimenta la IA para detectar y contrarrestar posibles sesgos discriminatorios, añadiendo que no es necesario aguardar a la implementación del Reglamento de IA para hacer efectiva dicha ley. Profundizó en la trascendencia del Código Napoleónico, una columna vertebral del legado legal y cultural europeo, y reflexionó cómo, en nuestra era digital, los principios longevos del código están siendo «hackeados» y redefinidos por la tecnología.

Pero el debate no se quedó allí. Caravaca llevó la discusión a un punto aún más delicado y contemporáneo: los datos personales. En un mundo en el que la información es poder, Caravaca citó el fallo del Tribunal Administrativo Regional de Lazio de 2020, que sugiere que los datos personales no son simplemente identificadores, sino activos con un valor económico en el mercado digital.

Caravaca ofreció un análisis detallado de los marcos legislativos actuales y en desarrollo que buscan entender y regular la compleja esfera de la inteligencia artificial. Subrayó la necesidad de examinar estas regulaciones de manera integrada y no individualizada, abarcando desde la Ley de Servicios Digitales (DSA), la Data Act, la Data Governance Act, pasando por la revisión de la Directiva sobre Productos Defectuosos, las propuestas de Directivas sobre responsabilidad extracontractual en IA, hasta la Propuesta de Reglamento sobre Inteligencia Artificial, sin olvidar el RGPD. Enfatizó el formidable reto de adecuar las normativas a una tecnología que evoluciona a un ritmo vertiginoso y crear normas verticales por sectores y especificas que puedan complementar las transversales.

Además, instó a los profesionales jurídicos a familiarizarse con términos técnicos de IA, como Deep Learning y Machine Learning, Overfitting, Hidden Layers o Training Data y cómo estos se entrelazan con los conceptos jurídicos en las regulaciones.

No obstante, uno de los puntos más destacados de su presentación fue su análisis sobre el borrador de la propuesta de Reglamento sobre Inteligencia Artificial. Caravaca proporcionó un desglose meticuloso, abordando no solo su contenido, sino también sus posibles implicaciones. Habló sobre áreas sensibles, como la prohibición de sistemas IA de identificación biométrica en tiempo real, en espacios de acceso publico. Esta medida podría tener repercusiones en las iniciativas de reconocimiento facial en estadios deportivos, algo que ya ha provocado la reacción de la AEPD en España y otras autoridades europeas como la CNIL. Además, puso de manifiesto la prohibición de prácticas como el «social scoring» y el empleo de la IA para estimar la probabilidad de que alguien cometa un delito, evocando escenas del film «Minority Report». No dejó de lado la aplicación de la IA en entornos laborales y educativos y planteó preguntas provocadoras como «¿Puede un juez utilizar la IA?«. Aunque el borrador no lo prohíbe de manera explícita, lo clasifica como de alto riesgo, lo que conlleva unas obligaciones de compliance muy rigurosas y puntuales. De ese modo, enumeró las reglas de clasificación para los sistemas de IA  de alto riesgo (con todas las precisiones incluidas en el artículo 6) – pueden consultarse en la presentación en pdf -; junto con las obligaciones de Transparencia (art. 52.1, 52.2, 52.3), y las obligaciones del proveedor de un modelo fundacional (artículo 28 ter).

Caravaca insistió en que la versión de este borrador de Reglamento está abierta y puede ser objeto de cambio, pero avanzó que probablemente se aprobará antes de las elecciones europeas.

Terminando su charla, Caravaca ofreció una reflexión profunda sobre el desafío de adaptarse al mundo moderno. Comparó nuestro enfoque actual hacia la IA con intentar usar un smartphone moderno mientras se está atrapado en la mentalidad de la era del teléfono rotatorio de los años 50. Su mensaje fue claro: el mundo jurídico y tecnológico debe colaborar más estrechamente, aprender el uno del otro y, juntos, trazar el camino hacia el futuro.