“Regulación? Creo representarel un hito importante para la innovación y el desarrollo de las empresas tecnológicas en Europa y es esencial para poder utilizar sistemas de inteligencia artificial con confianza y seguridad. Lo sabremos en los próximos años, al final del viaje”. Jacopo Liguori él es optimista sobre la IA Acto Y sobre el acuerdo que han alcanzado el Consejo y el Parlamento de la UE estrecho para llegar a perímetrocon ciencia y conciencia, el uso y el impacto de inteligencia artificial en la vida de los ciudadanos europeos.
Como abogado y socio de Cruz de caballo de cual es jefe de italiano Intelectual PropiedadEquipo de tecnología y privacidad, Evidentemente sigue muy de cerca este partido. El quien durante más de 20 años Sí se ocupa de propiedad intelectual, tecnología, privacidad y protección de datos.assistehaciendo los más importantes Empresas italianas e internacionales y clientes privados, En el campo de las nuevas tecnologías, en el desarrollo de plataformas innovadoras, calificaciones del riesgo por el uso de sistemas de IA.
Abogado Liguori, qalguien dijo, con un dejo de ironía, que “cuando llega una innovación tecnológica, los americanos hacen negocio con ella, los chinos la copian, los europeos la regulan…”, ¿es este un modus operandi correcto?
Las normas pueden convivir con la innovación y el reto del legislador europeo es equilibrar los intereses de las empresas que utilizan la inteligencia artificial para mejorar sus negocios con los de las personas que puedan entrar en contacto con ellas. Es preferible una regulación eficaz a un desarrollo incontrolado de sistemas de inteligencia artificial capaces de afectar significativamente los derechos y libertades fundamentales de las personas. En cualquier caso, las empresas no europeas también estarán sujetas a las normas de IA. Acto si quieren explotar sus sistemas en nuestro país. Y será interesante ver cómo nuestra IA Acto en cambio, otras jurisdicciones podrían tomarlo como modelo, como ocurrió con el Reglamento General de Protección de Datos.
¿Cuáles son las razones por las que debemos mantener la calma y cuáles son las cuestiones críticas, tras este primer acuerdo entre el Parlamento y el Consejo de la UE…?
Entre los sistemas prohibidos por la IA Acto incluyen aquellos que podrían generar los impactos más significativos para las personas, como la manipulación del comportamiento, la recopilación no selectiva de imágenes faciales de Internet o imágenes de CCTV, el reconocimiento de emociones en el lugar de trabajo o en las escuelas, clasificación redes sociales, categorizaciones biométricas y vigilancia policial predictiva. Y este es un resultado muy importante para mantener un nivel de riesgo aceptable. Sin embargo, será necesario verificar cómo las autoridades de control controlarán estas prohibiciones y en qué medida se aplicarán las sanciones, cuyo importe, sobre el papel, constituye ciertamente un elemento disuasorio. Igualmente importante será la trabajo de negocios y autoridades para crear protocolos y estándares para evaluar el impacto del uso de sistemas de alto riesgo, con el objetivo de no bloquear o retrasar la innovación, y no penalizar a las empresas tecnológicas europeas frente a otras de países con una regulación ausente o menos rigurosa.
¿Cuáles son en su opinión los sistemas verdaderamente de alto riesgo?
Ciertamente sistemas que pueden provocar discriminación social o daños a la salud. Estos incluyen sistemas de inteligencia artificial que pueden afectar la infraestructura crítica, los dispositivos médicos, las escuelas y la justicia.
Uso de biometría y “base modelo”, ¿son estos los nudos gordianos del AI ACT?
Han sido los puntos de mayor discusión especialmente en el último período donde, en el primer tema, se encontró un compromiso entre la privacidad y la seguridad de los ciudadanos y, en el segundo, se estableció con decisión sobre la necesidad de que el uso de los sistemas de IA sea transparente, especialmente para las inteligencias artificiales más potentes, como las desarrolladas por los conocidos gigantes tecnológicos americanos. Sin embargo, esto no debe distraer la atención de todo el conjunto de normas que se han aprobado y que contribuyen, en mi opinión, a hacer que el uso de Sistemas de IA en nuestro país.
En cuanto a la primera: ¿es correcto salvaguardar la privacidad y los derechos fundamentales también con respecto a la necesidad de seguridad?
Creo que es correcto salvaguardar la vida privada de los ciudadanos y buscar un compromiso con las necesidades de seguridad. En este sentido, el acuerdo alcanzado sobre la limitación de la identificación biométrica remota en tiempo real, que sólo será posible, previa autorización de la autoridad judicial, en caso de amenazas previsibles de terrorismo, para buscar víctimas de delitos o para identificar a los autores de delitos graves enumerados por el legislador.
LEA TAMBIÉN: Ley de IA, el riesgo es que cada país de la UE siga su propio camino
Sobre esto último: ¿no existe el riesgo de que acabemos teniendo disciplinas diferentes de un país a otro?
Ciertamente existe este riesgo y las instituciones tendrán que comprometerse, junto con las empresas, a la creación y promoción de normas y prácticas comunes para probar los sistemas de IA, que puedan aplicarse de manera uniforme en todos los Estados miembros.
Se ha introducido una “evaluación de impacto obligatoria” sobre los derechos fundamentales, especialmente en lo que respecta al uso de la IA en los sectores bancario y de seguros. ¿Será suficiente? ¿Realmente los ciudadanos podrán presentar denuncias?
El sector bancario y de seguros puede tener un impacto significativo en las personas; pensemos, por ejemplo, en los sistemas capaces de permitir o denegar el acceso al crédito. La elaboración de evaluaciones de impacto efectivas y la identificación de medios adecuados para mitigar los riesgos subyacentes al uso de la IA en estas áreas será el desafío para que los operadores legales y técnicos tengan éxito y se ganen la confianza de los ciudadanos. Y las empresas, para seguir siendo competitivas, no tendrán que esperar a que la IA entre en vigor, sino actuar de inmediato.
Una última reflexión, digamos más filosófica. La IA, quizás incluso antes que la regulatoria, plantea un problema ético y epistemológico que concierne a la esfera del individuo y del conocimiento y a los límites naturales que nunca deben traspasarse. ¿No crees que antes de llegar a una normativa quizás deberíamos preguntarnos y decidir “qué queremos que la IA haga por nosotros”?
Esta es la pregunta que se hace el hombre a cada paso que da el progreso tecnológico y la respuesta es: quiero que la IA mejore mi vida. Pongamos un ejemplo: si alguien estuviera afectado por una enfermedad rara e incurable y tuviera la posibilidad de curarse gracias a un estudio realizado con sistemas avanzados de IA, ¿no querría tener esta oportunidad? ¿O por qué no querríamos un sistema de conducción autónomo que evite que ocurra un accidente? La IA es un paso adelante en la ahora inevitable evolución tecnológica, puede ser de gran beneficio para los seres humanos pero al mismo tiempo riesgosa para los derechos y libertades de las personas. Y es por eso que el hombre debe seguir siendo siempre el principal protagonista en la relación con la IA, para gobernarla, hacerla creíble y segura para que pueda ser utilizada con confianza por las empresas y los ciudadanos.
LEA TAMBIÉN: ¿La inteligencia artificial revolucionará la sostenibilidad?
El artículo Inteligencia artificial: un futuro en el equilibrio entre privacidad y seguridad proviene de la Revista Economía.