Opinión
Ciberseguridad
La ciberseguridad en la UE es una prioridad estratégica para los próximos años
Natalia García-Barberena
Consultora senior en Proyectos Europeos y experta en ciberseguridad
Inteligencia artificial
El proyecto de marco regulador europeo en este ámbito promueve la innovación y el respeto de las normas éticas
Consultor en Proyectos Europeos
A veces la ficción no está tan lejos de la realidad. Las películas dibujan continuamente paradigmas en los que los robots y la inteligencia artificial acaban dominando la sociedad o transformando la realidad en algo distópico. Obviamente, esto dista mucho de ser cierto, pero la inteligencia artificial (IA) ha evolucionado rápidamente, impregnando numerosos aspectos de nuestras vidas, revolucionando industrias y transformando la forma en que interactuamos con la tecnología.
A medida que los sistemas de IA se vuelven cada vez más complejos e influyentes, sin embargo, surgen preocupaciones en torno a su fiabilidad. Cuestiones como la parcialidad, la falta de transparencia, la rendición de cuentas y los riesgos potenciales para los valores humanos han suscitado dudas sobre el desarrollo y despliegue responsables de la IA.
Para hacer frente a estas preocupaciones, los gobiernos y los organismos reguladores de todo el mundo están tomando medidas, y las instituciones europeas no son una excepción. A finales del mes pasado, el Parlamento Europeo adoptó su posición negociadora sobre una serie de normas que se agrupan en la llamada Ley de Inteligencia Artificial. Con ella irá a las conversaciones con los Estados miembros de las que saldrá el texto definitivo, con el objetivo de alcanzar un acuerdo a finales de este año.
Propuesta en abril de 2021 por la Comisión Europea, esta medida pretende crear un marco regulador armonizado para los sistemas de IA, promoviendo al mismo tiempo la innovación y defendiendo las normas éticas. A continuación, detallamos sus características.
La Ley clasifica los sistemas de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo. Los sistemas de alto riesgo, como los utilizados en infraestructuras críticas, sanidad o cuerpos de seguridad, se enfrentarán a los requisitos más estrictos, en los que se incluyen transparencia, documentación y supervisión humana. Al adoptar este enfoque, la Ley garantiza que las medidas reguladoras sean proporcionales a los riesgos potenciales que plantean las diferentes aplicaciones de IA, centrando los esfuerzos en las áreas de alto riesgo y permitiendo al mismo tiempo la innovación en dominios donde este sea menor.
Esta medida prohíbe de forma explícita ciertas prácticas de IA que se consideran inaceptables debido a su potencial para infringir derechos fundamentales o causar daños significativos. Entre ellas, se incluyen los sistemas que manipulan el comportamiento humano o utilizan técnicas subliminales, así como los que crean deepfakes con fines maliciosos. De esta forma, la Ley pretende salvaguardar los derechos de las personas y evitar el uso indebido de la IA.
La Ley da prioridad a la transparencia y la explicabilidad para aumentar la confianza en los sistemas de IA. Establece que los usuarios deben ser informados cuando interactúan con alguno de ellos, de manera que sean conscientes de que no se encuentran frente a un ser humano sino a un sistema automatizado. Además, los sistemas de IA de alto riesgo deben proporcionar información detallada sobre sus capacidades y limitaciones. Estos requisitos permiten a los usuarios tomar decisiones informadas y fomentan la responsabilidad en torno al uso de los resultados producidos por la IA.
Al reconocer la importancia de la calidad de los datos y la mitigación de sesgos, la Ley hace hincapié en que los datos deben ser transparentes y trazables y cumplir ciertos requisitos de calidad. De esta manera, fomenta el uso de conjuntos de datos diversos y de alta calidad para evitar los resultados sesgados y la discriminación.
La Ley subraya también la importancia de la supervisión humana. Los sistemas de IA de alto riesgo deben contar con mecanismos adecuados de intervención y control humanos. Esto garantiza que las decisiones cruciales no dependan únicamente de los algoritmos de IA y que los humanos mantengan el control sobre los resultados. Los desarrolladores y proveedores de sistemas de IA deben responder de sus productos. El incumplimiento de la Ley puede dar lugar a multas sustanciales, lo que anima a los desarrolladores de IA a dar prioridad a las consideraciones éticas y asumir la responsabilidad del impacto social de sus tecnologías.
La Comisión Europea destina 317,50 millones de euros en forma de subvenciones a proyectos innovadores en el ámbito de la IA, en el marco del cluster 4 del Pilar II de Horizon Europe. Este cuenta con convocatorias centradas en el desarrollo ético de las tecnologías digitales e industriales, en las que se capacita a los usuarios finales y a los trabajadores en el desarrollo de las tecnologías.
El objetivo de la Comisión Europea es desarrollar un entorno digital digno de confianza, basado en una internet más resistente, sostenible y descentralizada, dotar a los usuarios finales de un mayor control sobre sus datos y su identidad digital, y permitir nuevos modelos sociales y empresariales que respeten los valores europeos.
La introducción de la Ley Europea de IA representará un hito importante en su regulación y la garantía de su fiabilidad, porque pretende proteger los derechos de las personas al tiempo que fomenta la innovación y la competitividad en Europa. El camino hacia una IA fiable, sin embargo, no terminará cuando estas normas sean adoptadas. Hay que dar algunos pasos más, los que detallamos a continuación.
Tomando estas medidas, podremos fomentar un ecosistema de IA fiable que beneficie a las personas, las organizaciones y la sociedad en su conjunto. La Ley Europea de Inteligencia Artificial sirve de base, pero requiere esfuerzos colectivos y un compromiso permanente para sortear las complejidades y garantizar que esta tecnología siga siendo una fuerza positiva. Juntos podemos forjar su futuro, dando prioridad a los valores humanos, la equidad y la transparencia, e inspirando confianza en la tecnología que está remodelando nuestro mundo.
Sede de Pamplona
Consultor en Proyectos Europeos
Opinión
Ciberseguridad
Natalia García-Barberena
Consultora senior en Proyectos Europeos y experta en ciberseguridad
Opinión
Impacto en medios
Guillermo Dorronsoro
Asesor del Consejo de Administración / Comité Ejecutivo
Opinión
MARCO FINANCIERO PLURIANUAL
Ana Lumbreras
Diseminación y Comunicación en Proyectos Europeos
Noticia
KAILA WISE
Opinión
Ciberseguridad
Natalia García-Barberena
Consultora senior en Proyectos Europeos y experta en ciberseguridad
Publicación
PROGRAMAS EUROPEOS
Hemos preparado un completo calendario con las fechas de cierre, hasta febrero de 2024, de las convocatorias de financiación europeas más relevantes
Este sitio web utiliza cookies para que podamos brindarle la mejor experiencia de usuario posible. La información de las cookies se almacena en su navegador y realiza funciones como reconocerlo cuando regresa a nuestro sitio web y ayudar a nuestro equipo a comprender qué secciones del sitio web le resultan más interesantes y útiles.
Las cookies estrictamente necesarias deben estar habilitadas en todo momento para que podamos guardar sus preferencias para la configuración de cookies.
Este sitio web utiliza Google Analytics para recopilar información anónima, como la cantidad de visitantes al sitio y las páginas más populares.
Mantener esta cookie habilitada nos ayuda a mejorar nuestro sitio web.
¡Habilite primero las cookies estrictamente necesarias para que podamos guardar sus preferencias!
Este sitio web utiliza las siguientes cookies adicionales:
DRIP - Email Marketing Sotware
¡Habilite primero las cookies estrictamente necesarias para que podamos guardar sus preferencias!