9 de febrero, 2024
< Volver

La futura Ley de Inteligencia Artificial tiene como objetivo garantizar unas mejores condiciones para el desarrollo y uso de esta tecnología, además de estimular la inversión y la innovación en este ámbito a nivel europeo. Desde ERNI España destacan que, por un lado, la ley actúa como una garantía de “filtro de calidad” para los proyectos de IA destinados al uso comercial, sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación.

La implementación de la nueva ley europea de Inteligencia Artificial ha puesto de manifiesto la necesidad de definir límites legales y éticos para esta tecnología. El propósito principal de la norma es asegurar que los sistemas de inteligencia artificial comercializados en Europa cumplan con estándares de seguridad y respeten los valores y derechos fundamentales de la Unión Europea (UE).

Desde la firma suiza de software especializada en soluciones deep tech, ERNI Consulting España, Alberto Martín, director de Tecnología e Innovación, explica que “si bien esta ley de IA representa un hito histórico, es necesario establecer normas concretas y sin lagunas, ya que la ambigüedad en estas podría ralentizar el proceso y limitar el potencial transformador de la IA.

Y es que esta ley, pionera a nivel mundial, aspira a regular el uso de la IA adaptando un enfoque “basado en el riesgo” y aplicando reglas más estrictas según de qué manera pueda afectar a la seguridad los sistemas de IA comercializados en el mercado europeo.

Dos visiones de la ley de IA

Desde ERNI (empresa líder en el sector de la salud - diagnóstico médico, farmacéutica, biotecnología, servicios de salud y seguros de salud-) señalan que esta nueva normativa presenta una dualidad importante.

Por un lado, la norma actúa como una garantía de “filtro de calidad” para los proyectos de IA aprobados y destinados al uso comercial, sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación, especialmente para las pequeñas empresas y startups.

Paralelamente, la ley pone sobre la mesa una clasificación del riesgo que pueden llegar a representar los diferentes sistemas de IA (riesgo mínimo, alto riesgo, riesgo inadmisible). Por ejemplo, la ley contempla como “alto riesgo” los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, incluyendo los dispositivos médicos.

En este caso, desde ERNI Consulting explican que en el ámbito médico, una IA no podrá tomar decisiones para los pacientes, y en cualquier caso, un sistema de inteligencia artificial siempre se considerará de alto riesgo si elabora perfiles de personas físicas.

Finalmente, dependiendo de la infracción y el tamaño de la empresa, el incumplimiento de esta ley en la UE implicará multas que oscilan entre los 35 millones de euros o el 7% de la facturación global y los 7,5 millones o el 1,5% de la facturación.

 

Noticias relacionadas

comments powered by Disqus

Utilizamos cookies propias y de terceros para analizar nuestros servicios y mostrarle publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de sus hábitos de navegación (por ejemplo, páginas visitadas o videos vistos). Puedes obtener más información y configurar sus preferencias.

Configurar cookies

Por favor, activa las que quieras aceptar y desactiva de las siguientes las que quieras rechazar. Puedes activar/desactivar todas a la vez clicando en Aceptar/Rechazar todas las cookies.

Aceptar/rechazar todas
Cookies Analíticas

Cookies que guardan información no personal para registrar información estadística sobre las visitas realizadas a la web.

Cookies de Marketing

Cookies necesarias para determinadas acciones de marketing, incluyendo visualización de vídeos provenientes de plataformas como Youtube, Vimeo, etc. y publicidad de terceros.

Cookies de Redes Sociales

Cookies relacionadas con mostrar información provenientes de redes sociales o para compartir contenidos de la web en redes sociales.