Alier Abogados by Atisa informa
El pasado 1 de diciembre, el gobierno español anunció una inversión pública de 600 millonesde euros para el periodo 2021-2023 con el fin de impulsar la Estrategia Nacional de Inteligencia Artificial (ENIA), que incluye 30 medidas, entre ellas, el impulso a la investigación en IA, la promoción de nuevos centros nacionales de desarrollo tecnológico multidisciplinar con especial foco en neuro tecnologías y la creación de programas de ayudas a empresas para el desarrollo de soluciones en inteligencia artificial y datos.
Asimismo, el pasado 20 de octubre de 2020, los eurodiputados aprobaron propuestas para regular la inteligencia artificial en la UE con el fin de promover la innovación, la ética y la confianza en la tecnología de la IA en el ámbito de la UE.
Cualquier ley futura en IA tendrá que atenerse a los siguientes principios:
- Acción y supervisión humana
- Solidez técnica y seguridad
- Gestión de la privacidad y de los datos
- Transparencia
- Diversidad, no discriminación y equidad
- Bienestar social y medioambiental
- Rendición de cuentas
La Iniciativa legislativa pide un marco de responsabilidad civil pensando en el futuro, que haga responsables a quienes trabajan con una IA de riesgo de cualquier perjuicio que esta pudiera causar. Las normas se aplicarán a cualquier actividad de inteligencia artificial, física o virtual, que provoque daños o perjuicios a la vida, la salud, la integridad física o la propiedad, o que provoque daños inmateriales significativos que den lugar a una «pérdida económica verificable».
Los principales riesgos relacionados con el uso de la inteligencia artificial afectan a derechos fundamentales (como la protección de datos personales y la privacidad, o la no discriminación) y la seguridad, así como cuestiones relativas a la responsabilidad civil.
Las tecnologías de inteligencia artificial que presenten un riesgo elevado (por ejemplo, que sean capaces de aprender de manera autónoma) habrán de diseñarse de tal modo que permitan en cualquier momento la supervisión humana. Cuando se utilice una función que pudiera atentar gravemente contra los principios éticos y resultar peligrosa, las capacidades de autoaprendizaje deberán desactivarse y se deberá restaurar plenamente el control humano.
Loading...
Loading...
Aumenta la visibilidad y reputación de tu despacho profesional
Formar parte de este portal es una garantía de calidad y de confianza
Suscríbete a nuestra NEWS
Llegamos mensualmente a más de 80.000 empresas de todo el territorio español8
Artículos relacionados
Mantente al día con las últimas tendencias y noticias del ámbito legal.