Crímenes de guerra en Ucrania!
KremlinToday.com

Si un vehículo autónomo tiene un accidente, ¿quién es el responsable?

Shutterstock / Scharfsinn

Iñigo A. Navarro Mendizabal, Universidad Pontificia Comillas

¿Usaría dispositivos con inteligencia artificial (IA) que no resarcieran los daños que causaran? Si un vehículo autónomo atropellara a un viandante, si un detector inteligente de fuego no funcionara y se produjera un incendio o si un robot quirúrgico fallara en plena operación, ¿debería haber indemnización? La respuesta es claramente sí. Lo contrario sería devastador para la confianza que podamos tener en la IA.

En este contexto, la responsabilidad civil es una pieza clave porque garantiza que quien sufra un daño sea resarcido y reciba una indemnización. Así se promueve la innovación en sistemas IA que sean más eficientes al evitar que causen daños.

El pasado 20 de octubre de 2020, el Parlamento Europeo emitió una resolución con recomendaciones para elaborar un régimen de responsabilidad civil en materia de inteligencia artificial. Es adecuado que la normativa sea europea. La única manera para poder tener un mercado europeo digital es que no se rompa a través de normativas nacionales que fragmenten la unidad.

¿Quién es el responsable en caso de accidente?

No es necesario cambiar todas las normas de responsabilidad civil de todos los países de la UE, pero sí es necesario afrontar las nuevas realidades que no están reguladas en las normas tradicionales. Todos sabemos que quien conduce un coche es responsable de los daños que causa, pero, en un coche autónomo, ¿quién es realmente el conductor?

Las categorías que solemos usar no valen. Puede hablarse de dos tipos de operadores, que serán los responsables de acuerdo con la resolución:

  • Un operador inicial (fabricante, programador…) “que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA” (art. 3 f).
  • Un operador final (por ejemplo, quien mantiene el sistema, quien lo ejecuta…) “que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento” (art. 3 e).
RELACIONADO  Los ‘prompts’ que hacen que la IA se salte los límites legales

Tecnologías de alto riesgo

También hay que tener en cuenta que todos los dispositivos que incorporan IA no son iguales. Algunos no pueden causar graves daños al usuario, como una aplicación que nos sugiere música que nos gusta.

En cambio, hay otros como un vehículo autónomo o un robot quirúrgico que pueden considerarse de “alto riesgo”, que es “el potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablemente. La magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y el modo y el contexto en que se utiliza el sistema de IA” (art. 3 c).

En la resolución se propone una responsabilidad objetiva para los sistemas de IA de alto riesgo. De esta forma, los operadores que hemos mencionado antes no podrán eludir su responsabilidad “alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA” (art. 4. 3). Solo podrán exonerarse si ocurre un suceso de fuerza mayor: un suceso imprevisible e inevitable (más allá de la diligencia exigible para prever y evitar) que es exterior al sistema de inteligencia artificial.

Junto a lo anterior, el operador final de un sistema de alto riesgo, como un coche autónomo, deberá tener un seguro de responsabilidad civil adecuado para cubrir las posibles responsabilidades (art. 4. 4). La recomendación aventura una limitación de la cuantía de la indemnización de dos millones de euros para los supuestos de fallecimiento y daños a la salud o la integridad física y de 1 millón de euros para el resto de daños morales y patrimoniales.

RELACIONADO  La emergencia climática nos impone programar una desescalada económica

Sistemas de bajo riesgo

Para el resto de sistemas de IA la recomendación plantea una responsabilidad subjetiva. El operador no tendrá que rendir cuentas si “se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidades pertinentes, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles” (art. 8. 2 b).

Igualmente hay una exoneración o reducción de la responsabilidad si el daño se debe total o parcialmente a la actuación de la persona afectada o de alguien que actúa bajo su responsabilidad.

Todavía queda mucho por hacer y regular, pero dos cuestiones deben quedar claras:

  1. Hay que favorecer la innovación tecnológica con seguridad, porque una IA sin control será dañina y producirá una innovación ineficiente lastrando la confianza en la tecnología, lo que sería un error mayúsculo.
  2. La normativa existente no basta y la nueva debe ser europea si queremos tener un mercado único que sea robusto y sitúe a Europa en una posición en la que pueda competir con el resto de gigantes tecnológicos.