Los que ya tenemos cierta edad y hemos asistido al vertiginoso desarrollo de la Inteligencia Artificial (IA) en los últimos años, pensamos que además de ser una herramienta útil de trabajo y de ayuda en múltiples casos, el uso de la misma entraña no pocos peligros, de los que siempre hay que alertar, además de algunas dudas éticas y legales.
La verdad es que, en los últimos años, el desarrollo de la IA se ha producido bajo un régimen de euforia y creo que, en no pocas ocasiones, de excesiva “permisividad o “complicidad innovadora», sin valorar correctamente sus riesgos o las eventuales responsabilidades que se deriven de su uso y, sobre todo, el cómo exigir éstas en un momento determinado y a quien exigirlas.
La euforia se basaba en la premisa de que la regulación y el derecho no debía asfixiar el potente y vertiginoso desarrollo la técnica. Sin embargo, la materialización de sesgos algorítmicos, daños en infraestructuras críticas y la opacidad del deep learning están propiciando un más que necesario retorno a la regulación y a la previsión de la eficaz reparación del daño cuando el mismo se produce.
Actualmente, el debate está evolucionando desde el campo de la ética algorítmica hacia la responsabilidad civil en sentido técnico legal, donde la solidaridad entre los agentes de la cadena de valor se presenta como la única garantía real para la seguridad jurídica del damnificado.
El sistema de responsabilidad extracontractual clásico (art. 1902 del Código Civil español o equivalentes en el Derecho europeo) se asienta sobre la tríada estudiada por todos en la carrera de acción/omisión, culpa y nexo causal; pero lo cierto es que en el caso de la IA este principio quiebra de manera objetiva y general y dificulta, hasta el extremo, las exigencias de responsabilidades.
Generalmente, el daño causado por una IA no siempre es reconducible a un error, voluntario o involuntario, de programación humano. Los modelos de lenguaje o los sistemas de visión artificial operan mediante correlaciones estadísticas que generalmente ni sus propios creadores pueden predecir con exactitud. Esta realidad hace que la “victima” tenga o pueda tener graves dificultades de prueba, que pueden llegar incluso a la indefensión ante un daño de este tipo.
La cuestión a plantearse es clara: si una IA «aprende» un comportamiento lesivo a partir de datos sesgados, nos lleva a preguntarnos quien es el autor del daño: ¿el diseñador de la IA?; ¿el alimentador de la IA o el fabricante del hardware?
Ante esta situación, la normativa de la UE trata de abordar tanto un enfoque preventivo, en el Reglamento de la IA del 2024/1689, como un planteamiento reparador abordado desde la actual propuesta de Directiva en materia de RC de la IA.
La verdad es que hoy día, el Derecho tiende a la responsabilidad objetiva (o por riesgo) para los sistemas de alto riesgo, consagrando el principio de quien crea un riesgo (una IA) para obtener un beneficio debe cargar con los daños derivados, incluso si no hubo negligencia técnica.
De esta manera aparece la introducción de la presunción de causalidad, de tal manera que si un demandante puede demostrar que el sistema de IA no cumplió con sus obligaciones de transparencia o registro (logs) bajo el Reglamento, el tribunal podrá presumir que esa falta de cumplimiento es la causa del daño, lo que conlleva que se traslade de manera automática la carga de la prueba al desarrollador, quien debe probar que el daño ocurrió por causas externas.
En el caso de las IA, lo habitual es que la misma sea el resultado de una pluralidad de servicios y responsabilidades, difíciles de deslindar en la mayoría de los casos. Pues bien. En estos casos, entendemos que es el principio legal de solidaridad el que permitiría a la víctima perjudicada reclamar la totalidad del daño acreditado a cualquiera de los intervinientes. Y ello porque lo “normal” será que sea técnicamente casi imposible deslindar qué porcentaje del error corresponde al algoritmo y cuál a la implementación o a la arquitectura y cual de todos los intervinientes es el más solvente para una hipotética indemnización
Todo ello sin olvidar que siempre existirá el consagrado “derecho de repetición” para que “el actor” que, finalmente pague la indemnización, pueda posteriormente demandar internamente al que resulte ser el verdadero responsable técnico del daño causado.
En definitiva, de la “euforia” de los últimos años hoy damos paso a una realidad más pausada y, sobre todo, de auditoría y control. El ordenamiento jurídico no debe estar diseñado para paralizar el desarrollo de la IA, sino para garantizar que el mismo no sea nunca a costa de la seguridad jurídica de los usuarios y ciudadanos en general. El referido principio de la responsabilidad civil solidaria por daños, existe para ello y debe de desarrollarse para que la IA tenga un marco jurídico de responsabilidades a la altura de los riegos y peligros objetivos que entraña.
Que la IA es un gran avance, pero que es también un potencial peligro, se avala también con la reciente e importante Instrucción 2/2026 del Pleno del Consejo General del Poder Judicial sobre utilización de la IA en la actividad jurisdiccional, publicada el pasado 30 de enero, que afecta de lleno a la gestión del “expediente judicial” y que prevé que su incumplimiento pueda dar lugar a responsabilidades conforme a la LOPJ.
Esta reciente instrucción, deja claro que solo son utilizables sistemas IA facilitados por las administraciones competentes y por el propio CGPJ, controlados y auditados en todo caso por el CGPJ, para lo que la instrucción denomina “usos permitidos” (apoyos a tareas administrativas y búsquedas, fundamentalmente) y nunca para los denominados “usos no permitidos de IA, en el ejercicio de la actividad jurisdiccional”. De todo esto, hablaremos en próximos artículos.
Manuel Lamela Fernández, Fundador y Presidente Ejecutivo
¿Dudas sobre su caso? Escríbanos y le orientamos.
Puede ponerse en contacto con nosotros escribiéndonos a clientes@acountax.es, llamándonos de forma gratuita al 900 264 785 o rellenando el siguiente formulario de contacto que ponemos a su disposición. Le responderemos en menos de 24 horas.
