Intelligenza artificiale e responsabilità civile: verso un quadro normativo europeo
Abstract
La crescente integrazione dei sistemi di intelligenza artificiale (IA) nella vita quotidiana
ha sollevato complessi interrogativi in ambito giuridico, in particolare per quanto riguarda la
responsabilità per danni cagionati dai sistemi di IA. Le norme nazionali vigenti nei diversi Paesi
dell’Unione europea in materia si sono rivelate inadeguate a gestire le azioni di responsabilità per
danni causati da prodotti e servizi basati sull’IA. In particolare, le caratteristiche specifiche dell’IA,
tra cui la complessità, l’autonomia e l’opacità, rendono spesso difficile o eccessivamente costoso, per
i danneggiati, identificare la persona responsabile e assolvere gli oneri probatori in merito alla
sussistenza dei presupposti per la risarcibilità del danno.
La recente proposta di direttiva europea sull’adeguamento delle norme sulla responsabilità civile
extracontrattuale all’intelligenza artificiale (AILD) mira a creare un quadro normativo armonizzato
che affronti le specificità dell’IA, con l’obiettivo di garantire una tutela adeguata alle vittime di un
illecito aquiliano, senza ostacolare l’innovazione tecnologica.
Essa si inserisce in un pacchetto più ampio di misure volte a promuovere l’utilizzazione e lo sviluppo
di sistemi di IA affidabili, in cui campeggiano, da ultimo, la legge sull’IA (Regolamento UE,
2024/1689), volta ad armonizzare le norme sull’intelligenza artificiale con un approccio «basato sul
rischio», e la direttiva sulla responsabilità dei prodotti (PLD), che abroga la precedente direttiva n.
85/374/CEE, innovando la disciplina alla luce degli sviluppi legati alle nuove tecnologie.
L’articolo si prefigge di esaminare criticamente, alla luce del quadro normativo europeo già in vigore,
i singoli punti della proposta di direttiva, tra cui in particolare il profilo della ripartizione di
responsabilità fra il fornitore/produttore e l’utente, i criteri per la determinazione della responsabilità
in relazione al grado di autonomia e prevedibilità del sistema IA, l’onere della prova e le presunzioni
relative in tema di non conformità ad un pertinente obbligo di diligenza ed in tema di nesso di
causalità, le ipotesi di responsabilità oggettiva per attività ad alto rischio. The increasing integration of artificial intelligence (AI) systems into everyday life has given rise to
complex questions in the legal domain, particularly with respect to liability for damage caused by AI
systems. The national rules currently in force across the Member States of the European Union have
proved inadequate to address actions seeking compensation for harm caused by AI-based products
and services. In particular, the distinctive features of AI – including complexity, autonomy, and
opacity – often make it difficult or prohibitively costly for injured parties to identify the responsible
person and to discharge the evidentiary burdens regarding the existence of the conditions for the
recoverability of damages.
The recent proposal for a European directive on adapting non-contractual civil liability rules to
artificial intelligence (the AI Liability Directive, AILD) seeks to establish a harmonised regulatory
framework that addresses the specificities of AI, with the aim of ensuring adequate protection for
victims of torts without stifling technological innovation.
It forms part of a broader package of measures aimed at fostering the deployment and development
of trustworthy AI systems, most notably the AI Act (Regulation (EU) 2024/1689), which harmonises
rules on artificial intelligence through a risk-based approach, and the Product Liability Directive
(PLD), which repeals Directive 85/374/EEC and updates the regime in light of technological
developments.
This article aims to offer a critical examination – against the backdrop of the EU legal framework
already in force – of the individual components of the draft directive, including, in particular: the
allocation of liability between the provider/manufacturer and the user; the criteria for determining
liability in relation to the degree of autonomy and predictability of the AI system; the burden of
proof and the associated rebuttable presumptions concerning non-compliance with a relevant duty
of care and the causal link; and instances of strict liability for high-risk activities.
