Mostra i principali dati dell'item

dc.date.accessioned2026-02-03T10:21:23Z
dc.date.available2026-02-03T10:21:23Z
dc.description.abstractLa crescente integrazione dei sistemi di intelligenza artificiale (IA) nella vita quotidiana ha sollevato complessi interrogativi in ambito giuridico, in particolare per quanto riguarda la responsabilità per danni cagionati dai sistemi di IA. Le norme nazionali vigenti nei diversi Paesi dell’Unione europea in materia si sono rivelate inadeguate a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA. In particolare, le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità, rendono spesso difficile o eccessivamente costoso, per i danneggiati, identificare la persona responsabile e assolvere gli oneri probatori in merito alla sussistenza dei presupposti per la risarcibilità del danno. La recente proposta di direttiva europea sull’adeguamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale (AILD) mira a creare un quadro normativo armonizzato che affronti le specificità dell’IA, con l’obiettivo di garantire una tutela adeguata alle vittime di un illecito aquiliano, senza ostacolare l’innovazione tecnologica. Essa si inserisce in un pacchetto più ampio di misure volte a promuovere l’utilizzazione e lo sviluppo di sistemi di IA affidabili, in cui campeggiano, da ultimo, la legge sull’IA (Regolamento UE, 2024/1689), volta ad armonizzare le norme sull’intelligenza artificiale con un approccio «basato sul rischio», e la direttiva sulla responsabilità dei prodotti (PLD), che abroga la precedente direttiva n. 85/374/CEE, innovando la disciplina alla luce degli sviluppi legati alle nuove tecnologie. L’articolo si prefigge di esaminare criticamente, alla luce del quadro normativo europeo già in vigore, i singoli punti della proposta di direttiva, tra cui in particolare il profilo della ripartizione di responsabilità fra il fornitore/produttore e l’utente, i criteri per la determinazione della responsabilità in relazione al grado di autonomia e prevedibilità del sistema IA, l’onere della prova e le presunzioni relative in tema di non conformità ad un pertinente obbligo di diligenza ed in tema di nesso di causalità, le ipotesi di responsabilità oggettiva per attività ad alto rischio.it_IT
dc.description.abstractThe increasing integration of artificial intelligence (AI) systems into everyday life has given rise to complex questions in the legal domain, particularly with respect to liability for damage caused by AI systems. The national rules currently in force across the Member States of the European Union have proved inadequate to address actions seeking compensation for harm caused by AI-based products and services. In particular, the distinctive features of AI – including complexity, autonomy, and opacity – often make it difficult or prohibitively costly for injured parties to identify the responsible person and to discharge the evidentiary burdens regarding the existence of the conditions for the recoverability of damages. The recent proposal for a European directive on adapting non-contractual civil liability rules to artificial intelligence (the AI Liability Directive, AILD) seeks to establish a harmonised regulatory framework that addresses the specificities of AI, with the aim of ensuring adequate protection for victims of torts without stifling technological innovation. It forms part of a broader package of measures aimed at fostering the deployment and development of trustworthy AI systems, most notably the AI Act (Regulation (EU) 2024/1689), which harmonises rules on artificial intelligence through a risk-based approach, and the Product Liability Directive (PLD), which repeals Directive 85/374/EEC and updates the regime in light of technological developments. This article aims to offer a critical examination – against the backdrop of the EU legal framework already in force – of the individual components of the draft directive, including, in particular: the allocation of liability between the provider/manufacturer and the user; the criteria for determining liability in relation to the degree of autonomy and predictability of the AI system; the burden of proof and the associated rebuttable presumptions concerning non-compliance with a relevant duty of care and the causal link; and instances of strict liability for high-risk activities.it_IT
dc.language.isoitit_IT
dc.relation.ispartofjournalIura & Legal Systemsit_IT
dc.identifier.citationNaddeo F. "Intelligenza artificiale e responsabilità civile: verso un quadro normativo europeo". Iura & Legal Systems, XII.2025/3, B(10): 97-111it_IT
dc.titleIntelligenza artificiale e responsabilità civile: verso un quadro normativo europeoit_IT
dc.sourceUniSa. Sistema Bibliotecario di Ateneoit_IT
dc.contributor.authorNaddeo, Francesca
dc.date.issued2025
dc.identifier.urihttps://www.rivistagiuridica.unisa.it/volumes/2025_3/indexit_IT
dc.identifier.urihttp://elea.unisa.it/xmlui/handle/10556/9216
dc.typeJournal Articleit_IT
dc.format.extentP. 97-111it_IT
dc.identifier.issn2385-2445it_IT
 Find Full text

Files in questo item

Thumbnail

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item