Utilizza questo identificativo per citare o creare un link a questo documento:
http://elea.unisa.it/xmlui/handle/10556/9204| Titolo: | L'intelligenza artificiale: un banco di prova delle categorie tradizionali della responsabilità penale |
| Autore: | Fontana, Isabella |
| Data: | 2025 |
| Citazione: | Fontana I. "L'intelligenza artificiale: un banco di prova delle categorie tradizionali della responsabilità penale". Iura & Legal Systems, XII.2025/3, B(22): 251-258 |
| Abstract: | Il contributo esamina come l’impiego di sofisticati sistemi di IA metta in crisi le categorie
tradizionali di attribuzione della responsabilità penale, a partire dalla colpevolezza. Le proprietà che
caratterizzano gli agenti artificiali c.d. forti (l’autoapprendimento, l’opacità e l’imprevedibilità
algoritmica) sollevano numerosi interrogativi sia sul terreno della responsabilità dolosa, quando le IA
sono impiegate o progettate per finalità illecite, che di quella colposa, quando l’utilizzo delle
macchine rientra nell’area di rischio consentito. La scienza penalistica, a livello nazionale e
internazionale, ha elaborato diverse soluzioni per scongiurare vuoti di responsabilità penale a fronte
di eventi lesivi algoritmici, arrivando persino a teorizzare una capacità penale diretta dei sistemi di IA. Di qui, l'urgenza di un intervento legislativo che sappia bilanciare gli interessi in gioco, salvaguardando il ruolo costituzionale di extrema ratio del diritto punitivo. This contribution examines how the deployment of sophisticated AI systems poses challenges to traditional categories of criminal liability, beginning with the concept of culpability. The defining features of so-called strong artificial agents (such as machine learning, opacity, and algorithmic unpredictability) raise complex issues with respect to both intentional liability, when AI is designed or employed for unlawful purposes, and negligent liability, when its use falls within the bounds of permissible risk. Criminal law scholarship, both nationally and internationally, has put forward various solutions to prevent responsibility gaps in the face of algorithm-induced harm, including the theorization of a direct form of criminal capacity attributed to AI systems. This highlights the urgent need for legislative intervention capable of balancing the competing interests at stake, while ensuring the constitutional principle of criminal law as an exceptional and residual measure (extrema ratio). |
| URI: | https://www.rivistagiuridica.unisa.it/volumes/2025_3/index http://elea.unisa.it/xmlui/handle/10556/9204 |
| ISSN: | 2385-2445 |
| È visualizzato nelle collezioni: | Iura & Legal Systems. Volume--12, n. 3 (Luglio - Settembre 2025) |
File in questo documento:
| File | Descrizione | Dimensioni | Formato | |
|---|---|---|---|---|
| Iura & Legal Systems, XII.2025_3, B (22) 251-258.pdf | Iura & Legal Systems, XII.2025/3, B (22): 251-258 | 202.68 kB | Adobe PDF | Visualizza/apri |
Tutti i documenti archiviati in DSpace sono protetti da copyright. Tutti i diritti riservati.