Il contributo, da un lato, esplora i caratteri essenziali del rapporto IA e reato e, segnatamente, il possibile coinvolgimento di un sistema di intelligenza artificiale (come strumento o autore) nella commissione di un crimine. La vera questione non è, infatti, l’alternativa (pure interessante) tra la rimodulazione di fattispecie esistenti e l’introduzione di nuovi tipi, quanto la definizione delle coordinate ermeneutiche indispensabili per il corretto inquadramento giuridico delle fenomenologie criminose che richiedono un’adeguata colorazione dell’Intelligenza Artificiale in funzione strumentale e dunque caratterizzante le modalità di offesa al bene giuridico di volta in volta coinvolto ovvero dominante, quale entità autonomamente responsabile dell’azione illecita nel rispetto delle categorie classiche del diritto penale. Dall’altro, lo studio analizza gli impieghi (potenziali) dell’IA nella decisione giudiziaria e nella valutazione della pericolosità criminale, ovvero nei settori in cui gli algoritmi predittivi eventualmente coniugati con le neuroscienze cognitive si propongono come (preoccupanti) automated decision systems oppure offrono valutazioni prognostiche circa la futura commissione di un nuovo reato da parte del soggetto sottoposto a valutazione. In tale prospettiva, molto si gioca sul piano di una scelta tra un auspicabile diritto uniforme, stabile e prevedibile, nei limiti di un apporto tecnologico che sappia svolgere il suo ruolo di supporto e non di protagonista del diritto penale, e un meno apprezzabile diritto statico, impermeabile alla variabilità della multiforme realtà anche psicologica dell’essere umano, sia quando questi commetta un reato, sia quando venga chiamato ad accertarlo e a giudicarlo.
Diritto penale e intelligenza artificiale. Categorie antiche di fronte a responsabilità e giudizi futuri
Castaldo Maria Elena
2020-01-01
Abstract
Il contributo, da un lato, esplora i caratteri essenziali del rapporto IA e reato e, segnatamente, il possibile coinvolgimento di un sistema di intelligenza artificiale (come strumento o autore) nella commissione di un crimine. La vera questione non è, infatti, l’alternativa (pure interessante) tra la rimodulazione di fattispecie esistenti e l’introduzione di nuovi tipi, quanto la definizione delle coordinate ermeneutiche indispensabili per il corretto inquadramento giuridico delle fenomenologie criminose che richiedono un’adeguata colorazione dell’Intelligenza Artificiale in funzione strumentale e dunque caratterizzante le modalità di offesa al bene giuridico di volta in volta coinvolto ovvero dominante, quale entità autonomamente responsabile dell’azione illecita nel rispetto delle categorie classiche del diritto penale. Dall’altro, lo studio analizza gli impieghi (potenziali) dell’IA nella decisione giudiziaria e nella valutazione della pericolosità criminale, ovvero nei settori in cui gli algoritmi predittivi eventualmente coniugati con le neuroscienze cognitive si propongono come (preoccupanti) automated decision systems oppure offrono valutazioni prognostiche circa la futura commissione di un nuovo reato da parte del soggetto sottoposto a valutazione. In tale prospettiva, molto si gioca sul piano di una scelta tra un auspicabile diritto uniforme, stabile e prevedibile, nei limiti di un apporto tecnologico che sappia svolgere il suo ruolo di supporto e non di protagonista del diritto penale, e un meno apprezzabile diritto statico, impermeabile alla variabilità della multiforme realtà anche psicologica dell’essere umano, sia quando questi commetta un reato, sia quando venga chiamato ad accertarlo e a giudicarlo.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.