19 Gennaio 2021 - 12:55

    Dall'uomo al cyborg, l'articolo di Alessandro Pajno su Formiche

    Vota questo articolo
    (0 Voti)

    Per parlare di trans-umanesimo occorre partire dal concetto che esso suppone, quello di umanesimo, per sua natura in stato di costante trasformazione. Il cambiamento è insito tanto nell’umanità quanto nell’umanesimo; temerlo dunque, in toto e a priori, risulterebbe privo di ragionevolezza. Il diritto agisce e sopravviene in un momento successivo rispetto ai grandi processi di cambiamento, per mettere ordine e ricondurre a sistema le nuove realtà. A oggi siamo esattamente nel mezzo, in una situazione in cui l’intelligenza artificiale (IA) è già parte integrante della nostra vita ma la sua regolazione non è ancora sufficientemente definita. Nel valutare, però, l’utilizzo delle nuove tecnologie come strumento di approccio al trans-umanesimo, e dunque nel tentativo di identificare una soglia entro la quale l’uomo resta uomo e oltre la quale l’uomo diventa trans-umano, sembra fondamentale partire dalla finalità della tecnologia stessa. Se prendessimo ad esempio un pacemaker, cioè una macchina che sostanzialmente migliora la qualità della vita umana, è evidente che in questo caso la finalità della tecnologia sia il benessere dell’uomo. Differente è invece la commistione fra macchina e uomo qualora l’obiettivo sia la costruzione, ad esempio, di un superuomo per finalità di puro dominio, ad esempio, militare. Il dibattito, in tal caso, si traspone su un livello morale. La discussione, dunque, verte non sulle finalità dell’IA bensì su quelle che l’uomo sceglie che siano perseguite attraverso l’IA. Anche a questo serve il diritto: valutare che il fattore tecnologico non si imponga sui valori consacrati nelle carte costituzionali e nella Carta dei diritti dell’uomo. Medesima è la dinamica che muove il dibattito sul riconoscimento della soggettività giuridica e della responsabilità in capo ai sistemi di intelligenza artificiale. Esiste una notevole letteratura in merito e si è anche teorizzata la possibilità di forme di responsabilità penale della macchina, prospettando, come possibile sanzione, una pena costruita secondo il principio di equivalenza tra macchina uomo, e cioè la (anche temporanea) disattivazione. Ma come parlare di pena in un contesto in cui la nostra Costituzione esige che essa abbia anche finalità rieducativa, inapplicabile nel caso di una macchina? In realtà è sempre l’uomo a definire le finalità di un’intelligenza artificiale, sicché apparirebbe privo di senso sanzionare un esecutore privo di capacità interpretativa e decisionale. Per questo lo sguardo rivolto verso il fenomeno deve essere di sollecitazione e di grande attenzione, ma non di eccessiva preoccupazione. Gli strumenti di intelligenza artificiale possono essere di grande supporto nelle attività umane, purché sia sempre garantita all’uomo la possibilità di intervento e/o di controllo degli stessi. Lo stesso discorso vale da un punto di vista giuridico. Il supporto artificiale è di grande utilità nelle attività giuridiche, purché però le decisioni ultime restino sempre appannaggio dell’essere umano. Com’è stato dimostrato, infatti, l’IA agisce massimizzando l’efficienza nelle attività computazionali ma resta ancora inefficiente in quelle interpretative. Il documento del dicembre 2018 “European ethical charter on the use of artificial intelligence in judicial systems” della Commissione europea per l’efficienza della giustizia sottolinea l’importanza dell’applicazione delle tecnologie legate all’IA nel settore della giustizia, ma evidenzia l’importanza di un uso responsabile di tali tecnologie, nel rispetto dei diritti fondamentali garantiti dalla Convenzione europea dei diritti dell’uomo, e quindi del principio di non discriminazione, di qualità e sicurezza dei dati immateriali, di imparzialità ed equità, di controllo volto a fare in modo che i protagonisti del processo siano tutti attori informati. Lo stesso documento evidenzia, peraltro, come sia sostanzialmente inutile paragonare l’attività del giudice a quella di un computer: il ragionamento giuridico verte sulla valutazione dei fatti e sull’interpretazione delle norme, attività in cui l’intelligenza artificiale non possiede abilità. Interessante, a tal proposito, è la nota sentenza del caso Loomis vs Wisconsin, in cui, in seguito a valutazioni effettuate sull’imputato a mezzo di un software (Compas), si è sostenuto che il risultato ultimo di un accertamento deve essere sempre il frutto di una valutazione umana, che potrà eventualmente rivedere gli esiti dettati da un algoritmo.

    Con gentile concessione di © Formiche rivista — numero 165

    Ultima modifica il 19 Gennaio 2021 - 12:57

    Please publish modules in offcanvas position.

    We use cookies

    Utilizziamo i cookie sul nostro sito Web. Alcuni di essi sono essenziali per il funzionamento del sito, mentre altri ci aiutano a migliorare questo sito e l'esperienza dell'utente (cookie di tracciamento). Puoi decidere tu stesso se consentire o meno i cookie. Ti preghiamo di notare che se li rifiuti, potresti non essere in grado di utilizzare tutte le funzionalità del sito.