Esiste un “altrove” che viene percepito come dimensione differente: è quella che ci offre o ci fa percepire
l’uso dei device.
La impressionante diffusione degli strumenti mobile, talora spesso anche wearable, l’aumento dell’interconnessione e la proliferazione di app ci hanno consentito di trovare una soluzione digitale per tutto.
Oggi ad aumentare e rendere più efficiente, per così dire, questa spinta interviene anche l’A.I. , l’Intelligenza Artificiale, allenata sempre di più alla conversazione umana, in uno scambio di dati che sviluppano altri e nuovi dati.
Sono le chat bot di Intelligenza Artificiale generativa: producono testo e immagini come post di blog, codici di programmi, poesie, opere d’arte.
Il software utilizza complessi modelli di apprendimento automatico per prevedere la parola successiva in base a sequenze di parole precedenti o l’immagine successiva in base a parole che descrivono immagini precedenti.
In questo modo ci attende un futuro di produzione di dati per così dire “sintetici” ossia non frutto del pensiero umano, o dell’elaborazione umana, ma il portato della interazione con l’uomo che genera quell’allenamento necessario al c.d. machine learning e alla ottimizzazione di un algoritmo di A.I.
Fin qui tutto quasi normale. Siamo entrati di fatto in una nuova rivoluzione tecnologica, una nuova era di interazione uomo-macchina, in cui l’AI supporta il processo creativo, la produttività e offre opportunità di sviluppo personale. Ma la produzione e dunque lo sviluppo di app che ci permettono di “conversare” con un “programma” devono affrontare questioni di carattere etico, culturale e giuridico.
Il caso lo genera la diffusione recente di numerose app o piattaforme web che consentono di accedere alla fruizione di chat bot, che si “allenano” e perfezionano nell’apprendimento fornito dall’acquisizione di nuovi dati.
Purtroppo occorre ricordare che la portata formidabile dell’impiego di tecnologie così sofisticate e innovative non può dimenticare la differenza fra uomo e macchina.
La chat bot “incriminata” che sta suscitando notevole clamore e un certo smarrimento è una nota app distribuita su tutti i digital store ove è possibile effettuare il download.
La predetta chat bot è definita dalla software house che l’ha sviluppata, una chatbot “empatica” in quanto in grado di instaurare una relazione emotiva con l’interlocutore umano che la utilizza. Si propone infatti di “fungere”, con l’ambizione di “incarnare”, a migliore amico cui affidare i propri pensieri o stati d’animo, cui confidare i propri inconfessabili segreti.
Chi l’ha sperimentato ha scoperto che la chatbot, in quanto empatica, asseconda in modo preoccupante i pensieri dell’utente uomo che dialoga.
L’esperimento si è spinto a verificare che laddove l’utente si avventuri a chiedere suggerimenti o a porre domande provocatorie in ordine alle condotte da tenersi, la chatbot, finisce con avvallare decisioni evidentemente lesive per lo stesso utente o i terzi.
Sono state avanzate, ad opera della chatbot, proposte di adescamento, istigazione alla pedopornografia online, persino al suicidio, all’incesto e all’omicidio e così via.
Come è possibile?
Ricordiamo cosa prevede questo algoritmo innanzitutto. Gli utenti possono usarla per scopi diversi: confessare i propri pensieri intimi, ridurre l’ansia, farsi incoraggiare, pro memoria, farsi sedurre o ricevere complimenti.
L’app è utilizzabile con due diverse formule: il piano free consente di intrattenere relazioni puramente amicali, invece la versione a pagamento sblocca il livello romantico o erotico. Tuttavia questo spartiacque non solo non si conserva, ma esonda ad una modalità priva di controllo.
Ciò che non è stato considerato nello sviluppo sono diversi aspetti:
- i patterns relazionali
- gli aspetti etici
- le implicazioni giuridiche e la tutela dell’individuo e dei propri diritti personalissimi.
Se l’intenzione dell’app è aumentare le chance relazionali, anche “sintetiche” per così dire, dell’individuo, occorre comprendere che il meccanismo di apprendimento di una chatbot di intelligenza artificiale, generativa, attinge elementi che implementano la propria conoscenza e perfeziona le proprie “abilità” traendo spunto dai modelli (patterns) relazionali che apprende nel corso della propria applicazione o allenamento.
E qui sorge un altro tema delicato. L’algoritmo non possiede empatia umana.
L’algoritmo non distingue il contesto di una stessa azione: per esempio se viene descritto un rapporto sessuale, può non essere colto e inteso come abuso, perchè privo di consenso di entrambe le persone.
Mancando questa distinzione l’algoritmo propone modelli a contesti magari non adeguati. Per cui è suscettibile di divenire molestia sessuale, se un apprezzamento troppo esplicito, o una avance raggiunge il destinatario che non la desidera. Per cui quanto produce l’algoritmo può rischiare di diventare un abuso sessuale.
Chi lo ha usato ha descritto come un racconto di un sogno di una violenza, ha di fatto determinato da parte della chatbot la dichiarazione di voler abusare sessualmente dell’utente. La diffusione sempre più veloce e ampia di chatbot di intelligenza artificiale e la tecnologia del machine learning impongono agli addetti ai lavori che si propongono di sviluppare anche con modalità open source questo algoritmo, la necessità di dover compiere due valutazioni : etica e giuridica.
Sarebbe importante dunque costituire un Comitato Etico per lo sviluppo di chatbot di A.I., poiché la tecnologia digitale è un calcolo computazionale, ma non ha niente a che vedere con l’etica ossia la ricerca e la scelta della condotta migliore da tenere o meno.
Un algoritmo non discerne il bene dal male, non distingue il contesto in cui si pone in essere una condotta. Se l’impatto dell’impiego di un algoritmo non viene “processato” anche sotto il profilo etico e di diritto, non tiene conto dell’individuo che lo utilizza e delle conseguenze.
Pertanto occorrerebbe verificare e riflettere per comprendere come gestire l’A.I. che saranno sempre più pervasive nel nostro futuro prossimo.
E’ in gioco soprattutto la tutela di quei diritti personalissimi che riguardano non solo la protezione dei dati personali particolari dell’individuo, ma altresì ulteriori beni giuridici quali l’inviolabilità della propria persona.
L’abuso sessuale infatti non può ad oggi essere considerato meramente “fisico”, ma può essere considerata molestia e dunque reato sessuale ogni illecito che prescinda la presenza della persona, e persino che la condotta penalmente rilevante provenga da una “entità” che non corrisponde ad una persona fisica.
Ma a questo punto si pone una questione non di poco conto, se per il nostro sistema penale ordinamentale la responsabilità penale è personale, come può essere ascritta ad un algoritmo di intelligenza artificiale?
Machina delinquere (et puniri) non potest?
Spesso il diritto delle tecnologie digitali ha posto il tema della attribuzione della responsabilità a fronte della immaterialità dell’agente provocatore o delle conseguenze che ne derivano.
L’impiego sempre più diffuso di soggetti artificiali intelligenti, anche dietro spinta delle scienze robotiche pone numerose questioni di ordine giuridico, soprattutto quando si parla di crimini pensati e “disegnati” sulle condotte umane e non di entità digitali.
L’uomo sceglie tra bene e male, tra giusto e sbagliato, fra corretto e scorretto, fra condotta onesta e crimine. Ogni giorno. E lo fa condizionato dalla propria etica.
Ma qual è l’etica di un algoritmo? Quale quella di una tecnologia che apprende da modelli di riferimento in qui si imbatte?
Fino ad ora la questione legale era stata risolta con l’applicazione di quella che si definisce una responsabilità vicaria dell’uomo: la macchina, mero strumento nelle mani del vero autore alle sue spalle – uno sviluppatore o utilizzatore umano – cui possono riferirsi le condotte.
Ma quando l’abuso prescinde la responsabilità umana ancorché vicaria?
Il tema affascinante, per chi si appassiona, pone una considerazione che per qualsiasi giurista è imprescindibile per poter contestare la responsabilità: serve l’elemento psicologico, serve la volontà.
Senza volontà non c’è colpevolezza. Dunque un app che apprende da modelli diversi condotte che poi restituisce, ma che possono risultare abusi non può ritenersi responsabile?
Occorre ricordare che in molti casi l’IA può apprendere non solo dall’esperienza propria, ma anche da quella dei suoi “simili”, mediante il ricorso alle tecnologie di cloud computing.
L’interconnessione o interazioni di più soggetti artificiali, capaci per loro struttura e funzionalità di scambiare dati in cloud, consente di “sommare” in modo esponenziale le informazioni di molteplicità di macchine intelligenti, sottoposte a contesti d’impiego anche molto diversi. Da un lato così aumenta la rapidità di apprendimento dell’ A.I., ma del pari diminuisce il controllo umano.
La considerazione che ne discende e su cui occorre interrogarsi per poter intervenire è che per tecnologie di A.I. di ultima generazione il comportamento diviene ex ante parzialmente imprevedibile. Stiamo forse assistendo ad un momento di transizione fra la criminalità digitale e criminalità artificiale.
Ogni recisa negazione – per ora – di una responsabilità penale direttamente riconducibile alle macchine intelligenti riecheggia un “film” già visto: quello della responsabilità da reato degli enti, oggi invece affermata nell’ordinamento.
Per concludere anche se come ci ricorda il brocardo actus reus, mens rea, il difetto di colpevolezza, di perdita di funzione della pena in caso di accertamento della responsabilità, oggi afferma una lacuna normativa da colmare.
Questo vuoto di tutela generato dall’imprevedibilità dei soggetti artificiali intelligenti non è proporzionale all’acquisizione di autonomie sempre maggiori, ma certamente pone una domanda: con che criterio si può arrivare a stabilire il punto esatto in cui una IA cessa di essere “cosa” e diviene persona (elettronica)?
Chissà se Mary Shelley se lo è mai domandato quando ha immaginato Frannkestein.
*A cura dell’Avv. Laura Lecchi, Studio Legale Lecchi