Dall’avvento della Digitalizzazione 4.0 il dilemma etico non riguarda più solo usi e costumi dell’essere umano bensì si preoccupa di interfacciarsi con una tecnologia sempre più utile e forse invasiva.

Il fronte sul quale l’individuo si pone è sempre uno stare sulla cresta dell’onda cercando di non cadere nella Rete: letteralmente e metaforicamente; ormai le insidie nel web sono innumerevoli.

Ma se fosse proprio l’uomo a crearne e, di seguito, a diventarne dipendente in toto?

Su questi temi ed altri ancora si è concentrato il Webinar che abbiamo seguito qualche giorno fa, proposto dalla società di Software SAS, con un focus centrale che verteva, come da titolo, non tanto sull’affermare quanto etica e A.I. potessero relazionarsi bensì SE fosse possibile questa relazione e a che condizioni.

Prima di tutto però un paio di precisazioni; per capire bene cosa costituiscano da un lato l’ETICA e dall’altro l’INTELLIGENZA ARTIFICIALE, forse sarebbe meglio definirle per come le persone le intendono.

L’etica infatti può essere definita, per avere una parvenza di obiettività, statisticamente, al fine di evitare che chiunque possa istituire una sua idea di valore e renderla tale per il mondo intero; diciamo che il relativismo non aiuta l’analisi; ciò che la aiuta, invece, è l’indagine effettuata dall’Associazione Italiana per la Formazione Manageriale su come le persone definirebbero l’etica.

Ebbene, la maggioranza di esse ha dichiarato che quest’ultima: consiste nella ricerca di ciò che è bene per la persona; di ciò che è giusto fare o no fare”.

Concetto apparentemente scontato ma talvolta dimenticato.

Fissiamo a mente la prima parte della risposta, ci torneremo…

Ciò vale per l’etica dell’uomo definita dall’uomo stesso; mentre sulla definizione dell’Intelligenza artificiale cosa si può dire?

A tal proposito riporteremo alcuni passaggi significativi del relatore del webinar sul tema: Mariarosa Taddeo, ricercatrice (orgogliosamente italiana) in materia A.I. presso Oxford.

Secondo lei (e i suoi collaboratori) l’intelligenza artificiale è:

“Una risorsa di agenti autonomi, capaci di interagire e di imparare e che possono essere usati per eseguire compiti che altrimenti richiederebbero l’intelligenza umana per essere eseguiti con successo”

A testimonianza di ciò, Taddeo cita l’incidenza positiva che l’applicazione dell’A.I. ha comportato in ambito medico-sanitario; in particolare il riferimento è relativo alla percentuale di diagnosi corrette di un tumore al seno: 3% di errore umano ridotto allo 0,5% se supportato da Intelligenza Artificiale dedicata.

Fin qui tutto bene, anche perché le applicazioni che l’I.A. fornisce sono davvero ovunque: dalla Tesla con Intelligenza adattiva, passando per la domotica intelligente fino ad arrivare alla macchina del caffè con riconoscimento vocale per coloro che vogliono far fare un salto di qualità al proprio espresso.

Tuttavia, ad un certo punto dell’intervento, il sorriso bonario della relatrice si trasforma sempre più in un volto serioso quando si parla di come questi indiscutibili vantaggi possano essere regolamentati al fine di preservare l’integrità dell’essere umano che li controlla.

Nessuno scenario distopico, niente Matrix.

Ci si sofferma su quali potrebbero essere (notare il condizionale) le linee guida a supporto di una visione improntata sull’USO di queste risorse e non su un ABUSO di esse.

Controllare e gestire o farsi controllare e farsi sostituire? Costituire delle normative etiche che regolamentino la tecnologia quotidiana oppure abusarne senza sapere fino a che punto essa possa spingersi.

Qui si apre uno scenario diverso, più serio, più impegnato, più carico…

Secondo Taddeo infatti vi è una necessità urgente non solo di norme di regolamentazione ma di quello che lei definisce come approccio “TRUST AND FORGET” secondo cui bisogna avere fiducia nelle macchine ma sempre supervisionando il compito affidatogli.

Nonostante la traduzione italiana del termine Trust sia Fiducia, quest’ultima non risulta costituire l’approccio migliore poiché tende a delegare l’operazione all’A.I. SENZA SUPERVISIONE.

Ciò porterebbe a conseguenze disastrose venendo meno il cosiddetto “spazio di criticità” proprio dell’essere umano; quest’ultimo dovrà occuparsi infatti di SUPERVISIONARE l’operato dell’A.I. di modo che possa essere sempre garantito sia uno iato tra macchina e uomo sia una forma di garanzia tale da non rendere la macchina di un’operatività propria e fuori dal controllo.

L’approccio migliore infatti è un approccio che riempia i vuoti che la fiducia, naturalmente, non può di per sé colmare: appunto la SUPERVISIONE.

Questo modus operandi, di lungo preferibile alla sola fiducia con delega instabile, si propone di attuare misure efficaci di Auditing, non tanto sulla macchina ma su chi la dirige e la programma (il che indirettamente è la stessa cosa): ovvero sui team ibridi.

Qui esposta la differenza tra i due approcci:

  • Approccio di Fiducia
  • Approccio di Supervisione

Di seguito, per completezza, i 7 requisiti emanati dall’Unione Europea, ai quali deve attenersi l’I.A. per essere definita eticamente corretta:

  1. Supervisione umana dei sistemi di IA, a garanzia del rispetto dei diritti fondamentali e del benessere dell’utente;
  2. Robustezza e sicurezza, intese come sicurezza ed affidabilità degli algoritmi e come tenuta dei sistemi di controllo in caso di ipotetiche operazioni illecite;
  3. Privacycontrollo e gestione dei dati;
  4. Trasparenza a garanzia della tracciabilità dei sistemi e a dimostrazione delle operazioni compiute dell’algoritmo;
  5. Diversità, correttezza, assenza di discriminazione: i sistemi di intelligenza artificiale dovrebbero tenere conto delle diverse e distinte abilità e capacità umane, al tempo stesso garantendo a tutti il libero accesso a tali strumenti;
  6. Benessere sociale e ambientale, ossia avere sempre riguardo all’impatto sull’ambiente e sull’assetto sociale, promuovendo l’utilizzo dell’IA solo laddove il suo utilizzo possa garantire uno sviluppo sostenibile;
  7. Responsabilità, ovvero verifica continua dei sistemi, sia internamente che esternamente.

“L’intelligenza artificiale è una tecnologia trasformativa, un agente il cui utilizzo NON risulti sempre e comunque miracoloso; deve seguire ad un’attenta analisi rischi-benefici e applicata se necessario. Dopo aver considerato il contesto umano in cui la si vuole impiegare”

La precedente citazione rappresenta il termine dell’intervento di Taddeo, il cui monito è manifesto: considerare a priori le esigenze dell’uomo e, se necessario, attivare poi la macchina.

Ci sovviene dalle cronache recenti che, purtroppo, un’azienda in particolare, non sembra aver colto i punti normativi messi precedentemente in chiaro, balzando alla cronaca per spiacevoli algoritmi di I.A. che hanno fatto storcere il naso sulla questione.

Stiamo parlando di Replika, A.I. App, sviluppata nel 2020 in piena pandemia con l’intento di colmare la solitudine, il vuoto e la mancanza di un supporto umano sentiti da tante persone grazie ad un software integrato NPL (natural language processing) in grado di valutare, sulla base di determinati fattori, quali azioni intraprendere autonomamente per adattarsi ai cambiamenti.

Cambiamenti di carattere emotivo e strettamente personale, in cui l’etica stessa dell’individuo si esprime e manifesta.

Non solo. Infatti questo Chatbot (ormai un vero e proprio affective computer) è in grado di tenere compagnia ed aiutare gli utenti a scoprire sè stessi, con la dichiarata finalità di stabilire una “relazione” a lungo termine, anche mediante l’adattamento del robot alla personalità dell’”amico umano”.

Ma cosa succede se provo a coniugare un’App svincolata da norme (senza un controllo che non sia quello formale) con la natura etica dell’essere umano?

Nelle immagini seguenti i risultati…

Non servono molte spiegazioni: l’App convince, seppur indirettamente, l’interlocutore a commettere un suicidio; sia che la domanda venga posta in forma attiva sia in passiva.

Ora immaginiamo la moltitudine di persone con problemi personali che, iniziando per noia a utilizzare questa App, ci prendano gusto e trasportino nel virtuale le proprie emozioni e i proprio sentimenti più intimi (cosa che sui social avviene regolarmente); basterebbe un piccolo refuso del bot per chiarire meglio le idee alla persona: in bene o, come nel caso precedente, in male.

Giunti a questo punto è bene ricordare le parole che avevo consigliato di fissare a mente sulla definizione di etica come la ricerca di ciò che è bene per la persona.

Siamo allora davvero sicuri che questo sia ciò che va ricercato?

Il motto di Replika ha dunque del grottesco: “Always here to listen and talk. Always on your side”

Il motto di Taddeo ha del dogmatico: “è fondamentale non antropomorfizzare la tecnologia!”

Ciononostante il tentativo di coniugare A.I. e etica umana risulta essere come tutti gli altri dilemmi etici importanti: dei dilemmi appunto. Situazioni la cui risposta talvolta nemmeno esiste.

Ma qui lo scetticismo aiuta poco; vi è l’assoluta necessita che queste norme non siano solo descrittive ma anche fortemente prescrittive al fine di poter regolamentare un CORRETTO E SANO utilizzo dell’A.I.

Le soluzioni proposte da Taddeo sono importanti ma la palla adesso passa all’uomo; tutto si baserà su quanto ha fatto proprie le lezioni e da quanto è riuscito a imparare dai propri errori.

Discorso valido per un uomo, nello specifico, che ha contribuito ad una forte accelerazione delle dinamiche virtuali e che non accenna a rallentare; sto parlando di Mark Zuckerberg.

“META è il futuro!” errata corrige… META è già presente, fortemente presente.

E chissà se l’uomo sarà ancora in grado di dire la sua…

  • Fonti utilizzate:

-Linee guida etiche sull’intelligenza artificiale della Commissione Europea, anno 2019:

https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/640163/EPRS_BRI(2019)640163_EN.pdf

“Etica, responsabilità pubblica, imprenditorialità, management” a cura di: Borgonovi, Meda, Montante, Volpe; collana ASFOR, FrancoAngeli Editore, 2019

-Approfondimento caso Replika: