Loading....

Cambi di paradigma, luci ed ombre dell’AI: cosa ci attende

La corsa all’innovazione: AI sempre più presente

La pandemia ha accelerato il processo di digitalizzazione e automatizzazione già avviato negli ultimi anni. In particolare, in Italia, l’innovazione imposta dalla crisi pandemica stenta a diffondersi dato che le organizzazioni hanno ancora un approccio molto disomogeneo e immaturo nei confronti dell’Artificial Intelligence (AI), pur nella consapevolezza che questa tecnologia è in grado di offrire un numero elevato di soluzioni e di campi di applicazione in grado di automatizzare procedure a basso valore aggiunto, potenziando alcuni servizi. L’AI, di fatto è già parte integrante della nostra quotidianità: in questo momento storico essa costituisce una leva strategica, destinata a creare valore economico, a migliorare la qualità della vita – grazie all’’impiego dei dati a disposizione – oltre a trasformare il paradigma del settore della manifattura ovvero attuare una transizione verso un approccio a base di dati.

Oggi le nostre PMI hanno la possibilità di avere accesso a risorse di tipo computazionale, banche dati, AI, software che, se opportunamente utilizzate, possono dare loro la competitività necessaria per operare in un mercato sempre più erratico.

In questo momento storico sarebbe auspicabile concentrare le energie di sistema Paese e di ecosistema industriale per “cavalcare” queste nuove tecnologie, investendo in modo strutturato e soprattutto attuando i necessari cambi di paradigma che l’innovazione implica, in modo tale da recuperare la competitività perduta, creare ricchezza e posti di lavoro, aumentare la cultura digitale attraverso un’adeguata istruzione e formazione in modo tale da aggiornare le competenze ed essere maggiormente pronti all’utilizzo dell’AI.

Cambi di Paradigma necessari

Grazie ad una logica di adozione dell’AI e del digitale più ampiamente inteso, sarà sempre più possibile creare un notevole impatto positivo in termini sociali, economici e culturali. Stiamo assistendo alla creazione di nuovi lavori che presuppongono competenze specializzate e che al momento non riescono a diffondersi, a causa della mancanza di profili adeguati sul mercato.

Come sostiene Luciano Floridi, professore ordinario di Filosofia ed Etica dell’Università di Oxford, “Se è vero che queste tecnologie trasformano il mondo del lavoro in maniera così radicale, c’è un costo di transizione che verrà pagato da questa generazione, ma dobbiamo rendercene conto perché un minimo di supporto sociale dovrà per forza essere previsto. Dovremo spalmare cronologicamente i vantaggi di questa tecnologia per alleviare il sacrificio che sarà in capo alla generazione attuale. Non pare giusto, né umano che, per permettere la crescita del digitale futura, ci si dimentichi di quelle professioni che oggi spariranno completamente e delle persone che le svolgevano…” Pertanto, l’impiego della AI implica necessariamente organizzazioni strutturate, agili e flessibili e trasparenti in grado di attuare i necessari cambi di paradigmi. Tuttavia, per fare ciò, è necessario, ora più che mai, che le organizzazioni imparino a conoscere sé stesse e raggiungano una profonda consapevolezza degli scenari globalizzati in cui operano, in modo tale da identificare rischi e minacce, valutarne gli impatti e strutturarsi per risultare sempre più resilienti nell’affrontare le sfide che di volta in volta si troveranno ad affrontare.

Ecco, allora, che i principi di Risk Management, Business Continuity e Cyber Security, se correttamente incorporati nelle organizzazioni, contribuiscono a creare l’”humus” ideale per favorire un processo olistico grazie al quale tutte le funzioni e gli stakeholder operano in modo sinergico tra loro e favoriscono quella “innovazione armonica” antropocentrica che utilizza l’AI.

Ricordiamoci, come afferma Floridi, che stiamo sempre più operando del mondo della “Infosfera”, ovvero, nello spazio delle informazioni sia analogico sia digitale in cui queste due dimensioni si mescolano senza soluzione di continuità e a cui siamo perennemente connessi. La nostra esistenza è “Onlife” e, tutti quanti, attraverso i nostri smartphone, siamo “intercettati”. Metafisicamente, l’individuo si converte in “essere informazionale” e, al contempo, “co-referenziale”: c’è solo un Essere che diventa “rete” in cui le relazioni costituiscono i nodi, con articolazioni (il molteplice) e trasformazioni (il divenire). Di qui la necessità di regolamentare questa tecnologia nella salvaguardia degli individui stessi.

Luci & Ombre dell’AI

Le tecnologie digitali basate sull’AI ci permettono di fare cose sino a poco tempo fa impensabili, a tal punto da poter affermare che stiamo vivendo una Quarta Rivoluzione Industriale. Al tempo stesso è necessario capire veramente chi siamo, chi vogliamo essere, che società vogliamo costruire. Si tratta di una rivoluzione di autocomprensione, una delocalizzazione di noi stessi: non siamo più al centro dell’informazione e ci sono tanti “attori” che trattano l’informazione più velocemente e in maniera più efficace. Pertanto, l’umanità deve essere sempre più responsabile dal punto di vista morale, utilizzando in modo appropriato la tecnologia dell’AI, dato che l’attribuzione di responsabilità a uno specifico agente individuale diventa più difficile e controversa.

Stiamo assistendo ad un passaggio da un modus vivendi millenario, basato su scelte, preferenze, selezioni e privilegi in grado di garantire che tutto resti “futura memoria”, ad un “modus digitandi” che si basa sulla “cancellazione” ovvero su cosa rimuovere, editare, curare o semplicemente non registrare, i.e. una cultura dell’oblio generata dalla fragilità della memoria digitale.

Riflessioni

Il mondo è cambiato ed implica sempre più un innovazione armonica antropocentrica che sia in grado di impattare sulla dimensione socio-politica e strutturare al meglio gli scenari in cui ci troviamo ad operare, soprattutto in un’ottica di modello Europa unita nel gestire questa Quarta Rivoluzione Industriale così impattante.

Si tratta di affiancare etica e tecnologia per un’AI che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. Tutto ciò implica l’adozione di nuovi criteri, categorie e linguaggi, ovvero occorre sviluppare un’etica degli algoritmi. Come afferma padre Paolo Benanti – francescano e docente di Teologia Morale ed Etica delle Tecnologie alla Pontificia Università Gregoriana e accademico della Pontificia Accademia per la Vita – “La AI non serve a fare una cosa nuova ma è una tecnologia che cambia il modo con cui facciamo tutte le cose. L’AI può surrogare la presenza umana in alcune azioni ma non può certo sostituire l’uomo”. Si tratta di cambiare la comprensione che l’uomo ha di sé stesso e del mondo.

In merito alla questione dell’eventuale attribuzione di “personalità elettronica” – ossia diritti e responsabilità ai robot, in grado di assumere decisioni in modo autonomo, oggetto di dibattito europeo – risulta interessante la posizione di Paolo Benanti, secondo il quale, sarebbe auspicabile affrontare la problematica su tre livelli, e precisamente: livello tecnologico – riuscire a capire come costruire macchine che dimostrano un forte grado di imprevedibilità; livello etico – come gestire questa imprevedibilità; livello regolamentare giuridico – come gestire queste macchine nella vita di tutti giorni in una società costituita sempre più di agenti umani (persone) e di agenti autonomi robotici.

Ad oggi la Comunità Europea si è limitata ad agire a livello giuridico, i.e. come regolamentare l’utilizzo di queste macchine nella società. C’è chi ritiene che attribuire personalità giuridica ai robot non significhi considerarle delle persone, bensì consentirebbe di poter attribuire delle responsabilità e, di conseguenza, avere una copertura assicurativa e poter ottenere risarcimenti a fronte eventuali danni provocati a persone o a proprietà.

Ricordiamoci che non si può parlare di etica senza conoscere gli aspetti tecnici, non si può dare una regolamentazione giuridica senza principi etici e una conoscenza del sub-strato tecnologico. Occorre introdurre nel rapporto singolo–produttore degli enti terzi, enti che certifichino l’utilizzo di queste macchine funzionanti con algoritmi, i.e. codici che determinano come la macchina reagirà. Ad oggi questi algoritmi sono custoditi in “dark box” protette da copyright, pertanto, sarà necessario passare alle “crystal box” garantendo in questo modo la trasparenza degli algoritmi.

In considerazione del fatto che l’AI si basa su valori numerici, si dovranno creare nuovi paradigmi per trasformare i valori etici in qualcosa che la macchina possa capire. “La scelta etica è prettamente umana” – afferma Benanti – “ma, in qualche misura, deve diventare una competenza della macchina autonoma”. Per fare questo è necessario garantire un calibrato mix di etica e macchina e considerare una nuova etica, i.e. l’Algor-Etica. Si tratta di racchiudere all’interno della macchina valori, principi e norme attraverso la creazione di un linguaggio macchina in grado di “instillare il dubbio” nella macchina stessa che, a quel punto, interpellerà l’uomo, portatore d’etica, per validare le sue decisioni. Solo in questo modo si potrà creare una “Human Centered AI” e sviluppare macchine che siano integrate con l’uomo e insieme all’uomo cerchino la soluzione migliore, cioè allo stesso tempo efficace e “compatibile in ogni direzione”.

Federica Maria Rita Livelli

Coordinatrice Commissione Reti – Community Donne 4.0

Fonte: Leadership&Management Magazine

Back To Top