Abstract: Negli ultimi 10 anni e sempre più di frequente ci si trova a parlare di Intelligenza Artificiale (IA). Teorizzata negli anni ’50, ne sono stati realizzati i primi prototipi negli anni ’60 e dagli anni ’90 alcuni sistemi sono pienamente operativi in ambito industriale. Cosa è cambiato negli ultimi anni? Per prima cosa le macchine sono diventate capaci di percepire: possono leggere, ascoltare, vedere. Secondo, con l’arrivo degli smartphone e la diffusione della connessione internet a grandi parti della popolazione si è potuto raccogliere enormi quantità di dati. I Big data sono il combustibile dell’Intelligenza Artificiale. Questa tecnologia a quali rischi ci espone? Quali le sfide per il futuro?
Introduzione
Per decenni il termine Intelligenza Artificiale ha generato paura ed eccitazione nell’immaginarci intenti alla creazione di artefatti umanoidi oscurando il suo arrivo sotto ben altra forma rispetto a quella offertaci dalla fantascienza.
La diffusione a livello industriale è iniziata negli anni ’80 del secolo scorso, negli anni ’90 sono arrivati gli algoritmi di Machine Learning che hanno aperto la porta a una delle applicazioni della IA più utilizzate: la ricerca fra grandi quantità di dati. Capacità di ricerca che applicata ad una analisi semantica dei testi ci permette di trovare un documento fra miliardi disponibili semplicemente digitando o pronunciando alcune parole.
Questa capacità è stata affinata nei primi anni 2000 grazie a nuove famiglie di algoritmi ma è stata la diffusione della connessione a internet e l’arrivo degli smartphone a fornire alle IA il carburante di cui avevano bisogno per emergere: enormi quantità di dati.
Grazie a questa spinta, nel giro di 15 anni siamo arrivati a costruire sistemi che ci consigliano che film guardare, con quali persone condividere interessi, che riconoscono noi e i nostri cari nelle fotografie, che ci battono a scacchi. Negli ultimi mesi poi questi sistemi stanno invadendo anche il nostro spazio fisico: ci fanno sentire la musica, aprono porte, parcheggiano l’auto al posto nostro.
Quali sarà l’impatto sulla nostra società di questi sistemi robotici intelligenti? Quali cambiamenti imporranno? Sapremo governarli?
In questo articolo propongo alcune definizioni per contestualizzare la Intelligenza Artificiale, vedremo alcune delle capacità di questa tecnologia, quali sono i rischi connessi al suo utilizzo e cercherò di mettere a fuoco alcune delle sfide che ci aspettano per il futuro.
Definizioni
La definizione di intelligenza che viene data nei libri di testo che si occupano di IA è la seguente:
L’ intelligenza è la capacità di fare la cosa giusta, al tempo giusto, in un contesto dove non fare nulla sarebbe peggio”. L’intelligenza richiede: la percezione dei contesti nei quali si svolgono le azioni, la capacità di agire e la capacità di associare contesti e azioni.Secondo questa definizione le piante sono intelligenti e lo è anche un termostato: possono percepire e rispondere al contesto, le piante reagendo alle variazioni di luce, il termostato a quelle della temperatura.
I sistemi cognitivi sono quelli che sono capaci di modificare la propria intelligenza, una cosa che né le piante, né i termostati possono fare. I sistemi cognitivi sono in grado di apprendere nuovi contesti, azioni e associazioni fra essi. Questa definizione si avvicina molto di più a quella che viene convenzionalmente data di intelligenza.In questo senso l’intelligenza è un sottoinsieme del “calcolo”. Il calcolo, contrariamente alla matematica, è un processo fisico che richiede tempo, spazio ed energia. L’intelligenza è quel calcolo che trasforma contesti in azioni.
Con Intelligenza Artificiale (IA) si intendono convenzionalmente tutti quegli artefatti che estendono una qualche capacità dell’intelligenza naturale. Esempi sono il riconoscimento della voce, delle immagini, degli schemi ripetuti i cui algoritmi sono riportati dei principali libri di testo di IA. Se allarghiamo questa definizione “computazionale” includendo anche i mezzi robotizzati, allora possiamo definire Intelligenza Artificiale l’insieme di tutti quegli artefatti che estendono le nostre capacità di percezione e azione.
Machine Learning (ML) è l’insieme delle tecniche di programmazione di una IA che richiedono non solo una programmazione manuale ma anche una generalizzazione automatizzata dei dati che gli vengono forniti attraverso una analisi statistica degli stessi. Spesso lo scopo del ML è quello di trovare regolarità in insiemi di dati isolando, dividendo, campionando. I risultati possono portare non solo a classificazioni ma anche essere usati per trovare (imparare) azioni.
Si noti che in ogni caso il Machine Learning implica una componente che deve essere programmata da un uomo. Non basta immaginare un algoritmo perché ne nasca una IA capace di percepire e agire.
I Robot sono artefatti in grado di percepire e agire nel mondo fisico e in tempo reale. In questo senso gli smartphone sono dei robot: posseggono microfoni, telecamere e altri sensori che permettono loro di conoscere il loro orientamento nello spazio e interagire con l’uomo e con altri smartphone.
Capacità
Il grande successo dell’Intelligenza Artificiale e la sua diffusione presso il grande pubblico si deve alle tecniche di Machine Learning. Fin dagli anni ’90 è risultato chiaro che il metodo più efficace per insegnare qualcosa a una macchina è con l’esperienza.
Conosciamo tutti i filtri anti-spam nelle nostre caselle di posta elettronica. I sistemi che marcano le email funzionano con una prima fase di apprendimento nella quale viene fornito un insieme di email selezionate che imparano a dividere e contrassegnare. Dopo un numero più o meno grande di prove il sistema stabilisce autonomamente i criteri coi quali selezionare le parole e gli indirizzi di cui una email è composta che gli permettono di massimizzare un parametro di efficacia. Terminata la fase di apprendimento il sistema può andare “online” e selezionare le email fraudolente nel momento stesso in cui vengono recapitate.
Negli ultimi anni gli algoritmi di ML si sono molto evoluti e si è arrivati a costruire algoritmi molto più sofisticati che possono anche imparare ad imparare (detti Deep Learning). In un recente esperimento condotto da Google, sono stati dati ad una IA 57 videogiochi Atari senza fornire le istruzioni su come giocarli. Il sistema ha imparato da solo le regole facendo un gran numero di esperienze ed errori ma ha anche imparato a riconoscere le strategie di maggior successo. Dopo qualche ora di apprendimento è riuscito a vincere in tutti i giochi con punteggi nettamente superiori a quelli registrati dagli uomini.
Questo tipo di algoritmi vengono oggi utilizzati nei campi del riconoscimento visivo, del linguaggio scritto e parlato e per insegnare alle automobili a guidare da sole. Vengono usati nel riconoscimento dei segnali cerebrali come delle emozioni espresse da un viso o da una voce.
Rischi
L’uso dell’Intelligenza Artificiale è alla base di molte imprese di successo degli ultimi anni: Google, Amazon, Microsoft, Apple ecc.e ha rivoluzionato il modo in cui accediamo alla conoscenza, al sistema economico, al sistema sociale. I benefici sono sotto gli occhi di tutti anche se alle volte tendiamo a sottovalutare alcuni aspetti: si pensi a come la diffusione di previsioni metereologiche accurate e disponibili a tutti abbia permesso a molti agricoltori di mettere al sicuro i loro raccolti e a come gli abbia permesso di accedere a mercati sempre più ampi permettendogli di ottenere prezzi migliori. In casi come questi l’uso dell’IA ha contributo alla riduzione dei diseguaglianze ed è stata di aiuto ai più deboli.
Tuttavia l’uso sempre più diffuso delle tecnologie connesse all’Intelligenza artificiale sta generando preoccupazioni riguardo il loro uso, prima fra gli accademici e gli esperti di tecnologia e sempre più nel grande pubblico.
Abbiamo già visto in molti campi che le capacità di una IA superano quelle dell’uomo. Sono più veloci a calcolare, a leggere, ricordano con più precisione e per maggior tempo. Sono più abili a giocare a Scacchi, a Go, a trascrivere un testo, a leggere le labbra, a riconoscere un volto in mezzo a una folla.
La tecnologia ci offre poi una possibilità che mai abbiamo avuto fino ad oggi: registrare e conservare una moltitudine di informazioni: pagamenti, contratti, i dati provenienti dai sensori degli apparecchi digitali, la storia creditizia, per non parlare di ciò che viene scritto e condiviso sui social media. Riguarda praticamente tutti.
Privacy e libertà personali
Il problema non è solo la raccolta e la conservazione dei dati, è la possibilità di usare algoritmi di Machine Learning per cercare delle regolarità fra i dati. Non solo è facile per questi sistemi identificare una persona in mezzo ad una folla attraverso videoregistrazioni o riconoscendo i nostri processi di acquisto o socializzazione ma possono anche catalogare le nostre predisposizione politiche o economiche e indicare quali azioni posso essere più efficaci per modificarle.
Con il Machine Learning è anche attualmente possibile avere informazioni alle quali prima non avevamo accesso. Gli algoritmi di “Natural Language Analysis” permettono di capire se una persona stia mentendo o, più in generale, stabilire il suo stato d’animo attraverso le parole che usa (sia per iscritto che a voce) e possono fornire una catalogazione per tipo caratteriale, attitudini politiche o indicare la sua probabilità di successo lavorativo.
La raccolta di molti dati permette di costruire modelli sempre migliori del comportamento umano e con un buon modello abbiamo bisogno di sempre meno dati per fare delle previsioni sui comportamenti di un certo individuo. È su questo tipo di modellazione comportamentale che si basano le più recenti strategie politiche: classificare gli elettori, individuare i soggetti più inclini a modificare il loro voto e selezionare le azioni più efficaci a fargli cambiare schieramento come provato dagli scandali che sono succeduti alle recenti elezioni presidenziali negli stati uniti o all’esito del referendum sulla Brexit in Gran Bretagna.
È quindi lecito aver paura della diffusione delle informazioni (azioni o pensieri) che ci riguardano per due ragioni: primo perché ci rendono più facili da prevedere e quindi manipolare. Secondo, perché ci espongono ad essere attaccati da coloro che non condividono le nostre opinioni. Questi attacchi possono essere di tipo individuale (esclusione sociale, bullizzazione) ma possono arrivare anche alla carcerazione o alla morte per mano di governi illiberali.
Il problema è che non solo la paura è essa stessa nociva, ma che la limitazione delle libertà personali e di espressione riduce la quantità di idee disponibili a livello sociale limitando la capacità di innovazione.
Il caso Cinese
Dal 2014 in cina è in fase di implementazione un Sistema di Credito Sociale (SCS) che dovrebbe raggiungere la fase finale nel 2020: ad ogni cittadino viene dato un punteggio che aumenta o diminuisce a seconda di cosa cerca in rete e del proprio comportamento.
Ad alcune di queste valutazioni siamo sottoposti anche nel mondo occidentale: le banche stilano profili di affidabilità creditizia, siamo valutati attraverso un sistema di recensioni se abbiamo una impresa aperta al pubblico o attraverso recensioni dai datori di lavoro sui siti dove cercare impiego.
Il sistema cinese però porta tutto questo ad un nuovo livello accorpando i dati proveniente da diverse fonti private e pubbliche prendendo in considerazione anche il punteggio di famigliari e conoscenti. Non solo si può essere esclusi dalla concessione di credito se in passato ci sono stati problemi nella restituzione di un debito, ma se si viene ripresi a fare baccano su un treno diventa difficile poi acquistare un biglietto per un qualunque mezzo di trasporto. Qualche infrazione del codice della strada può costarti il posto di lavoro, farti aumentare le tasse, allungare i tempi della burocrazia, impedire l’accesso alle scuole di maggior prestigio.
Il Sistema di Credito Sociale cinese ci mostra che il tracciamento e la misurazione di tutte quelle attività che lasciano una traccia digitale crea un cittadino “nudo” la cui dignità e privacy sono progressivamente lese, la cui capacità decisionale è fortemente ridotta, l’autonomia praticamente abolita.
Disuguaglianza Sociale ed Economica
La storia degli ultimi due secoli ci insegna che le innovazioni tecnologiche stravolgono società, famiglie, vite ma che sul lungo termine i loro effetti sono benefici: Allungamento della vita media, diminuzione della mortalità infantile, miglioramento delle condizioni economiche dei più deboli. Alle volte però questi stravolgimenti si accompagnano a tensioni sociali innnescate da diseguaglianze sociali ed economiche quando i benefici delle nuove tecnologie sono appannaggio di pochi. Alle tensioni sociali spesso seguono periodi di polarizzazione politica che non fanno che aumentare i livelli di disuguaglianza.
La sfida tecnologica
E’ possibile controllare un sistema del quale non possiamo del tutto comprendere i processi interni? Se le macchine possono processare e valutare quantità di dati esorbitanti per le capacità umane sono più “intelligenti” degli uomini? Se si, chi le può controllare?
La questione non è ipotetica. Per quanto le IA siano artefatti disegnati e prodotti dall’uomo e supponendo che nel processo di creazione non siano inserite possibilità di azione non etiche, non è detto che il risultato dei processi di analisi e decisionali di una IA possano essere accettabili da un punto di vista etico.
Un esempio viene dai veicoli a guida autonoma: la loro missione è condurre i passeggeri all’interno del veicolo dal punto di partenza a quello di destinazione in maniera rapida e proteggendo la loro vita. Se lungo la strada l’auto si trovasse improvvisamente davanti un pedone e valutasse la manovra per evitarlo rischiosa per la vita dei passeggeri, farebbe bene ad investire il malcapitato?
Il criterio che fino ad ora ha guidato la creazione delle IA è quello di migliorare le capacità dell’uomo. Vedere meglio, più lontano, leggere più rapidamente etc. Amplificare insomma le nostre abilità attraverso l’ottimizzazione di alcuni parametri.
Definire un parametro che valuti la moralità di una azione è invece difficile ed è un problema non risolto ed urgente.
Se è vero che l’uomo ha costruito un sistema di regole sociali attraverso millenni di evoluzione non è affatto detto che le IA possano fare altrettanto raffrontandosi al comportamento umano. E poi c’è il problema della selezione delle regole etiche o morali in un mondo globalizzato. Una ipotesi è quella di ispirarsi alla Carta dei Diritti dell’Uomo vista l’ampia adesione ricevuta a livello mondiale. Come trasmetterla è un problema ancora aperto.
La sfida sociale
Storicamente gli uomini hanno usato le macchine per aumentare la loro produttività. Le macchine industriali hanno aumentato la produttività degli operai, le macchine da ufficio hanno reso più efficienti alcune mansioni, aumentato il mercato e creato nuovi profili lavorativi.
Le IA, insieme ai Big Data, rivoluzionano questa prospettiva perché possono imparare e progredire autonomamente. In alcuni campi, come nella contrattazione finanziaria, si sono sostituite all’uomo lì dove è inadeguato per la quantità o complessità di informazioni da processare o il costo del rischio connesso ad un errore della macchina è inferiore al beneficio che deriva dall’automazione. Ci sono però ancora molti campi nei quali il costo del rischio è troppo alto o difficilmente identificabile per i quali l’intervento dell’uomo è essenziale.
Non siamo in grado di prevedere se sul lungo periodo i posti di lavoro che verranno persi per via dell’automazione saranno sostituiti e in che misura da nuovi tipi di lavoro. Sul breve periodo i lavori più a rischio sono quelli dove i costi di implementazione di sistemi automatizzati sono bassi e il valore decisionale modesto. Data la grande quantità di lavoratori che svolgono attualmente mansioni di questo tipo è ipotizzabile una fase di crescente disoccupazione e conseguente instabilità sociale.
Quanto successo nella prima metà del secolo scorso dovrebbe indicarci la via per evitare, o quanto meno limitare, gli effetti negativi che la rivoluzione tecnologica in corso potrebbe portare: la redistribuzione delle risorse intellettuali ed economiche.
In generale quando sono pochi gli attori in grado di sfruttare una qualunque tecnologia sono anche pochi i beneficiari economici del suo sfruttamento. La responsabilità della redistribuzione delle risorse è in capo al governo: ad una rivoluzione tecnologica deve seguire una rivoluzione nel governo della cosa pubblica per ristabilire equilibrio.
E questo ci porta ad una considerazione finale: Siamo in grado di tenere il passo della rivoluzione in corso a livello governativo? No. Nessun governo ci sta riuscendo. Non esiste una legge per i robot e non è possibile applicare quella esistente perché scritta per gli uomini, con concetti e linguaggio a volte ambigui che non è possibile trasmettere alle macchine. La questione si complica ulteriormente se si prende in considerazione il fatto che nei processi di apprendimento artificiale si possono creare delle rappresentazioni incomprensibili per l’uomo.
Nell’attesa che si stabilisca un quadro di riferimento legale e normativo per le IA è necessario intervenire urgentemente sulle questioni etiche riguardo la raccolta e l’utilizzo dei dati. Lo scenario attuale è quello di un Far West dove poche compagnie accumulano e usano dati personali e solo in seguito chiedono il permesso o si scusano. Non possiamo permettere che questo continui. Porre un freno al flusso di dati a disposizione dei pochi in grado di elaborarli potrebbe darci il tempo per concordare e stabilire i limiti di azione di queste tecnologie. Bisogna fare molto in fretta.
Bibliografia
Helbing, D. et al., Will Democracy Survive Big Data and Artificial Intelligence?, Scientific American, 2017.
Vansant Dhar, The Future of Artificial Intelligence, Big Data, Vol.14 Num. 1, 2016.
Bryson, J. J., Towards a New Enlightenment? A Transcendent Decade, BBVA OpenMind, 2019.
Jordan, M. I. & Mitchell, T. M., Machine Learning: Trends perspectives and prospects, Scientific American Vol. 349 Num. 6245, 2015.
Ekiba, a et al., Big Data, bigger dilemmas: A critical Review, Preprint, Center of Research on Mediated Interaction, University of Indiana, 2018.
Anderson, J. & Rainie, L., Artificial Intelligence and the Future of Humans, Pew Research Center, 2018.
Miyake, K., How will AI change international politics?, The Japan Times, 2019.
Rands, K., How Big Data has changed politics, IDG, 2018.
Butterfield, L., How AI is shaping the future of politics, University of Oxford, 2018.
Korner, K., AI, Big Data and the future of politics, Deutsche Bank Research, 2019.
Immagine di copertina: deepak pal
'Intelligenza Artificiale, Big Data, Machine Learning: quali le sfide, quali i rischi?' has no comments
Be the first to comment this post!