1345658982

Intelligenza artificiale: quale la strada per governarla?

01 dicembre 2021
6 min di lettura
01 dicembre 2021
6 min di lettura

Da ‘Blade Runner’ a ‘Matrix’, da ‘WALL-E’ a ‘Io, Robot’, l’intelligenza artificiale, sia essa sotto forma di androidi, algoritmi, software o cyborg, è entrata a fare parte del nostro immaginario da diversi decenni.
Già negli anni ’40 Isaac Asimov, famoso soprattutto per i suoi libri di fantascienza, scriveva le tre, attualissime, leggi della robotica:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Da allora l’innovazione tecno-scientifica è andata avanti a passi da gigante, portando a due accadimenti fondamentali per lo sviluppo dell’AI:

  1. la potenza di calcolo è cresciuta esponenzialmente;
  2. abbiamo a disposizione una grande quantità di dati.

Dati e deep learning


Ormai è sulla bocca di tutti: siamo entrati a pieno titolo nell’era dei big data, in cui la produzione, la condivisione e l’elaborazione di informazioni sulla nostra salute, sulle nostre abitudini, sulle nostre vite, è sempre più veloce. Ogni mese su Fb vengono condivisi circa 30 miliardi di post. Ogni minuto su YouTube vengono caricate 48 ore di nuovi video. E se per decodificare il genoma umano prima servivano 10 anni, adesso basta una settimana. Ma cosa c’entrano i big data e la potenza di calcolo con l’intelligenza artificiale?
Partiamo da una definizione, fondamentale per capire il mondo dell’AI, quella di deep learning. Un sistema di deep learning è una rete neurale composta da molti strati. In altre parole, è una connessione di molte unità, che si collegano e comunicano tra loro simulando il funzionamento del cervello umano. Come accade anche in natura, questi “neuroni artificiali” ricevono un segnale in entrata e trasmettono un segnale in uscita, propagando in questo modo il messaggio attraverso i vari strati della rete. Il sistema non è programmato, e impara procedendo per tentativi. Per imparare, quindi, al sistema servono tanti – tantissimi – esempi e con l’immensa molte di dati che produciamo, oggi questo è possibile. L’intelligenza artificiale ovviamente non è tutta uguale e si distingue in due approcci fondamentali: model based e model free. Per capire di cosa stiamo parlando (potete leggere questo articolo su Il Tascabile), possiamo pensare a come funziona la mente umana, che normalmente nel prevedere fenomeni e operare scelte si affida a dei modelli per interpretare la realtà. Il che è una cosa differente dal memorizzare tutte le informazioni che raccogliamo e analizzare le probabilità che una cosa accada, che è il meccanismo alla base dei sistemi di deep learning.

648272290

Rappresentazione di una rete neurale

L’avanzamento tecnologico e la ricerca nel settore stanno portando a sistemi sempre più sofisticati, il cui riscontro è possibile anche nella vita di tutti i giorni: basti pensare ad esempio al livello di precisione che stanno raggiungendo i traduttori automatici disponibili in rete. L’intelligenza artificiale, però, sta facendo parlare di sé anche per alcune storie che sono balzate all’ordine delle cronache. Uno dei primi casi a far parlare di sé e a colpire profondamente l’immaginario collettivo fu, nella seconda metà degli anni ’90, il caso della vittoria a scacchi di Deep Blue – un computer messo a punto da IBM – che riuscì per la prima volta nella storia a battere un campione del mondo in carica in carna ed ossa. Dopo aver subito una prima sconfitta nel 1996 il calcolatore fu aggiornato e nel 1997 riuscì a battere Garry Kasparov. La sfida sul campo da gioco tra un computer e un umano è tornata in voga più recentemente nel 2016, anno in cui AlphaGo ha battuto il campione coreano di Go, un gioco da tavola cinese molto complesso.

Governo dell’intelligenza artificiale
Gli esempi che si potrebbero fare sono moltissimi: un caso che ha certamente suscitato molto interesse è anche quello di Google Brain Team, che ha portato avanti lo sviluppo di sistemi razionali che fossero in grado di elaborare in modo non supervisionato delle strategie per mantenere criptate le proprie comunicazioni.
In ambito giuridico, ha fatto molto discutere il caso di Compas, un software sviluppato per calcolare il rischio di recidiva utilizzato dai giudici americani, che è risultato discriminatorio nei confronti degli imputati di colore.
Molto ci si sta interrogando anche sui sistemi che diventeranno operativi con l’auto a guida autonoma. Quale scelta prendere in caso di pericolo? L’MIT ha creato una piattaforma dedicata proprio a questo:

846875220

Gli esempi potrebbero essere moltissimi, ma quello che è importante capire, senza catastrofismi, ma certamente con impegno e determinazione, è che l’intelligenza artificiale, va governata. O rischiamo di essere noi governati da lei.
Come fare quindi? Quali sono i valori, i luoghi e le persone che dovrebbero avere voce in capitolo? Stando agli esperti di politiche dell’innovazione e stando a numerose esperienze avviate in tutto il mondo, un passaggio obbligato è quello di avviare un dibattito il più possibile partecipato, che includa i diversi attori della società, garantendo l’inclusione di più punti di vista possibili. In Inghilterra, negli Stati Uniti, in Canada e in Francia, ad esempio, sono partite diverse esperienze di consultazione pubblica sul governo dell’intelligenza artificiale e di studio interdisciplinare su questo tema.
A sostenere l’importanza del cosiddetto public engagement nella gestione dell’innovazione, in questo caso dell’intelligenza artificiale, non sono soltanto gli esperti di etica e governance. Anche alcuni ricercatori e imprenditori, ad esempio uno dei fondatori di DeepMind, Mustafa Suleyman, in un articolo pubblicato su «Wired UK» ha espressamente assunto questa posizione: «gli studi sull’etica, la sicurezza (safety) e gli impatti sociali connessi all’intelligenza artificiale rientreranno tra le aree di indagine più urgenti dei prossimi anni» ed è necessario sviluppare «la creazione di nuovi meccanismi di decision-making che includano direttamente i cittadini». E in Francia a spendersi per la consultazione pubblica sull’intelligenza artificiale troviamo in prima linea Cédric Villani, matematico di fama internazionale.
Sembra proprio che per governare l’intelligenza artificiale serve prima di tutto la nostra intelligenza collettiva.

A cura di anna Pellizzone