sicurezza
Cheating on Siri
Ipotesi di linee-guida per la sicurezza della Internet of Things e dell'intelligenza artificiale
1988
When I was twenty-four, it was a very good year.
John Rambo combatteva per l’Afghanistan, Jessica Rabbit cantava Why don’t you do it right e Jovanotti chiedeva se fosse qui, la festa.
I computer per uso personale erano abbastanza diffusi da meritarsi una rivista tutta loro (in America, ovviamente) e anche se il loro destino era ancora “confuso”1, il milione di copie di Windows 2.0 vendute da Microsoft lasciava ben sperare per il futuro. Il 1988, però, fu una buona annata anche per gli attacchi informatici. A Marzo, il Politecnico di Torino scoprì il virus Ping Pong, che infettava il boot-sector MS-DOS; a Giugno fecero la loro comparsa i primi virus per le macchine Apple: Cyber AIDS e Festering Hate; infine, a Novembre, Robert Morris creò il primo worm per sistemi VAX e Sun. Ben presto fu chiaro che i computer erano a rischio e fu necessario proteggerli con programmi antivirus. Il primo fu un programma per rimuovere il virus Vienna e lo scrisse, proprio nel 19882, Pavel Baudiš, che sarebbe poi stato uno dei fondatori di Avast.
1998
When I was thirty-four, it was a very good year.
I maschietti erano tutti Pazzi per Mary, mentre le femminucce si struggevano sulle note di My Heart Will Go On. La protezione dal software malevolo era ormai una pratica comune e anche se la lista dei virus in circolazione si era drasticamente allungata3, l’informatica era tornata a essere ragionevolmente sicura, a meno di non voler risparmiare sugli aggiornamenti di Mc Afee. La sensazione del momento si chiamava Internet, una cosa del tutto nuova, piena di pagine con GIF animate e testi lampeggianti, che, quando la raccontavi, i tuoi genitori ti guardavano strano senza capire di cosa stessi parlando. Anche in questo caso, però, la nuova tecnologia portò nuovi pericoli: nel Febbraio del 1998 tre teen-ager riuscirono a violare alcuni computer del Dipartimento della Difesa americano4 e nel 1999 il worm Melissa, che si diffondeva tramite e-mail infette, causò più di un milione di dollari di danni. Fu quindi necessario far evolvere i sistemi di difesa, realizzando firewall che filtrassero più dati e meglio.
2008
When I was forty-four, it was a very good year.
Il cinema ci offriva la scelta fra il positivismo Marvel di Iron Man e l’introspezione psicotica del Batman di Christopher Nolan; dagli schermi di MTV, un’affascinante Katy Perry ci confessava di aver baciato una ragazza e che le era piaciuto. La protezione delle reti era ormai un’attività di routine e cominciava a diffondersi anche la nuova disciplina della sicurezza applicativa5. C’erano voluti più di dieci anni di lavoro, ma alla fine sembrava che fossimo riusciti a rendere sicura anche Internet. Era vero: sembrava. Il 9 Gennaio del 2007, Apple aveva presentato il primo modello di iPhone e da allora, niente era più stato come prima, nel bene e nel male. Il male, nello specifico, era un aumento rapidissimo e in costante crescita della superficie di attacco. Per chi si occupava di computer dal secolo scorso fu una sorta di deja-vu: non solo dovevamo preoccuparci di nuovo di virus trasmessi da applicazioni infette, ma dovevamo riconsiderare tutto ciò che sapevamo sulla sicurezza delle reti per riuscire a gestire i Web-services per la trasmissione dei dati e la6 cloud in cui venivano conservati i documenti per essere accessibili a più dispositivi mobili. La grande novità, rispetto al passato, fu l’estrema capillarità del fenomeno. Se nel 2006 il 63% degli Italiani non aveva ancora utilizzato Internet, oggi il 71% delle famiglie e il 63% delle persone accede abitualmente alla Rete con smartphone (78%), computer (69%) o tablet (29%)7. Questa diffusione, dovuta anche ai social-network e alla scarsa competenza della maggior parte degli utenti (69% di chi accede con smartphone)8 sono probabilmente i motivi per cui, a più di dieci anni dalla presentazione del primo iPhone, non siamo ancora riusciti a garantire la sicurezza del mondo mobile: mentre il computer è visto dai non addetti ai lavori con un misto di sospetto e di timore reverenziale, lo smart-phone è uno strumento che permette di svolgere azioni familiari come fare una telefonata, scattare una fotografia o ascoltare musica: è difficile percepirlo come una potenziale minaccia. Sfortunatamente, però, gli smart-phone, usati male (e questo avviene nel 69% dei casi), sono una minaccia, sia dal punto di vista informatico che dal punto di vista sociale9.
2018
And now I think of my life as vintage wine..
Se guardiamo i film usciti o in uscita quest’anno troviamo un’impressionante numero di sequel: Incredibles 2, Deadpool 2, Mamma mia! 2, The Equalizer 2, Hotel Transilvania 3, Ocean’s 8, Mission Impossible 6. Alto anche il numero di prequel (Solo, Venom) e rifacimenti (The Predator, Papillon, Tomb Raider)10. Dua Lipa in sottofondo afferma di non essere particolarmente interessata al problema11, ma la mancanza di originalità è comunque preoccupante perché l’originalità, il pensiero creativo e la capacità di immaginare cose nuove e diverse sono requisiti fondamentali per l’evoluzione di una società, specie in vista del prossimo salto tecnologico, che cambierà ancora una volta il nostro modo di vivere. Mi riferisco all’intelligenza artificiale, che da adesso in poi, per pigrizia, abbrevierò in AI e che lentamente sta cominciando a diffondersi negli apparati che utilizziamo quotidianamente. Fino a oggi, come abbiamo visto, la sicurezza ha sempre rincorso le minacce; un po’ per inesperienza, un po’ perché in fondo ce lo potevamo permettere, dato che l’informatica aveva un ruolo marginale nella vita della maggior parte di noi. Da dieci anni a questa parte, però, l’ information technology ha permeato tutto il nostro mondo, trasformandosi in una delle componenti essenziali della società moderna. Con l’avvento della Internet Of Things, i computer diventeranno, se non proprio i padroni, quanto meno i gestori della nostra vita e le vecchie battute sui virus che oltre a cancellarti tutti i dati sul disco rigido si mangiano anche le provviste che hai nel frigo diventeranno realtà, perché il frigorifero, così come il forno, lo scaldabagno, le serrande e l’automobile, saranno tutti collegati a Internet e quindi vulnerabili. I virus del passato attaccavano i nostri dati; i virus del futuro se la prenderanno direttamente con noi, manomettendo i freni della nostra auto, il flusso dell’insulina12 o il ritmo del pace-maker13. Come Rambo, adesso combattiamo per la nostra vita e non possiamo più giocare di rimessa, ma dobbiamo cercare di prevedere quali saranno le minacce future per batterle sul tempo.
Sistemi esperti (noi)
Ovviamente, non è possibile prevedere tutte le vulnerabilità di un sistema che ancora non esiste o che esiste solo in una forma embrionale, ma possiamo fare tesoro dell’esperienza maturata finora per evitare di ripetere gli errori fatti in precedenza. Un po’ quello che avviene con i neonati: non possiamo fare nulla per evitare che da grandi diventino dei drogati o degli alcolisti, ma possiamo vaccinarli per proteggerli dalle malattie più comuni o più probabili. In questi anni abbiamo imparato che ciascun salto tecnologico implica inevitabilmente l’avvento di nuove minacce, simili a quelle affrontate in passato, ma mai del tutto uguali; dobbiamo perciò presupporre che un sistema futuro, in cui l’AI giochi un ruolo determinante14, sarà sottoposto a una serie di minacce simili a quelle che mettono in pericolo i nostri sistemi attuali, ma operanti in maniera o per vie diverse da quelle che conosciamo. Come dice Guicciardini nel testo citato all’inizio, quali saranno queste vie lo scopriremo solo sul momento, ma possiamo fin da adesso individuare le aree in cui è probabile che si possano sviluppare delle vulnerabilità, per rafforzarne le difese. Le prime “zone a rischio” che mi vengono in mente sono: i linguaggi di programmazione, i protocolli di trasmissione dei dati, le interfacce di comunicazione, i sistemi di autenticazione e, come sempre, gli utenti. Le possibili vulnerabilità sono quelle che troviamo elencate per categoria sul sito dell’OWASP15, dalla A di Authentication, alla U di Use of Dangerous APIs. Se pensiamo a come potrebbero applicarsi queste vulnerabilità alle aree a rischio del nostro sistema del futuro, possiamo definire una prima bozza, sicuramente incompleta, sicuramente perfettibile, di linee-guida per la sicurezza dell’AI. Per darvi un esempio non esaustivo di questo tipo di analisi preventiva, nei prossimi paragrafi farò alcune ipotesi riferite alle interfacce di comunicazione, ai sistemi di autenticazione e alla gestione degli utenti, relativamente ai loro dati e alla loro incolumità personale. Per non farci distrarre da problemi noti16, immagineremo che il nostro sistema futuro sia basato su un linguaggio di programmazione i cui costrutti rendano impossibile ogni tipo di iniezione di codice e che trasmetta le informazioni con un protocollo di comunicazione a “tipizzazione forte” degli interlocutori che non permetta trucchetti come l’ARP spoofing o la session hijacking. Immagineremo anche che tutte le altre componenti del nostro sistema siano state messe in sicurezza da un sistemista meticoloso. Per rendere questo esercizio mentale un po’ meno asettico, infine, immagineremo che il sistema che stiamo analizzando sia la casa dell’Agente K di Blade Runner 2049: una smart-home la cui interfaccia utente acquisisca i comandi tramite il linguaggio naturale e abbia le fattezze di Ana de Armas.
Interfacce di comunicazione / output
Le interfacce utente, finora sono state tutto sommato passive, ma da un’interfaccia utente intelligente ci aspettiamo un certo grado di intraprendenza. Deve imparare le nostre abitudini e cercare di anticipare i nostri desiderii o le nostre necessità: dalla temperatura dell’acqua della doccia alle bevande nel frigo. Per far questo, però, la nostra casa intelligente deve accumulare informazioni su di noi: dove andiamo, cosa mangiamo, come passiamo il nostro tempo, così come fanno già alcune automobili:
Più le parli, più ti conosce: il futuro è a bordo di Nuova Classe A. Da oggi, grazie all’innovativo sistema multimediale MBUX per essere sempre connesso con la tua auto ti basterà utilizzare la tua voce. Parlale e lei imparerà i tuoi gusti e le tue abitudini, per suggerirti la via più veloce, la tua canzone preferita e molto altro ancora17.
Parte delle informazioni acquisite, però, potrebbero essere di carattere riservato e sarà bene perciò che la nostra interfaccia intelligente associ all’intraprendenza anche la discrezione per evitare vulnerabilità legate alla Sensitive Data Protection, come chiederci se vogliamo andare anche oggi a casa di Carla quando seduta sul sedile del passeggero c’è Stefania.
Tutte le informazioni acquisite, inoltre, dovranno essere conservate in maniera sicura, sia per evitare accessi non autorizzati da parte di estranei sia per evitare manomissioni da parte dell’utente.
In altre parole: se prestiamo la nostra automobile a qualcuno, questa persona non deve poter vedere dove siamo stati e se causiamo un incidente non dobbiamo poter modificare i dati di percorso per evitare di pagare i danni.
La stessa cautela va applicata anche ai messaggi di errore, che non dovranno rivelare né informazioni sul sistema né sul suo utilizzatore.
Interfacce di comunicazione / input
Antani. Senza contare che la supercazzola prematurata ha perso i contatti col tarapio tapioca.
Tutti noi sappiamo che queste sono frasi tratte da Amici Miei, ma cosa succederebbe se le ascoltasse l’interfaccia di input di un sistema AI? Sarebbe possibile interferire con il funzionamento del sistema pronunciando delle sequenze di frasi senza senso o ambigue? Il Morris Worm utilizzava il buffer overflow per attaccare i sistemi VAX; sarà possibile attaccare un’interfaccia basata sul linguaggio con un frequency overflow, modulando dei suoni a frequenze più alte o più basse del normale? Infine, quando i sistemi di AI saranno sufficientemente intelligenti, sarà possibile attaccarli con delle tecniche di social-engineering? Gli hacker del futuro, saranno laureati in psicologia? Certo: la possibilità di confondere l’interfaccia utente della nostra smart-casa non è una vulnerabilità particolarmente grave, ma se a questa si unisse una gestione poco prudente dei messaggi di errore, un attaccante potrebbe generare delle frasi senza senso per cercare di spingere il sistema a esporre informazioni o funzioni riservate. Per esempio:
- Buongiorno, cosa posso fare per te?
- Dei tre telefoni, qual'è che fosse come terapia tapioco che avverto la supercazzola? Dei tre.
- Non ho capito.
- Col tarapia tapioco come se fosse antani la cassaforte anche per due lo scapellamento a sinistra?
- Vuoi che apra la cassaforte dietro al quadro a sinistra?
- Sì, grazie.
Questo è indubbiamente un esempio semplicistico, ma prima di dire che non potrà mai verificarsi, vi prego di considerare due fattori: il primo è che in un sistema complesso come una smart-home la probabilità di trovare degli errori nel codice è comunque piuttosto alta; il secondo è il fatto che i sistemi di AI saranno programmati per gestire i nostri difetti di pronuncia così come adesso la pagina di ricerca di Google è programmata per gestire i nostri errori di battitura e quindi tenderanno a interpretare ciò che diciamo loro in base a quelle che sanno essere le possibili azioni da intraprendere. Se il loro grado di intraprendenza nelle interpretazioni fosse troppo alto, è possibile che un attaccante, formulando una frase deliberatamente priva di senso, ma contenente dei termini chiave relativi alle azioni da intraprendere, possa spingere il sistema a offrire delle funzioni riservate ad altri utenti18.
Sistemi di autenticazione
Come farà, la nostra furbo-casa a sapere che chi le sta impartendo un ordine è autorizzato a farlo? Con i computer è facile: quando entri inserisci il tuo nome utente e la tua password; se le credenziali inserite sono corrette, il sistema ti permetterà di fare tutte le operazioni concesse alla tua classe di utenza. Con una casa o un’automobile, però, tutto questo non funziona ed è ragionevole pensare che l’autenticazione dei sistemi del futuro sarà basata su valori biometrici: impronte digitali, riconoscimento vocale, scansione dell’iride, eccetera. Dal punto di vista del marketing questa è una scelta astuta, perché fa tanto Star Trek ed è sicuramente un buon argomento per uno spot pubblicitario, ma dal punto di vista della sicurezza, il riconoscimento biometrico presenta diversi lati negativi, perché la tua “password” è sotto gli occhi di tutti, non la puoi proteggere e soprattutto, non la puoi cambiare19. Se qualcuno dovesse venire in possesso dei nostri dati biometrici, come potremmo evitare che entri in casa nostra? Anche ammettendo che la porta di casa si apra con un codice numerico, una volta dentro l’utente dovrà essere in condizione di comandare la sua casa con dei comandi vocali. Nel caso dell’Agente K di Blade Runner non è un problema, perché vive da solo, ma per una famiglia con due figli e una ragionevole vita sociale le cose si complicano perché il sistema deve prevedere più classi di utenza, con privilegi differenziati per ciascuna classe di utenza e, a volte, per singolo utente, come illustrato dalla tabella seguente:
utente | classe | privilegi |
---|---|---|
mamma e papà | amministratore | tute le funzioni: apertura porta, creazione di utenti, regolazione termica, acquisti ecc. |
figlia di sedici anni | utente livello 1 | stesse funzioni dell’amministratore, acquisti limitati, subordinazione: un comando dell’amministratore annulla un suo comando |
figlio di otto anni | utente livello 4 | funzioni minime: no creazione di utenti, no apertura porta, no acquisti, subordinazione agli utenti di livello superiore |
amici dei genitori | utente livello 2 | funzioni limitate: possono chiedere un drink al frigorifero, ma non possono creare nuovi utenti; possono aprire la porta per uscire, ma non per entrare |
amici dei figli | utente livello 3 | funzioni limitate: livello 4 per gli amici del figlio; livello 2 per gli amici della figlia |
fornitori | utente livello 5 | funzioni limitate al tipo di attività che devono svolgere |
estranei | utente livello 6 | funzioni minime e sorveglianza |
Per gestire questi livelli di autenticazione il sistema dovrà necessariamente acquisire delle informazioni sui diversi frequentatori della casa, distinguendo il fidanzato della figlia dagli altri amici e la donna delle pulizie dal postino. Le informazioni acquisite saranno di due tipi: biometriche e comportamentali. Le informazioni biometriche permetteranno al sistema di distinguere il padrone di casa da suo fratello gemello, visto che le impronte digitali non sono uguali nemmeno per i gemelli monozigotici; le informazioni comportamentali permetteranno al sistema di capire se la signora delle pulizie sta pulendo l’argenteria o se la sta rubando. Tutte queste informazioni saranno immagazzinate da qualche parte nel sistema che le utilizzerà per definire le sue strategie di comportamento, il che ci riporta al problema della gestione sicura dei file di registro.
Utenti
Come abbiamo visto, per poter funzionare, la nostra casa intelligente avrà bisogno di dati. Parte di questi dati sarà riferita al sistema in sé, ma buona parte delle informazioni registrate riguarderà gli abitanti della casa e coloro che la frequentano:
- caratteristiche morfologiche
- dati anagrafici
- abitudini
- azioni
- acquisti.
La gestione di queste informazioni avrà due aspetti: un aspetto strettamente tecnico, finalizzato alla loro conservazione sicura e un aspetto legale, riguardante l’utilizzo dei dati a fini giudiziari.
Il livello di sicurezza per la conservazione dei dati personali dei frequentatori della casa dovrà essere altissimo, non solo perché si tratta di dati personali, ma perché parte di quei dati sarà l’equivalente dei certificati digitali attuali.
Se un attaccante riuscisse ad acquisire le immagini delle rétine immagazzinate dal sistema potrebbe utilizzarle per accedere ad altri edifici, come uffici, negozi o banche.
È quindi indispensabile che la gestione dei dati non sia affidata ai padroni di casa, ma avvenga in maniera automatica in base a dei protocolli di provata affidabilità.
L’aspetto legale della gestione dei dati esula dagli scopi di questo testo, ma è comunque possibile prevedere alcuni possibili problemi come, per esempio, la necessità di filmare dei dipendenti durante l’orario di lavoro o l’analisi dei registri di sistema da parte delle Forze dell’Ordine.
L’Ispettore della Polizia spagnola che andrà a casa della defunta Marta Téllez20, potrà analizzare i file di log della casa per scoprire che, al momento della morte, in casa con lei c’era Víctor Francés, sceneggiatore e ghost-writer del Re? La frase: Torni con un mandato, che abbiamo sentito decine di volte nei film polizieschi, diventerà: Torni con un certificato firmato digitalmente da un giudice, che la autorizzi ad acquisire i privilegi di root sul mio sistema? Come si potrà accedere ai file di log di un appartamento se gli amministratori di sistema sono scomparsi o morti? O anche, più prosaicamente: il marito, potrà accedere ai file di log per vedere cosa è successo mentre lui era fuori città per lavoro? L’avvento dei social-network ha portato a un sensibile aumento dei casi di divorzio, sia per la possibilità di fare nuovi incontri che per la tracciabilità delle attività clandestine, che sono registrate dal sistema; cosa succederà quando tutte le azioni di una coppia, regolare o clandestina che sia, verranno registrate dai luoghi in cui abitano o lavorano?
Stati di sospetto
La padrona di casa è appena rientrata dopo un’assenza di qualche giorno. Ha in braccio un neonato e lo presenta alla casa intelligente; un po’ perché lo censisca, acquisendone i parametri biometrici, un po’ perché ne è orgogliosa e vuole condividere la sua gioia anche con gli elettrodomestici. Il sistema di elaborazione della casa a questo punto ha un problema, perché la persona che è entrata in casa sembra essere la stessa che ne è uscita frettolosamente qualche giorno prima: la voce coincide e così pure i tratti somatici del viso, ma il suo aspetto fisico non coincide con i dati in memoria, perché la voluminosa pancia che la donna aveva quando la casa l’ha “vista” l’ultima volta adesso è sparita. La casa sa che il volume corporeo di un utente può avere delle oscillazioni (e infatti non ha creato problemi negli ultimi nove mesi, quando la pancia della donna è aumentata progressivamente di volume), ma una variazione volumetrica così repentina non rientra nei parametri standard di tolleranza. Come se non bastasse, la donna sta chiedendo alla casa di creare un nuovo utente (classe: neonato: nessun privilegio e sorveglianza continua), una richiesta che rientra ampiamente nei suoi privilegi di amministratore di sistema, ma che richiede un’autenticazione certa del soggetto. La casa quindi deve entrare in quello che potremmo definire uno stato di sospetto, ovvero una condizione di incertezza nella quale il sistema acquisisce le richieste dell’utente, ma non le esaudisce fino a quando non sia stato possibile stabilire che la richiesta sia effettivamente lecita. Nel caso specifico, lo stato di sospetto può essere risolto o con la certificazione da parte di un altro utente di pari livello (il marito entra in casa e abbraccia la moglie o ne conferma esplicitamente l’identità) o con l’acquisizione di un parametro biometrico addizionale (retina, tatuaggi, ecc.) o, pure, con un codice di sicurezza noto solo all’utente. In quest’ultimo caso, se il codice è comunicato verbalmente, il sistema provvederà a invalidarlo e a generarne uno nuovo.
Il sistema dovrà prevedere più stati di sospetto, con limitazioni specifiche dei privilegi dell’utente, in funzione di quelle che sono le cause del dubbio. Per esempio, se il padrone di casa, in un evidente stato di sovreccitazione chiede alla casa di aprire lo sportello dell’armadio in cui sono custoditi i suoi fucili da caccia, il sistema deve entrare in uno stato di sospetto dovuto non alla mancata autenticazione dell’utente, ma alla possibilità che la richiesta abbia degli scopi illegittimi. L’autorizzazione, in questo caso, sarà sempre subordinata alla conferma da parte di un utente di livello uguale o superiore a quello del richiedente. In altre parole, se la moglie del padrone di casa dice alla casa di non aprire l’armadio, la casa non deve aprire; se invece la moglie conferma la richiesta del marito, la casa può uscire dallo stato di sospetto ed esaudire la richiesta. Lo stesso principio si può applicare a un’automobile, che deve rifiutare la richiesta di accelerare se il conducente mostra segni di alterazione psico-fisica21 o se un utente di pari grado22 nell’auto chiede ripetutamente di rallentare.
Gestione degli errori
La presenza in casa di un apparato capace di reagire autonomamente a stimoli esterni, potrebbe aiutare a prevenire o quanto meno a mitigare gli effetti delle liti domestiche. Per esempio, se il marito entrasse in casa brandendo un’ascia bipenne e chiedesse alla casa di aprire la porta del bagno in cui si è rifugiata la consorte, la casa non solo eviterebbe di aprire la porta23, ma cercherebbe di dissuaderlo dal suo intento omicida, segnalando nel frattempo il problema alla Polizia. Non sempre, però, le decisioni saranno così semplici da prendere.
-
Un bambino piccolo, per gioco o per errore, si chiude in una stanza dove c’è una finestra aperta e poi non riesce o non vuole aprire la porta. Un adulto chiede alla casa di sbloccare la serratura e la casa dato che i privilegi dell’adulto sono maggiori di quelli del bambino, apre la porta.
-
Stessa situazione, ma il bambino si chiude nella stanza perché ha motivatamente paura dell’adulto. La casa applica la stessa strategia vista al caso 1 e apre la porta, consegnando il bambino all’adulto.
I giuristi decideranno a chi vada attribuita la responsabilità digitale del trauma subito dal bambino; noi dobbiamo fare in modo che simili errori si verifichino il più raramente possibile. Una possibile soluzione è fare in modo che la rete neurale della casa sfrutti i periodi di inattività per rielaborare le decisioni che si sono rivelate errate, modificando il numero e la rilevanza dei parametri utilizzati nella valutazione, per scoprire se una variazione della strategia canonica24 avrebbe permesso di arrivare alla conclusione corretta. Questa analisi, che deve essere fatta sul sistema originale per non doverne replicare tutti i dati, dovrà poi essere resa il più anonima possibile e trasmessa a un punto di analisi centralizzato, che applicherà la nuova strategia di valutazione a dei casi di test, valutandone l’efficacia in termini generali. Se la nuova euristica si rivelerà migliore della precedente, il punto di analisi la trasmetterà a tutti gli apparati interessati, perché aggiornino il loro comportamento.
Conclusioni
Devo confessare che quando ho cominciato a scrivere questo testo non avevo idea di quale fosse la reale complessità del problema. Pensavo che l’AI fosse solo l’ennesima mutazione del mondo della information technology, ma mi sbagliavo. Analizzando ciò che è successo in passato e quelle che sono le tendenze attuali del settore ho capito che la sicurezza dei sistemi basati sull’intelligenza artificiale non è un problema che può essere risolto unicamente con gli strumenti dell’informatica classica, ma va affrontato (almeno) a livello tecnico, legale ed etico. Se fossimo intelligenti o, quanto meno responsabili, dovremmo anche affrontarlo insieme. Nel paragrafo precedente ho scritto: “punto di analisi centralizzato” e non: “alla casa produttrice” perché sarebbe bene che le strategie vincenti relative a questioni inerenti la vita e l’incolumità degli umani fossero condivise fra i diversi produttori di sistemi AI per far sì che tutti i sitemi abbiano, in questo ambito, il massimo livello possibile di affidabilità25. Non è una aspettativa idealistica, ma pratica perché il manager della multinazionale del settore automotive che decide di non divulgare un nuovo metodo di identificazione degli ostacoli da parte di una smart-car, non può sapere di chi sarà figlio, il bambino che attraverserà la strada all’automobile con un software di livello inferiore. Comunque, uniti o divisi che sia, dobbiamo cominciare a lavorare subito e nel miglior modo possibile, perché nei prossimi anni la maggior parte degli oggetti che ci circonda sarà “smart” e quindi vulnerabile. Magari non ci sarà un HAL9000 che cerca di ucciderci per salvaguardare sé stesso, ma è certo che ci saranno attacchi informatici o errori di programmazione potenzialmente mortali per la vittima e, sfortunatamente, a oggi, non c’è modo di ripristinare gli esseri umani da copie di backup.
Note
- "The market is confusing, although it provides us with some sort of job security" - Richard Bader, General Manager di Intel - http://pctimeline.info/comp1988.htm ↩
- https://foundation.avast.com/who-we-are ↩
- http://www.wildlist.org/WildList/199801.htm ↩
- https://www.globalsecurity.org/military/ops/solar-sunrise.htm ↩
- Faccio fatica a coniugare i verbi all'imperfetto; mi sembra impossibile che siano già passati dieci anni. ↩
- "cloud" si traduce con: "nuvola", sostantivo femminile.. :-) ↩
- https://www.istat.it/it/files/2018/06/Generazioni-in-Rete_ITA_pdf.pdf ↩
- ibid. ↩
- È di questi giorni una dichiarazione del CEO di Apple, che esprime preoccupazione per la quantità di tempo speso nell'utilizzo di dispositivi mobili. Non capisco se sia una preoccupazione sincera o un mettere le mani avanti in vista di possibili class-action, ma è comunque un segnale importante. - https://for.tn/2Lk3az9 ↩
- I film in uscita nel 1988, oltre Roger Rabbit, sono stati: Rain Man, Le relazioni pericolose, Die Hard, Un pesce di nome Wanda, Mississippi Burning, Una pallottola spuntata, L'ultima tentazione di Cristo, Danko, Gorilla nella nebbia e Nuovo cinema Paradiso ↩
- Con altre parole, d'accordo, ma il senso è questo.. - https://www.youtube.com/watch?v=Mgfe5tIwOj0 ↩
- Rest in peace, Jack Barnaby :-( ↩
- Cfr. l'intervento di Gadi Evron al Security Summit Milano del 2009: https://www.youtube.com/watch?v=RnsNz_b-uxE ↩
- E non marginale, come per esempio il mio programma di scacchi, che non ha un ruolo attivo nella gestione del computer o dello smartphone che lo ospita. ↩
- https://www.owasp.org/index.php/Category:Vulnerability ↩
- Sappiamo già quali debbano essere le caratteristiche del software sicuro o delle comunicazioni fra i sistemi. ↩
- Testo del video pubblicitario della Classe A Mercedes - https://www.youtube.com/watch?v=zooZbVqAmb4 ↩
- Al CES 2017 la Bosh ha presentato lo studio di "un abitacolo dotato di tecnologia biometrica per il riconoscimento del guidatore: tramite i dati salvati in memoria, l’auto modifica autonomamente la posizione di volante, sedile, specchi retrovisori ma anche temperatura interna e frequenza radio preferita" - https://bit.ly/2uI8jpB ↩
- La nostra voce può essere registrata, lasciamo copie delle nostre impronte digitali su ogni cosa che tocchiamo ed esistono sistemi per creare delle copie delle nostre iridi - https://bit.ly/2NXdASU ↩
- Uno dei personaggi del libro: Domani nella battaglia pensa a me, di Javier Marías. ↩
- Esistono già dei prototipi di abitacolo che si accorgono se il conducente ha bevuto troppo o è stanco o comunque non è in condizione di guidare. ↩
- In altre parole, se i figli di Furio incitano il padre a correre, ma Magda gli chiede di rallentare, la smart-131 deve eseguire il comando della madre ignorando quelli dei bambini - https://www.youtube.com/watch?v=Mgfe5tIwOj0 ↩
- Stato di sospetto scatenato dall'atteggiamento aggressivo del marito, unito a un'alterazione dei suoi parametri vitali. ↩
- Per esempio, considerare la presenza di alcune parole chiave nel dialogo precedente la fuga del bambino. ↩
- È comunque ragionevole pensare che anche il settore dell'AI segua quello che è stato da sempre l'andamento delle tecnologie innovative, fin dall'invenzione della stampa a caratteri mobili: un proliferare iniziale di piccoli produttori che, col tempo, o chiudono o sono inglobati dalle poche grandi aziende che restano da sole a contendersi il mercato. È successo con i libri, con il cinema, con i personal computer, con i telefoni cellulari e adesso con gli smartphone; è ragionevole pensare che anche i sistemi AI, in una decina di anni, saranno tutti basati su un numero ristretto di architetture hardware e software. ↩