SlideShare una empresa de Scribd logo
1 de 22
Descargar para leer sin conexión
Le città intelligenti.
come i computer stanno cambiando in meglio
il mondo intorno a noi
Roberto Siagri

... perché, guardando il mondo di oggi, il cambiamento più evidente non è solo la disponibilità di tecnologia, ma il suo impatto
sulla umanità.
L’ICT altera radicalmente il modo in cui le persone abitano il
mondo, come interagiscono, come percepiscono il mondo attorno
a loro: infatti, sta cambiando quello che significa essere un essere
umano nella società.
Pensate alla consapevolezza che abbiamo del mondo che ci circonda, a come essa viene modificata e rafforzata dalla disponibilità di più flussi di informazioni provenienti da più fonti, tutte a
misura dei nostri interessi. Questa consapevolezza estesa ha un
impatto sulla nostra intelligenza, sulla nostra coscienza e sulla
società: su quelle cose che sono fondamentali all’essenza umana.*
Neelie Kroes (Vice-Presidente della Commissione Europea e responsabile dell’Agenda Digitale)

Introduzione
Il mondo è caldo, piatto e affollato, così Thomas Friedman1 intitola il
suo ultimo libro. Fortunatamente possiamo notare che è anche sempre più
intelligente. Sì, il nostro mondo sta diventando sempre più in grado di parlarci ed è sempre più interconnesso: persone, sistemi e oggetti possono
comunicare e interagire gli uni con gli altri in modi completamente nuovi.
Ora abbiamo la capacità di misurare, sentire e vedere in modo istantaneo
lo stato di tutte le cose. Quando tutte le cose, inclusi i processi e metodi di

*	 Paradiso conference: The Internet for a global sustainable future. Brussels, 8 settembre
2011.
1
	 T.L. Friedman, Caldo, piatto e affollato. Com’è oggi il mondo, come possiamo cambiarlo, Milano 2010.

773
lavoro saranno intelligenti, potremo rispondere al cambiare delle condizioni più rapidamente e con più precisione, e ottenere risultati previsionali
migliori e una miglior ottimizzazione degli eventi futuri. Da questa trasformazione in atto prende corpo l’idea delle Città Intelligenti (dall’inglese
Smart Cities), che sono città in grado di agire attivamente per migliorare la
qualità della vita dei propri cittadini conciliandola con le esigenze del commercio, delle imprese di produzione e di servizi e delle istituzioni, grazie
all’impiego diffuso e innovativo delle tecnologie digitali. Da questa definizione generale si intuisce la provenienza del termine; per capirne l’origine
va compresa l’evoluzione storica dei calcolatori così come l’evoluzione
storica del rapporto tra computer e umani. Come facevano notare Mark
Weiser e John Seely Brown in un loro lavoro seminale del 1996 dal titolo
Designing Calm Technology,2 l’evoluzione tecnologica ha la proprietà di
modificare in maniera sostanziale il posto, al centro o alla periferia, della
tecnologia nella nostra vita. Potremmo anche dire che ciò che conta non è
la tecnologia in sé ma la sua relazione con noi individui. Per comprendere
meglio la questione dobbiamo andare a vedere come il calcolatore moderno (il cosiddetto computer) ha cambiato nel corso della sua breve storia di
circa 60 anni questa relazione. In questo breve lasso di tempo si possono
infatti evidenziare tre fasi (fig. 1) contraddistinte da tre diversi tipi di paradigma di calcolo correlati con tre tipologie di relazione, che prima verranno
elencate e poi descritte più in dettaglio. Nella prima fase il rapporto è stato
del tipo mainframe, nella seconda il rapporto è stato del tipo personal computer e oggi, grazie alla connettività internet diffusa e al basso costo dei
componenti elettronici (in inglese chip), siamo entrati a pieno titolo nella
terza fase, quella dei “computer a distribuzione diffusa”, anche detta in
ambito consumer fase dell’internet delle cose o internet degli oggetti (in
inglese: Internet of Things, talvolta abbreviata con l’acronimo IoT) mentre
in ambito professionale si usa di più l’acronimo M2M, dall’inglese Machine
to Machine ovvero “macchina a macchina”. In seguito useremo l’acronimo
IoT anziché l’acronimo M2M, anche se i due si possono per i nostri fini
ritenere intercambiabili.

	M. Weiser, J.S. Brown, Designing Calm Technology, «PowerGrid Journal» I, 1 (1996)
<http://powergrid.electriciti. com/1.01>.

2

774
22
20
18
Vendite/Anno

16

Mainframe

PC

UC

14
12
10
8
6
4
2
0

1. I principali Trend dell’evoluzione del Calcolo e le unità vendute su base annua in
unità relative.3

Benché in questa fase si sia entrati da pochi anni, l’origine del concetto di IoT è comunque attribuibile a Mark Weiser e lo si trova infatti già
enucleato in un suo scritto4 del 1991 in cui lui immagina e descrive, per
l’appunto, i calcolatori di oggi e la loro interazione con noi umani. Una
fase evolutiva, questa terza, caratterizzata da una profonda interrelazione
tra il mondo digitale (fatto di calcolo e di dati digitali in forma di bit) ed il
mondo reale (in cui le cose sono fatte di atomi). Una fase che nel tempo
ha assunto diversi nomi: Mark Weiser l’aveva chiamata la fase del computer
ubiquo, poi a inizio secolo venne chiamata del calcolo pervasivo o anche
dell’intelligenza diffusa (dall’inglese Ambient Intelligence). Una nuova fase
per una nuova era, che ci porta a parlare di realtà aumentata in contrappo-

	<http://www.ubiq.com/hypertext/weiser/UbiHome.html>.
	M. Weiser, The Computer for the Twenty-First Century, «Scientific American»,
CCLXV, 3 (1991), 94-104.

3
4

775
sizione alla realtà virtuale che sta solo dentro il computer. La distribuzione
capillare dei calcolatori negli oggetti materiali che ci stanno intorno ci
permette di guardare il mondo come se avessimo più dei nostri cinque
sensi, o meglio potenzia la nostra capacità di percepire la realtà, quasi che
fossimo forniti di una sorta di esoscheletro computazionale5 che possiamo
indossare virtualmente e che ci invia ed elabora quantità di dati tali da
aumentare la capacità percettiva dei nostri sensi. Mentre la realtà virtuale
è principalmente un problema di potenza di calcolo e programmi di simulazione, la realtà aumentata è invece un problema complesso di integrazione di fattori umani con l’informatica, con l’ingegneria e con le scienze sociali. Ecco allora che le città intelligenti sono città in grado di rendere disponibile la miriade di dati e informazioni che arrivano dai computer disseminati nell’area urbana, in modo da dare in tempo reale una migliore e
più approfondita conoscenza della città agli amministratori e ai cittadini,
facilitando la loro vita e liberandoli da tutta una serie di incombenze grazie
ad una migliore qualità ed efficienza dei servizi di trasporto e ospitalità, di
sicurezza, di pronto soccorso, di telemedicina, di risparmio energetico, di
monitoraggio dell’inquinamento, di raccolta dei rifiuti e così via. Le città
intelligenti ci danno dunque una maggiore tranquillità quando le abitiamo,
perché ci sentiamo più preparati ad ogni evenienza, siamo cioè in grado di
pianificare meglio il nostro futuro, che ci appare così meno minaccioso e
meno imperscrutabile. Come immaginato da Weiser e Brown, la tecnologia
approccia le nostre vite in una maniera così amichevole che già nel ’96 la
chiamarono l’era della «tecnologia della calma», una tecnologia che, come
vedremo, permette di mettere in relazione centro e periferia, donandoci
una percezione del mondo più rassicurante.

Le tre fasi evolutive dei calcolatori
La prima fase, che va dalla fine degli anni ’50 alla fine degli anni ’80
dello scorso secolo, è chiamata mainframe, per ricordare il rapporto che le
persone avevano con i computer, i quali erano per lo più gestiti da esperti
a porte chiuse. Una fase in cui il computer era una risorsa scarsa e oltremodo costosa, il cui uso doveva essere prima negoziato con i responsabili

	R. Siagri, Pervasive computers and the GRID: the birth of a computational exoskeleton
for augmented reality, in Proceedings of International Workshop on Principles of
Software Evolution, Dubrovnik 2007, 1-4.

5

776
del centro di calcolo e poi condiviso con altri utenti esperti. Il tutto in una
sorta di ritualità sacra dove la divinità era il mainframe, il tempio era il
centro di calcolo, il gran sacerdote era il direttore del centro e i pochi utenti erano la sparuta schiera degli eletti ammessi ai riti. Nell’era dei mainframe, il rapporto tra umani e computer si riduceva a questo, perché più utilizzatori erano costretti a condividere la stessa macchina, ma si notava già
un abbozzo di futuro, perché i terminali informatici (monitor e tastiera con
un minimo di intelligenza locale) cresceranno sempre più in potenza e
autonomia, e ci seguiranno nel tempo dato che tuttora interagiamo con il
computer tramite gli occhi e le mani, fino a trasformarsi di recente in un’unica unità integrata il monitor con touch-screen dei nuovi tablet e smartphone.
La seconda grande fase è stata quella del personal computer (PC), che
possiamo collocare tra il 1985 e il 2005 (fig. 2). A metà degli anni ’80 il
numero di persone che utilizzavano il personal computer superò il numero
di persone che utilizzavano computer condivisi,6 e il rapporto con il computer diventò di tipo personale. Oggi siamo abituati a pensare al “nostro”
computer, che contiene i nostri dati e interagisce direttamente e profondamente con essi, e quando non è occupato a fare le nostre cose non fa
nient’altro. Ma il personal computer, quando cominciò a entrare nelle nostre case, era quasi come l’automobile: un elemento speciale, relativamente
costoso, che ti poteva “portare dove volevi andare” ma richiedeva una
notevole attenzione per operare. Oggi, proprio come si possono avere più
automobili, si possono avere più personal computer, da utilizzare a casa, al
lavoro e per andare in giro. La definizione allora di PC è quella di un computer con cui si ha un rapporto speciale e che viene utilizzato in maniera
esclusiva, occupandone tutte le risorse. La spinta verso la standardizzazione,7
che rende possibile utilizzare lo stesso software su macchine di diversi costruttori, ha fatto sì che dei tanti possibili PC ne rimanesse uno solo: il PC
derivato dall’iniziale progetto IBM, basato su processori Intel e con il sistema operativo Windows.

	<http://arstechnica.com/business/2012/08/from-altair-to-ipad-35-years-of-personalcomputer-market-share/4/>.
7
	 Il primo PC cosi come noi lo conosciamo fu prodotto da IBM. In seguito, grazie alla
pubblicazione dell’architettura di progetto del PC, si sono fatti strada gli allora detti
cloni, costruiti copiando alla lettera i PC IBM. Il passo successivo i è stato quello dei
PC compatibili, che riproducevano le funzionalità del PC ma con un’implementazione originale. Oggi con l’avanzata standardizzazione delle funzioni e dei componenti,
si parla solo di PC indipendentemente da chi ne sia il produttore.
6

777
3000
2500
2000

Tablet
Smartphone
PC

1500
1000
500
0

2. Evoluzione delle vendite annuali di PC, tablet e smartphone.8

Oltre al PC tradizionale Wintel (Windows-Intel) va menzionato il PC
MAC, prodotto unicamente dalla Apple, che è riuscito a resistere nel tempo ma per far questo si è progressivamente avvicinato, dal punto di vista
hardware e software, al PC-Wintel. In questa seconda fase, tra l’altro, non
sono affatto scomparsi i mainframe, perché grazie all’aumento progressivo
e rapidissimo delle prestazioni dei PC, questi sono oggi in grado di svolgere sia la funzione di mainframe, sotto il nuovo nome di PC-server, sia la
funzione di terminale sotto il nome di PC-client. Ecco allora che si parla di
relazione tra PC server e PC client, la quale dà origine al binomio clientserver tuttora in uso, e di cui parleremo in dettaglio più avanti.

	 Grafico ottenuto mettendo insieme dati da varie fonti: Gartner, IDC, Strategic
Analytics, BI Intelligence.

8

778
Le tendenze principali nell’informatica
Fase Informatica

Tipo di relazione

Rapporto
Macchina-Umano

1° fase: mainframe

molte persone condividono un computer

1:N

2° fase: PC

un computer, una persona

1:1

diffusione di internet

... di transizione per...

3° fase: ubiquitous computing

molti computer condivisi da ognuno di noi

N:1

Prima di passare a descrivere la terza fase, due parole vanno spese su
internet. Sul fenomeno internet si è scritto tanto e un po’ tutti abbiamo familiarità con questo termine. Per i nostri scopi diciamo solo che internet ha
reso palese come le reti di calcolatori possano influenzare profondamente
il modo di lavorare ed interagire delle persone, e questo era proprio quanto
auspicato da Weiser. Miliardi di individui sono oggi interconnessi e le loro
informazioni sono condivise. La possibilità di condividere informazioni non
era affatto evidente nella prima fase di internet, quando il web era read-only,
cioè il flusso dei dati era monodirezionale e andava unicamente dal sito
all’utente. Le cose sono cambiate con il passaggio al web read-write, che ha
permesso la bi-direzionalità dei flussi. La nascita dei blog e dei social network ha poi ulteriormente amplificato il fenomeno e si parla adesso del
social web o web 2.0. È interessante notare che proprio internet riunisce gli
elementi dell’era dei mainframe (oggi PC server) e dei PC client. Infatti il
personal computer può anche essere visto come un terminale evoluto, in
grado di vivere anche senza la connessione al PC server. Per questa ragione
nel tempo si è progressivamente affermato l’uso del termine client al posto
di terminal per identificare un PC collegato ad un server, dove il server “serve” i dati richiesti dal client. Internet amplifica su scala globale e massiva il
paradigma del mainframe-terminale, o meglio del client-server. Il terminale
quindi prima diventa PC client, e poi, grazie all’uso diffuso dei browser (Explorer, Firefox, Chrome), diventa PC web-client. Il mainframe invece prima
diventa PC server e infine PC web-server. Da notare che se all’inizio, nel
primo passaggio, c’era pur sempre bisogno dell’ufficio IT, nel secondo passaggio (grazie all’avvento del cloud computing, di cui parleremo più avanti,
originatosi dalla combinazione della virtualizzazione dei server e delle tecnologie del web 2.0) non abbiamo più nemmeno bisogno di avere il nostro
dipartimento IT, vale a dire che tutti possiamo disporre in modalità di servizio di quanti server vogliamo per il tempo che vogliamo.

779
La terza fase, quella che Weiser e Brown chiamarono del computer
ubiquo, e che noi definiamo come smart computing, nasce dal risultato
dell’interconnessione massiccia di informazioni personali, del business e
della pubblica amministrazione. In quest’era anche il web cambierà, e si
passerà al web 3.0. Il web 3.0 è ancora in divenire ma di sicuro possiamo
dire che il passaggio da 2.0 a 3.0 significherà un migliore accesso alla enorme mole di dati presente sulla rete, ottenuto potenziando significativamente i motori di ricerca e gli strumenti di ricerca e analisi dei dati. Questa
terza onda dell’informatica che stiamo oggi vivendo, iniziata agli albori del
XXI secolo, si protrarrà fin oltre il 2020. Per comodità, potremmo prendere come punto di inizio il momento in cui le vendite di smartphone hanno
superato le vendite di PC (fig. 2), cosa che è avvenuta alla fine del 2011.9
Con gli smartphone siamo sempre potenzialmente connessi ad internet e
dunque siamo in grado di condividere i molteplici computer interconnessi
alla rete, i quali possono essere, se opportunamente programmati, al nostro
servizio. In questa terza fase ognuno di noi potrà condividere una crescente molteplicità di computer, dalle centinaia a cui possiamo accedere nel
corso di pochi minuti di navigazione in internet, alle migliaia che avremo a
disposizione non appena entreremo un po’ di più in questa fase, che è anche
l’era dell’internet delle cose. Quando questa sarà al suo culmine, colloquieremo con computer incorporati nelle pareti, nelle sedie, nei vestiti, nelle
auto, nelle varie macchine intorno a noi, in altre parole in tutte le cose.
L’era dei computer ubiqui o pervasivi è fondamentalmente caratterizzata
dalla connessione delle cose del mondo reale con il mondo digitale del
calcolo. Questo processo di interconnessione si estenderà a tutte le scale
dimensionali, compresa la scala microscopica, quando (e ciò avverrà entro
pochi anni) si riusciranno a costruire le nano-macchine.10 Con la realizzazione delle nano-macchine molti settori conosceranno enormi progressi, e
in particolare la medicina: farmaci mirati, nano-robot per riparare il corpo
o ripulire arterie, per trovare e distruggere virus11 o per migliorare il metabolismo, e molto altro ancora, come la risoluzione di molte malattie neurodegenerative.

	<http://www.digitaltrends.com/mobile/smartphone-sales-exceed-those-of-pcs-forfirst-time-apple-smashes-record/>.
10
	K. Gabriel, Engineering Microscopic Machines, «Scientific American», CCLXXIII,
3(1995), 118-121.
11
	 R.A. Freitas Jr , TheFuture of Nanomedicine <http://www.wfs.org/Dec09-Jan10/freitas.htm>.
9

780
L’era dell’internet delle cose e del Big-data
Abbiamo visto prima il significato di client. Oggi, a proposito di miniaturizzazione, si parla di thin client e thin server per indicare i circuiti leggeri, piccoli ed economici che integrano un calcolatore in grado di accedere
ad internet e fare sia funzione di server (che elabora e distribuisce dati in
un’ottica di supervisione) che di client (che compie elaborazioni locali). È
grazie a questo progresso in campo elettronico, ossia alla miniaturizzazione
dei computer e al contemporaneo aumento delle prestazioni e riduzione
dei costi, che possiamo oggi parlare di IoT. I nostri computer sono più potenti di quello usato dalla Nasa per il progetto Apollo che portò l’uomo
sulla Luna, e costano poche centinaia di euro. Fra poco con meno di una
decina di euro ci si potrà permettere di installare un web-server in ogni
macchina industriale, attrezzatura per ufficio o elettrodomestico casalingo.
Più le dimensioni ed i costi si riducono, più aumenta l’utilizzo e più l’IoT
diventa realtà (fig. 3). Secondo le ultime stime, si prevede che saranno collegati a internet, entro il 2020, tra i 20 ed i 50 miliardi di dispositivi intelligenti interconnessi (fig. 4).

3. Miniaturizzazione moltiplicazione: tutto sta diventando intelligente.

781
Numero di disposiƟvi interconnessi a internet (miliardi)

50
40
30
20

Ericsson

DaƟ pubblicaƟ dalle fonƟ tra il 2009 ed il 2011

Google
Intel
GMSA
Cisco
IMSresearch

10
0

2011

2012

2013

2014

2015

2016

2017

2018

2019

2020

2021

4. Proiezione del numero di dispositivi connessi ad internet.

Inoltre questi dispositivi saranno proprio quelli che genereranno il
traffico di dati sulla rete. Un traffico che crescerà a dismisura, da qui il
termine Big-data12 per indicare questo fenomeno (fig. 5) che ci costringerà
ad ideare nuove strategie e tecnologie per gestirlo. Per capire di che mole
di dati si parla, notiamo che in figura 5 l’asse dei dati è espresso in exabyte
(un miliardo di miliardi di byte), e si vede che già dopo il 2015 si arriverà
al migliaio di exabyte all’anno, pari a uno zettabyte. Per avere una idea di
cosa sia uno zettabyte, possiamo pensare all’equivalente digitale di
36.000.000 di anni di video in alta definizione o anche a 250 miliardi di
DVD, che se consideriamo uno spessore di 2 mm per ogni DVD, formerebbero una pila così alta da coprire metà della distanza tra la terra e la
luna. Oltre alla complessità di gestione della mole di dati prodotti, si pone
anche il problema di dover indirizzare in modo univoco ogni oggetto intelligente collegato alla rete, attraverso il ben noto indirizzo IP (dove IP
sta per internet protocol). Il protocollo internet oggi maggiormente in uso
è l’IPv4, ma non sarebbe in grado di gestire la situazione. Per questo è già
stata implementata una nuova revisione del protocollo, nota con la sigla

	 IDC definisce le tecnologie Big-data come una nuova generazione di tecnologie e architetture progettate per estrarre valore economico da volumi molto grandi di una vasta
gamma di dati consentendone l’acquisizione ad alta velocità, la scoperta e/o analisi.

12

782
IPv6,13 in grado di indirizzare più di un migliaio di dispositivi per ogni
atomo presente sulla superficie della terra.14 Non c’è dunque di che preoccuparsi nel caso di una futura proliferazione di nano-macchine intelligenti, l’umanità sarà in grado di indirizzarle e dunque anche gestirle.
Non v’è dubbio che una mole di computer e di dati così enorme non
può che avere un impatto sociale importante. Se analizziamo il fenomeno
dal punto di vista storico ci accorgiamo che i computer avranno un impatto
analogo a quello avuto da altre due grandi tecnologie del passato, il linguaggio e la scrittura. Sia il linguaggio che la scrittura sono state grandissime
innovazioni che, passando attraverso varie fasi, hanno finito per diventare
onnipresenti e parte del nostro sfondo. Esse sono oramai ovunque intorno
a noi, e sono tecnologie così ovvie che ci dimentichiamo del loro enorme
impatto sulla nostra vita quotidiana e anche di quanto tempo ci è stato necessario per padroneggiarle. Lo stesso succederà per il calcolo e i computer.
Abbiamo visto che i fattori abilitanti di questa nuova fase sono da un
lato la riduzione dei costi dei microchip e l’aumento delle loro prestazioni,
un trend inarrestabile esemplificato dalla celebre legge di Moore,15 e dall’altro la sempre maggiore diffusione di internet grazie alla disponibilità di
molteplici canali di comunicazione fissa e wireless a costi sempre più contenuti. Oggi nei paesi occidentali è facile trovare 50 microprocessori (microchip con funzione di calcolatore) in una casa media, e più di 30 in
un’automobile di fascia medio alta. Sono presenti nei termostati, negli
orologi, negli elettrodomestici, nei telecomandi, negli apparati audio-video,
nei telefoni, in molti giocattoli e in tantissimi altri oggetti, anche se non
ancora tutti dispongono di un canale di comunicazione persistente che li

	 Internet Protocol Specification Version 6, <http://www.ietf.org/rfc/rfc2460.txt>; a confronto con l’IPv4, il protocollo internet attualmente in uso, il vantaggio più evidente
dell’IPv6 è il suo spazio di indirizzamento. L’IPv4 dispone di 32 bit per gli indirizzi
ovvero il numero massimo di indirizzi e di 232 o anche 4.3×109 (4.3 miliardi cioè un
numero inferiore al numero degli umani nella Terra). L’IPv6 dispone di 120 bit per gli
indirizzi cioè 2120 o 1.3×1036 (1,3 peta zetta) ovvero abbastanza per il futuro a venire.
14
	 <http://www.edn.com/electronics-blogs/other/4306822/IPV6-How-Many-IP13

Addresses-Can-Dance-on-the-Head-of-a-Pin->.

	 La potenza dei computer raddoppia ogni 18 mesi. Nel 1965 Gordon Moore, co-fondatore di Intel, osservò che i circuiti integrati, meglio conosciuti come chip di silicio,
sembravano essere conformi ad una legge prevedibile: fin dalla loro invenzione nel
1958, la densità dei transistor in ogni chip raddoppiava ogni anno. Egli ipotizzò quindi che questo trend si sarebbe protratto nel tempo. Nel 1975 Moore stimò che il
tempo di raddoppio si sarebbe attestato attorno ai 24 mesi. In termini pratici, il risultato è che le prestazioni del personal computer raddoppiano ogni 18 mesi e questo è
avvenuto per decenni. Questa previsione è comunemente nota come legge di Moore.

15

783
metta in relazione con il mondo esterno e dunque con i computer mobili
che portiamo sempre con noi, e che fra pochissimo indosseremo come abiti. A tutt’oggi infatti molti oggetti dotati di computer non possono ancora
essere classificati come IoT, visto che sono utilizzabili soltanto uno alla
volta e non sono collegati alla rete internet. Potremo dire di essere nel
pieno dell’era dell’internet delle cose quando tutti questi oggetti saranno
connessi ad internet e potranno finalmente dialogare tra di loro e con noi
umani. A quel punto avremo a disposizione miliardi di fonti di informazione e moltissimi modi per analizzarle sia in casa che in ufficio, ma soprattutto mentre ci muoveremo. Tra poco il forno della cucina scaricherà nuove
ricette da preparare con i cibi che abbiamo in casa, il frigorifero ci informerà se gli alimenti sono in scadenza o se sono finiti, la bilancia colloquierà con gli elettrodomestici in cucina al fine di proporci i cibi più adatti alla
nostra dieta; in un prossimo futuro possiamo perfino immaginare pareti di
casa intelligenti con colori e superfici che si adatteranno alla situazione e
pavimenti in grado di avvisarci della presenza di intrusi.

90
80

2015
Il traffico IP totale annuale ha raggiunto la soglia dell’exabyte
Il traffico generato dai disposiƟvi mobile supera il traffico generato da disposiƟvi fissi
Il numero dei disposiƟvi interconnessi è il doppio della popolazione del Pianeta

Exabyte / Mese

70
2014
1/5 dei video Internet
sono ora originaƟ da disposiƟvi non-PC

60
50
40
30
20
10

2012
i video Internet hanno raggiunto il 50% del traffico sulla rete.
Il numero di abitazioni che generano >1TB al mese ha raggiunto il milione
2011
L’area dello schermo di tuƫ i disposiƟvi consumer
ha raggiunto i 30 cm2 per persona.
Il numero di disposiƟvi interconnessi ha raggiunto
il numero di abitanƟ del Pianeta

2010
i video Internet hanno superato i P2P e rappresentano
il più grande traffico Internet consumer
2010
Internet consumer ha superato l’internet business

2000

2005

2010

2015

5. La crescita esplosiva dei dati.

Ma oltre a questo che è uno scenario domestico, l’avvento dell’IoT
consentirà di ampliare enormemente la capacità dell’ICT (Information and
Communication Technology) di semplificare le nostre vite, andando ad

784
occuparsi anche delle più piccole incombenze quotidiane e lasciandoci
sempre più tempo da dedicare alle cose che per noi sono più importanti.
Estendendo questo ragionamento agli ambienti urbani e alle città possiamo
già immaginare quale grande aiuto ci potrà dare una rete pervasiva di
computer: cartelli stradali dinamici in grado di gestire il traffico in maniera
da ridurre gli ingorghi, utilizzo efficiente dei mezzi pubblici in funzione
delle necessità effettive, gestione intelligente degli edifici in materia di risparmio energetico e di sicurezza, e in fin dei conti risoluzione della maggior parte dei problemi che oggi limitano la crescita sostenibile delle città
e limitano la qualità della nostra vita. L’era dell’IoT sta cambiando radicalmente anche il modo di progettare i computer. Ora che i computer stanno
entrando sempre più nelle nostre vite, dovranno essere sempre più alimentati a batteria o avere un basso impatto sulla bolletta energetica. Di conseguenza è diventato molto più importante che in passato il loro basso consumo o la durata della batteria. Dato che le prestazioni vanno parametrate
al consumo, la metrica più importante è ora mips/watt, ovvero “milioni di
istruzioni per secondo” per ogni watt16 richiesto. A tale proposito, Jonathan
Koomey e i suoi colleghi della Stanford University hanno scoperto un’altra
legge di tendenza che non riguarda le performance come la legge di Moore,
ma l’efficienza energetica dei computer, e che ne descrive molto accuratamente l’evoluzione dal 1950 ad oggi. La legge di Koomey dice che il numero di calcoli per ogni joule17 di energia dissipata sta raddoppiando circa ogni
1,5 anni o anche, prendendo la formulazione originale: «dato un carico di
calcoli fisso, la quantità di energia necessaria per eseguirlo si dimezza ogni
18 mesi». Un ulteriore parametro è bit/sec/m3, che misura la quantità di
informazioni disponibili in un metro cubo di spazio per ogni secondo. Per
quanto riguarda quest’ultimo parametro, è da notare che i limiti dati dalle
leggi fisiche alle trasmissioni radio, e che potrebbero limitare l’uso pervasivo dei computer, possono essere in parte superati da opportune architet-

	 L’ultima classifica della Green500 del 28 giugno 2013, che riporta i 500 supercomputer più energeticamente efficienti, ha come primo in classifica il supercomputer Aurora Tigon della Eurotech con 3,2 GFLOP/watt. Un GFLOPS equivale ad un miliardo di operazioni con la virgola al secondo. Un watt è la potenza richiesta per sollevare dal tavolo e portare alla bocca una tazzina di caffè.
17
	L’energia di un joule è a grandi linee l’energia richiesta per sollevare dal tavolo e
portare alla bocca una mela, o per alzare una mela (100 g) di un metro (100 cm). Un
watt che è un joule al secondo è la potenza richiesta se si vuole portare la mela alla
bocca in un secondo. I joule ci dicono quanta energia ci serve o eroghiamo, il watt ci
dice con che velocità possiamo usare o erogare quell’energia.
16

785
ture software di trasporto dati tendenti a ridurre tutte le duplicazioni e ritrasmissioni. Questo è un aspetto da non trascurare quando si esce dal
settore dell’intelligenza domestica per entrare in un contesto di città intelligente, dove la quantità di dispositivi interconnessi comincia a crescere in
maniera molto significativa.

Periferia e tecnologia delle calma
Prima di addentrarci a discutere dell’impatto che questo immenso progresso tecnologico avrà sulla città, c’è un altro argomento che va affrontato.
Si tratta del significato, dal punto di vista percettivo, dei due concetti di
periferia e centro. Con la parola «periferia» definiamo quelle cose che ci
stanno intorno, a cui siamo agganciati, ma delle quali non c’è bisogno di
curarsi in modo esplicito.18 Un oggetto che sta alla nostra periferia è un
oggetto per il quale abbiamo un’attenzione latente, ma che può essere portato al centro in pochissimo tempo. In altre parole, è periferia tutto quello
che sta intorno a noi ma non è importante nel momento presente. Sappiamo
da studi19 fatti che la mente umana gestisce in media tre variabili, e può
arrivare a gestirne cinque con estrema difficoltà. Ne consegue che siamo
costretti a spostare quasi tutto il mondo reale alla nostra periferia, dove rimane relativamente irrilevante, ma se necessario può in qualunque istante
riposizionarsi al centro della nostra attenzione. È così molto importante
diventare capaci di spostare facilmente oggetti dalla periferia della nostra
attenzione al centro e viceversa. È questa facilità di relazionarsi dinamicamente con molto più di cinque variabili che ci dà il senso di tranquillità a
cui vuole alludere la definizione di tecnologia della calma, punto di approdo
del calcolo ubiquo e pervasivo o dell’IoT, una tecnologia in grado di farci
sentire tranquilli indipendentemente dal luogo dove ci troviamo.

La Città Intelligente
L’idea della Smart City o “città intelligente” nasce dunque dalla diffu-

	J.S. Brown, P. Duguid, Keeping It Simple: Investigating Resources in the Periphery, in
Bringing Design to Software, a cura di T. Winograd, New York 1996, 129-150.
19
	 G.S. Halford, R. Backer, J.E. McCredden, J.D. Bain, How many variables can humans process?, «American Psychological Society» XVI, 1 (2005), 70-76.
18

786
sione dei calcolatori, come conseguenza della progressiva miniaturizzazione e riduzione di consumo e di costi, e dalla contemporanea diffusione e
progressiva riduzione di costo delle connessioni dati a filo o senza filo. La
pervasività dei calcolatori interconnessi, che si traduce in una grande disponibilità di dati, fa emergere il desiderio di realizzare una città più integrata
ed efficiente dove l’amministrazione e i vari operatori possono compiere
scelte strategiche più mirate, in funzione dell’analisi dei dati storici o disponibili in tempo reale. Questo a sua volta consente di fornire più servizi ai
cittadini e di guidare in modo più armonioso la crescita urbana. Una città
intelligente che vada incontro alle necessità della popolazione urbana deve
sicuramente porre l’attenzione sulla costruzione di un ambiente sicuro, su
sistemi di trasporto efficienti, sulla riduzione dell’inquinamento. Va da sé
che riuscire a rispondere a queste richieste significa creare un ambiente
urbano attraente e vivace, che offre una migliore qualità della vita attirando nuovi investimenti anche dall’estero, e ponendo le basi per lo sviluppo
di una vasta gamma di attività sportive, culturali e immobiliari. Almeno
cinque sono le aree di intervento che vanno indirizzate e gestite, e dove la
tecnologia può essere di grande aiuto: la sicurezza urbana, la mobilità, la
qualità della vita, la gestione di grandi eventi, lo sviluppo e la crescita sostenibile. Questo non è un programma fine a sé stesso, è un percorso ineludibile per le città di domani. Se si considera che già oggi la metà della
popolazione mondiale, composta da 7 miliardi di persone, vive nelle aree
urbane, e che oltre il 70% della popolazione mondiale vivrà in città entro
il 2050, quando la popolazione mondiale supererà in base alle stime attuali i 9 miliardi di persone, si capisce come sia estremamente importante
iniziare fin da subito a rendere più intelligenti le città. Anche solo il fenomeno dell’inurbamento basterebbe per far pensare alle città intelligenti; è
ovvio infatti che l’aumento della concentrazione di persone pone nuove
sfide alla sicurezza del cittadino, tra cui la prevenzione della criminalità, la
gestione e il coordinamento inter-forze in caso di emergenze e la mitigazione di calamità naturali. Molti urbanisti stanno già mettendo a punto strategie complesse per gestire tutti questi servizi, utilizzando in maniera importante le diverse reti di comunicazione interconnesse che monitorano le
funzioni principali: i servizi della città, i trasporti, l’erogazione di acqua ed
energia. I più avanzati tra questi sistemi fanno uso di molti computer, anche
se nella maggior parte dei casi questi operano ancora in settori verticali
separati, ovvero solo per l’amministrazione comunale, per la sanità, per i
trasporti o per le utilities.

787
7. Visione integrate del flusso dei dati in una città intelligente.

Per creare una Smart City, questi sistemi devono essere trasformati ed
interconnessi tra di loro così da lavorare come un unico sistema di sistemi
che sia onnipresente e orientato al cittadino (fig. 7). L’integrazione dei sistemi porta altri benefici, rimuovendo le barriere tra i tradizionali silos di
informazioni e fornendo dati in tempo reale per le variabili che influenzano le diverse questioni come l’inquinamento, la congestione, l’uso di energia, gli interventi di emergenza e l’accesso alle cure sanitarie. Il flusso regolare di informazioni consente ai responsabili amministrativi e politici di
prendere decisioni migliori: quando i dati sono raccolti in un unico strumento di informazione diventa più facile tener conto di tutte le variabili
rilevanti e valutare tutte le opzioni. Con la creazione di una Smart City non
solo si migliorano le condizioni di vita e di lavoro ma si contribuisce soprattutto ad attrarre una forza lavoro creativa e qualificata, che in un mondo
ad alta intensità di conoscenza è sempre di più ciò che determina il successo economico di una città; alcune città come Kochi, Malta, e Dubai ne sono
un esempio.

788
Il Cloud Computing e il ruolo dell’ICT
Questo scenario può diventare realizzabile se si è in grado in prima
battuta di “misurare” i vari fenomeni, e gli smart computer ci aiutano proprio in questa operazione. Notiamo tra l’altro che a livello più astratto ciò
è reso possibile dal progressivo ed ineludibile passaggio da un mondo analogico e disconnesso ad un mondo sempre più digitale ed interconnesso,
che rende semplice la misurazione a distanza. Una volta raccolti i dati di
misura dal campo, questi devono essere convogliati tramite la rete ad un
centro di calcolo, dove i dati vengono prima memorizzati ed elaborati e poi
distribuiti. Anche per questa attività il progresso tecnologico ci sta venendo
incontro, permettendoci di utilizzare grosse infrastrutture centrali di calcolo (quelle che in passato si chiamavano mainframe) senza doverle acquistare. Grazie alla spinta verso la virtualizzazione del calcolo e dello storage
con la tecnologia del cloud computing,20 oramai ogni amministrazione, anche la più piccola, può cominciare a rendere più intelligente la sua città
fornendo dati ed informazioni utili on-demand ai suoi cittadini tramite i
dispositivi smart portatili e personali, di cui lo smartphone è un esempio. Se
la tecnologia ha ormai quasi completamente risolto i problemi dell’hardware dei dispositivi, rimane ancora in via di risoluzione l’aspetto software, cioè
quello che riguarda il trattamento dei dati. Per diffondere l’approccio smart
nelle città bisogna infatti anche trovare standard e pratiche condivise fra
tutti i protagonisti di questa evoluzione intelligente, soprattutto nelle prime
fasi di digitalizzazione e raccolta dei dati, al fine di evitare la formazione di
una “Babele digitale” di dati e andare invece nella direzione dei “dati
aperti”.21 È su questo punto che ci soffermeremo, approfondendo ancora
una volta il senso dell’evoluzione delle tecnologie del calcolo, ma questa
volta sotto l’aspetto delle tecnologie abilitanti alla trasformazione da prodotto a servizio. Come per avere l’elettricità non è necessario possedere

	Il cloud computing, in italiano la “nuvola”, non è altro che una naturale evoluzione
del rapporto web-client e web-server, dove ora il server non è più di proprietà ma è
condiviso con tanti altri utenti e dunque non viene acquistato ma pagato a canone in
funzione del suo utilizzo (tempo, transazioni, quantità di memoria, eccetera).
21
	Tratto da Wikipedia: I “dati aperti”, comunemente chiamati con il termine inglese
open data , sono alcune tipologie di dati liberamente accessibili a tutti, privi di brevetti o altre forme di controllo che ne limitino la riproduzione. L’open data si richiama alla più ampia disciplina dell’open government, cioè una dottrina in base alla
quale la pubblica amministrazione dovrebbe essere aperta ai cittadini, tanto in termini di trasparenza quanto di partecipazione diretta al processo decisionale, anche attraverso il ricorso alle nuove tecnologie dell’ICT.
20

789
una centrale elettrica, così per fare dei calcoli, poco o tanto complicati che
siano, o per memorizzare montagne di informazioni, non è più necessario
comprare computer e dischi di memoria. Queste funzioni si possono infatti ottenere on-demand e in modalità as-a-service pagando solo per quello
che si usa. Per arrivare a questo risultato, che solo dieci anni fa sembrava
un miraggio anche se il concetto risale al 1960,22 si è passati per fasi successive di standardizzazioni e gerarchizzazioni, prima dell’hardware e poi
sempre più del software. D’altra parte, quando la complessità di un sistema
cresce l’unica maniera per dominarla è suddividere il sistema in sottosistemi o moduli funzionali che si agganciano gli uni agli altri tramite pochissimi punti di interazione (pensiamo alla standardizzazione delle componenti in meccanica, idraulica ed elettromeccanica).23 Fin qui tutto appare abbastanza comprensibile, ma la domanda che sorge è: qual è la strategia migliore per suddividere in moduli un sistema complesso come una rete eterogenea di computer e di dati, è preferibile un approccio verticale oppure
orizzontale? Il cloud computing ha una suddivisione orizzontale (fig. 8a)
delle componenti, che in via generale sono tre: l’infrastruttura harware con
i computer e i dispositivi di rete, che nella terminologia as-a-service ha
l’acronimo IaaS (Infrastructure as a Service), poi un secondo strato detto
piattaforma o PaaS (Platform as a Service), che oltre a dialogare con l’infrastruttura contiene tutta una serie di funzioni che semplificano lo sviluppo del software applicativo specifico, e per ultimo lo strato del software
applicativo, noto con l’acronimo SaaS (Software as a Service).

	 John McCarthy (1927-2011) è stato il primo nel 1961 a suggerire pubblicamente (in
un discorso tenuto per celebrare il centenario del MIT) che la tecnologia del computer time-sharing potrebbe comportare che in futuro le applicazioni e la potenza di
calcolo possano essere vendute attraverso il modello di business delle utility (come
l’acqua o l’elettricità).
23
	H.A. Simon, The Architecture of Complexity, «Proceedings of the American Philosophical Society» CVI, 6. (1962), 467-482.
22

790
Cloud Clients

Web browser, Mobile app, Thin client, Terminal
emulator

Web
browser

SaaS

Mobile
app

Terminal
emulator

Thin
client

SaaS

CRM, Email, Virtual desktop, Games,
Comunicazioni

PaaS

ExecuƟon runƟme, database, web browser,
tool di sviluppo

PaaS

IaaS

IaaS

Virtual Computers, Server, Storage, Bilanciatori di
carico, ReƟ

(a)

(b)

8a-b. Architettura a strati logico/funzionali del Cloud logica (a) e per numerosità di
oggetti su ogni strato (b).

Questi tre strati si possono rappresentare anche con un triangolo rovesciato (fig. 8b), infatti la tecnologia del cloud, basandosi sull’idea di servizio, tende ad utilizzare le risorse hardware nel modo migliore, riducendo
gli sprechi e rendendone efficiente l’utilizzo, quindi richiedendo meno
hardware e meno energia per fare le stesse cose. Alla base del triangolo
rovesciato si trova la IaaS (calcolatori, dischi, apparati di comunicazione,
apparati di alimentazione), e su ognuno di questi computer “fisici” molto
potenti vengono creati molti computer “virtuali”, che sono programmi
eseguiti sui computer fisici. Se i canali di comunicazione sono abbastanza
capienti (di qui l’importanza della banda larga), i computer fisici possono
risiedere negli angoli più remoti del pianeta. Sull’hardware virtuale stanno
poi appoggiate un certo numero di piattaforme software, in funzione della
tipologia di servizi richiesti (piattaforme per la gestione dei clienti, della
produzione, della lettura dati dai contatori, per la localizzazione e la georeferenziazione e molte altre). L’ultimo strato è quello delle applicazioni
software, ed è quello più ampio, in cui l’immaginazione si può sbizzarrire.
Un’analogia dei tre strati del cloud nel mondo reale potrebbe essere la
seguente: una casa per essere costruita ha bisogno di un appezzamento di
terreno; i terreni da costruzione sono di solito lottizzati e dotati delle infrastrutture per poter accedere a tutti i principali servizi quali acqua luce, gas,
fognatura, telefono, eccetera. Un’area lottizzata potrebbe essere vista come
l’analogo dell’IaaS. Se poi immaginiamo di disporre attorno ai terreni lottizzati tutti i diversi materiali che servono per costruire una casa (mattoni,
colonne, architravi, pareti, finestre, porte, piastrelle, termosifoni, sanitari

791
eccetera), indipendentemente dal progetto finale e prima che il progetto
finale venga realizzato, così da avere tutto sottomano durate il successivo
processo di costruzione, ecco che abbiamo realizzato l’analogo della PaaS.
Sappiamo che ci possono essere più PaaS: l’analogo in edilizia potrebbe
essere la presenza di lotti con attorno il materiale per costruire case a un
piano, case a due piani, condomini, grattacieli, impianti sportivi e così via.
L’analogo della SaaS, ovvero dell’applicazione as-a-service, nel nostro
esempio è la costruzione finita. La cosa interessante è che se nel modo
degli atomi è irrealistico poter disporre di una piattaforma di costruzione
in ogni lotto con tutte le possibili tipologie, visto lo spreco enorme di materiale e di spazio, nel modo digitale questo invece è possibile, perché non
comporta né costi inutili né sprechi, anzi, nel caso del cloud computing le
componenti sono condivise tra molti utilizzatori fin dall’origine. È da questa intrinseca condivisione delle risorse che nasce la possibilità di fornire
tutto in modalità di servizio e dunque senza la necessità di comperare alcunché a priori. Anche le applicazioni SaaS vengono poi fruite da remoto
in modalità as-a-service da qualunque dispositivo che abbia ad esempio un
web browser.

La sostenibilità e il ruolo delle tecnologie dell’informazione
aienza collettiva e un più elevato livello di socializzazione tra gli umani. La tecnologia che resiste è quella che riesce a garantire una maggiore
universalità d’uso, quella che riesce a bilanciare la necessità di creare standard, protocolli e modelli evolutivi a supporto del suo sviluppo, contenendone la crescente complessità, con la libertà, la creatività, la capacità di
innovazione degli utilizzatori. Man mano che appariva evidente la radicale
trasformazione che internet avrebbe portato, in tanti hanno lavorato per
garantire trasparenza, apertura e condivisione. Attraverso la formulazione
di linguaggi sempre più comuni e aperti internet sta diventando sempre più
sociale ed “etica”. È proprio grazie a questa trasformazione che coinvolge
tutto il comparto dell’ICT che si sta delineando una nuova radicale trasformazione del nostro concetto sia di città che di società. Disponiamo di tecnologie digitali con enormi potenzialità di innovazione, a cui nei prossimi
anni accederanno miliardi di persone e alle quali già da ora sono virtualmente collegati miliardi di dispositivi. In più ci sono nuove aree del mondo
che conoscono uno sviluppo vertiginoso e incontrollabile proprio nel momento in cui le sfide poste dal cambiamento climatico, dalla questione
energetica, dalla crisi economica impongono la ricerca di soluzioni alterna-

792
tive, sostenibili economicamente e su scala globale. Grazie ai progressi
dell’ICT le città e le comunità possono trasformarsi diventando il motore
di un nuovo sviluppo socio-economico sostenibile. Negli ultimi anni, il tema
Smart City è stato ampiamente sollevato in tutto il mondo e alcuni tentativi pilota di avvio di percorsi smart sono stati intrapresi in qualche città. Non
si è però ancora imboccata una strada comune, basata su un concetto condiviso di cosa renda una città più intelligente e sostenibile, e non si è sviluppata una capacità di replicazione su larga scala delle best practice e dei
progetti di riconosciuto valore. Ciò è avvenuto principalmente per un motivo: i diversi attori coinvolti ancora oggi “non parlano la stessa lingua”.
Non esistono modelli, pratiche operative, standard tecnici condivisi e soluzioni specifiche cui fare riferimento; scarseggiano strumenti quali piattaforme per la raccolta e la distribuzione dei dati che aiutino le amministrazioni,
le imprese, i cittadini, i fornitori di servizi e di reti a collaborare per dare
forma alle comunità del futuro in modo aperto, trasparente e collaborativo.
Nonostante ciò i dati si possono già raccogliere, ma vanno raccolti in maniera che siano interoperabili e riutilizzabili anche in futuro. Per fare questo
è necessario realizzare una piattaforma che disaccoppi i produttori di dati
dagli utilizzatori di dati,24 in altre parole “disintermediando” i sensori intelligenti (smart computer) che producono i dati dalle applicazioni che li
usano o li potranno usare. L’idea è di trovare un nuovo modo per realizzare sistemi interconnessi che possano espandersi in numero e nello spazio
senza dover riscrivere i software di acquisizione e controllo o modificare il
metodo di archiviazione dei dati. Inoltre i dati dovrebbero essere raccolti
nella maniera più grezza possibile, per salvaguardare l’integrità dell’informazione originaria.

I pattern tecnologici si ripetono ma ogni volta migliorandosi
Guardando alla storia del progresso tecnologico, vediamo che questo
è fatto di un continuo formarsi e ripetersi di pattern molto simili (terminale-mainframe, client-server, web-client-web-server) che però ad ogni ripetersi tendono a diventare, grazie alla progressiva virtualizzazione e smateria-

	 Un esempio di piattaforma di questo tipo è il prodotto EDC di Eurotech che nasce
con lo scopo di semplificare il modo di raccogliere grandi moli di dati dal campo. Per
maggiori dettagli si rimanda a: <http://www.eurotech.com/dla/white_papers/Eurotech_reinvents_embedded_connected_computing_for_M2M.pdf> <http://www.eurotech.com/en/products/software+services/everyware+device+cloud/edc+what+it+is>

24

793
lizzazione, sempre più globali e accessibili ad uno strato sempre più ampio
di popolazione (fig. 9). L’evoluzione dal mainframe al PC per poi passare
allo smart computer ubiquo e pervasivo, pur perpetuando il paradigma
client-server, in realtà ha portato a incredibili passi avanti in quanto a sostenibilità e democratizzazione, e le smart cities ne sono una eccellente dimostrazione.

9. Dal Mainframe al Cloud.

In questa visione non ci sono più differenze tra computer usati da un
umano o usati da altri computer, né tra i dati provenienti da un sensore di
temperatura, da un sensore di CO2 o da qualunque altro dispositivo smart.
È l’utilizzo che se ne farà che ne farà emergere la differenza. È l’internet
delle cose, dove umani e macchine collaborano e cooperano per costruire
un mondo migliore.

794

Más contenido relacionado

La actualidad más candente

Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
Ismel - Istituto per la Memoria e la Cultura del Lavoro, dell'Impresa e dei Diritti Sociali
 

La actualidad más candente (8)

La Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo FerriLa Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo Ferri
 
Fonti informative digitali 2014
Fonti informative digitali 2014Fonti informative digitali 2014
Fonti informative digitali 2014
 
Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
Democrazia e lavoro nell'era digitale: è possibile trasformare una 'catastrof...
 
Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0Una finestra sul futuro: il Web 3.0
Una finestra sul futuro: il Web 3.0
 
Corso di Formazione SIVE Confindustria 13 gennaio 2012 parte seconda
Corso di Formazione SIVE Confindustria 13 gennaio 2012 parte secondaCorso di Formazione SIVE Confindustria 13 gennaio 2012 parte seconda
Corso di Formazione SIVE Confindustria 13 gennaio 2012 parte seconda
 
Data Driven UX - Content Strategy
Data Driven UX - Content StrategyData Driven UX - Content Strategy
Data Driven UX - Content Strategy
 
Data Driven UX
Data Driven UX Data Driven UX
Data Driven UX
 
Il Linguaggio Dei Nuovi Media
Il Linguaggio Dei Nuovi MediaIl Linguaggio Dei Nuovi Media
Il Linguaggio Dei Nuovi Media
 

Similar a Le città Intelligenti

Il ruolo della tecnologia nella genesi ..
Il ruolo della tecnologia nella genesi ..Il ruolo della tecnologia nella genesi ..
Il ruolo della tecnologia nella genesi ..
Sergio Guida
 
Il ruolo della tecnologia nella genesi dei processi finanziari innovativi
Il ruolo della tecnologia nella genesi dei processi finanziari innovativiIl ruolo della tecnologia nella genesi dei processi finanziari innovativi
Il ruolo della tecnologia nella genesi dei processi finanziari innovativi
Sergio Guida
 
Guida alle nuvole di byte: il web 2.0 spiegato alle aziende repubblica
Guida alle nuvole di byte: il  web 2.0 spiegato alle aziende   repubblicaGuida alle nuvole di byte: il  web 2.0 spiegato alle aziende   repubblica
Guida alle nuvole di byte: il web 2.0 spiegato alle aziende repubblica
Alessandro Prunesti
 
Leandrò Agrò - Rinascimento=better life
Leandrò Agrò - Rinascimento=better lifeLeandrò Agrò - Rinascimento=better life
Leandrò Agrò - Rinascimento=better life
Toscanalab
 
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Universita' di Bari
 
Bigdata v eletti_nov2013 versione_ampliata_con_silver
Bigdata v eletti_nov2013 versione_ampliata_con_silverBigdata v eletti_nov2013 versione_ampliata_con_silver
Bigdata v eletti_nov2013 versione_ampliata_con_silver
Valerio Eletti
 

Similar a Le città Intelligenti (20)

Il ruolo della tecnologia nella genesi ..
Il ruolo della tecnologia nella genesi ..Il ruolo della tecnologia nella genesi ..
Il ruolo della tecnologia nella genesi ..
 
Il ruolo della tecnologia nella genesi dei processi finanziari innovativi
Il ruolo della tecnologia nella genesi dei processi finanziari innovativiIl ruolo della tecnologia nella genesi dei processi finanziari innovativi
Il ruolo della tecnologia nella genesi dei processi finanziari innovativi
 
Internet of Things
Internet of ThingsInternet of Things
Internet of Things
 
Informatica Presente e Futuro
Informatica Presente e FuturoInformatica Presente e Futuro
Informatica Presente e Futuro
 
Tec media michelerinaldi
Tec media michelerinaldiTec media michelerinaldi
Tec media michelerinaldi
 
Guida alle nuvole di byte: il web 2.0 spiegato alle aziende repubblica
Guida alle nuvole di byte: il  web 2.0 spiegato alle aziende   repubblicaGuida alle nuvole di byte: il  web 2.0 spiegato alle aziende   repubblica
Guida alle nuvole di byte: il web 2.0 spiegato alle aziende repubblica
 
Presentazione del Campus
Presentazione del CampusPresentazione del Campus
Presentazione del Campus
 
Smau Padova 2019 Claudio Gagliardini
Smau Padova 2019 Claudio GagliardiniSmau Padova 2019 Claudio Gagliardini
Smau Padova 2019 Claudio Gagliardini
 
Digital people
Digital peopleDigital people
Digital people
 
Smart stupid or aware people
Smart stupid or aware peopleSmart stupid or aware people
Smart stupid or aware people
 
Marketing, Brand e Media: 5 anni per una vera rivoluzione!
Marketing, Brand e Media: 5 anni per una vera rivoluzione!Marketing, Brand e Media: 5 anni per una vera rivoluzione!
Marketing, Brand e Media: 5 anni per una vera rivoluzione!
 
Cotta
CottaCotta
Cotta
 
Internet better life
Internet better lifeInternet better life
Internet better life
 
Leandrò Agrò - Rinascimento=better life
Leandrò Agrò - Rinascimento=better lifeLeandrò Agrò - Rinascimento=better life
Leandrò Agrò - Rinascimento=better life
 
Smart peopleb
Smart peoplebSmart peopleb
Smart peopleb
 
Storia hackeritaliana
Storia hackeritalianaStoria hackeritaliana
Storia hackeritaliana
 
Internet delle cose
Internet delle coseInternet delle cose
Internet delle cose
 
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
 
Mario Rasetti digitTorino-2018
Mario Rasetti digitTorino-2018Mario Rasetti digitTorino-2018
Mario Rasetti digitTorino-2018
 
Bigdata v eletti_nov2013 versione_ampliata_con_silver
Bigdata v eletti_nov2013 versione_ampliata_con_silverBigdata v eletti_nov2013 versione_ampliata_con_silver
Bigdata v eletti_nov2013 versione_ampliata_con_silver
 

Más de Roberto Siagri

Más de Roberto Siagri (20)

Edge computing, Edge AI and the 5G Cloud matrix
Edge computing, Edge AI and the 5G Cloud matrixEdge computing, Edge AI and the 5G Cloud matrix
Edge computing, Edge AI and the 5G Cloud matrix
 
Aidda Anticipando il G20: La produzione digitale
Aidda Anticipando il G20: La produzione digitaleAidda Anticipando il G20: La produzione digitale
Aidda Anticipando il G20: La produzione digitale
 
Digital Twins and New Business Models From Limits to Growth to Limitless Growth
Digital Twins and New Business Models From Limits to Growth to Limitless GrowthDigital Twins and New Business Models From Limits to Growth to Limitless Growth
Digital Twins and New Business Models From Limits to Growth to Limitless Growth
 
internet of things : 2021 perspective
internet of things : 2021 perspectiveinternet of things : 2021 perspective
internet of things : 2021 perspective
 
Auto a guida autonoma
Auto a guida autonomaAuto a guida autonoma
Auto a guida autonoma
 
Digital twins and New Business Models
Digital twins and New Business ModelsDigital twins and New Business Models
Digital twins and New Business Models
 
Dal Cloud Computing all'Edge Computing. Il 5G come driver dell'era post cloud
Dal Cloud Computing all'Edge Computing. Il 5G come driver dell'era post cloudDal Cloud Computing all'Edge Computing. Il 5G come driver dell'era post cloud
Dal Cloud Computing all'Edge Computing. Il 5G come driver dell'era post cloud
 
Ubiquity e Autonomy : the autonomous car and the outcome economy
Ubiquity e Autonomy : the autonomous car and the outcome economyUbiquity e Autonomy : the autonomous car and the outcome economy
Ubiquity e Autonomy : the autonomous car and the outcome economy
 
IoT, building digitale e nuovi modelli di business
IoT, building digitale e nuovi modelli di businessIoT, building digitale e nuovi modelli di business
IoT, building digitale e nuovi modelli di business
 
how to implement an IoT architecture
how to implement an IoT architecturehow to implement an IoT architecture
how to implement an IoT architecture
 
Pioneering the Edge Learning Curve of 25 Years
Pioneering the Edge Learning Curve of 25 YearsPioneering the Edge Learning Curve of 25 Years
Pioneering the Edge Learning Curve of 25 Years
 
Open factory 2019
Open factory 2019Open factory 2019
Open factory 2019
 
Computing power, IoT, AI & Sustainability 2019
Computing power, IoT, AI & Sustainability  2019Computing power, IoT, AI & Sustainability  2019
Computing power, IoT, AI & Sustainability 2019
 
Creativity: the human tool in the age of intelligent machines
Creativity: the human tool in the age of intelligent machines Creativity: the human tool in the age of intelligent machines
Creativity: the human tool in the age of intelligent machines
 
l'IoT è alla base della servitizzazione
l'IoT è alla base della servitizzazionel'IoT è alla base della servitizzazione
l'IoT è alla base della servitizzazione
 
Industria 4.0: dal prodotto al servizio per approdare all'economia circolare
Industria 4.0: dal prodotto al servizio per approdare all'economia circolareIndustria 4.0: dal prodotto al servizio per approdare all'economia circolare
Industria 4.0: dal prodotto al servizio per approdare all'economia circolare
 
Scientific Reserch and Industry 4.0
Scientific Reserch and Industry 4.0Scientific Reserch and Industry 4.0
Scientific Reserch and Industry 4.0
 
Business Transformation through Data with an Open IoT Architecture
Business Transformation through Data with an Open IoT ArchitectureBusiness Transformation through Data with an Open IoT Architecture
Business Transformation through Data with an Open IoT Architecture
 
HPC the new normal: from HPC to HPEC
HPC the new normal: from HPC to HPECHPC the new normal: from HPC to HPEC
HPC the new normal: from HPC to HPEC
 
Industrial IoT and the emergence of Edge Computing Navigating the Technologic...
Industrial IoT and the emergence of Edge Computing Navigating the Technologic...Industrial IoT and the emergence of Edge Computing Navigating the Technologic...
Industrial IoT and the emergence of Edge Computing Navigating the Technologic...
 

Le città Intelligenti

  • 1. Le città intelligenti. come i computer stanno cambiando in meglio il mondo intorno a noi Roberto Siagri ... perché, guardando il mondo di oggi, il cambiamento più evidente non è solo la disponibilità di tecnologia, ma il suo impatto sulla umanità. L’ICT altera radicalmente il modo in cui le persone abitano il mondo, come interagiscono, come percepiscono il mondo attorno a loro: infatti, sta cambiando quello che significa essere un essere umano nella società. Pensate alla consapevolezza che abbiamo del mondo che ci circonda, a come essa viene modificata e rafforzata dalla disponibilità di più flussi di informazioni provenienti da più fonti, tutte a misura dei nostri interessi. Questa consapevolezza estesa ha un impatto sulla nostra intelligenza, sulla nostra coscienza e sulla società: su quelle cose che sono fondamentali all’essenza umana.* Neelie Kroes (Vice-Presidente della Commissione Europea e responsabile dell’Agenda Digitale) Introduzione Il mondo è caldo, piatto e affollato, così Thomas Friedman1 intitola il suo ultimo libro. Fortunatamente possiamo notare che è anche sempre più intelligente. Sì, il nostro mondo sta diventando sempre più in grado di parlarci ed è sempre più interconnesso: persone, sistemi e oggetti possono comunicare e interagire gli uni con gli altri in modi completamente nuovi. Ora abbiamo la capacità di misurare, sentire e vedere in modo istantaneo lo stato di tutte le cose. Quando tutte le cose, inclusi i processi e metodi di * Paradiso conference: The Internet for a global sustainable future. Brussels, 8 settembre 2011. 1 T.L. Friedman, Caldo, piatto e affollato. Com’è oggi il mondo, come possiamo cambiarlo, Milano 2010. 773
  • 2. lavoro saranno intelligenti, potremo rispondere al cambiare delle condizioni più rapidamente e con più precisione, e ottenere risultati previsionali migliori e una miglior ottimizzazione degli eventi futuri. Da questa trasformazione in atto prende corpo l’idea delle Città Intelligenti (dall’inglese Smart Cities), che sono città in grado di agire attivamente per migliorare la qualità della vita dei propri cittadini conciliandola con le esigenze del commercio, delle imprese di produzione e di servizi e delle istituzioni, grazie all’impiego diffuso e innovativo delle tecnologie digitali. Da questa definizione generale si intuisce la provenienza del termine; per capirne l’origine va compresa l’evoluzione storica dei calcolatori così come l’evoluzione storica del rapporto tra computer e umani. Come facevano notare Mark Weiser e John Seely Brown in un loro lavoro seminale del 1996 dal titolo Designing Calm Technology,2 l’evoluzione tecnologica ha la proprietà di modificare in maniera sostanziale il posto, al centro o alla periferia, della tecnologia nella nostra vita. Potremmo anche dire che ciò che conta non è la tecnologia in sé ma la sua relazione con noi individui. Per comprendere meglio la questione dobbiamo andare a vedere come il calcolatore moderno (il cosiddetto computer) ha cambiato nel corso della sua breve storia di circa 60 anni questa relazione. In questo breve lasso di tempo si possono infatti evidenziare tre fasi (fig. 1) contraddistinte da tre diversi tipi di paradigma di calcolo correlati con tre tipologie di relazione, che prima verranno elencate e poi descritte più in dettaglio. Nella prima fase il rapporto è stato del tipo mainframe, nella seconda il rapporto è stato del tipo personal computer e oggi, grazie alla connettività internet diffusa e al basso costo dei componenti elettronici (in inglese chip), siamo entrati a pieno titolo nella terza fase, quella dei “computer a distribuzione diffusa”, anche detta in ambito consumer fase dell’internet delle cose o internet degli oggetti (in inglese: Internet of Things, talvolta abbreviata con l’acronimo IoT) mentre in ambito professionale si usa di più l’acronimo M2M, dall’inglese Machine to Machine ovvero “macchina a macchina”. In seguito useremo l’acronimo IoT anziché l’acronimo M2M, anche se i due si possono per i nostri fini ritenere intercambiabili. M. Weiser, J.S. Brown, Designing Calm Technology, «PowerGrid Journal» I, 1 (1996) <http://powergrid.electriciti. com/1.01>. 2 774
  • 3. 22 20 18 Vendite/Anno 16 Mainframe PC UC 14 12 10 8 6 4 2 0 1. I principali Trend dell’evoluzione del Calcolo e le unità vendute su base annua in unità relative.3 Benché in questa fase si sia entrati da pochi anni, l’origine del concetto di IoT è comunque attribuibile a Mark Weiser e lo si trova infatti già enucleato in un suo scritto4 del 1991 in cui lui immagina e descrive, per l’appunto, i calcolatori di oggi e la loro interazione con noi umani. Una fase evolutiva, questa terza, caratterizzata da una profonda interrelazione tra il mondo digitale (fatto di calcolo e di dati digitali in forma di bit) ed il mondo reale (in cui le cose sono fatte di atomi). Una fase che nel tempo ha assunto diversi nomi: Mark Weiser l’aveva chiamata la fase del computer ubiquo, poi a inizio secolo venne chiamata del calcolo pervasivo o anche dell’intelligenza diffusa (dall’inglese Ambient Intelligence). Una nuova fase per una nuova era, che ci porta a parlare di realtà aumentata in contrappo- <http://www.ubiq.com/hypertext/weiser/UbiHome.html>. M. Weiser, The Computer for the Twenty-First Century, «Scientific American», CCLXV, 3 (1991), 94-104. 3 4 775
  • 4. sizione alla realtà virtuale che sta solo dentro il computer. La distribuzione capillare dei calcolatori negli oggetti materiali che ci stanno intorno ci permette di guardare il mondo come se avessimo più dei nostri cinque sensi, o meglio potenzia la nostra capacità di percepire la realtà, quasi che fossimo forniti di una sorta di esoscheletro computazionale5 che possiamo indossare virtualmente e che ci invia ed elabora quantità di dati tali da aumentare la capacità percettiva dei nostri sensi. Mentre la realtà virtuale è principalmente un problema di potenza di calcolo e programmi di simulazione, la realtà aumentata è invece un problema complesso di integrazione di fattori umani con l’informatica, con l’ingegneria e con le scienze sociali. Ecco allora che le città intelligenti sono città in grado di rendere disponibile la miriade di dati e informazioni che arrivano dai computer disseminati nell’area urbana, in modo da dare in tempo reale una migliore e più approfondita conoscenza della città agli amministratori e ai cittadini, facilitando la loro vita e liberandoli da tutta una serie di incombenze grazie ad una migliore qualità ed efficienza dei servizi di trasporto e ospitalità, di sicurezza, di pronto soccorso, di telemedicina, di risparmio energetico, di monitoraggio dell’inquinamento, di raccolta dei rifiuti e così via. Le città intelligenti ci danno dunque una maggiore tranquillità quando le abitiamo, perché ci sentiamo più preparati ad ogni evenienza, siamo cioè in grado di pianificare meglio il nostro futuro, che ci appare così meno minaccioso e meno imperscrutabile. Come immaginato da Weiser e Brown, la tecnologia approccia le nostre vite in una maniera così amichevole che già nel ’96 la chiamarono l’era della «tecnologia della calma», una tecnologia che, come vedremo, permette di mettere in relazione centro e periferia, donandoci una percezione del mondo più rassicurante. Le tre fasi evolutive dei calcolatori La prima fase, che va dalla fine degli anni ’50 alla fine degli anni ’80 dello scorso secolo, è chiamata mainframe, per ricordare il rapporto che le persone avevano con i computer, i quali erano per lo più gestiti da esperti a porte chiuse. Una fase in cui il computer era una risorsa scarsa e oltremodo costosa, il cui uso doveva essere prima negoziato con i responsabili R. Siagri, Pervasive computers and the GRID: the birth of a computational exoskeleton for augmented reality, in Proceedings of International Workshop on Principles of Software Evolution, Dubrovnik 2007, 1-4. 5 776
  • 5. del centro di calcolo e poi condiviso con altri utenti esperti. Il tutto in una sorta di ritualità sacra dove la divinità era il mainframe, il tempio era il centro di calcolo, il gran sacerdote era il direttore del centro e i pochi utenti erano la sparuta schiera degli eletti ammessi ai riti. Nell’era dei mainframe, il rapporto tra umani e computer si riduceva a questo, perché più utilizzatori erano costretti a condividere la stessa macchina, ma si notava già un abbozzo di futuro, perché i terminali informatici (monitor e tastiera con un minimo di intelligenza locale) cresceranno sempre più in potenza e autonomia, e ci seguiranno nel tempo dato che tuttora interagiamo con il computer tramite gli occhi e le mani, fino a trasformarsi di recente in un’unica unità integrata il monitor con touch-screen dei nuovi tablet e smartphone. La seconda grande fase è stata quella del personal computer (PC), che possiamo collocare tra il 1985 e il 2005 (fig. 2). A metà degli anni ’80 il numero di persone che utilizzavano il personal computer superò il numero di persone che utilizzavano computer condivisi,6 e il rapporto con il computer diventò di tipo personale. Oggi siamo abituati a pensare al “nostro” computer, che contiene i nostri dati e interagisce direttamente e profondamente con essi, e quando non è occupato a fare le nostre cose non fa nient’altro. Ma il personal computer, quando cominciò a entrare nelle nostre case, era quasi come l’automobile: un elemento speciale, relativamente costoso, che ti poteva “portare dove volevi andare” ma richiedeva una notevole attenzione per operare. Oggi, proprio come si possono avere più automobili, si possono avere più personal computer, da utilizzare a casa, al lavoro e per andare in giro. La definizione allora di PC è quella di un computer con cui si ha un rapporto speciale e che viene utilizzato in maniera esclusiva, occupandone tutte le risorse. La spinta verso la standardizzazione,7 che rende possibile utilizzare lo stesso software su macchine di diversi costruttori, ha fatto sì che dei tanti possibili PC ne rimanesse uno solo: il PC derivato dall’iniziale progetto IBM, basato su processori Intel e con il sistema operativo Windows. <http://arstechnica.com/business/2012/08/from-altair-to-ipad-35-years-of-personalcomputer-market-share/4/>. 7 Il primo PC cosi come noi lo conosciamo fu prodotto da IBM. In seguito, grazie alla pubblicazione dell’architettura di progetto del PC, si sono fatti strada gli allora detti cloni, costruiti copiando alla lettera i PC IBM. Il passo successivo i è stato quello dei PC compatibili, che riproducevano le funzionalità del PC ma con un’implementazione originale. Oggi con l’avanzata standardizzazione delle funzioni e dei componenti, si parla solo di PC indipendentemente da chi ne sia il produttore. 6 777
  • 6. 3000 2500 2000 Tablet Smartphone PC 1500 1000 500 0 2. Evoluzione delle vendite annuali di PC, tablet e smartphone.8 Oltre al PC tradizionale Wintel (Windows-Intel) va menzionato il PC MAC, prodotto unicamente dalla Apple, che è riuscito a resistere nel tempo ma per far questo si è progressivamente avvicinato, dal punto di vista hardware e software, al PC-Wintel. In questa seconda fase, tra l’altro, non sono affatto scomparsi i mainframe, perché grazie all’aumento progressivo e rapidissimo delle prestazioni dei PC, questi sono oggi in grado di svolgere sia la funzione di mainframe, sotto il nuovo nome di PC-server, sia la funzione di terminale sotto il nome di PC-client. Ecco allora che si parla di relazione tra PC server e PC client, la quale dà origine al binomio clientserver tuttora in uso, e di cui parleremo in dettaglio più avanti. Grafico ottenuto mettendo insieme dati da varie fonti: Gartner, IDC, Strategic Analytics, BI Intelligence. 8 778
  • 7. Le tendenze principali nell’informatica Fase Informatica Tipo di relazione Rapporto Macchina-Umano 1° fase: mainframe molte persone condividono un computer 1:N 2° fase: PC un computer, una persona 1:1 diffusione di internet ... di transizione per... 3° fase: ubiquitous computing molti computer condivisi da ognuno di noi N:1 Prima di passare a descrivere la terza fase, due parole vanno spese su internet. Sul fenomeno internet si è scritto tanto e un po’ tutti abbiamo familiarità con questo termine. Per i nostri scopi diciamo solo che internet ha reso palese come le reti di calcolatori possano influenzare profondamente il modo di lavorare ed interagire delle persone, e questo era proprio quanto auspicato da Weiser. Miliardi di individui sono oggi interconnessi e le loro informazioni sono condivise. La possibilità di condividere informazioni non era affatto evidente nella prima fase di internet, quando il web era read-only, cioè il flusso dei dati era monodirezionale e andava unicamente dal sito all’utente. Le cose sono cambiate con il passaggio al web read-write, che ha permesso la bi-direzionalità dei flussi. La nascita dei blog e dei social network ha poi ulteriormente amplificato il fenomeno e si parla adesso del social web o web 2.0. È interessante notare che proprio internet riunisce gli elementi dell’era dei mainframe (oggi PC server) e dei PC client. Infatti il personal computer può anche essere visto come un terminale evoluto, in grado di vivere anche senza la connessione al PC server. Per questa ragione nel tempo si è progressivamente affermato l’uso del termine client al posto di terminal per identificare un PC collegato ad un server, dove il server “serve” i dati richiesti dal client. Internet amplifica su scala globale e massiva il paradigma del mainframe-terminale, o meglio del client-server. Il terminale quindi prima diventa PC client, e poi, grazie all’uso diffuso dei browser (Explorer, Firefox, Chrome), diventa PC web-client. Il mainframe invece prima diventa PC server e infine PC web-server. Da notare che se all’inizio, nel primo passaggio, c’era pur sempre bisogno dell’ufficio IT, nel secondo passaggio (grazie all’avvento del cloud computing, di cui parleremo più avanti, originatosi dalla combinazione della virtualizzazione dei server e delle tecnologie del web 2.0) non abbiamo più nemmeno bisogno di avere il nostro dipartimento IT, vale a dire che tutti possiamo disporre in modalità di servizio di quanti server vogliamo per il tempo che vogliamo. 779
  • 8. La terza fase, quella che Weiser e Brown chiamarono del computer ubiquo, e che noi definiamo come smart computing, nasce dal risultato dell’interconnessione massiccia di informazioni personali, del business e della pubblica amministrazione. In quest’era anche il web cambierà, e si passerà al web 3.0. Il web 3.0 è ancora in divenire ma di sicuro possiamo dire che il passaggio da 2.0 a 3.0 significherà un migliore accesso alla enorme mole di dati presente sulla rete, ottenuto potenziando significativamente i motori di ricerca e gli strumenti di ricerca e analisi dei dati. Questa terza onda dell’informatica che stiamo oggi vivendo, iniziata agli albori del XXI secolo, si protrarrà fin oltre il 2020. Per comodità, potremmo prendere come punto di inizio il momento in cui le vendite di smartphone hanno superato le vendite di PC (fig. 2), cosa che è avvenuta alla fine del 2011.9 Con gli smartphone siamo sempre potenzialmente connessi ad internet e dunque siamo in grado di condividere i molteplici computer interconnessi alla rete, i quali possono essere, se opportunamente programmati, al nostro servizio. In questa terza fase ognuno di noi potrà condividere una crescente molteplicità di computer, dalle centinaia a cui possiamo accedere nel corso di pochi minuti di navigazione in internet, alle migliaia che avremo a disposizione non appena entreremo un po’ di più in questa fase, che è anche l’era dell’internet delle cose. Quando questa sarà al suo culmine, colloquieremo con computer incorporati nelle pareti, nelle sedie, nei vestiti, nelle auto, nelle varie macchine intorno a noi, in altre parole in tutte le cose. L’era dei computer ubiqui o pervasivi è fondamentalmente caratterizzata dalla connessione delle cose del mondo reale con il mondo digitale del calcolo. Questo processo di interconnessione si estenderà a tutte le scale dimensionali, compresa la scala microscopica, quando (e ciò avverrà entro pochi anni) si riusciranno a costruire le nano-macchine.10 Con la realizzazione delle nano-macchine molti settori conosceranno enormi progressi, e in particolare la medicina: farmaci mirati, nano-robot per riparare il corpo o ripulire arterie, per trovare e distruggere virus11 o per migliorare il metabolismo, e molto altro ancora, come la risoluzione di molte malattie neurodegenerative. <http://www.digitaltrends.com/mobile/smartphone-sales-exceed-those-of-pcs-forfirst-time-apple-smashes-record/>. 10 K. Gabriel, Engineering Microscopic Machines, «Scientific American», CCLXXIII, 3(1995), 118-121. 11 R.A. Freitas Jr , TheFuture of Nanomedicine <http://www.wfs.org/Dec09-Jan10/freitas.htm>. 9 780
  • 9. L’era dell’internet delle cose e del Big-data Abbiamo visto prima il significato di client. Oggi, a proposito di miniaturizzazione, si parla di thin client e thin server per indicare i circuiti leggeri, piccoli ed economici che integrano un calcolatore in grado di accedere ad internet e fare sia funzione di server (che elabora e distribuisce dati in un’ottica di supervisione) che di client (che compie elaborazioni locali). È grazie a questo progresso in campo elettronico, ossia alla miniaturizzazione dei computer e al contemporaneo aumento delle prestazioni e riduzione dei costi, che possiamo oggi parlare di IoT. I nostri computer sono più potenti di quello usato dalla Nasa per il progetto Apollo che portò l’uomo sulla Luna, e costano poche centinaia di euro. Fra poco con meno di una decina di euro ci si potrà permettere di installare un web-server in ogni macchina industriale, attrezzatura per ufficio o elettrodomestico casalingo. Più le dimensioni ed i costi si riducono, più aumenta l’utilizzo e più l’IoT diventa realtà (fig. 3). Secondo le ultime stime, si prevede che saranno collegati a internet, entro il 2020, tra i 20 ed i 50 miliardi di dispositivi intelligenti interconnessi (fig. 4). 3. Miniaturizzazione moltiplicazione: tutto sta diventando intelligente. 781
  • 10. Numero di disposiƟvi interconnessi a internet (miliardi) 50 40 30 20 Ericsson DaƟ pubblicaƟ dalle fonƟ tra il 2009 ed il 2011 Google Intel GMSA Cisco IMSresearch 10 0 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 4. Proiezione del numero di dispositivi connessi ad internet. Inoltre questi dispositivi saranno proprio quelli che genereranno il traffico di dati sulla rete. Un traffico che crescerà a dismisura, da qui il termine Big-data12 per indicare questo fenomeno (fig. 5) che ci costringerà ad ideare nuove strategie e tecnologie per gestirlo. Per capire di che mole di dati si parla, notiamo che in figura 5 l’asse dei dati è espresso in exabyte (un miliardo di miliardi di byte), e si vede che già dopo il 2015 si arriverà al migliaio di exabyte all’anno, pari a uno zettabyte. Per avere una idea di cosa sia uno zettabyte, possiamo pensare all’equivalente digitale di 36.000.000 di anni di video in alta definizione o anche a 250 miliardi di DVD, che se consideriamo uno spessore di 2 mm per ogni DVD, formerebbero una pila così alta da coprire metà della distanza tra la terra e la luna. Oltre alla complessità di gestione della mole di dati prodotti, si pone anche il problema di dover indirizzare in modo univoco ogni oggetto intelligente collegato alla rete, attraverso il ben noto indirizzo IP (dove IP sta per internet protocol). Il protocollo internet oggi maggiormente in uso è l’IPv4, ma non sarebbe in grado di gestire la situazione. Per questo è già stata implementata una nuova revisione del protocollo, nota con la sigla IDC definisce le tecnologie Big-data come una nuova generazione di tecnologie e architetture progettate per estrarre valore economico da volumi molto grandi di una vasta gamma di dati consentendone l’acquisizione ad alta velocità, la scoperta e/o analisi. 12 782
  • 11. IPv6,13 in grado di indirizzare più di un migliaio di dispositivi per ogni atomo presente sulla superficie della terra.14 Non c’è dunque di che preoccuparsi nel caso di una futura proliferazione di nano-macchine intelligenti, l’umanità sarà in grado di indirizzarle e dunque anche gestirle. Non v’è dubbio che una mole di computer e di dati così enorme non può che avere un impatto sociale importante. Se analizziamo il fenomeno dal punto di vista storico ci accorgiamo che i computer avranno un impatto analogo a quello avuto da altre due grandi tecnologie del passato, il linguaggio e la scrittura. Sia il linguaggio che la scrittura sono state grandissime innovazioni che, passando attraverso varie fasi, hanno finito per diventare onnipresenti e parte del nostro sfondo. Esse sono oramai ovunque intorno a noi, e sono tecnologie così ovvie che ci dimentichiamo del loro enorme impatto sulla nostra vita quotidiana e anche di quanto tempo ci è stato necessario per padroneggiarle. Lo stesso succederà per il calcolo e i computer. Abbiamo visto che i fattori abilitanti di questa nuova fase sono da un lato la riduzione dei costi dei microchip e l’aumento delle loro prestazioni, un trend inarrestabile esemplificato dalla celebre legge di Moore,15 e dall’altro la sempre maggiore diffusione di internet grazie alla disponibilità di molteplici canali di comunicazione fissa e wireless a costi sempre più contenuti. Oggi nei paesi occidentali è facile trovare 50 microprocessori (microchip con funzione di calcolatore) in una casa media, e più di 30 in un’automobile di fascia medio alta. Sono presenti nei termostati, negli orologi, negli elettrodomestici, nei telecomandi, negli apparati audio-video, nei telefoni, in molti giocattoli e in tantissimi altri oggetti, anche se non ancora tutti dispongono di un canale di comunicazione persistente che li Internet Protocol Specification Version 6, <http://www.ietf.org/rfc/rfc2460.txt>; a confronto con l’IPv4, il protocollo internet attualmente in uso, il vantaggio più evidente dell’IPv6 è il suo spazio di indirizzamento. L’IPv4 dispone di 32 bit per gli indirizzi ovvero il numero massimo di indirizzi e di 232 o anche 4.3×109 (4.3 miliardi cioè un numero inferiore al numero degli umani nella Terra). L’IPv6 dispone di 120 bit per gli indirizzi cioè 2120 o 1.3×1036 (1,3 peta zetta) ovvero abbastanza per il futuro a venire. 14 <http://www.edn.com/electronics-blogs/other/4306822/IPV6-How-Many-IP13 Addresses-Can-Dance-on-the-Head-of-a-Pin->. La potenza dei computer raddoppia ogni 18 mesi. Nel 1965 Gordon Moore, co-fondatore di Intel, osservò che i circuiti integrati, meglio conosciuti come chip di silicio, sembravano essere conformi ad una legge prevedibile: fin dalla loro invenzione nel 1958, la densità dei transistor in ogni chip raddoppiava ogni anno. Egli ipotizzò quindi che questo trend si sarebbe protratto nel tempo. Nel 1975 Moore stimò che il tempo di raddoppio si sarebbe attestato attorno ai 24 mesi. In termini pratici, il risultato è che le prestazioni del personal computer raddoppiano ogni 18 mesi e questo è avvenuto per decenni. Questa previsione è comunemente nota come legge di Moore. 15 783
  • 12. metta in relazione con il mondo esterno e dunque con i computer mobili che portiamo sempre con noi, e che fra pochissimo indosseremo come abiti. A tutt’oggi infatti molti oggetti dotati di computer non possono ancora essere classificati come IoT, visto che sono utilizzabili soltanto uno alla volta e non sono collegati alla rete internet. Potremo dire di essere nel pieno dell’era dell’internet delle cose quando tutti questi oggetti saranno connessi ad internet e potranno finalmente dialogare tra di loro e con noi umani. A quel punto avremo a disposizione miliardi di fonti di informazione e moltissimi modi per analizzarle sia in casa che in ufficio, ma soprattutto mentre ci muoveremo. Tra poco il forno della cucina scaricherà nuove ricette da preparare con i cibi che abbiamo in casa, il frigorifero ci informerà se gli alimenti sono in scadenza o se sono finiti, la bilancia colloquierà con gli elettrodomestici in cucina al fine di proporci i cibi più adatti alla nostra dieta; in un prossimo futuro possiamo perfino immaginare pareti di casa intelligenti con colori e superfici che si adatteranno alla situazione e pavimenti in grado di avvisarci della presenza di intrusi. 90 80 2015 Il traffico IP totale annuale ha raggiunto la soglia dell’exabyte Il traffico generato dai disposiƟvi mobile supera il traffico generato da disposiƟvi fissi Il numero dei disposiƟvi interconnessi è il doppio della popolazione del Pianeta Exabyte / Mese 70 2014 1/5 dei video Internet sono ora originaƟ da disposiƟvi non-PC 60 50 40 30 20 10 2012 i video Internet hanno raggiunto il 50% del traffico sulla rete. Il numero di abitazioni che generano >1TB al mese ha raggiunto il milione 2011 L’area dello schermo di tuƫ i disposiƟvi consumer ha raggiunto i 30 cm2 per persona. Il numero di disposiƟvi interconnessi ha raggiunto il numero di abitanƟ del Pianeta 2010 i video Internet hanno superato i P2P e rappresentano il più grande traffico Internet consumer 2010 Internet consumer ha superato l’internet business 2000 2005 2010 2015 5. La crescita esplosiva dei dati. Ma oltre a questo che è uno scenario domestico, l’avvento dell’IoT consentirà di ampliare enormemente la capacità dell’ICT (Information and Communication Technology) di semplificare le nostre vite, andando ad 784
  • 13. occuparsi anche delle più piccole incombenze quotidiane e lasciandoci sempre più tempo da dedicare alle cose che per noi sono più importanti. Estendendo questo ragionamento agli ambienti urbani e alle città possiamo già immaginare quale grande aiuto ci potrà dare una rete pervasiva di computer: cartelli stradali dinamici in grado di gestire il traffico in maniera da ridurre gli ingorghi, utilizzo efficiente dei mezzi pubblici in funzione delle necessità effettive, gestione intelligente degli edifici in materia di risparmio energetico e di sicurezza, e in fin dei conti risoluzione della maggior parte dei problemi che oggi limitano la crescita sostenibile delle città e limitano la qualità della nostra vita. L’era dell’IoT sta cambiando radicalmente anche il modo di progettare i computer. Ora che i computer stanno entrando sempre più nelle nostre vite, dovranno essere sempre più alimentati a batteria o avere un basso impatto sulla bolletta energetica. Di conseguenza è diventato molto più importante che in passato il loro basso consumo o la durata della batteria. Dato che le prestazioni vanno parametrate al consumo, la metrica più importante è ora mips/watt, ovvero “milioni di istruzioni per secondo” per ogni watt16 richiesto. A tale proposito, Jonathan Koomey e i suoi colleghi della Stanford University hanno scoperto un’altra legge di tendenza che non riguarda le performance come la legge di Moore, ma l’efficienza energetica dei computer, e che ne descrive molto accuratamente l’evoluzione dal 1950 ad oggi. La legge di Koomey dice che il numero di calcoli per ogni joule17 di energia dissipata sta raddoppiando circa ogni 1,5 anni o anche, prendendo la formulazione originale: «dato un carico di calcoli fisso, la quantità di energia necessaria per eseguirlo si dimezza ogni 18 mesi». Un ulteriore parametro è bit/sec/m3, che misura la quantità di informazioni disponibili in un metro cubo di spazio per ogni secondo. Per quanto riguarda quest’ultimo parametro, è da notare che i limiti dati dalle leggi fisiche alle trasmissioni radio, e che potrebbero limitare l’uso pervasivo dei computer, possono essere in parte superati da opportune architet- L’ultima classifica della Green500 del 28 giugno 2013, che riporta i 500 supercomputer più energeticamente efficienti, ha come primo in classifica il supercomputer Aurora Tigon della Eurotech con 3,2 GFLOP/watt. Un GFLOPS equivale ad un miliardo di operazioni con la virgola al secondo. Un watt è la potenza richiesta per sollevare dal tavolo e portare alla bocca una tazzina di caffè. 17 L’energia di un joule è a grandi linee l’energia richiesta per sollevare dal tavolo e portare alla bocca una mela, o per alzare una mela (100 g) di un metro (100 cm). Un watt che è un joule al secondo è la potenza richiesta se si vuole portare la mela alla bocca in un secondo. I joule ci dicono quanta energia ci serve o eroghiamo, il watt ci dice con che velocità possiamo usare o erogare quell’energia. 16 785
  • 14. ture software di trasporto dati tendenti a ridurre tutte le duplicazioni e ritrasmissioni. Questo è un aspetto da non trascurare quando si esce dal settore dell’intelligenza domestica per entrare in un contesto di città intelligente, dove la quantità di dispositivi interconnessi comincia a crescere in maniera molto significativa. Periferia e tecnologia delle calma Prima di addentrarci a discutere dell’impatto che questo immenso progresso tecnologico avrà sulla città, c’è un altro argomento che va affrontato. Si tratta del significato, dal punto di vista percettivo, dei due concetti di periferia e centro. Con la parola «periferia» definiamo quelle cose che ci stanno intorno, a cui siamo agganciati, ma delle quali non c’è bisogno di curarsi in modo esplicito.18 Un oggetto che sta alla nostra periferia è un oggetto per il quale abbiamo un’attenzione latente, ma che può essere portato al centro in pochissimo tempo. In altre parole, è periferia tutto quello che sta intorno a noi ma non è importante nel momento presente. Sappiamo da studi19 fatti che la mente umana gestisce in media tre variabili, e può arrivare a gestirne cinque con estrema difficoltà. Ne consegue che siamo costretti a spostare quasi tutto il mondo reale alla nostra periferia, dove rimane relativamente irrilevante, ma se necessario può in qualunque istante riposizionarsi al centro della nostra attenzione. È così molto importante diventare capaci di spostare facilmente oggetti dalla periferia della nostra attenzione al centro e viceversa. È questa facilità di relazionarsi dinamicamente con molto più di cinque variabili che ci dà il senso di tranquillità a cui vuole alludere la definizione di tecnologia della calma, punto di approdo del calcolo ubiquo e pervasivo o dell’IoT, una tecnologia in grado di farci sentire tranquilli indipendentemente dal luogo dove ci troviamo. La Città Intelligente L’idea della Smart City o “città intelligente” nasce dunque dalla diffu- J.S. Brown, P. Duguid, Keeping It Simple: Investigating Resources in the Periphery, in Bringing Design to Software, a cura di T. Winograd, New York 1996, 129-150. 19 G.S. Halford, R. Backer, J.E. McCredden, J.D. Bain, How many variables can humans process?, «American Psychological Society» XVI, 1 (2005), 70-76. 18 786
  • 15. sione dei calcolatori, come conseguenza della progressiva miniaturizzazione e riduzione di consumo e di costi, e dalla contemporanea diffusione e progressiva riduzione di costo delle connessioni dati a filo o senza filo. La pervasività dei calcolatori interconnessi, che si traduce in una grande disponibilità di dati, fa emergere il desiderio di realizzare una città più integrata ed efficiente dove l’amministrazione e i vari operatori possono compiere scelte strategiche più mirate, in funzione dell’analisi dei dati storici o disponibili in tempo reale. Questo a sua volta consente di fornire più servizi ai cittadini e di guidare in modo più armonioso la crescita urbana. Una città intelligente che vada incontro alle necessità della popolazione urbana deve sicuramente porre l’attenzione sulla costruzione di un ambiente sicuro, su sistemi di trasporto efficienti, sulla riduzione dell’inquinamento. Va da sé che riuscire a rispondere a queste richieste significa creare un ambiente urbano attraente e vivace, che offre una migliore qualità della vita attirando nuovi investimenti anche dall’estero, e ponendo le basi per lo sviluppo di una vasta gamma di attività sportive, culturali e immobiliari. Almeno cinque sono le aree di intervento che vanno indirizzate e gestite, e dove la tecnologia può essere di grande aiuto: la sicurezza urbana, la mobilità, la qualità della vita, la gestione di grandi eventi, lo sviluppo e la crescita sostenibile. Questo non è un programma fine a sé stesso, è un percorso ineludibile per le città di domani. Se si considera che già oggi la metà della popolazione mondiale, composta da 7 miliardi di persone, vive nelle aree urbane, e che oltre il 70% della popolazione mondiale vivrà in città entro il 2050, quando la popolazione mondiale supererà in base alle stime attuali i 9 miliardi di persone, si capisce come sia estremamente importante iniziare fin da subito a rendere più intelligenti le città. Anche solo il fenomeno dell’inurbamento basterebbe per far pensare alle città intelligenti; è ovvio infatti che l’aumento della concentrazione di persone pone nuove sfide alla sicurezza del cittadino, tra cui la prevenzione della criminalità, la gestione e il coordinamento inter-forze in caso di emergenze e la mitigazione di calamità naturali. Molti urbanisti stanno già mettendo a punto strategie complesse per gestire tutti questi servizi, utilizzando in maniera importante le diverse reti di comunicazione interconnesse che monitorano le funzioni principali: i servizi della città, i trasporti, l’erogazione di acqua ed energia. I più avanzati tra questi sistemi fanno uso di molti computer, anche se nella maggior parte dei casi questi operano ancora in settori verticali separati, ovvero solo per l’amministrazione comunale, per la sanità, per i trasporti o per le utilities. 787
  • 16. 7. Visione integrate del flusso dei dati in una città intelligente. Per creare una Smart City, questi sistemi devono essere trasformati ed interconnessi tra di loro così da lavorare come un unico sistema di sistemi che sia onnipresente e orientato al cittadino (fig. 7). L’integrazione dei sistemi porta altri benefici, rimuovendo le barriere tra i tradizionali silos di informazioni e fornendo dati in tempo reale per le variabili che influenzano le diverse questioni come l’inquinamento, la congestione, l’uso di energia, gli interventi di emergenza e l’accesso alle cure sanitarie. Il flusso regolare di informazioni consente ai responsabili amministrativi e politici di prendere decisioni migliori: quando i dati sono raccolti in un unico strumento di informazione diventa più facile tener conto di tutte le variabili rilevanti e valutare tutte le opzioni. Con la creazione di una Smart City non solo si migliorano le condizioni di vita e di lavoro ma si contribuisce soprattutto ad attrarre una forza lavoro creativa e qualificata, che in un mondo ad alta intensità di conoscenza è sempre di più ciò che determina il successo economico di una città; alcune città come Kochi, Malta, e Dubai ne sono un esempio. 788
  • 17. Il Cloud Computing e il ruolo dell’ICT Questo scenario può diventare realizzabile se si è in grado in prima battuta di “misurare” i vari fenomeni, e gli smart computer ci aiutano proprio in questa operazione. Notiamo tra l’altro che a livello più astratto ciò è reso possibile dal progressivo ed ineludibile passaggio da un mondo analogico e disconnesso ad un mondo sempre più digitale ed interconnesso, che rende semplice la misurazione a distanza. Una volta raccolti i dati di misura dal campo, questi devono essere convogliati tramite la rete ad un centro di calcolo, dove i dati vengono prima memorizzati ed elaborati e poi distribuiti. Anche per questa attività il progresso tecnologico ci sta venendo incontro, permettendoci di utilizzare grosse infrastrutture centrali di calcolo (quelle che in passato si chiamavano mainframe) senza doverle acquistare. Grazie alla spinta verso la virtualizzazione del calcolo e dello storage con la tecnologia del cloud computing,20 oramai ogni amministrazione, anche la più piccola, può cominciare a rendere più intelligente la sua città fornendo dati ed informazioni utili on-demand ai suoi cittadini tramite i dispositivi smart portatili e personali, di cui lo smartphone è un esempio. Se la tecnologia ha ormai quasi completamente risolto i problemi dell’hardware dei dispositivi, rimane ancora in via di risoluzione l’aspetto software, cioè quello che riguarda il trattamento dei dati. Per diffondere l’approccio smart nelle città bisogna infatti anche trovare standard e pratiche condivise fra tutti i protagonisti di questa evoluzione intelligente, soprattutto nelle prime fasi di digitalizzazione e raccolta dei dati, al fine di evitare la formazione di una “Babele digitale” di dati e andare invece nella direzione dei “dati aperti”.21 È su questo punto che ci soffermeremo, approfondendo ancora una volta il senso dell’evoluzione delle tecnologie del calcolo, ma questa volta sotto l’aspetto delle tecnologie abilitanti alla trasformazione da prodotto a servizio. Come per avere l’elettricità non è necessario possedere Il cloud computing, in italiano la “nuvola”, non è altro che una naturale evoluzione del rapporto web-client e web-server, dove ora il server non è più di proprietà ma è condiviso con tanti altri utenti e dunque non viene acquistato ma pagato a canone in funzione del suo utilizzo (tempo, transazioni, quantità di memoria, eccetera). 21 Tratto da Wikipedia: I “dati aperti”, comunemente chiamati con il termine inglese open data , sono alcune tipologie di dati liberamente accessibili a tutti, privi di brevetti o altre forme di controllo che ne limitino la riproduzione. L’open data si richiama alla più ampia disciplina dell’open government, cioè una dottrina in base alla quale la pubblica amministrazione dovrebbe essere aperta ai cittadini, tanto in termini di trasparenza quanto di partecipazione diretta al processo decisionale, anche attraverso il ricorso alle nuove tecnologie dell’ICT. 20 789
  • 18. una centrale elettrica, così per fare dei calcoli, poco o tanto complicati che siano, o per memorizzare montagne di informazioni, non è più necessario comprare computer e dischi di memoria. Queste funzioni si possono infatti ottenere on-demand e in modalità as-a-service pagando solo per quello che si usa. Per arrivare a questo risultato, che solo dieci anni fa sembrava un miraggio anche se il concetto risale al 1960,22 si è passati per fasi successive di standardizzazioni e gerarchizzazioni, prima dell’hardware e poi sempre più del software. D’altra parte, quando la complessità di un sistema cresce l’unica maniera per dominarla è suddividere il sistema in sottosistemi o moduli funzionali che si agganciano gli uni agli altri tramite pochissimi punti di interazione (pensiamo alla standardizzazione delle componenti in meccanica, idraulica ed elettromeccanica).23 Fin qui tutto appare abbastanza comprensibile, ma la domanda che sorge è: qual è la strategia migliore per suddividere in moduli un sistema complesso come una rete eterogenea di computer e di dati, è preferibile un approccio verticale oppure orizzontale? Il cloud computing ha una suddivisione orizzontale (fig. 8a) delle componenti, che in via generale sono tre: l’infrastruttura harware con i computer e i dispositivi di rete, che nella terminologia as-a-service ha l’acronimo IaaS (Infrastructure as a Service), poi un secondo strato detto piattaforma o PaaS (Platform as a Service), che oltre a dialogare con l’infrastruttura contiene tutta una serie di funzioni che semplificano lo sviluppo del software applicativo specifico, e per ultimo lo strato del software applicativo, noto con l’acronimo SaaS (Software as a Service). John McCarthy (1927-2011) è stato il primo nel 1961 a suggerire pubblicamente (in un discorso tenuto per celebrare il centenario del MIT) che la tecnologia del computer time-sharing potrebbe comportare che in futuro le applicazioni e la potenza di calcolo possano essere vendute attraverso il modello di business delle utility (come l’acqua o l’elettricità). 23 H.A. Simon, The Architecture of Complexity, «Proceedings of the American Philosophical Society» CVI, 6. (1962), 467-482. 22 790
  • 19. Cloud Clients Web browser, Mobile app, Thin client, Terminal emulator Web browser SaaS Mobile app Terminal emulator Thin client SaaS CRM, Email, Virtual desktop, Games, Comunicazioni PaaS ExecuƟon runƟme, database, web browser, tool di sviluppo PaaS IaaS IaaS Virtual Computers, Server, Storage, Bilanciatori di carico, ReƟ (a) (b) 8a-b. Architettura a strati logico/funzionali del Cloud logica (a) e per numerosità di oggetti su ogni strato (b). Questi tre strati si possono rappresentare anche con un triangolo rovesciato (fig. 8b), infatti la tecnologia del cloud, basandosi sull’idea di servizio, tende ad utilizzare le risorse hardware nel modo migliore, riducendo gli sprechi e rendendone efficiente l’utilizzo, quindi richiedendo meno hardware e meno energia per fare le stesse cose. Alla base del triangolo rovesciato si trova la IaaS (calcolatori, dischi, apparati di comunicazione, apparati di alimentazione), e su ognuno di questi computer “fisici” molto potenti vengono creati molti computer “virtuali”, che sono programmi eseguiti sui computer fisici. Se i canali di comunicazione sono abbastanza capienti (di qui l’importanza della banda larga), i computer fisici possono risiedere negli angoli più remoti del pianeta. Sull’hardware virtuale stanno poi appoggiate un certo numero di piattaforme software, in funzione della tipologia di servizi richiesti (piattaforme per la gestione dei clienti, della produzione, della lettura dati dai contatori, per la localizzazione e la georeferenziazione e molte altre). L’ultimo strato è quello delle applicazioni software, ed è quello più ampio, in cui l’immaginazione si può sbizzarrire. Un’analogia dei tre strati del cloud nel mondo reale potrebbe essere la seguente: una casa per essere costruita ha bisogno di un appezzamento di terreno; i terreni da costruzione sono di solito lottizzati e dotati delle infrastrutture per poter accedere a tutti i principali servizi quali acqua luce, gas, fognatura, telefono, eccetera. Un’area lottizzata potrebbe essere vista come l’analogo dell’IaaS. Se poi immaginiamo di disporre attorno ai terreni lottizzati tutti i diversi materiali che servono per costruire una casa (mattoni, colonne, architravi, pareti, finestre, porte, piastrelle, termosifoni, sanitari 791
  • 20. eccetera), indipendentemente dal progetto finale e prima che il progetto finale venga realizzato, così da avere tutto sottomano durate il successivo processo di costruzione, ecco che abbiamo realizzato l’analogo della PaaS. Sappiamo che ci possono essere più PaaS: l’analogo in edilizia potrebbe essere la presenza di lotti con attorno il materiale per costruire case a un piano, case a due piani, condomini, grattacieli, impianti sportivi e così via. L’analogo della SaaS, ovvero dell’applicazione as-a-service, nel nostro esempio è la costruzione finita. La cosa interessante è che se nel modo degli atomi è irrealistico poter disporre di una piattaforma di costruzione in ogni lotto con tutte le possibili tipologie, visto lo spreco enorme di materiale e di spazio, nel modo digitale questo invece è possibile, perché non comporta né costi inutili né sprechi, anzi, nel caso del cloud computing le componenti sono condivise tra molti utilizzatori fin dall’origine. È da questa intrinseca condivisione delle risorse che nasce la possibilità di fornire tutto in modalità di servizio e dunque senza la necessità di comperare alcunché a priori. Anche le applicazioni SaaS vengono poi fruite da remoto in modalità as-a-service da qualunque dispositivo che abbia ad esempio un web browser. La sostenibilità e il ruolo delle tecnologie dell’informazione aienza collettiva e un più elevato livello di socializzazione tra gli umani. La tecnologia che resiste è quella che riesce a garantire una maggiore universalità d’uso, quella che riesce a bilanciare la necessità di creare standard, protocolli e modelli evolutivi a supporto del suo sviluppo, contenendone la crescente complessità, con la libertà, la creatività, la capacità di innovazione degli utilizzatori. Man mano che appariva evidente la radicale trasformazione che internet avrebbe portato, in tanti hanno lavorato per garantire trasparenza, apertura e condivisione. Attraverso la formulazione di linguaggi sempre più comuni e aperti internet sta diventando sempre più sociale ed “etica”. È proprio grazie a questa trasformazione che coinvolge tutto il comparto dell’ICT che si sta delineando una nuova radicale trasformazione del nostro concetto sia di città che di società. Disponiamo di tecnologie digitali con enormi potenzialità di innovazione, a cui nei prossimi anni accederanno miliardi di persone e alle quali già da ora sono virtualmente collegati miliardi di dispositivi. In più ci sono nuove aree del mondo che conoscono uno sviluppo vertiginoso e incontrollabile proprio nel momento in cui le sfide poste dal cambiamento climatico, dalla questione energetica, dalla crisi economica impongono la ricerca di soluzioni alterna- 792
  • 21. tive, sostenibili economicamente e su scala globale. Grazie ai progressi dell’ICT le città e le comunità possono trasformarsi diventando il motore di un nuovo sviluppo socio-economico sostenibile. Negli ultimi anni, il tema Smart City è stato ampiamente sollevato in tutto il mondo e alcuni tentativi pilota di avvio di percorsi smart sono stati intrapresi in qualche città. Non si è però ancora imboccata una strada comune, basata su un concetto condiviso di cosa renda una città più intelligente e sostenibile, e non si è sviluppata una capacità di replicazione su larga scala delle best practice e dei progetti di riconosciuto valore. Ciò è avvenuto principalmente per un motivo: i diversi attori coinvolti ancora oggi “non parlano la stessa lingua”. Non esistono modelli, pratiche operative, standard tecnici condivisi e soluzioni specifiche cui fare riferimento; scarseggiano strumenti quali piattaforme per la raccolta e la distribuzione dei dati che aiutino le amministrazioni, le imprese, i cittadini, i fornitori di servizi e di reti a collaborare per dare forma alle comunità del futuro in modo aperto, trasparente e collaborativo. Nonostante ciò i dati si possono già raccogliere, ma vanno raccolti in maniera che siano interoperabili e riutilizzabili anche in futuro. Per fare questo è necessario realizzare una piattaforma che disaccoppi i produttori di dati dagli utilizzatori di dati,24 in altre parole “disintermediando” i sensori intelligenti (smart computer) che producono i dati dalle applicazioni che li usano o li potranno usare. L’idea è di trovare un nuovo modo per realizzare sistemi interconnessi che possano espandersi in numero e nello spazio senza dover riscrivere i software di acquisizione e controllo o modificare il metodo di archiviazione dei dati. Inoltre i dati dovrebbero essere raccolti nella maniera più grezza possibile, per salvaguardare l’integrità dell’informazione originaria. I pattern tecnologici si ripetono ma ogni volta migliorandosi Guardando alla storia del progresso tecnologico, vediamo che questo è fatto di un continuo formarsi e ripetersi di pattern molto simili (terminale-mainframe, client-server, web-client-web-server) che però ad ogni ripetersi tendono a diventare, grazie alla progressiva virtualizzazione e smateria- Un esempio di piattaforma di questo tipo è il prodotto EDC di Eurotech che nasce con lo scopo di semplificare il modo di raccogliere grandi moli di dati dal campo. Per maggiori dettagli si rimanda a: <http://www.eurotech.com/dla/white_papers/Eurotech_reinvents_embedded_connected_computing_for_M2M.pdf> <http://www.eurotech.com/en/products/software+services/everyware+device+cloud/edc+what+it+is> 24 793
  • 22. lizzazione, sempre più globali e accessibili ad uno strato sempre più ampio di popolazione (fig. 9). L’evoluzione dal mainframe al PC per poi passare allo smart computer ubiquo e pervasivo, pur perpetuando il paradigma client-server, in realtà ha portato a incredibili passi avanti in quanto a sostenibilità e democratizzazione, e le smart cities ne sono una eccellente dimostrazione. 9. Dal Mainframe al Cloud. In questa visione non ci sono più differenze tra computer usati da un umano o usati da altri computer, né tra i dati provenienti da un sensore di temperatura, da un sensore di CO2 o da qualunque altro dispositivo smart. È l’utilizzo che se ne farà che ne farà emergere la differenza. È l’internet delle cose, dove umani e macchine collaborano e cooperano per costruire un mondo migliore. 794