SlideShare una empresa de Scribd logo
1 de 16
Descargar para leer sin conexión
1
www.atcult.it
FIND INFORMATION
SHARE KNOWLEDGE
”UN DATO TIRA L’ALTRO”
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page1
2
Open Data e Linked Open Data: dati aperti, collegati
e usabili
Aperti
Gli Open Data (OD) sono dati che possono essere liberamente
utilizzati, riutilizzati e ridistribuiti da chiunque, soggetti eventualmente
alla necessità di citarne la fonte e di condividerli con lo stesso tipo di
licenza con cui sono stati originariamente rilasciati; devono garantire
disponibilità (accesso), riutilizzo (ridistribuzione) e partecipazione
universale.
Collegati
La disponibilità e il rilascio di OD è dunque un patrimonio prezioso;
ma affinché si possa valorizzare del tutto l’informazione l’apertura
da sola non è sufficiente.
È necessario rendere gli OD autodescrittivi e poter inferire conoscenza
dall’aggregazione e correlazione di dataset differenti.
Occorre inoltre favorire la facilità d’uso, il reperimento e il consumo
sia per gli esseri umani che per le macchine.
Tutte queste limitazioni, rappresentate dal modello OD, sono superabili
solo attraverso l’utilizzo di tecnologie semantiche, le uniche in grado
di conferire ai dati (aperti e non) un’identità e di renderli collegabili
tra loro e interoperabili: Linked Open Data (LOD).
Dunque, il modello LOD propone un approccio tecnologico e
metodologico per collegare tra loro gli OD e renderli parte di un unico
spazio informativo globale e condiviso, il cosiddetto web semantico,
ossia una rete di dati di natura differente direttamente elaborabili dai
computer, in modo tale che essi siano combinabili tra loro.
Usabili
I Linked Open Data fanno dell’interoperabilità dei dati uno degli
elementi chiave di un nuovo modo di considerare l’informazione.
L’interoperabilità è l’innovazione legata alla gestione e alla trattazione
dei dati, in quanto ne permette un uso inatteso e diversificato rispetto
alla semplice pubblicazione di “dati grezzi”.
Il valore dei dati infatti aumenta quando differenti dataset, prodotti
e pubblicati da soggetti diversi tra loro, vengono incrociati liberamente
da terze parti.
La creazione di valore aggiunto sui dati viene perseguita attraverso
la realizzazione di applicazioni software grazie alle quali la rete dei
dati restituisce informazioni approfondite e facilmente esplorabili che
hanno un’infinità di risvolti pratici , offrendo a qualsiasi utente servizi
di interesse sociale ed economico. ■
Di cosa stiamo parlando
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page2
3
Per distinguere i diversi formati utilizzabili nella codifica dei set di
dati o dataset, è stato proposto in seno al W3C (World Wide Web
Consortium, un Consorzio internazionale fondato nel 1994 con
l'obiettivo di potenziare e diffondere il WWW) un modello di
catalogazione ideato da Tim Berners Lee, inventore del Web,
presidente del W3C e professore presso il prestigioso MIT di Boston.
Il modello di classificazione si basa su una scala di valori che va da
1 (una stella) a 5 (cinque stelle):
★ È il livello base, costituito da file non strutturati
(formati come .gif, .jpg, .png). Una sola stella indica la semplice
disponibilità di una informazione e di un dato online, in un formato
qualsiasi, purché distribuito con licenza aperta. I dati distribuiti in
questo formato sono leggibili e stampabili dagli utenti, possono essere
conservati localmente su un PC e sono semplici da pubblicare. Tuttavia
non sono un formato aperto in quanto non è possibile effettuare su
di essi alcuna elaborazione
★★ Questo livello indica dati strutturati ma codificati
con un formato proprietario (ad esempio Excel). I dati caratterizzati
dalle due stelle non sono un formato aperto in quanto per elaborarli
è necessario un software proprietario (adatto all’elaborazione di
formati proprietari), tuttavia di norma possono essere convertiti –
essendo dati strutturati – in dati aperti
★★★ Questo livello indica dati strutturati e
codificati in un formato non proprietario (ad esempio il formato CSV).
Tre stelle indicano, oltre alle possibilità offerte dai dati contraddistinti
da due sole stelle, la possibilità di effettuare elaborazioni sui dati
senza esser costretti ad utilizzare software proprietario. Quello
caratterizzato dalle tre stelle è il formato più semplice di dati aperti
★★★★ Questo livello indica dati strutturati e codificati
in un formato non proprietario che sono dotati di un URI8 che li rende
indirizzabili sulla rete e quindi utilizzabili direttamente online,
attraverso l’inclusione in una struttura basata sul modello RDF
(Resource Description Framework). Quattro stelle indicano quindi il
fatto che il singolo dato di un dataset, disponibile online in un formato
aperto (tipicamente XML/RDF) può essere richiamato attraverso
un’URL (Uniform Resource Locator) specifico. Ciò consente di puntare
al dato o ad un insieme di dati da una applicazione o accedervi
dall’interno di un programma che può poi elaborarlo in vari modi
★★★★★ Questo livello indica quelli che vengono definiti
Linked Open Data (LOD). Quei dati aperti, cioè, che oltre a rispondere
alle caratteristiche indicate al punto precedente presentano anche,
nella struttura del dataset, collegamenti ad altri dataset. In altri
termini, grazie al ricorso al già citato modello di descrizione dei dati
RDF, è possibile collegare dinamicamente tra loro più dataset,
incrociando così informazioni provenienti da fonti diverse
Il modello delle 5 stelle
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page3
4
I punti cardinali entro cui è stata mappata l’obbligatorietà degli OD
possono essere rintracciati nelle seguenti norme:
● La prima è l’art. 18 del decreto legge n. 83, convertito il legge n.
134 il 7 agosto 2012: Amministrazione aperta - sancisce per la prima
volta in Italia l’obbligo di pubblicare online, entro il 1° gennaio 2013,
dati che siano “di facile consultazione, accessibili ai motori di ricerca
ed in formato tabellare aperto che ne consenta l’esportazione, il
trattamento e il riuso ai sensi dell’articolo 24 del decreto legislativo
30 giugno 2003, n. 196”
● La seconda, invece, è contenuta nel recente Decreto Crescita 2.0,
approvato con Decreto Legge il 18 ottobre 2012, n. 179 e convertito
con la Legge 17 dicembre 2012 n. 221, in cui si indicano le
modifiche apportate al CAD relative al dato pubblico, definendo nello
specifico cosa si intende per dato di tipo aperto: “reso pubblico,
documentato esaustivamente e neutro rispetto agli strumenti
necessari per la fruizione degli stessi”.
Inoltre, ne vengono ulteriormente identificate e delineate le
caratteristiche intrinseche; i dati aperti sono:
● Disponibili con una licenza che ne permette l’utilizzo da parte di
chiunque, anche per finalità commerciali
● Accessibili attraverso le tecnologie dell’informazione e della
comunicazione in formati aperti, adatti all’utilizzo automatico da
parte di programmi per elaboratori e provvisti dei relativi metadati
● Resi disponibili gratuitamente attraverso le tecnologie della
comunicazione e dell’informazione, oppure resi disponibili ai costi
marginali sostenuti per la loro riproduzione e divulgazione
Inoltre:
● L’Agenzia definisce e aggiorna annualmente le linee guida
nazionali che individuano gli standard tecnici, compresa la
determinazione delle ontologie dei servizi e dei dati, le procedure e
le modalità di attuazione […]
Infine, dal 19 marzo 2013, tutti i dati e i documenti che le pubbliche
amministrazioni pubblicano con qualsiasi modalità, senza l’espressa
adozione di una licenza d’uso, si intendono rilasciati come dati aperti
(open data by default).
Per maggiori approfondimenti, si rimanda a :
• Direttiva 2003/98/CE “Riutilizzo dell’informazione del Settore Pubblico”
• D. Lgs. 36/2006 “Attuazione della Direttiva 2003/98/CE”
• D. Lgs. 42/2005 “Istituzione del Sistema Pubblico di Connettività – SPC”
• D. Lgs. 82/2005 “Codice dell’Amministrazione Digitale – CAD”
• D. Lgs. 179/2012 “Ulteriori misure urgenti per la crescita del Paese”
• Direttiva 2007/2/CE “Infrastruttura per l’informazione territoriale
nella CE – INSPIRE”
• D. Lgs. 32/2012 “Attuazione della Direttiva 2007/2/CE”
• Quadro delle delibere locali per la regolamentazione e istituzionalizzazione
degli OD, divise per regioni, provincie autonome e comuni
Quadro normativo
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page4
5
1.Individuazione e selezione dei dataset – è il punto
di partenza dell’intero processo. Le dimensioni di un patrimonio
informativo sono, generalmente, molto vaste ed una
pubblicazione massiva dei dati in formato aperto spesso non è
praticabile. Da qui, la necessità della selezione di un sottoinsieme
di dati che ha senso aprire e tradurre in LOD.
È necessario, quindi, organizzare il lavoro di selezione seguendo
criteri di valutazione opportunamente predefiniti, al fine di
rendere quanto più fluido possibile l’intero processo.
2.Bonifica – i dati all’interno dei sistemi informativi o degli
archivi sono spesso “sporchi” e non immediatamente pronti per
la pubblicazione o per le dovute elaborazioni (incompletezza dei
dati, diversità dei formati, significati ambigui, …). La qualità
del dato rappresenta quindi un aspetto particolarmente
importante perché un dataset sporco può rendere inefficienti, o
addirittura impraticabili, alcune operazioni di confronto, di
similitudine e di aggregazione sui dati.
3.Analisi e modellazione – gli obiettivi di questa fase sono
di formalizzare il modello concettuale e dare una
rappresentazione coerente con esso del dataset di riferimento.
Rappresenta quindi una ristrutturazione logica e concettuale dei
dati; un processo di reingegnerizzazione e refactoring della base
informativa.
Sia il modello concettuale sia il dataset, alla fine di questa fase,
saranno rappresentati in RDF.
Il Resource Description Framework (RDF) è lo strumento base
proposto da W3C per la codifica, lo scambio e il riutilizzo di
metadati strutturati e consente l'interoperabilità tra applicazioni
che condividono le informazioni sul Web.
Analizzato lo schema logico dei dati se ne ricostruisce lo schema
concettuale originale attraverso ontologie; acquisendo l’ontologia
di dominio, se esistente, o attraverso una creazione/integrazione
di ontologie laddove l’ontologia evidenziasse elementi ambigui,
mancasse di elementi o ne avesse in eccesso.
4.Arricchimento – in questa fase i dati, precedentemente
modificati e modellati, sono arricchiti attraverso l’esplicitazione
di informazioni di contorno (meta datazione) che ne
semplifichino il riutilizzo e/o attraverso la derivazione di
contenuto informativo aggiunto tramite l’utilizzo di tecniche di
estrazione automatica dell’informazione o di ragionamento
(inferenza).
Come i dati, anche i metadati vengono espressi in RDF. Alcuni
dei metadati più utili ai fini della interoperabilità e del riutilizzo
sono:
- informazioni sulla semantica del dato, che servono per chiarire
il significato dei dati
- informazioni di contesto, che permettono di descrivere i confini
di validità del dato
- informazioni di provenienza, che descrivono come e da chi i
dati sono stati prodotti
5.Linking esterno (interlinking) –inquestafaseilcontenuto
informativo locale viene legato ad altre informazioni, sia interne (al
dataset di riferimento) che esterne. È solo da questo momento che i
dati possono attestarsi a livello 5 della classifica di qualità dei LOD.
Generare un dataset lod: i 7 passi
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page5
6
6.Validazione – in generale, possono essere eseguiti tre tipi
di validazione:
• Validazione sintattica: viene verificato che il contenuto dei dati
rispetti i formati standard
• Validazione logica: si individua un insieme di casi di test che
devono essere soddisfatti
• Validazione concettuale: viene verificata l’adeguatezza
dell’ontologia
In generale, se solo uno dei tre tipi di analisi fallisce è necessario
ricontrollare le fasi precedenti.
7.Pubblicazione (e aggiornamento dei dati) – è qui intesa
come un processo incrementale attraverso cui si rilasciano,
progressivamente, dati sempre più raffinati. Uno degli aspetti
principali di questa fase è la selezione della piattaforma
tecnologica di pubblicazione; è molto importante che metta a
disposizione funzionalità che facilitino il riutilizzo e
l’interoperabilità.
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page6
7
L’aspetto relativo delle licenze è cruciale per quanto riguarda l’uso
che gli utenti possono effettivamente fare dei dati, i vincoli di copyright
da applicare a lavori derivati da quei dati, il mantenimento della
paternità sui dati.
Premettendo che il mondo è diventato vasto, in linea di massima le
licenze più diffuse sono quelle basate su Creative Commons (CC),
affermatesi come standard de facto a livello internazionale.
In funzione delle specificità dei diversi insiemi di dati, o degli obiettivi
che si intende raggiungere, è possibile scegliere tra diversi tipi di
licenze.
Licenze Creative Commons
1. Licenza Creative Commons Zero (CC0): esprime la più ampia e
libera utilizzazione gratuita, anche per fini commerciali e con finalità
di lucro. Apponendo su un documento la dichiarazione CC0 si rinuncia
a tutti i diritti sul documento e sui suoi contenuti, dati inclusi, nella
misura massima possibile prevista dalla legge
2. Licenza Creative Commons Attribuzione (CC-BY): permette al
soggetto utilizzatore di riprodurre, distribuire, comunicare, esporre,
rappresentare, nonché di modificare e usare un insieme di dati anche
a fini commerciali con il solo obbligo di attribuire la paternità
dell’opera nel rispetto delle modalità indicate dall’autore stesso nella,
o a corredo, della licenza.
In virtù della sua natura concettuale, questa Licenza può essere stesa
mediante alcuni attributi:
• Share Alike (SA): obbliga i lavori derivati a essere licenziati con
la stessa licenza del lavoro originale
• Non Commercial (NC): consente la copia, la distribuzione e l'uso
del lavoro (o dati) solo per scopi non commerciali
• No Derivative Works (ND): consente la copia, distribuzione e l'uso
del lavoro, impedendo la creazione di lavori derivati.
La combinazione di questi attributi genera di fatto altre licenze (ma
non tutte le combinazioni avrebbero senso); nella pratica si
considerano:
• CC-BY-SA: Attribution Share Alike
• CC-BY-NC: Attribution Non-Commercial
• CC-BY-ND: Attribution No Derivatives
• CC-BY-NC-SA: Attribution Non-Commercial Share Alike
• CC-BY-NC-ND: Attribution Non-Commercial No Derivatives
Nota: a differenza della licenza CC-BY sopra descritta, successive
versioni della CC-BY Italia producono sul diritto sui generis della banca
dati i medesimi effetti della licenza CC0, ovvero una rinuncia totale
e incondizionata ai diritti.
Licenze italiane
Le licenze italiane sono la Italian Open Data License 2.0 (IODL 2.0),
che permette all’utente di consultare, estrarre, copiare e pubblicare i
dati liberamente, oltre alla possibilità di creare un lavoro derivato
integrando diversi dataset; la IODL 1.0, simile alla prima ma con
l’obbligo da parte dell’utente di pubblicare o condividere i lavori
derivati con la stessa licenza.
Dal copyright al copyleft: quali licenze?
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page7
8
Agenda Digitale Europea
L’Economia dei Dati, un settore emergente nel panorama economico
attuale e basato sulla pubblicazione e l’utilizzo dei dati, costituisce
un fattore chiave per lo sviluppo sostenibile in Europa.
Nata dal raggiungimento di importanti progressi tecnologici, come
quello dei Linked Open Data, è sostenuta da numerose azioni politiche
promosse dall’UE, come l'Agenda Digitale.
L’Agenda è stata presentata dalla Commissione europea ed è una
delle 7 iniziative su cui si basa la strategia “Europa 2020”, in cui
sono fissati gli obiettivi per la crescita dell’Unione (UE).
Si basa sulla necessità di sfruttare al meglio il potenziale delle
tecnologie dell’informazione e della comunicazione (ICT) per favorire
innovazione, crescita economica e progresso.
Secondo le direttive, ogni Stato si è impegnato a recepirla nel proprio
ordinamento, introducendo diversi principi tra i quali quello di un
“mercato digitale unico” che sia basato su Internet e su software
interoperabili, cioè in grado di dialogare fra loro e di utilizzare dati
senza problemi di compatibilità.
Dunque, i Linked Open Data rappresentano un cardine fondamentale
per una strategia di sviluppo efficace.
L’attività della Commissione europea in questo settore, mediante il
finanziamento di progetti, appalti e bandi di gara, comprende:
- il sostegno allo sviluppo di portali dove pubblicare Open e Linked
Data, indipendentemente dal contesto e dal tipo di informazioni;
- la cooperazione con gli Stati membri dell’UE in materia di formati
dei dati e interoperabilità tra portali contenenti Open e Linked Data;
- il migliorare accesso e fruibilità dei dataset, leggibili anche
meccanicamente, affinché tutti possano usufruire di informazioni
arricchite e, quindi, di maggior valore;
- il guidare le PA, enti pubblici o privati e cittadini verso il nuovo
paradigma “Open” attraverso la realizzazione di linee guida e raccolta
di best practices
Cosa sta facendo l’Europa
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page8
9
Agenda Digitale Italiana
L'Agenda ricalca i pilastri indicati dalla Commissione europea,
adattandoli e orientandoli verso le necessità italiane.
Relativamente al paradigma Linked e Open Data, gli obiettivi primari
sono:
• Realizzare interventi strategici a valenza sistemica seguendo
quattro asset principali:
- amministrazione digitale
- istruzione digitale
- sanità digitale
- giustizia digitale
• Stabilire un quadro generale delle regole, per valorizzare
l’intelligenza dei territori, certo e condiviso
I benefici per i sono molti:
• possibilità di creare servizi innovativi, semplificati e più efficienti,
per cittadini ed imprese;
• aumento delle opportunità per essere informati e in modo più
aderente alle reali necessità;
• partecipazione attiva (diritti ma anche responsabilizzazione; il
concetto viene espresso con il termine: accountable)
Le iniziative d’apertura del patrimonio informativo avviate in Italia,
da parte di pubbliche amministrazioni centrali e locali, sono
molteplici e di difficile elencazione.
Per rimanere aggiornati su tutte le iniziative di Open Data il 18
ottobre 2011 è stato inaugurato il portale dati.gov.it; è stato creato
un dataset, aggiornato periodicamente, che descrive i dati
catalogati sul sito e li rende maggiormente interpretabili attraverso
infografiche.
Inoltre, dal 18 giugno 2013 l’Italia aderisce, insieme a Stati Uniti,
Giappone, Germania, Francia, Regno Unito, Canada e Russia alla
Carta dei Dati Aperti del G8 (Open Data Charter) attraverso la
quale i Paesi aderenti si impegnano ad adottare politiche di apertura
del patrimonio informativo delle pubbliche amministrazioni in logica
open data.
Cosa sta facendo l’Italia
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page9
10
La società @CULT, per concretizzare l’opportunità offerta da OD
e LOD di amplificare il valore dei dati, opera su:
• trattamento dei dati (per renderli completi, primari, tempestivi,
accessibili, machine readable, ricercabili, riutilizzabili e permanenti),
garantendone la qualità;
• gestione del ciclo di vita dei dati (analisi, acquisizione, modifica,
aggiornamento, verifica e metadatazione);
• generazione di dataset LOD, attraverso l’iter metodologico dei “7
passi”, garantendo il livello 5 della classifica di qualità;
• pubblicazione di dataset LOD in grado di migliorare i processi di
gestione ed utilizzo dei dati;
• connessione tra Dataset, permettendo così mashup tra dati e
sorgenti fortemente eterogenei;
• progettazione, integrazione ed applicazione di ontologie;
• ingegnerizzazione del sistema per la fruizione dei dati,
fondamentale per implementare strategie e portali Open Data.
Di particolare interesse è la realizzazione di molteplici progetti,
tra cui:
1. “Innovative Technologies And Cultural Heritage Aggregation”
(ITACH@): l’azienda ha realizzato OpLiDaF, uno strumento
innovativo per la valorizzazione ed il rilancio culturale, turistico ed
economico dell’industria culturale. OpLiDaF, operando con
metodologie afferenti il Semantic Web, si costituisce come nodo
principale del network della rete di contenuti culturali (nell’ambito
della digitalizzazione delle risorse culturali) rispondendo con efficacia
alla emergente necessità di realizzare una integrazione fra sistemi
attraverso la realizzazione di infrastrutture di dati.
2. “Museal Innovation: New ERgonomic Visit Approach”
(MINERV@): si è effettuata la pubblicazione di un dataset secondo
i principi dei Linked Open Data, a partire dalla base di conoscenza
del Museo Galileo di Firenze, e il collegamento integrativo con dataset
di altri Enti afferenti. Inoltre, è stato ingegnerizzato un avanzato
strumento di indicizzazione e visualizzazione delle informazioni
ottenute da questa elaborazione.
3. National Széchényi Library (Biblioteca Nazionale Ungherese):
collaborazione per la produzione di un thesaurus in formato RDF/SKOS
e sua integrazione nel motore di ricerca avanzato in uso presso la
biblioteca, per il potenziamento, attraverso strumenti semantici, del
recupero delle informazioni
4. Biblioteca Nazionale Centrale di Firenze: realizzazione di uno
strumento di indicizzazione e la produzione automatica di parole chiave
significative ai fini della soggettazione della documentazione digitale
ricevuta dalle Università italiane (per deposito legale), attraverso
l’utilizzo di strumenti proprietari ed open source e l’uso del Nuovo
Soggettario di Firenze, il thesaurus nazionale italiano convertito in
formato RFD/SKOS (Linked data)
5. Automatic publication under LInked dAta paradigm of library
DAta (ALIADA): il progetto, che vede la partecipazione di Spagna,
Italia e Ungheria si colloca nell’ambito del programma quadro di ricerca
concepito per consolidare lo Spazio Europeo della Ricerca (SER).
L’obiettivo è quello di rendere le basi di conoscenza di biblioteche e
musei, convertite secondo il paradigma LOD, facilmente pubblicabili
ed interoperabili attraverso la condivisione delle loro collezioni.
Cosa facciamo noi
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page10
11
6. Studio di fattibilità di un progetto di conversione in RDF dei dati
del sistema MAB Trentino. Lo studio include l’analisi dei dati
provenienti dal catalogo delle biblioteche e dal catalogo degli archivi
del Sistema Provinciale di Trento, la scelta delle ontologie di
riferimento e la mappatura di differenti formati di origine in RDF
7. Proposizione del progetto: innovative Learning In Knowledge
Environment (iLIKE), una innovativa piattaforma in grado di
integrare sistemi di Knowledge Management ed E-Learning con le più
moderne tecnologie web 2.0 e semantic web, per edificare basi di
conoscenza attraverso la raccolta, classificazione, analisi,
valorizzazione e distribuzione di saperi pertinenti, tempestivi ed
accurati.
I nostri prodotti
Negli ultimi anni @CULT ha rivolto l’attenzione alla creazione di
strumenti semantici per potenziare le funzioni di ricerca e fruizione
delle informazioni sul web, attraverso lo sviluppo di applicazioni che
utilizzano linguaggi e standard riconosciuti nei settori più evoluti del
mondo dell’informazione.
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page11
12
OliSuite è l’LMS – Library Management System – proposto da
@Cult per la gestione dell’intero flusso operativo di biblioteche e
archivi: dalla selezione del materiale, alla catalogazione, alla
distribuzione attraverso il prestito e la pubblicazione sul web. OliSuite
è totalmente web-based ed è sviluppata secondo i principi ed il
modello di architettura orientata ai servizi (SOA), dove i servizi
identificati, descritti ed ‘inventariati’ sono coordinati all’interno di un
framework facilmente configurabile per comporre al meglio i processi
operativi (di business) necessari.
Particolarmente attento alle evoluzioni del mondo catalografico e
rifacendosi all’ormai noto slogan “La biblioteca fuori di sé”, che
rimanda al concetto di andare a cercare i potenziali utenti laddove
questi si trovano (prima di tutto sul web), il modulo di catalogazione
di OliSuite apre al nuovo standard RDA (Resource Description and
Access), il nuovo codice internazionale per la descrizione e l’accesso
alle risorse, che diventa uno strumento per l’intero universo
bibliografico e per il nuovo contesto digitale, in cui le risorse sono
gestite da una comunità ampia ed eterogenea, fatta di editori, di
soggetti che ne controllano e detengono i diritti di distribuzione ed
uso, di librerie e distributori, di enti (biblioteche, archivi, musei,
produttori di banche dati e repositories, agenzie bibliografiche) che
raccolgono, conservano e rendono fruibili queste risorse.
Saldamente ancorate ai modelli concettuali FRBR e FRAD e agli ICP,
International Cataloguing Principles, RDA assumono da questi
l’approccio all’analisi entità/relazioni, la terminologia, l’attenzione
all’opera più che alla specifica pubblicazione (e quindi all’entità o
messaggio informativo in sé, ovunque e comunque esso sia
memorizzato o espresso), la centralità assoluta dell’interesse
dell’utente, in nome del quale ogni scelta catalografica va realizzata.
Agli obiettivi di trovare, identificare, selezionare e ottenere, mutuati
dai modelli FRBR e FRAD, RDA aggiunge l’obiettivo di navigare tra
dati e metadati, nell’ampio universo bibliografico, secondo una
modalità ampiamente diffusa tra i frequentatori del web.
L’attenzione agli accessi più che alla descrizione della risorsa, alla
definizione di relazioni tra le varie entità, all’uso di ontologie e
vocabolari universalmente riconosciuti, all’attribuzione di identificativi
univoci alle risorse, a linguaggi di marcatura riconosciuti dal W3C
come standard per la costruzione del web semantico attraverso i
linked data, la focalizzazione sui dati relativi al supporto, al
contenuto e al formato della risorsa, e tanti altri elementi specifici
del nuovo standard, lo rendono strumento indispensabile per fare in
modo che quanto prodotto dalle biblioteche e da tutti gli istituti
culturali e della memoria, diventi parte del web e non solo sul web!
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page12
13
Open Linked Data Framework - OpLiDaF è un framework di nuova
generazione sviluppato con tecnologie e linguaggi altamente
integrabili, aperto ed estensibile, per la produzione di linked data in
RDF attraverso la conversione dei dati da eterogenei formati originari.
Il Resource Description Framework (RDF) è lo strumento base
proposto da W3C per la codifica, lo scambio e il riutilizzo di metadati
strutturati e consente l'interoperabilità tra applicazioni che condividono
le informazioni sul Web. Il sistema è in grado di generare informazioni
leggibili e interpretabili in maniera intelligente dalle applicazioni di
rielaborazione (come i motori di ricerca); in questo modo si ha la
possibilità di generare (o tradurre) documenti in grado di essere letti
da esseri umani ma anche acceduti ed interpretati da agenti
automatici di ricerca, trasformando così il Web in una grande
Base di Conoscenza.
Principali innovazioni apportate da OpLiDaF:
● capacità di raccogliere, tradurre e gestire i dati in maniera
più efficiente
● possibilità di la combinare dati provenienti da fonti diversificate
permettendo la condivisione tra più utenti ed applicazioni
OpLiDaF
Un nuovo framework aperto e innovativo
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page13
14
Il nuovo componente OseeGenius-FRBR consente agli OPAC e
ai discovery tool di arricchirsi di uno strato informativo secondo lo
standard RDF (Resource Description Framework) organizzato secondo
il modello FRBR (Functional Requirements for Bibliographic Records).
L’RDF, lo strumento del W3C per la codifica, lo scambio e il riutilizzo
dei metadati in ambiente web, permette di definire un modello
semplice per descrivere le relazioni tra le risorse, in termini di proprietà
identificate da un nome e relativi valori. Nel caso delle informazioni
bibliografiche provenienti da un catalogo le risorse sono i documenti
che un utente cerca, identificabili attraverso proprietà e relativi valori,
e relazionate ad altre risorse: l’opera scritta da un autore, tradotta in
differenti lingue, pubblicata da diversi editori e in differenti supporti...
Arricchisci il tuo OPAC e facilita la navigazione dei tuoi utenti
FRBR
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page14
15
Tutta questa struttura informativa mette insieme in un reticolo di
collegamenti risorse differenti (l’opera , il suo autore, il suo traduttore,
le differenti sue realizzazioni – le espressioni del modello FRBR – le
varie sue materializzazioni – le manifestazioni del modello FRBR che
si esprimono, per esempio, in termini di pubblicazioni – altre opere
derivate da quella originaria e così via). L’applicazione del modello
relazionale FRBR, che non cambia il dato come catalogato
originariamente e tradizionalmente dalle biblioteche ed altri istituti
culturali, ma coglie l’occasione della conversione di questi dati
secondo il paradigma dei Linked Open Data per una profonda
riorganizzazione degli stessi e per creare collegamenti e connessioni
tra dati provenienti da fonti eterogenee – opac catalografici, inventari
archivistici, cataloghi di musei, enciclopedie e repertori on-line, primo
fra tutti Wikipedia, – supporta gli utenti nella identificazione di ciò
di cui davvero hanno bisogno: l’edizione specifica dell’opera del tale
autore, illustrata dallo specifico illustratore, pubblicata da un
determinato editore in un dato anno in un preciso formato.
I dati dei cataloghi, valorizzati dalla creazione di collegamenti a
dataset esterni (e open), strutturati secondo le tecnologie dei linked
open data (e come tali ricercabili e riusabili nel web) e riorganizzati
nell’ottica di una maggiore semplicità e fruibilità, tornano ad essere
parte del più ampio e ricco patrimonio informativo universale, cui gli
utenti accedono per ampliare la loro esperienza conoscitiva. ■
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page15
16
FIND INFORMATION
SHARE KNOWLEDGE
Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page16

Más contenido relacionado

La actualidad más candente

Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e serviziInps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
INPSDG
 
Open data per inail presentazione Forum PA - maggio 2012
Open data per inail    presentazione Forum PA - maggio 2012Open data per inail    presentazione Forum PA - maggio 2012
Open data per inail presentazione Forum PA - maggio 2012
Pietro Monti
 
DBpedia nel contesto Linked Data
DBpedia nel contesto Linked DataDBpedia nel contesto Linked Data
DBpedia nel contesto Linked Data
Andrea Casagrande
 

La actualidad más candente (18)

Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e serviziInps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
Inps W3C LOD 2014 Tecnologie semantiche per lo sviluppo di conoscenza e servizi
 
Open data INPS
Open data INPS Open data INPS
Open data INPS
 
Linked Open Data di Vittorio Di Tomaso
Linked Open Data di Vittorio Di TomasoLinked Open Data di Vittorio Di Tomaso
Linked Open Data di Vittorio Di Tomaso
 
Opendata, licenze & formati, scoprirli & usarli
Opendata, licenze & formati, scoprirli & usarliOpendata, licenze & formati, scoprirli & usarli
Opendata, licenze & formati, scoprirli & usarli
 
Accesso remoto, interfaccia ed architettura dell'informazione
Accesso remoto, interfaccia ed architettura dell'informazioneAccesso remoto, interfaccia ed architettura dell'informazione
Accesso remoto, interfaccia ed architettura dell'informazione
 
Open data per inail presentazione Forum PA - maggio 2012
Open data per inail    presentazione Forum PA - maggio 2012Open data per inail    presentazione Forum PA - maggio 2012
Open data per inail presentazione Forum PA - maggio 2012
 
3 database dbms
3 database dbms3 database dbms
3 database dbms
 
Come e perché integrare Digital Asset Management e Content Management
Come e perché integrare Digital Asset Management e Content ManagementCome e perché integrare Digital Asset Management e Content Management
Come e perché integrare Digital Asset Management e Content Management
 
I metadati: risorsa fondamentale a supporto dell’uso corretto dei contenuti e...
I metadati: risorsa fondamentale a supporto dell’uso corretto dei contenuti e...I metadati: risorsa fondamentale a supporto dell’uso corretto dei contenuti e...
I metadati: risorsa fondamentale a supporto dell’uso corretto dei contenuti e...
 
Progetto open data Milano
Progetto open data Milano Progetto open data Milano
Progetto open data Milano
 
Esperienza open data della provincia di Roma
Esperienza open data della provincia di RomaEsperienza open data della provincia di Roma
Esperienza open data della provincia di Roma
 
Open Data in Trentino - SOD13
Open Data in Trentino - SOD13Open Data in Trentino - SOD13
Open Data in Trentino - SOD13
 
Enel Opencompany
Enel OpencompanyEnel Opencompany
Enel Opencompany
 
DBpedia nel contesto Linked Data
DBpedia nel contesto Linked DataDBpedia nel contesto Linked Data
DBpedia nel contesto Linked Data
 
Database - progettazione
Database - progettazioneDatabase - progettazione
Database - progettazione
 
5a. Linked Data
5a. Linked Data5a. Linked Data
5a. Linked Data
 
Andrea D'Andrea - Data, Metadata, Linked Open Data in archeologia
Andrea D'Andrea - Data, Metadata, Linked Open Data in archeologiaAndrea D'Andrea - Data, Metadata, Linked Open Data in archeologia
Andrea D'Andrea - Data, Metadata, Linked Open Data in archeologia
 
Servizi informativi integrati ed interattivi: Interoperabilità
Servizi informativi integrati ed interattivi: InteroperabilitàServizi informativi integrati ed interattivi: Interoperabilità
Servizi informativi integrati ed interattivi: Interoperabilità
 

Similar a Brochure: Linked Open Data PILLS

Formez Opendata Inps - webinar 29 marzo 2012
Formez Opendata Inps - webinar 29 marzo 2012Formez Opendata Inps - webinar 29 marzo 2012
Formez Opendata Inps - webinar 29 marzo 2012
INPSDG
 

Similar a Brochure: Linked Open Data PILLS (20)

Formez Opendata Inps - webinar 29 marzo 2012
Formez Opendata Inps - webinar 29 marzo 2012Formez Opendata Inps - webinar 29 marzo 2012
Formez Opendata Inps - webinar 29 marzo 2012
 
Open Data Confindustria Padova
Open Data Confindustria PadovaOpen Data Confindustria Padova
Open Data Confindustria Padova
 
Opendata inps
Opendata inps Opendata inps
Opendata inps
 
Opendata per l'eLeadership
Opendata per l'eLeadershipOpendata per l'eLeadership
Opendata per l'eLeadership
 
The Knowledge Gap (Busanelli - Proscia)
The Knowledge Gap (Busanelli - Proscia)The Knowledge Gap (Busanelli - Proscia)
The Knowledge Gap (Busanelli - Proscia)
 
Andrea Borruso & Gabriele Gattiglia - Reperire, scaricare, pulire i dati
Andrea Borruso & Gabriele Gattiglia - Reperire, scaricare, pulire i datiAndrea Borruso & Gabriele Gattiglia - Reperire, scaricare, pulire i dati
Andrea Borruso & Gabriele Gattiglia - Reperire, scaricare, pulire i dati
 
Valorizzare le IDT conformi agli standard OGC® per produrre Linked Open Data ...
Valorizzare le IDT conformi agli standard OGC® per produrre Linked Open Data ...Valorizzare le IDT conformi agli standard OGC® per produrre Linked Open Data ...
Valorizzare le IDT conformi agli standard OGC® per produrre Linked Open Data ...
 
Open Data: un cantiere aperto verso l'Open Data Day 2014
Open Data: un cantiere aperto verso l'Open Data Day 2014Open Data: un cantiere aperto verso l'Open Data Day 2014
Open Data: un cantiere aperto verso l'Open Data Day 2014
 
Come la PDND supporta il pattern Data Hub: il caso di ANAC (Stefano Fuligni, ...
Come la PDND supporta il pattern Data Hub: il caso di ANAC (Stefano Fuligni, ...Come la PDND supporta il pattern Data Hub: il caso di ANAC (Stefano Fuligni, ...
Come la PDND supporta il pattern Data Hub: il caso di ANAC (Stefano Fuligni, ...
 
Scaling the open data concept to 13000 public administrations (Andrea Carlini...
Scaling the open data concept to 13000 public administrations (Andrea Carlini...Scaling the open data concept to 13000 public administrations (Andrea Carlini...
Scaling the open data concept to 13000 public administrations (Andrea Carlini...
 
Open Data e conservazione dei documenti informatici
Open Data e conservazione dei documenti informaticiOpen Data e conservazione dei documenti informatici
Open Data e conservazione dei documenti informatici
 
About open data
About open dataAbout open data
About open data
 
Open Data v0.3
Open Data v0.3Open Data v0.3
Open Data v0.3
 
OntoPiA e il knowledge graph della pubblica amministrazione italiana
OntoPiA e il knowledge graph della pubblica amministrazione italianaOntoPiA e il knowledge graph della pubblica amministrazione italiana
OntoPiA e il knowledge graph della pubblica amministrazione italiana
 
Open Data & Data-Journalism
Open Data & Data-JournalismOpen Data & Data-Journalism
Open Data & Data-Journalism
 
#mappiamo @ "A scuola di opendata" Alessandria
#mappiamo @ "A scuola di opendata" Alessandria#mappiamo @ "A scuola di opendata" Alessandria
#mappiamo @ "A scuola di opendata" Alessandria
 
Lodlive - browsing the web of data
Lodlive - browsing the web of dataLodlive - browsing the web of data
Lodlive - browsing the web of data
 
ODISI, Open Data Infrastructure for Spatial Interaction
ODISI, Open Data Infrastructure for Spatial Interaction ODISI, Open Data Infrastructure for Spatial Interaction
ODISI, Open Data Infrastructure for Spatial Interaction
 
Presentazione sce
Presentazione scePresentazione sce
Presentazione sce
 
Open gov Seminar dec2014
Open gov Seminar dec2014Open gov Seminar dec2014
Open gov Seminar dec2014
 

Más de @CULT Srl

Odissea open data per la pa
Odissea   open data per la paOdissea   open data per la pa
Odissea open data per la pa
@CULT Srl
 
Adlug annual meeting 2013
Adlug annual meeting 2013Adlug annual meeting 2013
Adlug annual meeting 2013
@CULT Srl
 
Rdf and open linked data a first approach
Rdf and open linked data a first approach Rdf and open linked data a first approach
Rdf and open linked data a first approach
@CULT Srl
 
THGenius, rdf and open linked data for thesaurus management
THGenius, rdf and open linked data for thesaurus managementTHGenius, rdf and open linked data for thesaurus management
THGenius, rdf and open linked data for thesaurus management
@CULT Srl
 
OseeGenius - Semantic search engine and discovery platform
OseeGenius - Semantic search engine and discovery platformOseeGenius - Semantic search engine and discovery platform
OseeGenius - Semantic search engine and discovery platform
@CULT Srl
 

Más de @CULT Srl (20)

Share catalogue
Share catalogueShare catalogue
Share catalogue
 
35st adlug oli suite_new_ils
35st adlug oli suite_new_ils35st adlug oli suite_new_ils
35st adlug oli suite_new_ils
 
ALIADA
ALIADAALIADA
ALIADA
 
SHARE Catalogue
SHARE CatalogueSHARE Catalogue
SHARE Catalogue
 
BIBFRAME LINKED DATA
BIBFRAME LINKED DATABIBFRAME LINKED DATA
BIBFRAME LINKED DATA
 
Stelline2016_Presentazione del Progetto SHARE Catalogue_pdf
Stelline2016_Presentazione del Progetto SHARE Catalogue_pdfStelline2016_Presentazione del Progetto SHARE Catalogue_pdf
Stelline2016_Presentazione del Progetto SHARE Catalogue_pdf
 
34th adlug ilike
34th adlug ilike34th adlug ilike
34th adlug ilike
 
34th adlug oli_suite_new_ils
34th adlug oli_suite_new_ils34th adlug oli_suite_new_ils
34th adlug oli_suite_new_ils
 
Automatic publication under LInked dAta paradigm of library DAta (ALIADA)
Automatic publication under LInked dAta paradigm of library DAta (ALIADA)Automatic publication under LInked dAta paradigm of library DAta (ALIADA)
Automatic publication under LInked dAta paradigm of library DAta (ALIADA)
 
Practical Linked Data: risorse, strumenti, utilizzi
Practical Linked Data: risorse, strumenti, utilizziPractical Linked Data: risorse, strumenti, utilizzi
Practical Linked Data: risorse, strumenti, utilizzi
 
RDA e Linked data: un binomio naturale
RDA e Linked data: un binomio naturaleRDA e Linked data: un binomio naturale
RDA e Linked data: un binomio naturale
 
Presentazione Progetto Europeo Aliada - LuBeC 2014
Presentazione Progetto Europeo Aliada - LuBeC 2014Presentazione Progetto Europeo Aliada - LuBeC 2014
Presentazione Progetto Europeo Aliada - LuBeC 2014
 
Adlug annual meeting 2014
Adlug annual meeting 2014Adlug annual meeting 2014
Adlug annual meeting 2014
 
Open Library Innovation - OliSuite
Open Library Innovation - OliSuiteOpen Library Innovation - OliSuite
Open Library Innovation - OliSuite
 
@Cult corporate identity
@Cult   corporate identity@Cult   corporate identity
@Cult corporate identity
 
Odissea open data per la pa
Odissea   open data per la paOdissea   open data per la pa
Odissea open data per la pa
 
Adlug annual meeting 2013
Adlug annual meeting 2013Adlug annual meeting 2013
Adlug annual meeting 2013
 
Rdf and open linked data a first approach
Rdf and open linked data a first approach Rdf and open linked data a first approach
Rdf and open linked data a first approach
 
THGenius, rdf and open linked data for thesaurus management
THGenius, rdf and open linked data for thesaurus managementTHGenius, rdf and open linked data for thesaurus management
THGenius, rdf and open linked data for thesaurus management
 
OseeGenius - Semantic search engine and discovery platform
OseeGenius - Semantic search engine and discovery platformOseeGenius - Semantic search engine and discovery platform
OseeGenius - Semantic search engine and discovery platform
 

Brochure: Linked Open Data PILLS

  • 1. 1 www.atcult.it FIND INFORMATION SHARE KNOWLEDGE ”UN DATO TIRA L’ALTRO” Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page1
  • 2. 2 Open Data e Linked Open Data: dati aperti, collegati e usabili Aperti Gli Open Data (OD) sono dati che possono essere liberamente utilizzati, riutilizzati e ridistribuiti da chiunque, soggetti eventualmente alla necessità di citarne la fonte e di condividerli con lo stesso tipo di licenza con cui sono stati originariamente rilasciati; devono garantire disponibilità (accesso), riutilizzo (ridistribuzione) e partecipazione universale. Collegati La disponibilità e il rilascio di OD è dunque un patrimonio prezioso; ma affinché si possa valorizzare del tutto l’informazione l’apertura da sola non è sufficiente. È necessario rendere gli OD autodescrittivi e poter inferire conoscenza dall’aggregazione e correlazione di dataset differenti. Occorre inoltre favorire la facilità d’uso, il reperimento e il consumo sia per gli esseri umani che per le macchine. Tutte queste limitazioni, rappresentate dal modello OD, sono superabili solo attraverso l’utilizzo di tecnologie semantiche, le uniche in grado di conferire ai dati (aperti e non) un’identità e di renderli collegabili tra loro e interoperabili: Linked Open Data (LOD). Dunque, il modello LOD propone un approccio tecnologico e metodologico per collegare tra loro gli OD e renderli parte di un unico spazio informativo globale e condiviso, il cosiddetto web semantico, ossia una rete di dati di natura differente direttamente elaborabili dai computer, in modo tale che essi siano combinabili tra loro. Usabili I Linked Open Data fanno dell’interoperabilità dei dati uno degli elementi chiave di un nuovo modo di considerare l’informazione. L’interoperabilità è l’innovazione legata alla gestione e alla trattazione dei dati, in quanto ne permette un uso inatteso e diversificato rispetto alla semplice pubblicazione di “dati grezzi”. Il valore dei dati infatti aumenta quando differenti dataset, prodotti e pubblicati da soggetti diversi tra loro, vengono incrociati liberamente da terze parti. La creazione di valore aggiunto sui dati viene perseguita attraverso la realizzazione di applicazioni software grazie alle quali la rete dei dati restituisce informazioni approfondite e facilmente esplorabili che hanno un’infinità di risvolti pratici , offrendo a qualsiasi utente servizi di interesse sociale ed economico. ■ Di cosa stiamo parlando Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page2
  • 3. 3 Per distinguere i diversi formati utilizzabili nella codifica dei set di dati o dataset, è stato proposto in seno al W3C (World Wide Web Consortium, un Consorzio internazionale fondato nel 1994 con l'obiettivo di potenziare e diffondere il WWW) un modello di catalogazione ideato da Tim Berners Lee, inventore del Web, presidente del W3C e professore presso il prestigioso MIT di Boston. Il modello di classificazione si basa su una scala di valori che va da 1 (una stella) a 5 (cinque stelle): ★ È il livello base, costituito da file non strutturati (formati come .gif, .jpg, .png). Una sola stella indica la semplice disponibilità di una informazione e di un dato online, in un formato qualsiasi, purché distribuito con licenza aperta. I dati distribuiti in questo formato sono leggibili e stampabili dagli utenti, possono essere conservati localmente su un PC e sono semplici da pubblicare. Tuttavia non sono un formato aperto in quanto non è possibile effettuare su di essi alcuna elaborazione ★★ Questo livello indica dati strutturati ma codificati con un formato proprietario (ad esempio Excel). I dati caratterizzati dalle due stelle non sono un formato aperto in quanto per elaborarli è necessario un software proprietario (adatto all’elaborazione di formati proprietari), tuttavia di norma possono essere convertiti – essendo dati strutturati – in dati aperti ★★★ Questo livello indica dati strutturati e codificati in un formato non proprietario (ad esempio il formato CSV). Tre stelle indicano, oltre alle possibilità offerte dai dati contraddistinti da due sole stelle, la possibilità di effettuare elaborazioni sui dati senza esser costretti ad utilizzare software proprietario. Quello caratterizzato dalle tre stelle è il formato più semplice di dati aperti ★★★★ Questo livello indica dati strutturati e codificati in un formato non proprietario che sono dotati di un URI8 che li rende indirizzabili sulla rete e quindi utilizzabili direttamente online, attraverso l’inclusione in una struttura basata sul modello RDF (Resource Description Framework). Quattro stelle indicano quindi il fatto che il singolo dato di un dataset, disponibile online in un formato aperto (tipicamente XML/RDF) può essere richiamato attraverso un’URL (Uniform Resource Locator) specifico. Ciò consente di puntare al dato o ad un insieme di dati da una applicazione o accedervi dall’interno di un programma che può poi elaborarlo in vari modi ★★★★★ Questo livello indica quelli che vengono definiti Linked Open Data (LOD). Quei dati aperti, cioè, che oltre a rispondere alle caratteristiche indicate al punto precedente presentano anche, nella struttura del dataset, collegamenti ad altri dataset. In altri termini, grazie al ricorso al già citato modello di descrizione dei dati RDF, è possibile collegare dinamicamente tra loro più dataset, incrociando così informazioni provenienti da fonti diverse Il modello delle 5 stelle Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page3
  • 4. 4 I punti cardinali entro cui è stata mappata l’obbligatorietà degli OD possono essere rintracciati nelle seguenti norme: ● La prima è l’art. 18 del decreto legge n. 83, convertito il legge n. 134 il 7 agosto 2012: Amministrazione aperta - sancisce per la prima volta in Italia l’obbligo di pubblicare online, entro il 1° gennaio 2013, dati che siano “di facile consultazione, accessibili ai motori di ricerca ed in formato tabellare aperto che ne consenta l’esportazione, il trattamento e il riuso ai sensi dell’articolo 24 del decreto legislativo 30 giugno 2003, n. 196” ● La seconda, invece, è contenuta nel recente Decreto Crescita 2.0, approvato con Decreto Legge il 18 ottobre 2012, n. 179 e convertito con la Legge 17 dicembre 2012 n. 221, in cui si indicano le modifiche apportate al CAD relative al dato pubblico, definendo nello specifico cosa si intende per dato di tipo aperto: “reso pubblico, documentato esaustivamente e neutro rispetto agli strumenti necessari per la fruizione degli stessi”. Inoltre, ne vengono ulteriormente identificate e delineate le caratteristiche intrinseche; i dati aperti sono: ● Disponibili con una licenza che ne permette l’utilizzo da parte di chiunque, anche per finalità commerciali ● Accessibili attraverso le tecnologie dell’informazione e della comunicazione in formati aperti, adatti all’utilizzo automatico da parte di programmi per elaboratori e provvisti dei relativi metadati ● Resi disponibili gratuitamente attraverso le tecnologie della comunicazione e dell’informazione, oppure resi disponibili ai costi marginali sostenuti per la loro riproduzione e divulgazione Inoltre: ● L’Agenzia definisce e aggiorna annualmente le linee guida nazionali che individuano gli standard tecnici, compresa la determinazione delle ontologie dei servizi e dei dati, le procedure e le modalità di attuazione […] Infine, dal 19 marzo 2013, tutti i dati e i documenti che le pubbliche amministrazioni pubblicano con qualsiasi modalità, senza l’espressa adozione di una licenza d’uso, si intendono rilasciati come dati aperti (open data by default). Per maggiori approfondimenti, si rimanda a : • Direttiva 2003/98/CE “Riutilizzo dell’informazione del Settore Pubblico” • D. Lgs. 36/2006 “Attuazione della Direttiva 2003/98/CE” • D. Lgs. 42/2005 “Istituzione del Sistema Pubblico di Connettività – SPC” • D. Lgs. 82/2005 “Codice dell’Amministrazione Digitale – CAD” • D. Lgs. 179/2012 “Ulteriori misure urgenti per la crescita del Paese” • Direttiva 2007/2/CE “Infrastruttura per l’informazione territoriale nella CE – INSPIRE” • D. Lgs. 32/2012 “Attuazione della Direttiva 2007/2/CE” • Quadro delle delibere locali per la regolamentazione e istituzionalizzazione degli OD, divise per regioni, provincie autonome e comuni Quadro normativo Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page4
  • 5. 5 1.Individuazione e selezione dei dataset – è il punto di partenza dell’intero processo. Le dimensioni di un patrimonio informativo sono, generalmente, molto vaste ed una pubblicazione massiva dei dati in formato aperto spesso non è praticabile. Da qui, la necessità della selezione di un sottoinsieme di dati che ha senso aprire e tradurre in LOD. È necessario, quindi, organizzare il lavoro di selezione seguendo criteri di valutazione opportunamente predefiniti, al fine di rendere quanto più fluido possibile l’intero processo. 2.Bonifica – i dati all’interno dei sistemi informativi o degli archivi sono spesso “sporchi” e non immediatamente pronti per la pubblicazione o per le dovute elaborazioni (incompletezza dei dati, diversità dei formati, significati ambigui, …). La qualità del dato rappresenta quindi un aspetto particolarmente importante perché un dataset sporco può rendere inefficienti, o addirittura impraticabili, alcune operazioni di confronto, di similitudine e di aggregazione sui dati. 3.Analisi e modellazione – gli obiettivi di questa fase sono di formalizzare il modello concettuale e dare una rappresentazione coerente con esso del dataset di riferimento. Rappresenta quindi una ristrutturazione logica e concettuale dei dati; un processo di reingegnerizzazione e refactoring della base informativa. Sia il modello concettuale sia il dataset, alla fine di questa fase, saranno rappresentati in RDF. Il Resource Description Framework (RDF) è lo strumento base proposto da W3C per la codifica, lo scambio e il riutilizzo di metadati strutturati e consente l'interoperabilità tra applicazioni che condividono le informazioni sul Web. Analizzato lo schema logico dei dati se ne ricostruisce lo schema concettuale originale attraverso ontologie; acquisendo l’ontologia di dominio, se esistente, o attraverso una creazione/integrazione di ontologie laddove l’ontologia evidenziasse elementi ambigui, mancasse di elementi o ne avesse in eccesso. 4.Arricchimento – in questa fase i dati, precedentemente modificati e modellati, sono arricchiti attraverso l’esplicitazione di informazioni di contorno (meta datazione) che ne semplifichino il riutilizzo e/o attraverso la derivazione di contenuto informativo aggiunto tramite l’utilizzo di tecniche di estrazione automatica dell’informazione o di ragionamento (inferenza). Come i dati, anche i metadati vengono espressi in RDF. Alcuni dei metadati più utili ai fini della interoperabilità e del riutilizzo sono: - informazioni sulla semantica del dato, che servono per chiarire il significato dei dati - informazioni di contesto, che permettono di descrivere i confini di validità del dato - informazioni di provenienza, che descrivono come e da chi i dati sono stati prodotti 5.Linking esterno (interlinking) –inquestafaseilcontenuto informativo locale viene legato ad altre informazioni, sia interne (al dataset di riferimento) che esterne. È solo da questo momento che i dati possono attestarsi a livello 5 della classifica di qualità dei LOD. Generare un dataset lod: i 7 passi Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page5
  • 6. 6 6.Validazione – in generale, possono essere eseguiti tre tipi di validazione: • Validazione sintattica: viene verificato che il contenuto dei dati rispetti i formati standard • Validazione logica: si individua un insieme di casi di test che devono essere soddisfatti • Validazione concettuale: viene verificata l’adeguatezza dell’ontologia In generale, se solo uno dei tre tipi di analisi fallisce è necessario ricontrollare le fasi precedenti. 7.Pubblicazione (e aggiornamento dei dati) – è qui intesa come un processo incrementale attraverso cui si rilasciano, progressivamente, dati sempre più raffinati. Uno degli aspetti principali di questa fase è la selezione della piattaforma tecnologica di pubblicazione; è molto importante che metta a disposizione funzionalità che facilitino il riutilizzo e l’interoperabilità. Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page6
  • 7. 7 L’aspetto relativo delle licenze è cruciale per quanto riguarda l’uso che gli utenti possono effettivamente fare dei dati, i vincoli di copyright da applicare a lavori derivati da quei dati, il mantenimento della paternità sui dati. Premettendo che il mondo è diventato vasto, in linea di massima le licenze più diffuse sono quelle basate su Creative Commons (CC), affermatesi come standard de facto a livello internazionale. In funzione delle specificità dei diversi insiemi di dati, o degli obiettivi che si intende raggiungere, è possibile scegliere tra diversi tipi di licenze. Licenze Creative Commons 1. Licenza Creative Commons Zero (CC0): esprime la più ampia e libera utilizzazione gratuita, anche per fini commerciali e con finalità di lucro. Apponendo su un documento la dichiarazione CC0 si rinuncia a tutti i diritti sul documento e sui suoi contenuti, dati inclusi, nella misura massima possibile prevista dalla legge 2. Licenza Creative Commons Attribuzione (CC-BY): permette al soggetto utilizzatore di riprodurre, distribuire, comunicare, esporre, rappresentare, nonché di modificare e usare un insieme di dati anche a fini commerciali con il solo obbligo di attribuire la paternità dell’opera nel rispetto delle modalità indicate dall’autore stesso nella, o a corredo, della licenza. In virtù della sua natura concettuale, questa Licenza può essere stesa mediante alcuni attributi: • Share Alike (SA): obbliga i lavori derivati a essere licenziati con la stessa licenza del lavoro originale • Non Commercial (NC): consente la copia, la distribuzione e l'uso del lavoro (o dati) solo per scopi non commerciali • No Derivative Works (ND): consente la copia, distribuzione e l'uso del lavoro, impedendo la creazione di lavori derivati. La combinazione di questi attributi genera di fatto altre licenze (ma non tutte le combinazioni avrebbero senso); nella pratica si considerano: • CC-BY-SA: Attribution Share Alike • CC-BY-NC: Attribution Non-Commercial • CC-BY-ND: Attribution No Derivatives • CC-BY-NC-SA: Attribution Non-Commercial Share Alike • CC-BY-NC-ND: Attribution Non-Commercial No Derivatives Nota: a differenza della licenza CC-BY sopra descritta, successive versioni della CC-BY Italia producono sul diritto sui generis della banca dati i medesimi effetti della licenza CC0, ovvero una rinuncia totale e incondizionata ai diritti. Licenze italiane Le licenze italiane sono la Italian Open Data License 2.0 (IODL 2.0), che permette all’utente di consultare, estrarre, copiare e pubblicare i dati liberamente, oltre alla possibilità di creare un lavoro derivato integrando diversi dataset; la IODL 1.0, simile alla prima ma con l’obbligo da parte dell’utente di pubblicare o condividere i lavori derivati con la stessa licenza. Dal copyright al copyleft: quali licenze? Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page7
  • 8. 8 Agenda Digitale Europea L’Economia dei Dati, un settore emergente nel panorama economico attuale e basato sulla pubblicazione e l’utilizzo dei dati, costituisce un fattore chiave per lo sviluppo sostenibile in Europa. Nata dal raggiungimento di importanti progressi tecnologici, come quello dei Linked Open Data, è sostenuta da numerose azioni politiche promosse dall’UE, come l'Agenda Digitale. L’Agenda è stata presentata dalla Commissione europea ed è una delle 7 iniziative su cui si basa la strategia “Europa 2020”, in cui sono fissati gli obiettivi per la crescita dell’Unione (UE). Si basa sulla necessità di sfruttare al meglio il potenziale delle tecnologie dell’informazione e della comunicazione (ICT) per favorire innovazione, crescita economica e progresso. Secondo le direttive, ogni Stato si è impegnato a recepirla nel proprio ordinamento, introducendo diversi principi tra i quali quello di un “mercato digitale unico” che sia basato su Internet e su software interoperabili, cioè in grado di dialogare fra loro e di utilizzare dati senza problemi di compatibilità. Dunque, i Linked Open Data rappresentano un cardine fondamentale per una strategia di sviluppo efficace. L’attività della Commissione europea in questo settore, mediante il finanziamento di progetti, appalti e bandi di gara, comprende: - il sostegno allo sviluppo di portali dove pubblicare Open e Linked Data, indipendentemente dal contesto e dal tipo di informazioni; - la cooperazione con gli Stati membri dell’UE in materia di formati dei dati e interoperabilità tra portali contenenti Open e Linked Data; - il migliorare accesso e fruibilità dei dataset, leggibili anche meccanicamente, affinché tutti possano usufruire di informazioni arricchite e, quindi, di maggior valore; - il guidare le PA, enti pubblici o privati e cittadini verso il nuovo paradigma “Open” attraverso la realizzazione di linee guida e raccolta di best practices Cosa sta facendo l’Europa Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page8
  • 9. 9 Agenda Digitale Italiana L'Agenda ricalca i pilastri indicati dalla Commissione europea, adattandoli e orientandoli verso le necessità italiane. Relativamente al paradigma Linked e Open Data, gli obiettivi primari sono: • Realizzare interventi strategici a valenza sistemica seguendo quattro asset principali: - amministrazione digitale - istruzione digitale - sanità digitale - giustizia digitale • Stabilire un quadro generale delle regole, per valorizzare l’intelligenza dei territori, certo e condiviso I benefici per i sono molti: • possibilità di creare servizi innovativi, semplificati e più efficienti, per cittadini ed imprese; • aumento delle opportunità per essere informati e in modo più aderente alle reali necessità; • partecipazione attiva (diritti ma anche responsabilizzazione; il concetto viene espresso con il termine: accountable) Le iniziative d’apertura del patrimonio informativo avviate in Italia, da parte di pubbliche amministrazioni centrali e locali, sono molteplici e di difficile elencazione. Per rimanere aggiornati su tutte le iniziative di Open Data il 18 ottobre 2011 è stato inaugurato il portale dati.gov.it; è stato creato un dataset, aggiornato periodicamente, che descrive i dati catalogati sul sito e li rende maggiormente interpretabili attraverso infografiche. Inoltre, dal 18 giugno 2013 l’Italia aderisce, insieme a Stati Uniti, Giappone, Germania, Francia, Regno Unito, Canada e Russia alla Carta dei Dati Aperti del G8 (Open Data Charter) attraverso la quale i Paesi aderenti si impegnano ad adottare politiche di apertura del patrimonio informativo delle pubbliche amministrazioni in logica open data. Cosa sta facendo l’Italia Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page9
  • 10. 10 La società @CULT, per concretizzare l’opportunità offerta da OD e LOD di amplificare il valore dei dati, opera su: • trattamento dei dati (per renderli completi, primari, tempestivi, accessibili, machine readable, ricercabili, riutilizzabili e permanenti), garantendone la qualità; • gestione del ciclo di vita dei dati (analisi, acquisizione, modifica, aggiornamento, verifica e metadatazione); • generazione di dataset LOD, attraverso l’iter metodologico dei “7 passi”, garantendo il livello 5 della classifica di qualità; • pubblicazione di dataset LOD in grado di migliorare i processi di gestione ed utilizzo dei dati; • connessione tra Dataset, permettendo così mashup tra dati e sorgenti fortemente eterogenei; • progettazione, integrazione ed applicazione di ontologie; • ingegnerizzazione del sistema per la fruizione dei dati, fondamentale per implementare strategie e portali Open Data. Di particolare interesse è la realizzazione di molteplici progetti, tra cui: 1. “Innovative Technologies And Cultural Heritage Aggregation” (ITACH@): l’azienda ha realizzato OpLiDaF, uno strumento innovativo per la valorizzazione ed il rilancio culturale, turistico ed economico dell’industria culturale. OpLiDaF, operando con metodologie afferenti il Semantic Web, si costituisce come nodo principale del network della rete di contenuti culturali (nell’ambito della digitalizzazione delle risorse culturali) rispondendo con efficacia alla emergente necessità di realizzare una integrazione fra sistemi attraverso la realizzazione di infrastrutture di dati. 2. “Museal Innovation: New ERgonomic Visit Approach” (MINERV@): si è effettuata la pubblicazione di un dataset secondo i principi dei Linked Open Data, a partire dalla base di conoscenza del Museo Galileo di Firenze, e il collegamento integrativo con dataset di altri Enti afferenti. Inoltre, è stato ingegnerizzato un avanzato strumento di indicizzazione e visualizzazione delle informazioni ottenute da questa elaborazione. 3. National Széchényi Library (Biblioteca Nazionale Ungherese): collaborazione per la produzione di un thesaurus in formato RDF/SKOS e sua integrazione nel motore di ricerca avanzato in uso presso la biblioteca, per il potenziamento, attraverso strumenti semantici, del recupero delle informazioni 4. Biblioteca Nazionale Centrale di Firenze: realizzazione di uno strumento di indicizzazione e la produzione automatica di parole chiave significative ai fini della soggettazione della documentazione digitale ricevuta dalle Università italiane (per deposito legale), attraverso l’utilizzo di strumenti proprietari ed open source e l’uso del Nuovo Soggettario di Firenze, il thesaurus nazionale italiano convertito in formato RFD/SKOS (Linked data) 5. Automatic publication under LInked dAta paradigm of library DAta (ALIADA): il progetto, che vede la partecipazione di Spagna, Italia e Ungheria si colloca nell’ambito del programma quadro di ricerca concepito per consolidare lo Spazio Europeo della Ricerca (SER). L’obiettivo è quello di rendere le basi di conoscenza di biblioteche e musei, convertite secondo il paradigma LOD, facilmente pubblicabili ed interoperabili attraverso la condivisione delle loro collezioni. Cosa facciamo noi Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:11 Page10
  • 11. 11 6. Studio di fattibilità di un progetto di conversione in RDF dei dati del sistema MAB Trentino. Lo studio include l’analisi dei dati provenienti dal catalogo delle biblioteche e dal catalogo degli archivi del Sistema Provinciale di Trento, la scelta delle ontologie di riferimento e la mappatura di differenti formati di origine in RDF 7. Proposizione del progetto: innovative Learning In Knowledge Environment (iLIKE), una innovativa piattaforma in grado di integrare sistemi di Knowledge Management ed E-Learning con le più moderne tecnologie web 2.0 e semantic web, per edificare basi di conoscenza attraverso la raccolta, classificazione, analisi, valorizzazione e distribuzione di saperi pertinenti, tempestivi ed accurati. I nostri prodotti Negli ultimi anni @CULT ha rivolto l’attenzione alla creazione di strumenti semantici per potenziare le funzioni di ricerca e fruizione delle informazioni sul web, attraverso lo sviluppo di applicazioni che utilizzano linguaggi e standard riconosciuti nei settori più evoluti del mondo dell’informazione. Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page11
  • 12. 12 OliSuite è l’LMS – Library Management System – proposto da @Cult per la gestione dell’intero flusso operativo di biblioteche e archivi: dalla selezione del materiale, alla catalogazione, alla distribuzione attraverso il prestito e la pubblicazione sul web. OliSuite è totalmente web-based ed è sviluppata secondo i principi ed il modello di architettura orientata ai servizi (SOA), dove i servizi identificati, descritti ed ‘inventariati’ sono coordinati all’interno di un framework facilmente configurabile per comporre al meglio i processi operativi (di business) necessari. Particolarmente attento alle evoluzioni del mondo catalografico e rifacendosi all’ormai noto slogan “La biblioteca fuori di sé”, che rimanda al concetto di andare a cercare i potenziali utenti laddove questi si trovano (prima di tutto sul web), il modulo di catalogazione di OliSuite apre al nuovo standard RDA (Resource Description and Access), il nuovo codice internazionale per la descrizione e l’accesso alle risorse, che diventa uno strumento per l’intero universo bibliografico e per il nuovo contesto digitale, in cui le risorse sono gestite da una comunità ampia ed eterogenea, fatta di editori, di soggetti che ne controllano e detengono i diritti di distribuzione ed uso, di librerie e distributori, di enti (biblioteche, archivi, musei, produttori di banche dati e repositories, agenzie bibliografiche) che raccolgono, conservano e rendono fruibili queste risorse. Saldamente ancorate ai modelli concettuali FRBR e FRAD e agli ICP, International Cataloguing Principles, RDA assumono da questi l’approccio all’analisi entità/relazioni, la terminologia, l’attenzione all’opera più che alla specifica pubblicazione (e quindi all’entità o messaggio informativo in sé, ovunque e comunque esso sia memorizzato o espresso), la centralità assoluta dell’interesse dell’utente, in nome del quale ogni scelta catalografica va realizzata. Agli obiettivi di trovare, identificare, selezionare e ottenere, mutuati dai modelli FRBR e FRAD, RDA aggiunge l’obiettivo di navigare tra dati e metadati, nell’ampio universo bibliografico, secondo una modalità ampiamente diffusa tra i frequentatori del web. L’attenzione agli accessi più che alla descrizione della risorsa, alla definizione di relazioni tra le varie entità, all’uso di ontologie e vocabolari universalmente riconosciuti, all’attribuzione di identificativi univoci alle risorse, a linguaggi di marcatura riconosciuti dal W3C come standard per la costruzione del web semantico attraverso i linked data, la focalizzazione sui dati relativi al supporto, al contenuto e al formato della risorsa, e tanti altri elementi specifici del nuovo standard, lo rendono strumento indispensabile per fare in modo che quanto prodotto dalle biblioteche e da tutti gli istituti culturali e della memoria, diventi parte del web e non solo sul web! Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page12
  • 13. 13 Open Linked Data Framework - OpLiDaF è un framework di nuova generazione sviluppato con tecnologie e linguaggi altamente integrabili, aperto ed estensibile, per la produzione di linked data in RDF attraverso la conversione dei dati da eterogenei formati originari. Il Resource Description Framework (RDF) è lo strumento base proposto da W3C per la codifica, lo scambio e il riutilizzo di metadati strutturati e consente l'interoperabilità tra applicazioni che condividono le informazioni sul Web. Il sistema è in grado di generare informazioni leggibili e interpretabili in maniera intelligente dalle applicazioni di rielaborazione (come i motori di ricerca); in questo modo si ha la possibilità di generare (o tradurre) documenti in grado di essere letti da esseri umani ma anche acceduti ed interpretati da agenti automatici di ricerca, trasformando così il Web in una grande Base di Conoscenza. Principali innovazioni apportate da OpLiDaF: ● capacità di raccogliere, tradurre e gestire i dati in maniera più efficiente ● possibilità di la combinare dati provenienti da fonti diversificate permettendo la condivisione tra più utenti ed applicazioni OpLiDaF Un nuovo framework aperto e innovativo Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page13
  • 14. 14 Il nuovo componente OseeGenius-FRBR consente agli OPAC e ai discovery tool di arricchirsi di uno strato informativo secondo lo standard RDF (Resource Description Framework) organizzato secondo il modello FRBR (Functional Requirements for Bibliographic Records). L’RDF, lo strumento del W3C per la codifica, lo scambio e il riutilizzo dei metadati in ambiente web, permette di definire un modello semplice per descrivere le relazioni tra le risorse, in termini di proprietà identificate da un nome e relativi valori. Nel caso delle informazioni bibliografiche provenienti da un catalogo le risorse sono i documenti che un utente cerca, identificabili attraverso proprietà e relativi valori, e relazionate ad altre risorse: l’opera scritta da un autore, tradotta in differenti lingue, pubblicata da diversi editori e in differenti supporti... Arricchisci il tuo OPAC e facilita la navigazione dei tuoi utenti FRBR Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page14
  • 15. 15 Tutta questa struttura informativa mette insieme in un reticolo di collegamenti risorse differenti (l’opera , il suo autore, il suo traduttore, le differenti sue realizzazioni – le espressioni del modello FRBR – le varie sue materializzazioni – le manifestazioni del modello FRBR che si esprimono, per esempio, in termini di pubblicazioni – altre opere derivate da quella originaria e così via). L’applicazione del modello relazionale FRBR, che non cambia il dato come catalogato originariamente e tradizionalmente dalle biblioteche ed altri istituti culturali, ma coglie l’occasione della conversione di questi dati secondo il paradigma dei Linked Open Data per una profonda riorganizzazione degli stessi e per creare collegamenti e connessioni tra dati provenienti da fonti eterogenee – opac catalografici, inventari archivistici, cataloghi di musei, enciclopedie e repertori on-line, primo fra tutti Wikipedia, – supporta gli utenti nella identificazione di ciò di cui davvero hanno bisogno: l’edizione specifica dell’opera del tale autore, illustrata dallo specifico illustratore, pubblicata da un determinato editore in un dato anno in un preciso formato. I dati dei cataloghi, valorizzati dalla creazione di collegamenti a dataset esterni (e open), strutturati secondo le tecnologie dei linked open data (e come tali ricercabili e riusabili nel web) e riorganizzati nell’ottica di una maggiore semplicità e fruibilità, tornano ad essere parte del più ampio e ricco patrimonio informativo universale, cui gli utenti accedono per ampliare la loro esperienza conoscitiva. ■ Brochure-At-Cult-A4-297x210-Vƒ.qxp_Mise en page 1 28/02/2014 16:12 Page15