Category Archives: Open data

Accesso chiuso e mistificazione intellettuale: il caso di Diederik Stapel

Com’è possibile costruirsi una brillante carriera accademica sulla falsificazione dei dati sperimentali? La vicenda dello psicologo sociale olandese Diederik Stapel dà risposte istruttive. Ne parlo qui,  perché buona parte del materiale che ho dovuto usare viene da riviste ad accesso chiuso, fuori dalla competenza del  btfp.

Tags:

Accessi: 409

Antonella De Robbio, Silvia Giacomazzi, Dati aperti con LODe

In questo articolo in italiano, pubblicato su Bibliotime, Antonella De Robbio e Silvia Giacomazzi ci raccontano che cosa sono gli Open Data e in particolare i dati bibliografici aperti, dati che, affermano le autrici, si trovano a metà tra due territori: da una parte, l’ambito della trasparenza amministrativa e delle forme di cittadinanza attiva che la prima rende possibile (Open Government Data), e dall’altra il cosiddetto Open Access inteso in senso ampio: l’accesso libero e gratuito ai risultati e ai dati scientifici (Open Science).

Le autrici ci danno così una definizione completa di dati bibliografici aperti, considerando sia gli aspetti giuridici che consentono un reale uso e riuso dell’informazione, sia i requisiti tecnici (Linked Data) che ne permettono l’interoperabilità e la contestualizzazione, spiegando anche perché oggi i tempi siano finalmente maturi per una convergenza tra il movimento Open Access e la comunità del Web semantico (ora Linked Data).

Accessi: 496

Andrea Zanni, Collaboratory Digital Libraries for Humanities in the Italian context

Archiviato su Zenodo, il testo si occupa del senso attuale e futuro dell’uso delle tecnologie informatiche nella ricerca umanistica, nell’interessante prospettiva dell’autore, matematico per formazione e segretario di Wikimedia Italia.

Il web, secondo Tim Berners-Lee, non è stato inventato come un mezzo per scorrere delle pagine, ma come uno spazio di informazione per permettere a chiunque di comunicare condividendo conoscenza – uno spazio nel quale perfino lo studioso di scienze umane potrebbe uscire dalla solitudine.

Il fondatore dell’informatica umanistica (digital humanities) è un italiano, il gesuita Roberto Busa, che durante la seconda guerra mondiale cominciò a cercare macchine per l’automazione dell’analisi linguistica dei testi scritti, trovandole nel 1949 presso l’IBM. La composizione del suo Index Thomisticus è dunque parallela alla storia della rivoluzione digitale della seconda metà del secolo scorso.

Le digital humanities usano strumenti informatici per l’ecdotica e la filologia, linguaggi di mark-up per la rappresentazione dei testi in modo strutturato, formale e semantico e la loro connessione con metadati interpretativi e descrittivi, nonché con strumenti per la meta-informazione multimediale, e riflettono sui documenti digitali e sulle loro caratteristiche. Secondo padre Busa, l’informatica testuale si divide in una corrente documentaristica, che si occupa delle infrastrutture della comunicazione telematica, una editoriale, che si occupa della pubblicazione dei testi in entità discrete, e una ermeneutica, associata con l’analisi linguistica – e col suo personale progetto di un linguaggio disciplinato che consenta la traduzione automatica.

Tradizionalmente, la ricerca umanistica è un mondo irto di barriere disciplinari, popolato da studiosi individualisti. L’Italia, in particolare, dominata dal conservatorismo di una gerarchia gerontocratica, è priva di progetti istituzionali di digitalizzazione in grande stile – sul modello di Gallica e lascia questo compito a iniziative amatoriali, come LiberLiber o la stessa Wikipedia. Eppure, il potenziale di collaborazione intrinseco nel web può dare i suoi frutti anche nel nostro ambito: io stessa, senza essere una studiosa di Tommaso, ho potuto facilmente individuare come tale un importante riferimento tomistico in un testo di Kant, proprio grazie al lavoro iniziato da padre Busa. Ma si può fare molto di più: come afferma Gregory Crane, fondatore del Perseus Project, mentre l’invenzione della scrittura, amplificata da quella della stampa, ha reso possibile immagazzinare le idee fuori dai cervelli umani, le biblioteche digitali, con testi che non sono più letti e connessi solo da esseri umani, ma anche da macchine, hanno già cominciato a separare dai cervelli l’intelligenza e l’azione. I limiti di questo processo sono ormai soltanto culturali. Il mondo della stampa era un mondo di autori, che legittimavano se stessi in quanto individualmente creativi o singolarmente sapienti, quello che sta nascendo è un mondo di auctores, di promotori di imprese collettive il cui senso cresce e si costruisce fuori di loro.

Le biblioteche digitali possono essere dei meri depositi per raccogliere testi, o anche degli ambienti virtuali di ricerca, con strumenti, interazioni e nessi più complessi, dal Memex fino ai Linked data. Nel contesto italiano, una biblioteca digitale per la comunità umanistica può essere collaborativa, o, ancor meglio, può diventare un ambiente virtuale condiviso di collaborazione (collaboratory)? E questa biblioteca digitale collaborativa e condivisa può essere costruita su un wiki?

Per rispondere a queste domande, l’autore sceglie la via dalla ricerca qualitativa tramite interviste a studiosi di scienze umane, fra le quali quella ad Umberto Eco, resa interamente pubblica su Wikinews. Le tre questioni pongono all’ambiente accademico sfide di complessità crescente.

Al primo livello, la libera disponibilità dei testi è nell’interesse immediato di chi fa ricerca. Perfino Umberto Eco, come autore, si rende conto che la cosiddetta pirateria è pubblicità a sua vantaggio e, come utente, apprezza la comodità di Wikipedia – salvo rifiutarsi di correggerla quando si imbatte in errori: “Se poi l’errore è di un altro, non vedo perché dovrei perdere tempo a modificare. Non sono la Croce Rossa.

Eco, nella sua intervista, presupponendo che le tecniche di selezione e di valutazione dell’attendibilità dei testi siano necessariamente il patrimonio di una élite, sostiene che la ricchezza di informazione non filtrata dalla rete faccia bene ai ricchi – cioè alla minoranza degli studiosi – e faccia male ai poveri, cioè alla maggioranza composta da persone mediaticamente ingenue, incapaci di discernere l’informazione con la perizia del professore. Per questo l’azione di filtro da parte di comunità scientifiche ristrette e gerarchiche sarà sempre necessario. E sarà sempre necessaria, in luogo del sapere collettivo, l’individualità dell’autore: nelle scienze umane non esiste un progresso, nel quale le teorie inesatte vengono superate, ma da una parte non si butta via nulla e tutto viene riscoperto, dall’altra ciascuno ha pretesa di originalità e mal si adatta ad essere un mero “portatore d’acqua”.

Se le cose stessero per natura come le vede Umberto Eco, gli umanisti professionisti, nel pascolo tragico dei beni comuni della conoscenza, potrebbero tutt’al più fare i free rider che sfruttano parassitariamente il lavoro altrui. Altri intervistati, probabilmente meno famosi e influenti, la pensano però – come si riassume nel capitolo finale – in maniera diversa.

La cooperazione ha indubbiamente un forte potenziale di innovazione, in discipline altrimenti immobili. Un editing collettivo nello stile di Wikipedia, oltre ad abbassare i costi, favorisce un processo simile a quella neutralizzazione con la quale i filologi cercano di pervenire alla versione più attendibile del documento che studiano. Una voce di Wikipedia non è mai definitiva, ma è solo l’esito provvisorio di un comune work in progress, al di sotto del quale rimangono visibili le discussioni e le stratificazioni che hanno contribuito a crearla.

La stratificazione renderebbe anche possibile la convivenza di interpretazioni diverse, per esempio partendo dall’immagine del testo, sovrapponendovi la sua trascrizione con eventuali variazione, aggiungendovi all’esterno uno stand off mark up, dei link per rendere il testo concretamente intertestuale, e delle annotazioni collaborative e no, e lasciando alla fine uno spazio grande quanto la rete per la collaborazione sociale attorno ai testi. Il mondo della scrittura e del libro ci ha abituato a pensare all’umanista come uno studioso solitario; ma questa immagine potrebbe essere tanto mitica quanto quella dell’autore come individuo dotato di una creatività primigenia.

Perché questa virtualità diventi attuale, in modo tale che la digitalizzazione del nostro patrimonio culturale non rimanga prevalentemente nelle mani di dilettanti – sarebbe però necessario che ci fosse certezza sulla valutazione delle pubblicazioni digitali nei concorsi, e, soprattutto, che venisse creata, anche con pochi fondi – com’è reso possibile dal software libero – un’infrastruttura istituzionale per l’e-science.

Ma perché occorre attendere l’intervento – di questi tempi, improbabile – di immaginarie autorità lungimiranti? Uno degli intervistati di Zanni, con la sincerità dell’anonimato, ci aiuta a capirlo (pp. 99-100). L’accademico è dominato dalla paura di perdere il suo senso e il suo potere, ed è letteralmente terrorizzato dalla parola “collaborativo” – perfino quando la cooperazione renderebbe la ricerca più efficiente.

Una simile considerazione mi porta – avendo dedicato del tempo alla segnalazione e alla discussione del testo di un altro – a chiedermi perché questi studiosi così impauriti facciano ricerca. La cooperazione paritaria, per chi lavora per diffondere e far crescere delle idee, è uno strumento prezioso, che può apparire temibile solo se lo scopo implicito della ricerca si esaurisce nella conquista di fama e influenza individuale. Il disprezzo con il quale Umberto Eco distingue se stesso dalla Croce Rossa suggerisce – volendo insistere sulla metafora da lui scelta – che per molti di noi il dottor Guido Tersilli rimane ancora più degno di stima del medico che si impegna per salvare delle vite.

Tags:

Accessi: 548

Francesca Di Donato, Lo stato trasparente. Linked Open Data e cittadinanza attiva

Il libro, liberamente scaricabile a partire da qui,  presenta un’istantanea di un fenomeno recente: il movimento Open Government Data.

Questo movimento trae ispirazione dal software libero e della pubblicazione ad accesso aperto, fondate entrambi sulla scelta d considerare la conoscenza come un bene comune. Si tratta, questa, d una scelta perché i nostri ordinamenti impongono agli autori un regime di monopolio intellettuale, se questi non manifestano un’esplicita volontà contraria. Il movimento caldeggia l’adozione di licenze completamente aperte, senza la clausola “non commerciale”, per promuovere sviluppo economico e innovazione. In questa prospettiva, illustrando lo stato dell’arte del movimento alla fine del 2010, il libro cerca di chiarire le condizioni giuridiche e tecniche alle quali i dati possono essere definiti aperti, per l’uso degli amministratori pubblici.

Il movimento per i dati aperti lavora per la trasparenza e la leggerezza: in luogo di grandi progetti dall’alto, costosi e inefficienti (e-gov) propone semplici infrastrutture per pubblicare i dati, i quali, a loro volta, sono di per sé l’infrastruttura della nostra autocoscienza sociale. Questo modello, detto anche gov2.0, propugna dunque un’amministrazione trasparente e un controllo democratico partecipativo: la rete è un essenziale spazio di cittadinanza. Una sensibilizzazione politica su questo tema può avere anche un forte effetto di ritorno su dati non propriamente amministrativi, come per esempio quelli scientifici. Chi vuole che l’università pubblica metta a disposizione i suoi esperimenti e i suoi testi sta appunto chiedendo che un’amministrazione pubblica offra a tutti i suoi, peculiari, dati.

Non è sufficiente però che i dati siano aperti: essi possono diventare significativi solo se sono collegati fra loro e contestualizzati come linked data. Questa filosofia poggia su idee antiche – da Platone fino all’illuminismo – e può condurre a un vero e proprio rischiaramento digitale. Il Web Semantico, poi Linked Data, è stato a lungo confinato nelle discussioni di specialisti: il movimento OGD ha il pregio di metterne in luce le implicazioni politiche. Ora i dati a disposizione sono moltissimi e crescono in misura esponenziale, e ci sono anche tante applicazioni che permettono di usarli. Un esempio? OpenBilancio, che si propone di tenere sotto controllo le spese dei comuni italiani, in modo tale che chiunque possa vederle e incrociarle con altri dati, presenti e futuri, in formati linked.

Tags:

Accessi: 919

image_print