From the Past to the Future. Alcune riflessioni dopo DH2016

Digital humanities 2016Al rientro da Cracovia, dopo quattro giornate intense e ricche di stimoli, cerco di ordinare alcune riflessioni sparse che mi porto a casa dopo questa bella esperienza di condivisione di idee con la comunità mondiale di Digital Humanities, ritrovatasi in Europa per la conferenza DH2016. Non è facile ricomporre un quadro completo dei molti stimoli ricevuti. Alla conferenza hanno partecipato più di 900 persone, i tweet con l’hashtag #DH2016 hanno costruito, live, una conferenza parallela, e non riesco ancora a districarmi nel programma, nonostante lo abbia portato sempre con me in versione cartacea, come una bibbia, consultato e annotato con Pundit qui sul web. Butto giù, allora, qualche idea in forma di suggestioni piuttosto che una riflessione strutturata, per condividere alcuni spunti.

La prima suggestione mi viene dal titolo della conferenza Digital Humanities scelto per l’edizione di quest’anno, “From the Past to the Future”. Vorrei ripercorrerla attraverso alcuni ricordi. Vado a cercare il sito della prima e unica conferenza che ho seguito, nel 2004 a Göteborg. Al tempo non si chiamava ancora DH ma ALLC/ACH, doppio acronimo di Association for Computers and the Humanities e Association for Literary and Linguistic Computing, segno di un’impronta ancora orientata a identificare l’applicazione delle ICT alle scienze umane prevalentemente con la linguistica computazionale. Della conferenza di Göteborg sul vecchio sito ora visibile sull’Internet Archive si trovano alcune fotografie scattate sul battello che ci portava alla cena sociale, ospitata in una cupa fortezza, Älvsborgs fästning, sulla foce del Göta älv.

Ricordo bene le ottime colazioni svedesi, le chiacchierate con Elena Pierazzo, conosciuta in quell’occasione e poi ritrovata a Pisa, e il poster “The Hyper-Learning project” che portammo con Michele Barbera e che vinse la poster slam. Ricordo anche molto bene la suggestiva conferenza di Susan Hockey, Roberto Busa Award Lecture 2004, e, più di tutto, le lunghe discussioni sullo standard XML-TEI e i suoi sviluppi. Il tempo non è passato invano, ed è trascorso nel segno della continuità: lo dimostra il premio Antonio Zampolli, attribuito a Cracovia proprio al consorzio TEI, a sancire che l’accreditamento dell’iniziativa volta a creare uno standard comune di codifica XML nella comunità degli umanisti è totalmente compiuto.

La seconda suggestione si aggancia alla conclusione della precedente: a distanza di dodici anni, esiste oggi, all’interno della comunità degli umanisti digitali, una convergenza di vedute sugli standard, dalla TEI a EDM e altri Data Model, ed è presente e condivisa l’idea di aderire a macro-infrastrutture comuni che agiscano da connettori di servizi, come dimostra la forte presenza di DARIAH e di progetti a essa correlati. Mi ha comunque colpito l’assenza di Europeana, la grande biblioteca digitale europea, fatta eccezione per il poster “Reflecting On And Refracting User Needs Through Case Studies In The Light Of Europeana Research”. Pur riconosciuta come iniziativa imprescindibile e nonostante il successo di progetti pilota come DM2E – Digitised Manuscripts to Europeana, il riuso dei dati di Europeana trova nella pratica scarsa applicazione. Ho poi riscontrato un’adesione comune, in linea di principio, alla visione open access e al tema dell’apertura dei dati, anche se mancano, almeno nella percezione che ho avuto, esempi reali di progetti che implementino policy open access e, soprattutto, open data, ed è quasi del tutto assente il riferimento all’open science, se non come tendenza verso cui si deve convergere come effetto dei mandati degli enti finanziatori. A tale proposito hanno costituito un’eccezione l’utilissimo panel organizzato dalla Research Data Alliance Digital Data Sharing: Opportunities and Challenges of Opening Research, in cui sono stati presentati casi concreti di gestione di open data umanistici nel Digital Repository of Ireland, e il panel dello stesso pomeriggio Are the Digital Humanists Prepared for Open Access to Research Data? coordinato da Vittore Casarosa, a cui hanno partecipato volti noti del movimento open access come Anna Maria Tammaro e Pierre Mounier di Open Edition. Di natura più teorica del primo, quest’ultimo è stato purtroppo poco partecipato, fornendo una risposta implicita alla domanda che lo intitolava.

Io credo che l’accesso ai dati della ricerca sia un punto importante, che riguarda soprattutto la sostenibilità dei progetti a cui si lavora. L’adozione di formati di dati e di standard condivisi si dovrebbe accompagnare al deposito dei dati di ricerca in repository pubblici aperti, possibilmente internazionali come Zenodo.org. Questa soluzione solleverebbe tra l’altro la comunità scientifica dalla preoccupazione di garantire l’accesso ai dati della ricerca oltre la normale vita di un progetto, di quella lavorativa o, al limite, di quella umana. Consentire l’accesso ai dati nel tempo e favorirne il riuso, anche in forme nuove e inaspettate per chi li ha prodotti, è una questione centrale per l’affermarsi dell’open science, e così dei principi e delle pratiche di condivisione della conoscenza.

Engraving of John Cosin, Bishop of DurhamLa terza e ultima suggestione riguarda, per finire, una riflessione che ha avuto origine dal Keynote di Claire WarwickTouching the interface: Bishop Cosin and unsolved problems in (digital) information design”, che ha chiuso la conferenza di Cracovia. La Warwick ha sottolineato l’importanza che la biblioteca fisica ha avuto in passato e che tutt’oggi riveste nella formazione dei giovani, che continuano a sceglierla come luogo in cui imparare in compagnia di altre persone che fanno la stessa cosa, un luogo ibrido, oggi un misto di digitale e analogico (una foto suggestiva ha mostrato un gruppo di studenti in biblioteca, con tavoli cosparsi di computer portatili e di libri annotati).

Le questioni articolate e stimolanti che Claire Warwick ha posto a partire da queste considerazioni iniziali sono ben sintetizzate nell’abstract:

Some problems in the design of digital resources have turned out to be unexpectedly difficult to solve, for example: why is it difficult to locate ourselves and understand the extent and shape of digital information resources? Why is digital serendipity still so unusual? Why do users persist in making notes on paper rather than using digital annotation systems? Why do we like to visit and work in a library, and browse open stacks, even though we could access digital information remotely? Why do we still love printed books, but feel little affection for digital e-readers? Why are vinyl records so popular? Why is the experience of visiting a museum still relatively unaffected by digital interaction? The answer is very emphatically not because users are luddites, ill-informed, badly-trained or stupid.

I will argue that the reasons these problems persist may be due to the very complex relationship between physical and digital information, and information resources. I will discuss the importance of spatial orientation, memory, pleasure and multi-sensory input, especially touch, in making sense of, and connections between physical and digital information. I will also argue that, in this context, we have much to learn from the designers of early printed books and libraries, such John Cosin, a seventeenth-century bishop of Durham, who founded the little-known marvel that was the first public library in the North of England, and still exists, intact; one of the collections of Durham University library.

Si tratta di temi fondamentali attorno ai quali è però mancata, a mio avviso, una riflessione sui limiti, in termini di usabilità, degli strumenti digitali di cui dispongono gli umanisti e, in generale, i ricercatori, come ho scritto in questo tweet di commento:

I expected a few more words on how to make more usable tools and digital environments. A lack in #DH2016. Hope in #DH2017

— Francesca Di Donato (@ederinita) 15 luglio 2016

Il tweet è nato da un pensiero spontaneo legato alla sensazione – che è stata costante per tutta la conferenza e che mi si è manifestata con chiarezza nella lezione conclusiva proposta dalla docente di Durham – di avere di fronte strumenti potenti e utili ma improntati prevalentemente sull’idea di chi li ha pensati e li usa per fare ricerca, e pochissimo sui bisogni degli utenti.

Io credo che anche l’usabilità e lo studio dell’esperienza e delle esperienze degli utenti riguardino l’accesso alla conoscenza e che, di più, ne siano una condizione necessaria al pari dell’apertura dei dati. Si tratta allora forse, in termini più generali, di ripensare l’idea di biblioteca digitale liberandola dai vincoli che ancora la modellano su quella fisica. Siamo ancora molto legati ai paradigmi delle biblioteche fisiche e cerchiamo di riprodurre tale paradigma in ambito digitale, ma è un errore. Allora quello che dovremmo essere in grado di imparare da John Cosin non è come ordinare i libri in uno scaffale virtuale ma come cercare di offrire un’esperienza piacevole alle persone che vogliono trovare, leggere e interagire con risorse digitali. La biblioteca di Cosin è a tutti gli effetti un’interfaccia e l’opera, frutto di una riflessione che si è articolata nei secoli, è a tutti gli effetti il risultato di uno studio di User Centered Design.

Possiamo pensare la biblioteca digitale, in astratto, come un insieme di dati strutturati, pubblicati in diversi formati standard in numerosi repository, potenzialmente federati, che acquistano senso attraverso interfacce progettate a partire dall’esperienza e dai bisogni di utenti. Le interfacce possono essere molte e diverse, e rispecchiare le diverse interpretazioni di chi le progetta. Una sorta di forma nuova di articoli scientifici che, pur partendo dai medesimi dati, mantengono la propria originale unicità. A uno strato intermedio e separato ci sono i tool che consentono di creare e di gestire flussi di lavoro ad hoc per i gruppi di ricerca che lavorano sui dati al fine di costruire, a partire da essi, nuove interpretazioni. Ma i tool dovrebbero tornare a essere mezzi, e non scopi in sé, e più attenzione si dovrebbe dare ai modi in cui offriamo una interpretazione dei dati, attraverso le “viste” che ne proponiamo, concentrando la maggior parte della ricerca sulle interfacce che costruiamo.

Dovremmo fare in modo che i dati siano strutturati bene e messi “al sicuro”, per dare più spazio al modo in cui vogliamo rappresentarli, sapendo (e sperando) che altri verranno dopo e ne daranno a loro volta nuove interpretazioni e rappresentazioni in forma nuova. Dobbiamo spendere nella progettazione di tali viste più attenzione, più energie, e non accettare come un dato di fatto che il mondo analogico, tattile, fisico, risponda necessariamente meglio al nostro bisogno di capire, di conoscere, di consolidare la conoscenza. Senza scordarci che le difficoltà che incontriamo nel relazionarci a oggetti e a spazi, tanto fisici quanto digitali, dipendono più spesso dalle incapacità di chi li ha progettati che da nostri limiti. Lo scriveva Donald Norman ne La caffettiera del masochista, un classico che ci spinge a considerare anche il design come una questione di accessibilità, e dunque di apertura. Potrebbe essere una prospettiva, tra le tante, con cui guardare al tema dell’accesso alla conferenza DH2017 di Montreal, che sarà a esso dedicata.

Tags:

Accessi: 322

Andrea Zanni, Collaboratory Digital Libraries for Humanities in the Italian context

Archiviato su Zenodo, il testo si occupa del senso attuale e futuro dell’uso delle tecnologie informatiche nella ricerca umanistica, nell’interessante prospettiva dell’autore, matematico per formazione e segretario di Wikimedia Italia.

Il web, secondo Tim Berners-Lee, non è stato inventato come un mezzo per scorrere delle pagine, ma come uno spazio di informazione per permettere a chiunque di comunicare condividendo conoscenza – uno spazio nel quale perfino lo studioso di scienze umane potrebbe uscire dalla solitudine.

Il fondatore dell’informatica umanistica (digital humanities) è un italiano, il gesuita Roberto Busa, che durante la seconda guerra mondiale cominciò a cercare macchine per l’automazione dell’analisi linguistica dei testi scritti, trovandole nel 1949 presso l’IBM. La composizione del suo Index Thomisticus è dunque parallela alla storia della rivoluzione digitale della seconda metà del secolo scorso.

Le digital humanities usano strumenti informatici per l’ecdotica e la filologia, linguaggi di mark-up per la rappresentazione dei testi in modo strutturato, formale e semantico e la loro connessione con metadati interpretativi e descrittivi, nonché con strumenti per la meta-informazione multimediale, e riflettono sui documenti digitali e sulle loro caratteristiche. Secondo padre Busa, l’informatica testuale si divide in una corrente documentaristica, che si occupa delle infrastrutture della comunicazione telematica, una editoriale, che si occupa della pubblicazione dei testi in entità discrete, e una ermeneutica, associata con l’analisi linguistica – e col suo personale progetto di un linguaggio disciplinato che consenta la traduzione automatica.

Tradizionalmente, la ricerca umanistica è un mondo irto di barriere disciplinari, popolato da studiosi individualisti. L’Italia, in particolare, dominata dal conservatorismo di una gerarchia gerontocratica, è priva di progetti istituzionali di digitalizzazione in grande stile – sul modello di Gallica e lascia questo compito a iniziative amatoriali, come LiberLiber o la stessa Wikipedia. Eppure, il potenziale di collaborazione intrinseco nel web può dare i suoi frutti anche nel nostro ambito: io stessa, senza essere una studiosa di Tommaso, ho potuto facilmente individuare come tale un importante riferimento tomistico in un testo di Kant, proprio grazie al lavoro iniziato da padre Busa. Ma si può fare molto di più: come afferma Gregory Crane, fondatore del Perseus Project, mentre l’invenzione della scrittura, amplificata da quella della stampa, ha reso possibile immagazzinare le idee fuori dai cervelli umani, le biblioteche digitali, con testi che non sono più letti e connessi solo da esseri umani, ma anche da macchine, hanno già cominciato a separare dai cervelli l’intelligenza e l’azione. I limiti di questo processo sono ormai soltanto culturali. Il mondo della stampa era un mondo di autori, che legittimavano se stessi in quanto individualmente creativi o singolarmente sapienti, quello che sta nascendo è un mondo di auctores, di promotori di imprese collettive il cui senso cresce e si costruisce fuori di loro.

Le biblioteche digitali possono essere dei meri depositi per raccogliere testi, o anche degli ambienti virtuali di ricerca, con strumenti, interazioni e nessi più complessi, dal Memex fino ai Linked data. Nel contesto italiano, una biblioteca digitale per la comunità umanistica può essere collaborativa, o, ancor meglio, può diventare un ambiente virtuale condiviso di collaborazione (collaboratory)? E questa biblioteca digitale collaborativa e condivisa può essere costruita su un wiki?

Per rispondere a queste domande, l’autore sceglie la via dalla ricerca qualitativa tramite interviste a studiosi di scienze umane, fra le quali quella ad Umberto Eco, resa interamente pubblica su Wikinews. Le tre questioni pongono all’ambiente accademico sfide di complessità crescente.

Al primo livello, la libera disponibilità dei testi è nell’interesse immediato di chi fa ricerca. Perfino Umberto Eco, come autore, si rende conto che la cosiddetta pirateria è pubblicità a sua vantaggio e, come utente, apprezza la comodità di Wikipedia – salvo rifiutarsi di correggerla quando si imbatte in errori: “Se poi l’errore è di un altro, non vedo perché dovrei perdere tempo a modificare. Non sono la Croce Rossa.

Eco, nella sua intervista, presupponendo che le tecniche di selezione e di valutazione dell’attendibilità dei testi siano necessariamente il patrimonio di una élite, sostiene che la ricchezza di informazione non filtrata dalla rete faccia bene ai ricchi – cioè alla minoranza degli studiosi – e faccia male ai poveri, cioè alla maggioranza composta da persone mediaticamente ingenue, incapaci di discernere l’informazione con la perizia del professore. Per questo l’azione di filtro da parte di comunità scientifiche ristrette e gerarchiche sarà sempre necessario. E sarà sempre necessaria, in luogo del sapere collettivo, l’individualità dell’autore: nelle scienze umane non esiste un progresso, nel quale le teorie inesatte vengono superate, ma da una parte non si butta via nulla e tutto viene riscoperto, dall’altra ciascuno ha pretesa di originalità e mal si adatta ad essere un mero “portatore d’acqua”.

Se le cose stessero per natura come le vede Umberto Eco, gli umanisti professionisti, nel pascolo tragico dei beni comuni della conoscenza, potrebbero tutt’al più fare i free rider che sfruttano parassitariamente il lavoro altrui. Altri intervistati, probabilmente meno famosi e influenti, la pensano però – come si riassume nel capitolo finale – in maniera diversa.

La cooperazione ha indubbiamente un forte potenziale di innovazione, in discipline altrimenti immobili. Un editing collettivo nello stile di Wikipedia, oltre ad abbassare i costi, favorisce un processo simile a quella neutralizzazione con la quale i filologi cercano di pervenire alla versione più attendibile del documento che studiano. Una voce di Wikipedia non è mai definitiva, ma è solo l’esito provvisorio di un comune work in progress, al di sotto del quale rimangono visibili le discussioni e le stratificazioni che hanno contribuito a crearla.

La stratificazione renderebbe anche possibile la convivenza di interpretazioni diverse, per esempio partendo dall’immagine del testo, sovrapponendovi la sua trascrizione con eventuali variazione, aggiungendovi all’esterno uno stand off mark up, dei link per rendere il testo concretamente intertestuale, e delle annotazioni collaborative e no, e lasciando alla fine uno spazio grande quanto la rete per la collaborazione sociale attorno ai testi. Il mondo della scrittura e del libro ci ha abituato a pensare all’umanista come uno studioso solitario; ma questa immagine potrebbe essere tanto mitica quanto quella dell’autore come individuo dotato di una creatività primigenia.

Perché questa virtualità diventi attuale, in modo tale che la digitalizzazione del nostro patrimonio culturale non rimanga prevalentemente nelle mani di dilettanti – sarebbe però necessario che ci fosse certezza sulla valutazione delle pubblicazioni digitali nei concorsi, e, soprattutto, che venisse creata, anche con pochi fondi – com’è reso possibile dal software libero – un’infrastruttura istituzionale per l’e-science.

Ma perché occorre attendere l’intervento – di questi tempi, improbabile – di immaginarie autorità lungimiranti? Uno degli intervistati di Zanni, con la sincerità dell’anonimato, ci aiuta a capirlo (pp. 99-100). L’accademico è dominato dalla paura di perdere il suo senso e il suo potere, ed è letteralmente terrorizzato dalla parola “collaborativo” – perfino quando la cooperazione renderebbe la ricerca più efficiente.

Una simile considerazione mi porta – avendo dedicato del tempo alla segnalazione e alla discussione del testo di un altro – a chiedermi perché questi studiosi così impauriti facciano ricerca. La cooperazione paritaria, per chi lavora per diffondere e far crescere delle idee, è uno strumento prezioso, che può apparire temibile solo se lo scopo implicito della ricerca si esaurisce nella conquista di fama e influenza individuale. Il disprezzo con il quale Umberto Eco distingue se stesso dalla Croce Rossa suggerisce – volendo insistere sulla metafora da lui scelta – che per molti di noi il dottor Guido Tersilli rimane ancora più degno di stima del medico che si impegna per salvare delle vite.

Tags:

Accessi: 532

image_print