Bollettino telematico di filosofia politica

Online Journal of Political Philosophy

Home > Che cos'è il social software? Architettura delle reti e politiche del nuovo discorso scientifico

7. Una pratica di comunicazione scientifica: dalle RFC all'open access

«Un elemento chiave della crescita di Internet è stato l'accesso libero e aperto alla documentazione di base, e in special modo alle specifiche dei protocolli». Ad affermarlo sono gli stessi inventori di Internet nella già citata «A Brief History of the Internet», in cui un paragrafo è dedicato in particolare al ruolo della documentazione nel suo sviluppo e nella diffusione della rete.

I giovani laureati che collaborano alla creazione di ARPANET e dei protocolli TCP/IP sono mossi dai medesimi princìpi che animavano il dibattito sulla repubblica delle lettere sin dal suo nascere, un dibattito di cui adottano metodi e concetti: se infatti il concetto di humanitas per gli umanisti era strettamente legato alla comunicazione, intesa come un atto di generosità verso gli altri che non si realizza in mera erudizione, comunicazione e comunicare sono termini che venivano usati per indicare il dovere di trasmettere il sapere ai posteri; non dunque un atto di liberalità, ma di giustizia. Trasmettere le proprie conoscenze costituiva il punto di arrivo e l'anima stessa del lavoro intellettuale: non solo un ideale, ma una condizione indispensabile allo svolgimento dell'attività di ricerca. Non erano dunque tanto l'amore per la ricerca quanto la volontà e la capacità di comunicare il sapere a definire il dotto degno di questo nome. Il dibattito scientifico pubblico si configurava come una rete che subiva una progressiva espansione e che, attraverso continue citazioni reciproche (espresse sulle riviste nella forma di recensioni, note, riassunti, bibliografie e indici, discussioni, lettere aperte) costruiva un discorso comune 80 . Gli scienziati americani prendono tuttavia le distanze dagli strumenti consueti della comunicazione scientifica, ritenendo «il ciclo normale della pubblicazione accademica tradizionale [...] troppo formalizzato e troppo lento per lo scambio dinamico di idee essenziali a creare reti» 81 , e si dotano di nuovi mezzi di comunicazione e pubblicazione, in primis le Request for Comments (RFC), formalizzando così nuove procedure per la costruzione di consenso.

L'invenzione della posta elettronica (e-mail) nel 1972 è in questo quadro essenziale. L'e-mail si configura dal principio come una “killer application”, un'applicazione decisiva per la diffusione di Internet che è, ancora oggi, il servizio più usato in rete. La nascita delle e-mail è molto importante anche per la definizione del concetto di authorship, letteralmente “paternità intellettuale”, concetto che in un primo momento resta indeterminato a vantaggio di una scrittura collettiva e in cui l'autore assume un'importanza marginale e secondaria. La diffusione di mailing list, liste di discussione, integra lo strumento delle RFC sistematizzando le procedure decisionali all'interno dei gruppi di lavoro. 82

Pensata come strumento per condividere l'informazione, Internet ha così trasformato il principio della libera collaborazione tra scienziati in una pratica di ricerca e di lavoro, arricchendosi nel tempo di sempre nuovi strumenti. Un principio che è stato teorizzato e formalizzato grazie alla sinergia col movimento per il software libero (free software) nelle sue diverse varianti 83 . È Richard Stallman, sistemista al laboratorio di intelligenza artificiale del MIT negli anni '70, il primo a farsi portatore della filosofia che guida il movimento a partire dai primi anni '80 quando, alle prese con una stampante donata dalla Xerox al prestigioso laboratorio statunitense, si scontra con l'impossibilità di modificare il codice sorgente del dispositivo a causa dell'imposizione del copyright sul software da parte della casa di produzione. Un evento scatenante che porterà il fisico a lasciare il MIT, prefiggendosi l'obbiettivo di difendere la libertà del software e di creare, a tal fine, un sistema operativo 84 aperto compatibile con Unix 85 , intenzione che comunica al mondo nel 1983 attraverso ARPANET. «La sua convinzione sulla non utilità e, anzi, sulla dannosità di non diffondere il codice di controllo della macchina, basata su premesse insieme etiche e funzionali, trovava una continua conferma nei molti problemi quotidiani connessi all'utilizzo di computer e altra strumentazione elettronica.» 86

La definizione di software libero si fonda sull'importante distinzione tra codice sorgente, il programma che viene scritto dai programmatori in un linguaggio formalizzato simile al linguaggio naturale, e codice eseguibile, scritto in linguaggio macchina (fatto di zero e uno), molto difficile da scrivere e pressoché impossibile da leggere per gli umani 87 . Il codice sorgente viene convertito (in termini tecnici «compilato») in codice eseguibile tramite appositi programmi. Un passaggio che consente al programma di funzionare, ma che comporta la perdita di informazioni essenziali al fine di comprenderlo e modificarlo. Pertanto, l'espressione «software libero» implica le libertà di eseguire, copiare, distribuire, studiare, cambiare e migliorare il software.

Più precisamente, esso si riferisce a quattro tipi di libertà per gli utenti del software:

1. Libertà di eseguire il programma, per qualsiasi scopo (libertà 0).

2. Libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1). L'accesso al codice sorgente ne è un prerequisito.

3. Libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2).

4. Libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti (e le versioni modificate in genere), in modo tale che tutta la comunità ne tragga beneficio (libertà 3). L'accesso al codice sorgente ne è un prerequisito.

Un programma è software libero se l'utente ha tutte queste libertà 88 .

L'aggettivo free si riferisce dunque alla libertà e non al prezzo. Nulla vieta infatti che il software libero possa essere venduto (Stallman stesso chiarisce questo aspetto, sottolineando che il termine è utilizzato come nell'espressione “free speech” e non, invece, nell'accezione di “free beer”). Essenziale a questo proposito è il concetto di copyleft, letteralmente diritto di copia, un gioco di parole che sfrutta la contrapposizione tra “right” e “left”, destra e sinistra, e che si traduce praticamente nell'adozione di licenze libere, licenze tramite le quali l'autore cede parte dei suoi diritti (economici) sull'opera stabilendo le condizioni alle quali può questa essere utilizzata 89 .

Ma è la convergenza tra il movimento «free software» e il progetto Linux dell'hacker finlandese Linus Torvalds a dare ampia diffusione alla filosofia pratica del movimento. Gran parte dell’infrastruttura del web (tra cui, oltre al codice di Linux, è opportuno ricordare Apache, MySQL, Perl, PHP, Python) si fonda sul metodo che trova spazio a partire dalla creazione di Internet e che si diffonde in modo virale tramite la rete.

In tale contesto, «l'etica rappresenta il collante e stabilisce lo standard di un comportamento accettato da chi sente di far parte di questo gruppo in cui la capacità, la conoscenza, l'interesse per il calcolatore sono gli elementi primari della comunicazione e la ragione dello stare insieme, e sono alla base di una organizzazione non gerarchica ma reticolare, basato sullo scambio e sull'interazione» 90 . Si diffonde cioè quella che Pekka Himanen definisce «etica hacker», un atteggiamento di cui il mondo accademico può essere considerato il predecessore più antico 91 . E' questo infatti uno dei tratti essenziali della metodologia e della pratica di ricerca che caratterizza lo sviluppo delle reti telematiche, un fenomeno che Pierre Lévy definisce come “intelligenza collettiva”, intelligenza distribuita e connessa in rete che valorizza le competenze individuali attraverso uno spirito collaborativo 92 .

Nonostante l'evidente assonanza di tutti questi princìpi con la pratica della comunicazione scientifica tradizionale, fatta eccezione per i casi sopra descritti il mondo dell'accademia ha tardato a fare propri gli strumenti di comunicazione e, soprattutto, di pubblicazione che Internet e il Web hanno reso disponibili e accessibili. È solo tra il 2002 e il 2003, infatti, che, sulla scia di alcune significative esperienze pilota 93 , in ambito accademico si è cominciato a parlare di letteratura scientifica open access, vale a dire letteratura «digitale, online, gratuita e libera da alcune restrizioni dettate dalle licenze per i diritti di sfruttamento commerciale». Condizioni rese possibili «grazie a Internet e al consenso dell'autore o del titolare dei diritti d'autore» 94 .

Il movimento per l'accesso aperto alla letteratura scientifica nasce nella comunità accademica avviando una campagna in favore della condivisione dell’informazione e della conoscenza, intese come beni comuni 95 , e come soluzione al problema che affligge il mondo delle biblioteche e noto come «crisi del prezzo dei periodici», vale a dire l'aumento vertiginoso del costo degli abbonamenti alle riviste scientifiche 96 . Su tale base, l'open access diviene al centro di un ampio dibattito tra ricercatori, bibliotecari, amministratori di università e centri di ricerca, agenzie di finanziamento, editori e studenti.

In pratica, il movimento per l'accesso aperto si dota di due canali:

1. Gli archivi elettronici aperti, che non richiedono che i risultati depositati siano stati preventivamente sottoposti a peer review e che possono essere istituzionali (come quelli di università e centri di ricerca), o disciplinari.

2. le riviste ad accesso aperto, che non sono diverse dalla riviste tradizionali se non in quanto rendono i loro articoli selezionati liberamente disponibili al mondo. «I loro costi consistono nella gestione dei processi editoriali, dal referaggio alla manipolazione dei manoscritti, allo spazio sul server. Le riviste ad accesso aperto coprono i propri costi in un modo molto simile alle radio e alle televisioni: coloro che hanno interesse alla disseminazione dei contenuti pagano anticipatamente i costi di produzione in modo che l'accesso alla lettura sia libero» 97 .

Grazie alla diffusione di questi strumenti, una sempre maggiore quantità di dati diviene liberamente disponibile sul Web.

Ma è la filosofia politica alla base del movimento a essere particolarmente interessante ai fini di questo discorso. Scrivono infatti i promotori della Dichiarazione di Berlino 98 :

La nostra missione di disseminazione della conoscenza è incompleta se l’informazione non è resa largamente e prontamente disponibile alla società. Occorre sostenere nuove possibilità di disseminazione della conoscenza, non solo attraverso le modalità tradizionali ma anche e sempre più attraverso il paradigma dell’accesso aperto via Internet. [...]

Per mettere in pratica la visione di un’istanza globale ed accessibile del sapere, il Web del futuro dovrà essere sostenibile, interattivo e trasparente. I contenuti ed i mezzi di fruizione (tools) dovranno essere compatibili e ad accesso aperto.

Il collegamento tra tali affermazioni, la filosofia del movimento per il software libero e le premesse che hanno portato all'invenzione di Internet e del Web, che i sostenitori dell'accesso aperto estendono ai contenuti scientifici, in particolare accademici, è evidente.



[80]  Su questo mi permetto di rimandare a F. Di Donato, Quale futuro per la repubblica scientifica? Kant e il dibattito illuminista su scienza, università e politica, di prossima pubblicazione presso FUP, Firenze (si veda in particolare il cap. 1).

[81] M. Castells, Galassia Internet, cit.  

[82]  Si osservi ad esempio che la Internet Engeneering Task Force ha 75 gruppi di lavoro, ciascuno dei quali lavora su un aspetto della progettazione e implementazione di Internet. I gruppi fanno uso di mailing list per discutere e poi, una volta che sia stato raggiunto consenso su un documento, questo viene distribuito come RFC.

[83]  Un'espressione alternativa a “Free software” è “Open source software”, con la quale si intende software il cui codice sorgente è aperto, ma rilasciato con licenze meno restrittive dalla licenza GNU/General Public License (GPL), promossa dalla Free Software Foundation. Si vedano i termini della licenza GNU/GPL all'URL: < http://it.wikipedia.org/wiki/GNU_GPL>. Si veda inoltre la seguente definizione di Open Source Software: <http://it.wikipedia.org/wiki/Open_source>.

[84]  Il sistema operativo è «un insieme di programmi che consentono la gestione razionale delle risorse del calcolatore, dalle unità di ingresso-uscita (tastiera, video, stampante) alla memoria centrale (quella che oggi viene chiamata RAM) e periferica (tipicamente, l'hard disk). Il sistema operativo è la parte centrale del software di base, ossia di quell'insieme di quei moduli software che sono generalmente venduti insieme all'hardware [...]». M. Berra, A.R. Meo, Informatica solidale, Bollati Boringhieri Torino 2001, p. 84. Per una definizione tecnica, si veda la voce Sistema operativo di Wikipedia:  <http://it.wikipedia.org/wiki/Sistema_operativo>.

[85] Il nome del sistema operativo di Stallmann, «GNU», è l'acronimo ricorsivo di «GNU is not Unix».

[86]  M. Berra, A.R. Meo, Informatica solidale, cit., p. 83. Per una ricostruzione della storia del movimento GNU – free software, si vedano in particolare le pp. 82-97. Nel 1985 Stallman fonda la Free Software Foundation, un'organizzazione nata allo scopo di convogliare le forze (lavoro e denaro) per lo sviluppo e la diffusione di programmi aperti.

[87] «I calcolatori della prima generazione dovevano essere programmati in linguaggio macchina, ossia in questo complicato linguaggio fatto di lunghissime sequenze di simboli 1 e 0. […] La programmazione in linguaggio macchina era operazione molto lunga e complessa, perché richiedeva la conoscenza minuta dell'architettura del calcolatore, dei codici di tutte le istruzioni e il controllo mentale delle molte celle della memoria centrale. Per questo furono presto ideati linguaggi simbolici e sviluppati opportuni programmi “traduttori”, capaci di tradurre il codice simbolico scritto dal programmatore in un programma in linguaggio macchina che facesse le stesse cose». M. Berra, A.R. Meo, Informatica solidale, cit., p. 74.

[89]  La Free Software Foundation di Stallmann crea la General Public License (cfr. nota 90). Le licenze copyleft più diffuse sono le licenze Creative Commons, promosse dal giurista americano Lawrence Lessig. Per le premesse teoriche del progetto di Lessig, si vedano: L. Lessig, Code and other laws of cyberspace, cit; L. Lessig, Il futuro delle idee, Feltrinelli, 2006; L. Lessig, Cultura libera, cit.

[90]  M. Berra, A.R. Meo, Informatica solidale, cit., p. 94.

[91] P. Himanen, L'etica hacker e lo spirito dell'età dell'informazione, Feltrinelli, Milano 2001, p. 17.

[92] P. Levy, Intelligenza collettiva. Per un'antropologia del cyberspazio, Feltrinelli, Milano 1999.

[93]  Si veda in particolare l'esperienza di ArXiv, l'archivio di pre-print di fisica, matematica, informatica e biologia creato da Paul Ginsparg a Los Alamos nel 1991 e poi spostato alla Cornell University. Cfr. <http://it.wikipedia.org/wiki/ArXiv>. Oggi ArXiv contiene circa cinquecentomila articoli.

[94]  P. Suber, «Breve introduzione all'accesso aperto», 2004, on-line all'URL <http://www.aepic.it/docs/OA/brief-italian.htm>.

[95]  Si veda C. Hess, E. Ostrom (a cura di), La conoscenza come bene comune. Dalla teoria alla pratica, Mondadori, Milano 2009.

[96] Si veda J.-C. Guédon, Per la pubblicità del sapere. I bibliotecari, i ricercatori, gli editori e il controllo dell'editoria scientifica, PLUS Méthexis, Pisa, 2004, anche online all'URL: <http://bfp.sp.unipi.it/ebooks/guedon.html>.

[97]   P. Suber, «Breve introduzione all'accesso aperto», cit.

[98] Nel 2009, la Dichiarazione di Berlino è stata sottoscritta da oltre duecentosessanta istituzioni di ricerca (per un elenco completo dei firmatari, si veda <http://oa.mpg.de/openaccess-berlin/signatories.html>).


Creative Commons License
This work is licensed under a Creative Commons License