Informatica Umanistica… Quinze ans après

Quindici anni fa si celebrava a Roma, presso l'Università La Sapienza, un convegno internazionale di Informatica Umanistica che avrebbe dato impulso a molti progetti importanti (fra cui la prima biblioteca digitale italiana di testi letterari). La ragione per la quale ripropongo questo pezzo vintage (for an English version see here) è la triste vicenda delle abilitazioni nazionali, dove la maggioranza dei candidati che praticano l'IU si sono visti negare l'abilitazione a professore associato o ordinario proprio in virtù di tali competenze. Venti (e in taluni casi trenta) anni di ricerche e risultati scientifici non hanno minimamente intaccato la percezione che l'informatica umanistica - anche nella più attraente veste di Digital Humanities - sia disciplinarmente orfana o peggio aliena, inclassificabile, non valutabile, "incongruente", ecc. Leggendo i due paragrafi del testo sotto e la lettera recentemente proposta dall'Associazione Italiana di Informatica Umanistica e Cultura Digitale, la sensazione di déjà vu è inquietante: non sembrano passati quindici anni ma quindici giorni. Purtroppo la risposta che potremmo dare oggi ad alcune domande che mi ponevo nell'articolo ("chi deciderà / influenzerà il modo in cui domani verrà digitalizzato il patrimonio testuale del nostro paese?") non è incoraggiante. La comunità italiana di IU, nonostante i molti sforzi e meriti, non è riuscita a creare una massa critica capace di creare un'immagine di sé, incidere all'interno dei settori disciplinari né tantomeno a rafforzarsi al suo interno. Questa debolezza, che ha molte cause esogene ed endogene, ha un significato socio-culturale profondo sul quale dovremmo urgentemente iniziare a riflettere.

Dal 3 al 5 novembre 1999 si è svolta presso l'Università di Roma "La Sapienza" la seconda edizione di "Computer, letteratura e filologia", un seminario internazionale dedicato al rapporto fra informatica e discipline umanistiche. Il seminario è stato organizzato dal Progetto Testi Italiani in Linea, attivo presso il Dipartimento di Studi Linguistici e Letterari della Facoltà di Lettere. Il primo appuntamento, svoltosi con successo in Scozia, era stato realizzato con il contributo del Dipartimento di Italiano dell'Università di Edimburgo e dell'Istituto Italiano di Cultura (che sta curando anche la pubblicazione degli atti).

Come l'anno scorso su Web sono disponibili tutti gli abstract del convegno, mentre Repubblica online ha dedicato all'evento un articolo che è rintracciabile all'indirizzo http://www.repubblica.it/online/cultura_scienze/classici/classici/classici.html.

Dagli interventi è emerso che la situazione dell'informatica umanistica in Italia è senz'altro vivace. È un momento importante, forse decisivo, per il riconoscimento dell'informatica umanistica come disciplina autonoma. In certe aree siamo più avanti di altri paesi europei e soprattutto esistono gruppi attivi nelle principali università. Faccio alcuni nomi, ma lista non è esaustiva: Bologna (Dino Buzzetti, Federico Pellizzi), Pisa (Mirko Tavoni, Antonio Zampolli), Roma (Giuseppe Gigliozzi, Tito Orlandi, Raul Mordenti, Fabio Ciotti), Trieste (Giulio Lughi), Torino (Mario Ricciardi, Maurizio Lana, Luca Toselli), Firenze (Luca Toschi, la Fondazione Franceschini, ecc.) Milano (Alberto Cadioli, Paolo Ferri, ecc.), L'Aquila (Pasquale Stoppelli), Viterbo (Gino Roncaglia).

C'è stato un momento in cui molti dei membri di questa variegata galassia si riunivano e parlavano di progetti comuni. Poi con Web e la multimedialità ogni gruppo è decollato seguendo direzioni proprie. Se queste forze si unissero, anche parzialmente e su obiettivi minimi, il nostro sarebbe uno dei paesi europei più avanzati in campo umanistico-tecnologico.

L'incontro di Roma voleva essere un tentativo in questa direzione: confrontarsi con le grandi istituzioni straniere e trovare punti di collaborazione all'interno dei gruppi italiani.

Il cuore "teorico" del convegno è stato il dibattito sulla codifica elettronica dei testi. La codifica è per molti un concetto astruso, roba per addetti ai lavori. In realtà questa pratica rappresenta un momento cruciale nella cultura del nostro tempo: il passaggio dal supporto cartaceo a quello elettronico. La codifica infatti è il processo attraverso un quale un testo conserva la "memoria" di ciò che fu: formattazione, capoversi, particolarità ortografiche, ecc. Si pensi per un momento all'enorme patrimonio bibliotecario e archivistico del nostro paese. Lo scenario è chiaro: su questo 'oscuro' concetto ci si gioca un pezzo di eredità culturale. E di conseguenza anche molti soldi: chi deciderà / influenzerà il modo in cui domani verrà digitalizzato il patrimonio testuale del nostro paese? Con quali strumenti verrà fatto? secondo quali criteri? Come si vede il convegno andava ben oltre il suo titolo.

Oggi, ogni biblioteca, archivio o centro di documentazione deve porsi il problema della "trasportabilita'" e della fedeltà attraverso il tempo delle informazioni. Per rendere disponibili (e naturalmente "interrogabili") enormi quantità di dati sono nati i linguaggi di marcatura (HTML è fra questi), speciali "segni diacritici" che assegnano una struttura o un aspetto specifico alla sequenza dei caratteri. Ma quali problemi interpretativi (teorici e pratici) implica la codifica elettronica di un testo?

Di questo ha parlato nella prima giornata Dino Buzzetti (Università di Bologna) e il dibattito è poi proseguito con Lou Burnard (Oxford University), uno dei fondatori del prestigioso Oxford Text Archive, che ha illustrato le possibilità offerte dal linguaggio di marcatura XML (Extensible Markup Language). Burnard ha anche introdotto la Text Encoding Initiative, il consorzio internazionale che si occupa di discutere e proporre standard di codifica dei testi utilizzando SGML (Standard Generalized Markup Language). Agli standard della TEI ha aderito (che io sappia per la prima volta in Italia) il Progetto Testi Italiani in Linea, presentato nella seconda giornata.

Nel pomeriggio Fernando Magan (Centro Ramon Piñeiro, Santiago de Compostela) ha parlato di un progetto di digitalizzazione di manoscritti della letteratura Galego-Portuguesa che fa uso di SGML ma non della TEI, mostrando come il cammino della standardizzazione sia ancora lungo e come ciascuna tradizione testuale presenti problemi distinti (e qualche volta ignorati da chi è lontano da certe aree culturali). La giornata d'altronde era stata aperta da Jon Usher, dell'Università di Edimburgo, che ha ricordato a tutti il primato dell'oggetto critico: "il testo in cerca di interpreti" (cfr. http://til.let.uniroma1.it/appuntamenti/usher.htm).

Gli altri interventi della giornata hanno spaziato dalla codifica delle Novelle Porrettane (Francesca Tomasi) al Decameron Web (Michael Hemment), uno dei primi ipertesti in rete dedicati all'insegnamento della lingua e della letteratura italiana. [...]

Nell'ultima giornata Allen Renear (Scholarly Technology Group, Brown University), Elisabeth Burr (Duisburg) e Tito Orlandi (CISADU, Roma I) hanno concluso parlando dei principi pratici e teorici che dovrebbero guidare la costruzione di un curriculum di informatica umanistica. Particolarmente interessante il contrasto fra il taglio dato da Renear e quello dato da Orlandi: il primo ha insistito sull'importanza del rapporto con il mercato e la società, il secondo sulla completezza e sull'affidabilità scientifica della preparazione dello studente. Per Renear siamo di fronte a un "punto di svolta" ed è dunque necessario ripensare l'intero impianto delle discipline umanistiche, mentre per Orlandi la questione è come rispettare (preservare?) le discipline esistenti, costituitesi attraverso secoli di affinamento teorico e metodologico. Si è riproposta insomma la sempre più frequente dicotomia USA-Europa in campo culturale: dinamismo (a volte frettoloso) da un lato, prudenza (a volte conservatrice) dall'altro.

Relazioni a parte, anche grazie al dibattito finale il convegno ha raggiunto un primo risultato politico: un gruppo di relatori italiani del seminario presenterà al CUN una richiesta per l'inserimento dell'informatica umanistica nei nuovi ordinamenti disciplinari.

La battaglia è appena iniziata, e richiederà l'impegno di tutti quelli che considerano questa materia non solo uno strumento per riscattare e difendere le competenze del laureato in materie umanistiche, ma anche la disciplina in grado di gestire i grandi cambiamenti imposti dalla società dell'informazione (digitalizzazione dell'eredità culturale, formazione a distanza, ecc.).

Un Commento su “Informatica Umanistica… Quinze ans après”

  1. Giorgio Guzzetta

    Leggendo questo articolo sull'(an)alfabetizzazione degli italiani, mi domando se non ci sia una correlazione con la “chiusura” del mondo accademico nei confronti dell’informatica umanistica di cui tu parli. In fondo l’alfabetizzazione oggi non può non passare dal digitale.