Si svolge in questi giorni all’Università La Sapienza l’annuale meeting della TEI (Text Encoding Initiative), il consorzio internazionale che dal 1994 si dedica allo sviluppo di linee guida per la digitalizzazione dei documenti della tradizione umanistica. La TEI ha avuto un’importanza e un’influenza indiscutibili sullo sviluppo delle Digital Humanities, nonostante i molti problemi, sia pratici sia teorici (nessun sistema è perfetto). In più sedi sono state espresse perplessità sull’efficacia di XML-TEI (e di XML in generale) di rappresentare la complessità dei testi stratificati e multiversione, ma le sono state mosse anche obiezioni più radicali, per esempio riguardo all’effettiva “interoperabilità”. In questo intervento però non mi soffermerò su questi temi: lo scopo invece è quello provocare una riflessione su alcuni concetti base della rappresentazione digitale e in particolare sul concetto di “modello”, assai caro alla scuola italiana di Informatica umanistica. Lo spunto mi viene dalla lettura di un saggio del sinologo e filosofo francese François Jullien, Pensare l’efficacia in Cina e Occidente (Laterza, 2005). Si tratta di una riflessione su alcune delle differenze più evidenti fra il pensiero occidentale e quello cinese. Uno dei punti chiavi è che secondo Jullien per i cinesi “l’efficacia è sempre il risultato di un processo”. Mi sono già altrove soffermato sul legame fra il pensiero sul processo e le tradizioni testuali fluide (vedi Canoni liquidi), ma vengo qui all’analisi del concetto di modello:
A mio parere, la modalità greca di concepire l’efficacia può essere così riassunta: per essere efficace, io costruisco una forma modello, ideale, di cui traccio un piano e che mi pongo come obiettivo; poi inizio ad agire in base al piano e in funzione dell’obiettivo. Si ha, quindi, prima la modellizzazione, la quale poi invoca la propria applicazione (p. 12, grassetti miei).
Come ci hanno insegnato i maestri dell’informatica umanistica (Orlandi, Gigliozzi, Buzzetti, ecc.), è proprio questo ciò che occorre fare prima di iniziare ancora di iniziare a codificare le caratteristiche un documento: modellizzarlo. Da qui passa uno dei momenti più fecondi dell’incontro fra la semiotica strutturalista e l’informatica. Come scriveva nel 1997 Giuseppe Gigliozzi, “quando leggiamo, quindi, ci sembra di interagire con i segni che troviamo sul foglio, mentre in realtà stiamo intessendo un rapporto con il modello del nostro testo che ci siamo saputi costruire”. Ma dal modello costruito o presupposto (uno dei tanti possibili), al modello applicato, il passo non è così breve.
Jullien identifica l’archetipo occidentale del concetto di modello nella Repubblica di Platone, in particolare lì dove il filosofo greco afferma che per essere un generale abile è necessario essere un buon geometra: “E la geometria, ovviamente, rappresenta la modellizzazione perfetta, il modello del modello” (p. 14). Dunque il codificatore-stratega traccia il solco, ma è il markup (XML) che lo difende… Che cosa accade in questo passaggio? Arriviamo all’esempio per me più importante di Jullien, quello che riguarda il contratto:
Personalmente ho avuto modo di verificare come in Cina la firma del contratto non arresti affatto l’evoluzione: il contratto resta in trasformazione. Dapprima gli venivano apportate modificazioni minime; oppure leggere contraddizioni si manifestavano all’interno stesso della situazione, che facevano apparire a poco a poco una fessura – poi una falla, poi una breccia, poi un fossato – fra i testo firmato e l’evoluzione delle cose. In breve si attuava una destabilizzazione che progressivamente comprometteva tutti i punti di riferimento, tanto da condurre i contraenti europei, appena un anno dopo, a non invocare più, per tutelarsi, il contratto firmato. Il processo delle cose, da solo, aveva gradualmente modificato i dati di partenza. (p. 68)
Il contratto, in occidente, è dunque sinonimo di patto la cui stabilità si fonda sulla “definitività” del testo scritto. Petrarca, notaio figlio e nipote di notai, persegue ossessivamente la perfezione formale e materiale del testo, costruendo l’idea e la pratica di edizione “definitiva”. L’attitudine autorial-notarile di Petrarca tende a escludere ogni forma di variazione a favore della stabilità-trasmissibilità del testo: per il notaio è necessario capire che cosa c’è sotto la cancellatura e questa non è mai alternativa, ma sostitutiva, giacché corrisponde alle volontà dei contraenti, che è legata alla cronologia. Come notava già Daniel Ferrer, “errors are failures to repeat” e a questa difettosità dell’atto di scrittura (la “falla” di Jullien) occorre in qualche modo ovviare, pena la corruzione del testo-proprietario. L’idea di “testo originale” si lega dunque a quella di “testo leggibile” e tale connessione è probabilmente all’origine dell’idea moderna (e vincente) di critica del testo come restauro di un manufatto univoco e dunque riproducibile. Uno sforzo ricostruttivo i cui metodi e strumenti finiscono però per oscurare l’essenza dinamica della scrittura come forma di vita.
Quale è il posto di XML-TEI in tutto ciò? Si potrebbe dire che le metodologie di codifica – e le conseguenti, enormi resistenze per modificarle – siano forme contrattuali? A mio parere sì. E le TEI guidelines (ma si potrebbe dire lo stesso di ben altre imprese, come UNICODE) sono colossali casi di contrattualizzazione delle forme (sempre variabili) del testo. Tale bulimia contrattuale è testimoniata da centinaia di pagine di regole, un’infinita e perenemmente imperfett(ibile) opera di modellizzazione della realtà testuale, che in quanto dinamica può essere modellizzata, come suggeriva Gigliozzi, solo dall’individuo “vivo” che legge. Al contratto occidentale sfugge dunque ciò che Jullien chiama “il potenziale performativo” della situazione reale:
L’immagine europea della via è legata all’idea di un compimento, sempre il telos; mentre il tao cinese non è una via che conduce a ma la via per la quale qualcosa passa, attraverso cui è ‘viabile’. E’ la via della regolazione, la via dell’armonia attraverso cui il processo, non deviando, si trova incessantemente ricondotto. (p 82)
In conclusione potremmo dire, parafrasando Oscar Wilde, che a model is a paradox that we have to live, but not necessarily to follow…
L’articolo è una geniale provocazione intellettuale, che mi trova pienamente d’accordo nella critica all’ossessione dello standard. Correggerei solo qualche dettaglio: Petrarca non era notaio e si preoccupava dell’edizione perfetta soprattutto delle proprie opere, come fa a buon diritto quasi ogni autore, e la concezione di modello in Platone (che farei coincidere con l’idea) non è (sol)tanto nella Repubblica ma in quasi tutte le opere, specie Menone, Fedone, Teeteto. Ma questo non cambia nulla sulla sostanza della proposta di Domenico, che ringrazio.
Grazie a te Francesco, per questo dialogo sulla testualità che continua fra pubblico e privato… Per quanto riguarda Petrarca avevo letto molti anni fa che dopo aver studiato diritto avesse assistito il padre nel suo ufficio, ma a parte il dato tecnico (non era notaio di professione) mi fido molto più di te che della mia memoria! Jullien cita La Repubblica perché lì si parla dello stratega (ed il suo libro si concentra molto su questo aspetto), ma ovviamente il concetto di modello è presente ovunque nell’opera di Platone. Tuttavia, sebbene qui non sia possibile approfondire il discorso, io credo che ciò che i moderni chiamano “modello” con il Platone del V secolo c’entri molto poco. Si tratta di una “applicazione” successiva del suo pensiero e ho l’impressione si tratti di ciò che gli etnografi mi pare chiamino “sguardo rovesciato”, una sorta di appropriazione culturale retroattiva (lo sguardo del presente che modifica il passato). Il che non vuol dire che Platone non abbia profondamente influenzato il pensiero occidentale, ma rimane da stabilire di “quale” Platone stiamo parlando. Nel mio precedente post avevo accennato al problema del rapporto fra standard, informatica e brevettabilità e Paolo Sordi privatamente mi aveva fatto osservare che gli standard vivono nella dialettica “aggregazione” vs “controllo”. E’ vero che gli standard sono necessari per aggregare, ma quando si parla di comunicazione “viva” (cioè di tutto il regno vegetale e animale, uomo incluso) la questione si fa più delicata, a meno di non considerare la cultura umana al pari delle prese elettriche, dei protocolli IP o dei binari dei treni.
Grazie Domenico per questo pezzo. Hai dato una voce anche alle mie di resistenze, per esempio, quando, tra le tante belle (e utili) immagini che evochi, menzioni la “contrattualizzazione delle forme (sempre variabili) del testo”. Una reificazione (o sarebbe meglio definirla idolatria?) che mi lascia sempre perplessa nei tentativi di creare quelli che forse erroneamente chiamo vocabolari (tassonomie?) per intrappolare il testo e il processo interpretativo, anziche’ tentare di modellarne la mobilità. I tuoi riferimenti a Platone quando cerchi la definizione di modello richiamano anche recenti letture sulla cartografia della ragione (Olsson).
Tuttavia vorrei anche qui difendere il forum della conferenza TEI 2013 perché, a mio avviso – con tutte le premesse del caso, incluse le mie resistenze a riconoscere in TEI IL modo di rappresentare il testo in assoluto e il mio ruolo ufficiale di programme chair – la conferenza romana ha appunto dato occasione ad una comunità molto piu’ eterogena di quanto si (io) creda di far emergere appunto i paradossi. Se allora TEI ci aiuta a far emergere ‘il potenziale permormativo’ della scrittura o della comunicazione più in generale, ben venga! Se TEI offre un luogo – reale a Roma, virtuale altrove – di creare modelli per sorpassarli, di investigare i limiti, sono contenta. A Roma ho visto anche questo e sono stata contenta perché ho visto più di quanto mi aspettavo.
Cara Arianna, grazie infinite per questo commento! Il problema, come sai, è complesso. Il tuo punto di vista è importante. Purtroppo la mia esperienza con gli standard e i loro difensori è stata negativa. Le cose probabilmente sono cambiate, e la TEI si sta evolvendo (o forse trascendendosi?), ma ci sono fortissime resistenze da chi non riesce a separare questi strumenti dalla propria storia identitaria (e diciamolo pure: dal potere che ne deriva). Poi ci sono altri problemi, come quelli della rappresentanza, non solo linguistica, ma direi più largamente culturale all’interno delle strutture decisionali. Infine, mi domando se le Guidelines sarebbero state le stesse se dentro (per es.) Transcription of Primary Sources vi fossero stati esempi provenienti dai testi basco-latino-spagnoli, dal Tamil o da lingue non alfabetiche. Si può codificare in TEI la scrittura Atzeca? (vedi questo articolo: http://testoesenso.it/article/view/4/11%5D). Avvicinandoci ad altre culture, anche del passato, ci rendiamo conto della fragilità (e insieme pericolosa universalità) dei nostri modelli epistemologici.
Per me tutto è sempre interconnesso: standard, rappresentazioni culturali, luoghi decisionali e qualità/quantità delle relative rappresentanze. Un livello è legato all’altro, e lavorando su un piano, si è automaticamente coinvolti – volenti o nolenti – anche nell’altro.
Proseguendo sull’analogia ‘metodologie di codifica = forme contrattuali’, e rispolverando la mia vecchia quanto inutile laurea in giurisprudenza, ricordo che ‘codice’ sta anche per complesso di norme giuridiche che regolano i comportamenti degli uomini e ne permettono la convivenza sociale e civile. Standard, in altre parole, cui ci ispiriamo per vivere e non solo per progettare prese elettriche, cd o binari. Standard che, come dici tu, Domenico, restano sempre e comunque indietro rispetto al dinamismo della cultura e delle rappresentazioni culturali, eppure sono necessari per offrire un modello (appunto) di interpretazione dell’esistente. E qui, forse, sta il punto: questa interpretazione sarà sempre parziale, soggetta agli equilibri di potere del tempo presente, del tempo in cui quelle norme sono state scritte, del dinamismo stesso dei rapporti di forza. Dice Bolaño che il Tutto non è possibile e la conoscenza è solo un modo per classificare frammenti: si tratta di capire quanti e quali frammenti siamo in grado di recuperare.
Caro Paolo, il problema è a che cosa si applica il concetto di contratto, perché una cosa è il “contratto sociale”, da cui deriva un codice che è comunque sottoposto alla mediazione dei soggetti, altro è il codice nel senso informatico. Permittimi di ricordare a tale proposito il concetto di lock-in evocato da Jaron Lanier in You are not a Gadget: “The fateful, unnerving aspect of information technology is that a particular design will occasionally happen to fill a niche and, once implemented, turn out to be unalterable. (…) Lock-in removes ideas that do not fit into the winning digital representation scheme… Lock-in, however, removes design options based on what is easiest to program, what is politically feasible, what is fashionable, or what is created by chance.” Lanier va anche oltre nel suo ultimo libro (Who Owns the Future?), scrivendo che “progress is never free of politics” e aggiungendo: “new technological syntheses that will solve the great challenges are less likely to come from garages than from collaboration by many people over giant computer networks. It is the politics and the economics of these networks that will determine how new capabilities translate into benefits for ordinary people.” (p. 17).
Caro Domenico, conosco bene (e penso tutto il male possibile di quelli che Lanier chiama) i ‘grandi aggregatori’, ne ho scritto anche qui. Ma pensi che il codice HTML, che ci permette, insieme a tante altre cose, di dialogare qui e ora, non sia stato e sia sottoposto alla mediazione dei soggetti che hanno contribuito e contribuiscono a elaborarlo, produrlo, svilupparlo, rovinarlo, migliorarlo, chiuderlo, aprirlo?
Molto interessante e stimolante il post, e anche i commenti. Ho partecipato agli ultimi due giorni della conferenza e devo dire che, al di là di un mood un po’ autocelebrativo, ci sono stati molti interventi interessanti e stimolanti, sopratutto, devo ammettere, quando si affrontavano situazioni border-line, che facevano vedere il bisogno, in qualche modo, di andare oltre i modelli proposti. In questo senso, anche se rimango convinto che la TEI sia stata un momento importante nella storia -che la precede e di cui è in parte il risultato- delle rappresentazioni di dati linguistici e culturali manipolabili dai computers, sono altrettanto convinto del fatto che proprio in quanto momento significativo di questa storia, essa vada in qualche modo contestualizzata, se non addirittura storicizzata, come un tentativo di rispondere a determinati problemi (anche tecnici e tecnologici) che si sono posti in un determinato momento e che forse sarebbe il caso di ripensare alla luce di cambiamenti abbastanza radicali a livello di possibilità tecniche. Per usare un termine comparso nel post e nei commenti, forse oggi si può negoziare un contratto diverso tra esigenze uman(istich)e e macchine.
Parlando del rapporto tra strutturalismo e informatica, mi è venuta in mente una frase di Derrida frase che avevo sottolineato tempo fa leggendo Writing and Difference, che diceva più o meno “Form fascinates when one no longer has the force to understand force from within itself. That is to create.” Un autore come Derrida, per quanto complesso, potrebbe essere un utile antidoto all’eccesso – o quantomeno al rischio di – di strutturalismo, che mi sembra un po’ il peccato originale dell’informatica umanistica, per così dire.
Avrei ancora molto altro da dire, ma mi fermo qui per il momento (in realtà quando avevo cominciato a scrivere avevo in mente un “modello” di quello che volevo dire completamente diverso, ma poi il “processo” dello scrivere – o magari la vita? – mi ha un po’ preso la mano…)