Capitolo secondo

La valutazione degli effetti dell’ipertestualità .

 

1. Il tema degli effetti.

Tra i temi sviluppati ai livelli più estensivi del dibattito sull’ipertesto si colloca il nodo concettuale che catalizza le riflessioni sugli effetti dell’evoluzione delle tecnologie di scrittura e le riconfigura entro le nuove coordinate concettuali imposte dall’ipertestualità elettronica.

Gli effetti dell’ipertestualità possono essere messi a fuoco isolandoli, di volta in volta, rispetto alle prospettive di indagine adottate e distinguendoli in effetti extratestuali ed effetti prettamente testuali.

Gli studiosi di storia della scrittura adottano una focale grandangolare che mette a fuoco l’impatto dell’ipertesto sulla cultura del libro nel suo complesso. Gli studiosi di psicologia cognitiva si concentrano nella valutazione degli effetti sul sistema percettivo mentre gli effetti sociali sono presi in considerazione dalle scienze della comunicazione.

Agli effetti intratestuali e intertestuali, interni all’universo della testualità, si rivolgono, infine, gli sguardi della teoria della letteratura  e della semiotica.

Si tratta, comunque, di effetti strettamente intrecciati e difficilmente isolabili ma che, proprio per questo, danno spunto nelle riflessioni degli studiosi a feconde convergenze, trasversali alle diverse discipline, su temi che finiscono con l’essere terreno comune delle rispettive pertinenze.

 

2. Gli effetti sulla cultura del libro

In una serie di studi che si diramano dai lavori di J. David Bolter, Alvin Kernan, Roger Chartier ed Elizabeth Eisenstein, per la prima volta, il libro perde il suo carattere di naturalità per assumere l’aspetto di una tecnologia della scrittura che, come tutte le altre, stabilisce e delimita un proprio spazio. Ogni diverso spazio alimenta diverse modalità cognitive, diverse pratiche di lettura,  diversi stili  di scrittura, nonché diversi generi letterari e diverse teorie della letteratura. In quest’ottica per Landow, «una delle principali conseguenze dell’apparizione del testo digitale consiste nel fatto che, per la prima volta nella storia, siamo capaci di renderci conto di quanto siamo abituati alle proprietà e agli effetti culturali del libro, al punto da attribuirli inconsciamente anche ai prodotti delle culture orali o del manoscritto. In questo modo si tendono a dare per scontati sia il testo a stampa, sia la cultura che si basa su di esso. Si è “naturalizzato” il libro come se le abitudini mentali e comportamentali del lavoro a esso associato fossero sempre esistite. Eisenstein, McLuhan, Kernan, e altri studiosi delle conseguenze culturali della tecnologia tipografica hanno mostrato in che modo il libro a stampa ha plasmato la nostra storia intellettuale»[1].

Lungo queste linee concettuali lo spazio della scrittura e lettura, in quella che soprattutto i teorici statunitensi definiscono “la tarda età della stampa”, starebbe per trasformarsi nello schermo di un computer e nella memoria elettronica in cui il testo è immagazzinato, e l’ipertesto si avvierebbe a divenire la nuova tecnologia caratterizzante di tale età con una rivoluzione paragonabile a quella di Gutemberg in termini di ridefinizione delle modalità di produzione e trasmissione del sapere.         

Anche se queste linee di riflessione hanno avuto un impatto notevole, però, non tutti gli specialisti sono disposti a riconoscere il ruolo delle tecnologie dell’informazione sullo sviluppo della cultura. I teorici marxisti, ad esempio, operano una marginalizzazione di tutto ciò che è tecnologia, anche se gli studi di Eisenstein, McArthur, Chartier, Kernan e degli altri storici della scrittura mettono a fuoco spesso proprio i fattori di classe e di organizzazione sociale della produzione, per cui, di fatto, secondo Landow, «offrono molto materiale che potrebbe confermare le analisi marxiste». I critici marxisti affermano che il pensiero deriva dalle forze e dai modi di produzione, però, solo in pochi, ritiene, affrontano direttamente «la più importante modalità di produzione letteraria: quella che dipende dalla techne della scrittura e della stampa»[2]. Questo atteggiamento appare a Landow come un «rifiuto di un potente strumento analitico a portata di mano», tanto inspiegabile da portarlo a ritenere che la marginalizzazione della tecnologia non sia strettamente connessa con il pensiero marxista in sé, ma più che altro «derivi da una tecnofobia umanistica ampiamente diffusa». La polemica è girata, quindi, contro quegli studiosi della letteratura che reputano che «prima della rivoluzione digitale la nostra cultura si trovasse in una specie di condizione pastorale e non-tecnologica» quando invece la tecnologia digitale è solo la più recente tra quelle venute a plasmare tutte le culture sin dall’inizio della storia umana. Landow ironizza, sul sedicente atteggiamento luddista di tali studiosi della letteratura, ritenendo che, comunque, «come gruppo, dipendono interamente dalla tecnologia della scrittura e della stampa», e lo liquida affermando che «questo travestimento conferisce un alone di romanticismo alla resistenza degli umanisti, e al contempo presenta le loro inquietudini in modo grottescamente inadeguato». Affermare la neutralità della tecnologia sulla cultura, conclude, significa rifiutare di vedere le condizioni effettive del proprio lavoro per attuare, nei fatti, una strategia della negazione che trasforma la tecnologia in una sorta di tabù, e preclude la comprensione, e ogni eventuale previsione, sulla transizione alla cultura digitalizzata.

Tali posizioni di chiusura sono oggi minoritarie, mentre diffuso è il riconoscimento della non neutralità delle tecnologie della scrittura. Ciò che articola il dibattito sul tema è, semmai, l’assolutizzazione della transizione al digitale come rottura con la tradizione culturale o la sua relativizzazione all’interno dei più lenti e graduali mutamenti che la tradizione culturale subisce nel lungo periodo.

Landow, con la scuola americana, propende per l’effetto rivoluzionario delle nuove tecnologie, mentre gli studiosi italiani si attestano su posizioni gradualistiche e assumono talvolta un atteggiamento, che Carlini definisce continuista, di interpretazione del nuovo come prolungamento del passato. Si tratta di un atteggiamento che, afferma Carlini, «valorizza le nuove tecnologie, ma, come è giusto, non butta nulla dei saperi, delle culture e dei media precedenti» e che ha l’aspetto positivo di costituire un richiamo alla memoria, contro l’ingenuità di credere «che tutto il nuovo sia nuovo, inventato sul momento, quasi dal nulla». Continuità diventa una tranquillizzante parola che «dice che c’era un “prima” e che c’è un “dopo” e che la curva – quella del progresso naturalmente – transita morbida tra i due tempi, senza impennate né bruschi cambiamenti di pendenza». Il continuismo appare ragionevole soprattutto per l’evoluzione dei mezzi di comunicazione, laddove ogni nuovo linguaggio e apparato tecnico trascina con sé qualcosa dei precedenti, senza mai cancellarli totalmente. L’esaltazione della continuità ha però in sé, secondo Carlini, un rischio di conservatorismo, in quanto la negazione delle rivoluzioni può finire per bloccare anche quegli scossoni che sarebbero «auspicabili e salutari»[3].

La maggior parte degli autori, in effetti, prende atto dello scossone provocato dalla transizione al digitale, ma, nel contempo, avverte l’esigenza di collocarne gli esiti all’interno della propria tradizione culturale.

Anche Villamira, che, con Pandolfi e Vannini, si colloca tra gli studiosi italiani che scelgono la prospettiva pragmatica della psicologia cognitiva, crede che «innovare sia un’arte difficile, i cui ingredienti sono costituiti da una profonda conoscenza delle tradizioni, dei valori e delle vecchie tecnologie»[4].

Cadioli apre il suo lavoro evocando l’immagine di tastiera e monitor poggiati sul tradizionale scrittoio che gli suggerisce, metaforicamente una riflessione più sottile: «lo scrittoio informatico sostenuto dallo scrittoio tradizionale può indicare la necessità, per il critico che utilizza l’informatica, di poggiare i fondamenti del proprio lavoro sulla civiltà e sulla cultura che provengono dal passato». In quest’ottica «anche l’introduzione della metafora della navigazione, a proposito della lettura (e della critica) in ambiente digitale rappresenta uno sviluppo di una metafora ricorrente fin dall’antichità per ciò che riguarda il mondo della scrittura e della lettura: ciò che, si potrebbe dire, testimonia di quanto i nuovi contesti siano dentro una diffusa tradizione culturale»[5].

Gasparini concorda con gli autori che «sostengono che, poiché il modo di conoscere degli uomini è creato dalla storia, esso si è formato attraverso le pratiche che sono state messe in atto per conoscere. Quindi non si può fare totalmente a meno di forme di comunicazione riconoscibili legate al modo in cui si svolge prevalentemente la comunicazione sociale, ovvero libri sequenziali, tavole sinottiche ed enciclopedie». La peculiarità dei sistemi ipertestuali, allora, sarebbe quella di integrare tutti modi attuali di conoscenza, piuttosto che quella di costituirne dei nuovi. Il che non è certo un elemento da poco dal momento che, comunque, risulterebbe inevitabilmente modificato il modo di apprendere e di fare cultura, come è avvenuto per la stampa, partita come sistema per produrre libri più in fretta. Semplicemente, si tratterebbe di trasformazioni del sistema percettivo che, per quanto prevedibili, si manifestano nel lungo periodo, mentre nell’immediato, analogamente a quanto è avvenuto con la stampa, le nuove tecnologie possono non apparire sufficientemente differenti da quelle precedenti, o apparirlo troppo[6].

I primi tipografi cercavano di riprodurre fedelmente i manoscritti per andare incontro al gusto diffuso, ma anche con funzione rassicurante nei confronti di chi poteva, in questo modo, illudersi che nulla fosse cambiato, che la nuova tecnica fosse solo un miglioramento per produrre, meglio di prima le stesse cose di prima[7]. Il libro, però, alla distanza, ha sostituito il manoscritto e ha comportato, in termini di diffusione e di contenuti, qualcosa di molto diverso dal manoscritto.

Bolter apre il capitolo sulla scrittura nella tarda maturità della stampa con la citazione del celebre passo di Notre-Dame de Paris di Victor Hugo in cui l’arcidiacono Frollo, guardando prima la cattedrale dalla finestra della sua cella e posando poi la mano sul libro stampato aperto sul tavolo, pronuncia la frase «Ceci tuera cela», profetizzando la fine di quella sorta di scrittura di pietra che era stata la rappresentazione per simboli del pensiero umano nelle forme dell’architettura e dell’arte.

Il commento di Bolter è che «in realtà, il libro a stampa non abbattè l'enciclopedia di pietra né cancellò completamente l'antica arte degli amanuensi. Semmai, quello che accadde fu che la stampa rese marginale la scrittura a mano, nel senso che il libro stampato diventò la forma di testo più comune è importante». Allo stesso modo, Bolter constata che oggi «anche se l'informazione cartacea resta indispensabile, non appare più tale» e ammette che «spostando lo sguardo dalla tastiera che abbiamo davanti ai libri allineati sugli scaffali, siamo tentati di chiederci se “questa non distruggerà quelli”. Non c'è, per ora, la risposta definitiva; ma è tipico della tarda maturità della stampa che ci si debba porre questa domanda»[8].

Bolter prende atto dell’ambivalenza della nostra cultura nella tarda maturità della stampa rispecchiata dalla contraddittorietà delle previsioni sul futuro del libro e delle forme a stampa in genere:

«anche se è molto difficile rinunciare qualunque pronostico (cosa che equivarrebbe, di fatto, alla proscrizione dei verbi al futuro), dovrebbe essere almeno possibile resistere alla tentazione di ricavare dalle singole previsioni un quadro che pretende di rappresentare l'unico, vero futuro. Semmai, i pronostici degli entusiasti e degli scettici andrebbero considerati aspetti importanti di quell’ambiguo presente che è la tarda maturità della stampa. Le attese degli uni e degli altri rispecchiano la lotta delle fazioni culturali impegnate a chiarire rapporti della tecnologia digitale con le tecnologie dell'informazione che l'hanno preceduta. Niente ci costringe predire la scomparsa del libro tradizionale tra dieci, venti o cinquanta anni, ma niente c'impedisce di tentare di comprendere l'attuale rapporto tra la stampa i media digitali»[9].

Nella seconda edizione de Lo spazio dello scrivere, Bolter sottolinea la sua presa di distanza dal determinismo tecnologico, di cui era stata oggetto di critiche la prima edizione, e precisa che «le tecniche di scrittura non agiscono sulla cultura come forze esterne, ma rientrano pienamente nella dinamica culturale. Le tecniche di scrittura influenzano le forze sociali e culturali è a loro volta ne subiscono l'influsso»[10].

Bolter torna più volte sul determinismo tecnologico:

«Il punto è che la scrittura non va concepita come un fattore tecnico che influenza trasforma la prassi culturale dall'esterno; essa è sempre una parte integrante della cultura. Probabilmente è meglio impostare il problema in questo modo: la tecnologia non determina la direzione in cui si muovono cultura e società, perché non è un agente esterno rispetto ad essi. Nondimeno, la retorica del determinismo tecnologico è tuttora molto diffusa. Gli scrittori popolari sembrano spesso suggerire che le tecnologie, in particolare quelle legate all'informazione digitale, abbiano appunto quest'effetto. Si afferma che il World Wide Web, la realtà del virtuale o il computer rivoluzioneranno la società, l'economia e perfino il modo di pensare. Anche autori più solidi, come McLuhan e Ong possono a volte sembrare deterministi tecnologici»[11].

La maggior parte degli studiosi che si muovono lungo la linea continuista ritengono che i nuovi media non sostituiranno completamente i vecchi ma convivranno con essi, in un regime di connivenza se non di contaminazione delle diverse forme testuali.

Per Eugeni «la connivenza di più forme testuali porterà sempre di più – lo stiamo vedendo – ad una presa di coscienza dello specifico di ciascuna di esse, e, quindi, ad un utilizzo al meglio da un punto di vista di sfruttamento degli aspetti specifici»[12].

Cadioli sottoscrive l’affermazione di Eco che «i libri rimarranno indispensabili non solo per la letteratura, ma per ogni circostanza nella quale si deve leggere attentamente, non solo per ricevere informazioni ma anche per riflettere e meditare su di esse», e, all’obiezione che nasceranno nuove forme letterarie ipertestuali, replica che «la loro lettura – tutta dentro la cultura digitale – si affiancherà (non sostituendola) a quella indicata da Eco, sicuramente necessaria per i testi scritti prima dell’avvento dell’elettronica»[13].

Eco, in effetti, distingue due tipi di libri: quelli da consultare e quelli da leggere e afferma che «i primi, probabilmente, scompariranno poiché sarà più comodo tenerli su disco. Gli altri rimarranno, perché la lettura è un’attività di tipo diverso ed è più facile leggere un tascabile che lo schermo del computer. Consultazione e lettura sono due cose completamente differenti, l’una non esclude l’altra»[14].

Si potrebbe obiettare che la distinzione tra testi da consultare e da leggere con attenzione non risolve il problema della concorrenza tra testi elettronici e libri a stampa di fronte ai modernissimi e-book[15]. Gli e-book, infatti, sono supportati da appositi device che migliorano la leggibilità del testo elettronico e consentono la tutela dei diritti di autore ed editore. A ciò si aggiungano una serie di caratteristiche che farebbero apparire il nuovo libro elettronico – come fanno notare gli studenti  di un gruppo di studio del corso di laurea di laurea in Scienza della comunicazione dell’Università di Bologna in una tesina sull’argomento – «come  una forma di mediazione tra la forma del libro stampato e quella del documento elettronico»[16]. Si tratta delle caratteristiche di non modificabilità, di staticità di formato, di scarso sincretismo multimediale e di altrettanto scarso uso di link, assunte dagli e-book disponibili sul mercato, che sembrerebbero candidarli a soppiantare i libri stampati  più agevolmente che non i testi elettronici in CD-Rom o in Rete. Tuttavia, tali caratteristiche, che avvicinano l’e-book al libro a stampa e lo pongono in concorrenza con esso, non sono consequenziali a limitazioni intrinseche alla tecnologia, ma a ragioni di politica editoriale e alla resistenza dei lettori al nuovo, fattori contingenti e in prevedibile evoluzione. Più probabilmente, quindi, il futuro dell’e-book potrebbe incanalarsi, oltre che sul binario della concorrenza con i libri cartacei, anche su quello della concorrenza  con le altre forme di testo digitale.

Gli studenti di Bologna prospettano allora, sulla base di tali considerazioni, uno scenario in cui l’e-book si collocherebbe «in una posizione originale all’interno della dialettica vecchio vs. nuovo che lo caratterizza» e affermano che «se è vero che l’e-book riprende un formato vecchio, è possibile che le sue future evoluzioni possano spingerlo verso le nuove forme di testualità, nel qual caso la concorrenza da affrontare sarebbe quella dei CD-Rom e dei siti Internet, mentre la sostituibilità con il libro stampato diverrebbe minima».

Roncaglia espone con una certa compiutezza lo stato del dibattito dall’interno della posizione continuista. Considera poco produttivo il livello della pura contrapposizione «fra “apocalittici” e “integrati”, fra i profeti di una “barbarie digitale” in grado di distruggere in pochi anni un bagaglio culturale costruito faticosamente nel corso di secoli, e gli apostoli di un progresso tecnologico capace di guidarci in maniera quasi automatica verso una terra promessa nella quale scompaiano per incanto la maggior parte delle nostre limitazioni»[17]. Pur riconoscendo che la contrapposizione di norma, allo stato attuale del dibattito, non sia così schematica, conserva egualmente l’impressione di due schieramenti che parlino lingue diverse, o che si riferiscano a diverse realtà con poca chiarezza sulle assunzioni e sui concetti di base utilizzati. Si fronteggiano in una schematizzazione del dibattito due cluster concettuali: «dal lato della “cultura del libro” troviamo così una famiglia di connotazioni associate ad espressioni quali libro a stampa, tradizione tipografica o gutenberghiana, testualità, linearità, astrazione, ragionamento deduttivo, monomedialità, contesti chiusi. Dal lato della “nuova cultura” multimediale troviamo invece espressioni quali multimedialità, ipertestualità, ipermedialità, multilinearità, immersione, ragionamento analogico, contesti aperti». Si tratta però di schematizzazioni teoriche che lasciano Roncaglia perplesso di fronte a una domanda: «siamo sicuri che il modello migliore per comprendere questa rivoluzione sia la contrapposizione radicale fra il ‘vecchio’ e il ‘nuovo’, o, semplificando, fra il libro e il computer?». Roncaglia preferisce leggere il rapporto fra cultura del libro e nuove tecnologie «attraverso il modello del superamento-conservazione anziché attraverso quello del superamento-sostituzione. Suggerisce inoltre di guardare con una certa diffidenza «alla costituzione, anche a livello concettuale, di due schieramenti rigidi e contrapposti che oppongano connotazioni tipiche della “cultura del libro” a connotazioni tipiche della “cultura dei nuovi media”».

Che la contrapposizione sia superficiale e fuorviante, per Roncaglia, emerge proprio dall’esame della composizione delle due galassie concettuali considerate: «i passaggi logici che portano ad accostare fra loro i concetti raccolti in uno di questi cluster terminologici, e a contrapporli a quelli raccolti nell’altro, restano spesso inespressi. Se cerchiamo di esplicitarli (e di verificarne la fondatezza), le sorprese non mancano». Appare invece assolutamente naturale la sintesi fra cultura del libro e nuovi media e il rapporto fra libro e computer, fra testo lineare e ipertesto, sembra prospettare alleanze più che conflitti se solo si sceglie la strada di «partire dal testo e accompagnare la tradizionale lettura del testo con una serie di operazioni di approfondimento, ricerca, integrazione che utilizzino il computer come ambiente di lavoro».

Secondo Giuseppe Gigliozzi, in definitiva, «allo stesso modo in cui una simile domanda sarebbe stata vana nel Quattrocento, non varrà la pena neanche per noi chiederci se siamo prossimi a una (chissà se prematura) morte del libro. l’unica cosa è stare a vedere»[18]. Si potrebbe, al massimo, ipotizzare che «l’informatica stia facendo, nei riguardi dell’intellettuale contemporaneo che, dolcemente e quasi senza accorgersene, sta abbandonando l’universo Gutemberg per entrare in un mondo ancora tutto da definire, la stessa manovra compiuta dai primi stampatori», cioè far credere che le nuove tecniche non  portino a una sostituzione della cultura del testo, ma a un rafforzamento di essa, producendo, meglio di prima, le stesse cose di prima. In realtà, però, continua Gigliozzi, «l’universo nel quale, volenti o nolenti, ci siamo venuti a trovare dal momento in cui le nuove tecnologie hanno cominciato, di soppiatto, a cambiare le carte in tavola è uno spazio in cui nulla può più essere uguale a prima. Avevamo cominciato a rendercene conto nel momento in cui, osservando l’ineliminabile necessità di rinunciare al nostro sapere implicito, ci siamo accorti che l’informatica, più che una comoda alleata, si rivelava una poderosa macchina argomentativa che dispiegava le sue regole sopra quelle del nostro universo tradizionale. Prima di accostarci all’informatica “sapevamo” cosa fosse una parola, cosa fosse una scheda bibliografica, cosa fosse una struttura narrativa; dopo l’incontro con il nuovo spazio metodologico siamo stati costretti (e ci pareva di farlo solo per pura comodità) a ridefinire gran parte della nostra conoscenza».

Tuttavia, gli effetti dell’incontro/scontro dell’informatica con le discipline umanistiche non si sarebbero prodotti in una sola direzione, ma avrebbero provocato trasformazioni in tutti e due i campi per cui «mai come in questa fase è necessario che ognuno, pur ripensando profondamente il proprio sapere, resti saldamente legato alle radici più solide della propria conoscenza», in quanto «solamente in questo modo sarà possibile governare una trasformazione che nasce dalla necessità di trovare un terreno di confronto con l’informatica e con l’elaboratore, ma che, una volta evocata, finirà per tracciare in modo nuovo i sentieri che percorre il nostro vecchio e consolidato sapere»[19].



[1] G. P. Landow, L’ipertesto, Bruno Mondatori 1998

[2] G. P. Landow, L’ipertesto, Bruno Mondatori 1998

[3] Franco Carlini, Lo stile del web,  Einaudi 1999, 26-27

[4] M. A. Villamira, in AA. VV. Ipertesto… ma non troppo!!!, La nuova Italia, 2000, a cura di M. A. Villamira,  12

[5] Alberto Cadioli, Il critico navigante, Marietti 1998

[6] B. Gasparini, in G. Bettetini B. Gasparini N. Vittadini, Gli spazi dell’ipertesto, Bompiani, 1999, 27-28

[7] In effetti dai lavori degli studiosi che si sono occupati delle complesse transizioni dal manoscritto alla cultura della stampa emerge che solo intorno al ‘700 le trasformazioni connesse alla nuova tecnologia realizzarono il passaggio dalla società orale a quella della stampa. I cambiamenti avvennero in contesti politici ed ebbero implicazioni politiche, e, in ogni caso, nessun cambiamento potrebbe essere interpretato in chiave deterministica  perché la medesima evoluzione tecnologia può produrre effetti diversi, se non contraddittori.

[8] Jay David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 11

[9] Jay David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 17

[10] Jay David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 5

[11] Jay David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 34

[12] MediaMente, Dall’alba del testo all’ipertesto, intervista a R. Eugeni, Milano 9/11/1996

http://www.mediamente.rai.it/home/bibliote/intervi...

[13] Alberto Cadioli, Il critico navigante, Marietti 1998,   12-13

[14] Telèma, Le notizie sono troppe imparate a decimarle subito, intervista con Umberto Eco, n. 4 primavera 1996,

http://www.fub.it/telema/TELEMA4/Eco4.htlm 

[15] Un e-book è un testo che si legge tramite lo schermo di un particolare device o di un computer e che può essere acquistato su Internet. Anche se gli e-book possono essere pubblicati gratuitamente e letti su schermi a bassa risoluzione o stampati, gli elementi che li qualificano come nuova forma di testo elettronico sono proprio la lettura su schermo di particolari device e la distribuzione commerciale.

[16] P. Ciarfaglia, M Miani, S. Pellegrini, F. Uboldi, U. Vallari,  e-book:  quando il libro diventa elettronico, Gennaio 2001 http://www.geocities.com/katanankes/ebook/     

[17] Gino Roncaglia Oltre la ‘cultura del libro’? http://www.merzweb.com/ipertesti/iter.htm

[18] Giuseppe Gigliozzi, Il testo e il computer, Bruno Mondatori, 145-146

[19] Giuseppe Gigliozzi, Il testo e il computer, Bruno Mondatori

 

3. Gli effetti cognitivi

Il punto di vista della psicologia cognitiva considera l’impatto dell’ipertestualità sul sistema percettivo in termini quantitativi di sviluppo delle capacità di apprendimento.

Gli orientamenti di fondo degli studiosi si polarizzano su due posizioni, apparentemente contrapposte, ma in realtà legate da un rapporto dialettico, più proficuo da indagare al fine di una visione globale del problema. Da una parte si tende a considerare  l’ipertesto come un’incredibile risorsa per il potenziamento delle capacità cognitive dell’uomo, dall’altra parte si tende a sottolineare i rischi in termini di disorientamento e sovraccarico cognitivo[1].

In ogni caso, Pandolfi e Vannini sono lapidari: «una cosa è certa: se cominciate a usare un ipertesto, voi non penserete più come prima»[2].

Il potenziamento dell’intelligenza è fatto risalire alla sostanziale analogia tra la tela dei collegamenti dell’ipertesto e il funzionamento della mente umana. Villamira considera la scrittura una forma di trasmissione del pensiero che esige una speciale elaborazione di percezioni e concetti a cui le strutture cerebrali umane, evolutesi attraverso selezioni che privilegiavano altri tipi di abilità, non sarebbero del tutto preparate. La selezione naturale per la sopravvivenza  avrebbe favorito, infatti, lo sviluppo di abilità di interazione e movimento rispetto all’ambiente, a cui le strutture ipertestuali sono più vicine in quanto, «con la loro possibilità di spostamento lungo percorsi articolati e interattivi sono in grado di rappresentare una valida metafora e una conveniente riproduzione di paesaggi per i quali siamo predisposti da milioni di anni»[3].

Per Pandolfi e Vannini «l’uomo pensa in modo non sequenziale, ma scrive in sequenza e ciò costringe il suo pensiero. L’ipertesto è scrivere seguendo la logica delle linee del pensiero.»[4].

Allo stesso modo, per Francesco Antinucci, nello scrivere un testo «non importa quanto bene si conosca e si domini il campo di conoscenza, le difficoltà sono sempre notevoli, e, se si riflette, ci si renderà conto che esse sono soprattutto connesse alla forma lineare: cosa dire prima e cosa dire dopo, e soprattutto,  come “forzare” in questo prima-dopo qualcosa che di per sé non ha questa forma in modo da essere sicuri che il lettore vi ricostruisca correttamente proprio quei rapporti che abbiamo forzato»[5]. Antinucci parla di panlinearità a proposito della strutturazione lineare a tutti i livelli del testo che ha rappresentato finora il modello dominante di testualità[6]. La panlinearità sarebbe dovuta alla derivazione del testo dal medium di base della comunicazione umana, il linguaggio verbale, necessariamente lineare in quanto mappato nel tempo e non nello spazio in tutti i suoi elementi da disporre necessariamente in sequenza. Se per Antinucci, però, è ovvio che il testo sia fondato sulla linearità del linguaggio verbale ai suoi microlivelli, non è altrettanto ovvio che sia modellato su di essa a tutti  i livelli di strutturazione secondo un’organizzazione «panlineare». Le cause dell’egemonia della panlinearità vanno ricercate in fattori estrinseci anche al rapporto tra contenuto e forma. La panlinearità, infatti non è, di per sé, intrinseca al rapporto tra contenuto e forma come forma più appropriata a veicolare i contenuti; può essere, certo, appropriata a testi, come le narrazioni, in cui la struttura organizzante i contenuti è a dimensione temporale, ma non appare altrettanto appropriata per contenuti  strutturati in maniera articolata e complessa.

La struttura propria del campo di conoscenza (knowledge structure o KS), infatti,  per essere comunicata deve essere tradotta (proiettata) nella struttura della comunicazione (comunication structure o CS) propria del medium adoperato. La struttura della comunicazione, allora, sarà tanto più appropriata quanto più risulterà isomorfa alla struttura del campo di conoscenza che deve veicolare. Se KS è non particolarmente articolata e prevalgono i contenuti da descrivere, come nei racconti di serie di eventi, CS sarà vicina all’isomorfismo anche se avrà una forma lineare.  Se KS è particolarmente articolata, tanto da rendere prevalente la struttura sui contenuti stessi, l’apprendimento risulterà più difficile se la relazione di corrispondenza con CS sarà indiretta, astratta, non isomorfa, come nel caso di scelta della forma lineare. Se, invece la forma percepibile somiglierà alla struttura da comunicare, come nel caso di scelta di tabelle, schemi, ipertesti, l’apprendimento sarà più facile. Nel primo caso il processo di decodifica della struttura sottostante dovrà essere necessariamente cosciente, esplicito e impegnativo, in quanto implica una ricostruzione e combinazione mentale astratta dei pezzi via via decodificati. Nel secondo caso la struttura sottostante è esibita e non va mentalmente ricostruita ma assorbita direttamente in modo inconsapevole e implicito.

Il problema cognitivo cruciale diviene, allora, quello della costruzione di tali strutture comunicative isomorfe ai campi di conoscenza. I sistemi ipermediali, con la loro duttilità, conclude Antinucci, consentono proprio «di estendere la condizione di apprendimento implicito a campi di conoscenza prima accessibili solo all’apprendimento esplicito»[7].

Gasparini mostra tutta una panoramica di effetti positivi dell’ipertesto sul sistema percettivo, carrellando sulle osservazioni di diversi studiosi dell’argomento. «L’ipertesto viene via via indicato come amplificatore del pensiero perché stimola la connettività e induce a rendere esplicite le associazioni tra le idee oppure come stimolo all’apertura di spazi di riflessione sul versante semantico, perché si è spinti a pensare a tutto ciò che può avere riferimento a un testo: citazioni, opinioni specialistiche, esempi, fantasie, immaginando nel testo una rete di potenziali rimandi, così che il testo viene valutato considerando la sua potenziale implicita associatività semantica. (Calvani). In altri casi si sottolinea la possibilità di superamento della dicotomia metodo-contenuto perché in un ipertesto si manipolano contenuti ma attraverso la strutturazione dei legami tra di essi si veicola anche un metodo. Oppure ancora si individua nell’ipertesto un nuovo paradigma di sviluppo della conoscenza in concorrenza con quello lineare dei libri perché impone l’interiorizzazione di schemi, ovvero induce a partire da una mappa cognitiva originaria che racchiude le forme organizzate della nostra conoscenza guida della funzione di esplorazione attraverso la selezione sull’informazione. (Di Tonto). Situazione che determina lo sviluppo anche di una strategia di apprendimento per connessione. Infine si rileva un effetto di ritorno sulla scrittura tradizionale con l’acquisizione di una maggiore consapevolezza delle strutture compositiva del testo dopo che questo è stato necessariamente scomposto nelle sue unità costitutive per essere riversato su ipertesto»[8].

Fabiana Gatti si rifà alle teorie di De Kerckhove sul brainframe che riassume affermando che «le innovazioni tecnologiche operano profonde modificazioni sul nostro modo di pensare e sulle strutture cognitive utilizzate» e che «le tecniche di elaborazione dell’informazione danno al cervello umano una struttura, una sorta di “griglia di lettura” del mondo; ogni innovazione tecnologica, quindi, lo sfida a fornire un modello diverso da quelli precedentemente adottati, ma egualmente efficace al fine dell’interpretazione della realtà. De Kerckhove chiama questa struttura “brainframe”, una struttura mentale risultante appunto da processi di tale natura e che sarebbero definibili come il brainframe alfabetico, quello televisivo e quello cibernetico»[9]. Il brainframe cibernetico, in particolare, creerebbe un collegamento tra i precedenti, offrendo la possibilità di rispondere in maniera personale al video, tipica del brainframe alfabetico, ma secondo la logica rigida del programma, tipica del brainframe televisivo. In questa prospettiva, sulla base delle trasformazioni dei new media, sarebbe possibile ipotizzare la comparsa di una nuova struttura mentale, l’inter-brainframe, che, secondo Gatti, «potrebbe affermarsi come conseguenza dell’uso dei nuovi media da parte di individui/gruppi sulla base di un processo di causalità circolare e di reciprocità tra le tecnologie e la mente umana, in un’interazione in cui l’agire è strutturato e strutturante. È opportuno pensare l’inter-brainframe come una struttura cognitiva compresente alle altre: esso, infatti, sottolinea la messa in rete, la “connessione” di una molteplicità di strutture cognitive, cogliendone la componente sociale messa in atto nell’interazione comunicativa e il suo influsso sulle relazioni interpersonali».

De Kerckhove  parla di intelligenza connettiva, traendo ispirazione dal concetto di intelligenza collettiva di Lévy, e caratterizzandola come «pratica della moltiplicazione delle intelligenze le une in rapporto alle altre all’interno del tempo reale di un’esperienza, di un progetto»[10].

Alle posizioni teoriche in favore del presunto potenziamento dell’intelligenza ad opera dell’ipertesto si contrappongono le posizioni di chi sottolinea proprio i rischi cognitivi di disorientamento o di sovraccarico cognitivo.

Lo stesso flusso di informazioni che, integrato in una fitta trama di collegamenti, dovrebbe risultare più familiare e stimolante per l’intelligenza umana, infatti, può richiedere un notevole sforzo cognitivo, per le continue scelte di percorso e selezione che impone nell’intento di mantenere il dominio sull’enorme e spesso poco strutturata mole di materiale accessibile.

Per Gasparini,  inoltre la sensazione di disorientamento è intrinseca anche a un aspetto di «visibilità oggettuale». Laddove un testo tradizionale è un oggetto dotato di peso forma e volume, immediatamente riconoscibile nella sua estensione e nei suoi confini, un ipertesto concede solo una visione di sé segmentata nella porzione di testo che compare sullo schermo, mentre al lettore «è negata la visione simultanea dell’estensione (fisica, spaziale) di ciò che sta per affrontare»[11].

Carlini attribuisce disorientamento e sovraccarico, da una parte, al fatto che i nessi stabiliti dall’autore dell’ipertesto spesso non coincidono con i bisogni del lettore e lo portano su percorsi di scarsa gratificazione, dall’altra parte, all’eccesso di granularità – «parametro che dice quanto sono grandi i singoli frammenti» – di alcuni ipertesti che mal si adatta a contenuti argomentativi[12].

Per Pandolfi e Vannini sovraccarico cognitivo e disorientamento rientrano tra i «problemi che gli ipertesti non hanno (ma che vengono spesso citati come tali)»[13]. L’obiezione di sovraccarico cognitivo viene giudicata ridicola e girata alla cattiva progettazione del software, e, allo stesso modo il problema del disorientamento viene liquidato attribuendone la responsabilità all’incompetenza di alcuni autori, incapaci di dominare una tecnica di scrittura diversa da quella tradizionale.

Anche secondo Landow il problema del disorientamento spesso non è posto adeguatamente dagli autori che lo prendono in considerazione. Intanto, il concetto di disorientamento, pur nascendo dalla tendenza a usare metafore spaziali nella descrizione della lettura ipertestuale, spesso viene usato dagli autori che si occupano di ipertesti per descrivere un disagio confusionale generico più che una perdita del senso della posizione in un documento non-lineare. Inoltre, i due concetti strettamente collegati di disorientamento e confusione non vengono, di solito, rapportati ai contenuti dell’ipertesto, ma vengono riferiti esclusivamente al mezzo tecnologico stesso. Infine, l’esperienza del disorientamento viene intesa come in ogni caso pregiudizievole, e addirittura paralizzante per la lettura dell’ipertesto.

Per affrontare più correttamente il problema, per Landow occorre, innanzi tutto, distinguere il disorientamento inteso come perdita del senso della posizione dal disorientamento come confusione. Quest’ultimo, infatti, potrebbe essere dettato dalla difficile comprensione di contenuti intrinsecamente complessi, ipotizzabile anche per i testi lineari, oppure potrebbe dipendere da una cattiva progettazione del sistema, nel cui caso, comunque, una buona conoscenza dei contenuti  limiterebbe il disagio. Landow sostiene che «chi vuole trovare informazioni le troverà anche grazie a ciò che sa su quelle stesse informazioni, oltre che all’uso degli strumenti forniti dal sistema. In altri termini, l’orientamento basato sul contenuto sembra in grado di risolvere i potenziali problemi di disorientamento provocati dal sistema e dalla sua struttura».

Nel caso di disorientamento come perdita del senso della posizione in un testo non-lineare bisogna distinguere, invece, quando questo derivi dalla semplice mancanza di esperienza con i sistemi ipertestuali, «e in particolare dal tentativo di applicare anche a questo nuovo mezzo procedure per la lettura o il reperimento delle informazioni adatte alla tecnica del libro», da quando derivi da un’inadeguata  progettazione dei collegamenti o degli strumenti di orientamento da parte dell’autore.

Vi sono casi, infine, come quello degli ipertesti creativi, in cui l’effetto di disorientamento è volutamente perseguito dall’autore dell’ipertesto e avvertito come piacevole dal lettore.

Se da una parte, dunque, gli effetti cognitivi dell’ipertestualità possono essere valutati come potenziamento delle capacità di apprendimento, e dall’altra parte come rischi di sovraccarico cognitivo e disorientamento, tali posizioni non sono realmente alternative, ma si intrecciano in una relazione dialettica a contatto con le realizzazioni concrete dell’ipertestualità e si relativizzano rispetto alle differenti tipologie di ipertesto, alle differenti strutture dei campi di conoscenza, ai differenti livelli di competenza di autori, progettisti di software e lettori.

Sul banco di prova del World Wide Web, gli effetti cognitivi dell’ipertestualità appaiono controversi nelle riflessioni degli studiosi che vanno, comunque, collocate nel corso dell’evoluzione delle realizzazioni stesse del Web .

Nell’ambito delle ricerche del FAR dell’Università di Torino si delinea addirittura l’ipotesi di un fallimento cognitivo dell’ipertestualità in Rete. Dallo studio dell’evoluzione dei portali Web sembrerebbe emergere la tendenza all’assunzione di strutture sempre meno reticolari e sempre più gerarchiche e categoriali. Alessandro Perissinotto nel suo contributo alle ricerche del FAR pubblicato in Rete parte dall’impressine che «la tassonomia abbia prevalso sull’associazione, più o meno libera, tra testi» e sostiene che in base a ciò «siamo costretti a rivedere alcune delle convinzioni che negli ultimi dieci-quindici anni abbiamo avuto a proposito dell’ipertesto; siamo cioè nelle condizioni di domandarci se davvero, come sostengono i connessionisti, la rete, e quindi l’ipertesto in quanto testo reticolare, costituiscano la migliore rappresentazione della conoscenza; se davvero l’ipotesi di un’intelligenza collettiva avanzata da Pierre Lévy pensando soprattutto al Web sia praticabile. Se il nuovo modello reticolare collassa sotto il peso eccessivo dei testi in Internet esso è davvero così potente da servire come chiave interpretativa per la conoscenza nel suo complesso? O forse la vecchia organizzazione gerarchica, categoriale e, in qualche misura, lineare del sapere è ancora la più funzionale?»[14]. Perissinotto si rende conto che, in questo modo, si rischia di confondere tra loro due campi distinti, quello della rappresentazione della conoscenza e quello della sua ricerca e fruizione, ma si chiede se «il fatto che nella ricerca e nella fruizione noi troviamo più pratico ed efficace un certo modello organizzativo non significa forse che quel modello corrisponde meglio alla rappresentazione che noi facciamo dell’oggetto cercato?».



[1] M. Miani, Internet: nuove forme di testualità e di comunicazione,

http://www.dsc.unibo.it/studenti/tesine/miani/ipertesto/cognizione.htm

[2] Pandolfi e Vannini

[3] M. A. Villamira, in AA. VV. Ipertesto… ma non troppo!!!, La nuova Italia, 2000, a cura di M. A. Villamira,  7

[4] Pandolfi Vannini 9

[5] F. Antinucci, Sistemi ipermediali per l’apprendimento, http://www.infosys.it/INFO90/obbligo/struttur.html     

[6] F. Antinucci, Sistemi ipermediali per l’apprendimento, http://www.infosys.it/INFO90/obbligo.html

[7] F. Antinucci, Sistemi ipermediali per l’apprendimento, in http://www.infosys.it/INFO90/obbligo/ipermed.html

[8] B. Gasparini, in G. Bettetini B. Gasparini N. Vittadini, Gli spazi dell’ipertesto, Bompiani, 1999,  26-27

[9] Il brain frame alfabetico avrebbe dominato la mente umana più a lungo di ogni altro e sarebbe differente nelle scritture destrorse diffuse nelle culture orientali e in quelle sinistrorse, tipiche della cultura occidentale, in quanto riconducibile alle funzioni specifiche dei due emisferi cerebrali. L’andamento destrorso, tipico dei sistemi analogici, avrebbe favorito l’intuizione, la progettazione, la capacità associativa e di sintesi, il predominio dello spazio. L’andamento sinistrorso, tipico dei sistemi digitali, avrebbe favorito analisi, controllo, sequenzialità, dominio del registro temporale. Il brainframe televisivo sarebbe nato negli anni Settanta sarebbe tipico di una cultura di massa perché, data la velocità con cui si susseguono le immagini, parlerebbe al corpo e non alla mente, non lasciando possibilità di riflettere per integrare e rielaborare le immagini in maniera personale e imponendo un’immagine precostituita e uguale per tutti.

F. Gatti, in AA. VV. Ipertesto… ma non troppo!!!, La nuova Italia, 2000, a cura di M. A. Villamira,  32-36

[10] MediaMente, Due filosofi a confronto. Intelligenza collettiva e intelligenza connettiva: alcune riflessioni, intervista a P. Lévy e D. De KercKhove,

http://www.mediamente.rai.it/home/bibliote/intervis/d/dekerc05.htm

[11] B. Gasparini, in G. Bettetini B. Gasparini N. Vittadini, Gli spazi dell’ipertesto, Bompiani, 1999,  117

[12] Franco Carlini, Lo stile del web,  Einaudi 1999 58-59

[13] Alearda Pandolfi  Walter Vannini, Che cos’è un ipertesto, Castelvecchi 1996, 52-54

[14] Alessandro Perissinotto, Il Web e l’ipertesto: un fallimento cognitivo? ,

http://hal9000.cisi.unito.it/wf/DIPARTIMEN/Scienze...

 

4. Gli effetti sociali

Gli effetti sociali dell’ipertestualità, indagati prevalentemente dalla communication research con riferimento ad Internet, ma anche da sociologia e semiotica, riguardano il tipo di processo comunicativo generato dalle nuove tecnologie e le conseguenti implicazioni politiche sulla gestione delle comunicazioni di massa.

Gli autori che più entusiasticamente parlano degli ipertesti come tecnologia dagli esiti rivoluzionari ritengono che l’intrinseca interattività ipertestuale stimoli un processo di democratizzazione dell’informazione sotto almeno tre profili: la condivisione di pratiche comuni da parte di emittenti e riceventi dovrebbe portare a un processo comunicativo sempre più simmetrico; la diffusione delle conoscenze si porrebbe come una democratizzazione del potere sull’informazione, basato sul monopolio e l’accentramento; la polifonia ipertestuale e l’idea di decentramento del testo favorirebbero scambi di voci diverse in un ottica dialogica e antigerarchica in cui anche il diritto di autore finirebbe con il dovere essere ridefinito. Landow fa risalire tali idee ai precursori del concetto stesso di ipertesto, quando afferma che «Bush auspicava di sostituire i metodi stabili ed essenzialmente lineari che avevano prodotto i trionfi del capitalismo e dell’industrializzazione con quelle che in fondo sono macchine poetiche che funzionano secondo l’analogia e l’associazione, macchine che catturano e incoraggiano la vivacità anarchica dell’immaginazione umana»[1].

Gli studiosi delle comunicazioni di massa sottolineano spesso l’asimmetria dei  processi comunicativi e la attribuiscono alla titolarità di competenze testuali differenti intestata a emittenti e riceventi. La competenza comunicativa dell’emittente sarebbe il «saper-fare», quella del ricevente il «saper-riconoscere». Si può parlare in quest’ottica di cultura «testualizzata», in quanto, sostiene Mauro Wolf, sembra che «la competenza interpretativa dei destinatari, più che su codici esplicitamente appresi e riconosciuti in quanto tali, si fondi e articoli soprattutto su aggregati di testi già fruiti»[2].

Dal momento in cui l’ipertesto prevede, allora, un lettore modello attivo, che condivida le prerogative dell’autore, anche i ruoli di emittente e ricevente dovrebbero trovarsi riconfigurati nel senso di una maggiore simmetria. Emittente e ricevente condividerebbero la conoscenza delle stesse pratiche testuali come autori dei messaggi diffusi in formato ipertestuale e il ricevente dovrebbe essere conscio che il processo di interpretazione dipende anche dalle sue scelte e non solo dalle mosse dell’emittente: si andrebbe così verso una cultura «grammaticalizzata» in cui l’interpretazione dipenderebbe dall’effettiva conoscenza delle pratiche testuali di produzione del messaggio e non dall’esperienza di altri testi. Tuttavia, proprio per il tipo di competenze testuali che l’ipertestualità presuppone, è parere degli studiosi più critici che, al contrario, l’ipertesto e in particolare un medium come Internet, possano condurre anche a nuovi scarti di conoscenza fra ricchi e poveri di informazione, fra coloro che hanno assimilato la grammatica del suo funzionamento e coloro che si basano ancora sui testi trasmessi dai media tradizionali. In realtà proprio perché la Rete è un medium interattivo che richiede capacità semiotiche elevate al suo fruitore, senza un appropriato addestramento sono poche le persone in grado di usarla con successo[3].

Lo stesso Bolter, ancora nel 2001, riconosce che «anche se milioni di partecipanti al World Wide Web hanno ora i mezzi e la capacità di crearsi un proprio sito Web combinando grafica e testo, una porzione ben più grande delle centinaia di milioni di utenti di Internet è per ora costituita da semplici consumatori di siti Web e di altre forme multimediali»[4].

Nel corso degli ultimi anni, tuttavia, grazie all’offerta da parte dei provider di strumenti che semplificano ulteriormente la creazione di pagine personali, l’uso del Web come strumento di comunicazione ha conosciuto un ulteriore sviluppo che ha portato al diffondersi dei weblog e dei siti wiki che oggi sembrano le più promettenti realizzazioni della democrazia della rete.

Si passa così al secondo degli argomenti avanzati dai fautori delle potenzialità democratizzanti dell’ipertestualità: la diffusione delle conoscenze come strumento di limitazione del potere sull’informazione e dell’informazione. Landow, crede che «la storia della tecnologia dell’informazione (dalla scrittura all’ipertesto) riveli un aumento di democratizzazione, ovvero di disseminazione del potere. Il via a questo processo è stato dato dalla scrittura: esteriorizzando la memoria, essa converte il sapere da qualcosa di posseduto da una sola persona a qualcosa di posseduto da più d’una»[5]. Quando poi i lettori, separati da grandi distanze di spazio o di tempo, interagiscono «si produce una sinergia sempre crescente» e tutto ciò ha ovvie implicazioni politiche, anche se lo stesso Landow ammette che, se la rete contiene la promessa di un accesso democratizzato all’informazione, «il grado in cui la tecnologia dell’informazione cambierà la cultura, il governo e la società rimane in buona parte incerto»[6]. Più critico è Alberto Melucci, che ritiene  che nella società dell’informazione, «diventa fondamentale controllare i codici che permettono di organizzare e decodificare informazioni mutevoli. La conoscenza è sempre meno un sapere di contenuti e diventa capacità di codificare e decodificare messaggi. Il controllo sulla produzione, accumulazione, circolazione, di informazioni dipende dal controllo dei codici. Questo controllo non è distribuito in maniera uguale, dunque l’accesso alla conoscenza diventa il terreno per nuovi poteri, nuove discriminazioni, nuovi conflitti»[7]. L’effettiva portata di una nuova pratica testuale dipende, allora, dalla misura degli interventi di programmazione e pianificazione politica. Gli ipertesti sono virtualmente inutili, se non dannosi, in mancanza di un pubblico di lettori capace di maneggiarli, e, un alto numero di utenti in grado di gestire il codice testuale che presuppone l’ipertesto non nasce dal nulla, ma deriva da un processo di alfabetizzazione, frutto anche di una politica di educazione testuale e dall’effettiva disponibilità di accessi il cui costo non sia economicamente discriminante.

Su queste basi è difficile pensare a Internet come a un mezzo di comunicazione popolare.

Dibattuta è anche la positività dell’effetto di globalizzazione dell’informazione consentito dalle nuove tecnologie, in quanto, se Internet è in grado di rendere disponibili in tutto il mondo risorse e informazioni indipendentemente dal luogo dove sono memorizzate, Melucci fa notare che «proprio i processi di globalizzazione riattivano forme d’azione a base etnica e nazionale, come necessità di dare un fondamento stabile e riconoscibile all’identità». La ragione di questa dialettica che oppone spinte centripete al processo di decentramento dipenderebbe dal fatto che proprio i valori simbolici su cui si basa il riconoscimento dei confini e dell’identità del gruppo, diffondendosi ben oltre i confini del gruppo, finirebbero col perdere il ruolo di elementi di coesione, con effetti  laceranti anche per la definizione del sé individuale, dal momento che i simboli di appartenenza al gruppo rappresentano la base dell’identità individuale. Da ciò nascerebbe la volontà di riappropriarsi dei propri simboli o di costruirne di nuovi, per cui, proprio in seno a un mondo che assume dimensioni globali, crescono le tribù e i regionalismi[8].

Infine, l’effetto di democratizzazione prodotto dalla dimensione polifonica e decentrata  dell’ipertesto nascerebbe dal crollo dell’egemonia del testo monolitico e stabile del mondo della stampa che porterebbe con sé il crollo delle idee di gerarchia e centralizzazione. In un tale regime di testo aperto, polifonico e decentrato, nasce anche l’esigenza di ridefinire il concetto di diritto d’autore.

Landow parla di scrittura in collaborazione in due sensi: «il  primo elemento di collaborazione appare quando si confrontano i ruoli del lettore e dell’autore, dato che il lettore attivo collabora necessariamente con l’autore nella produzione di un testo, attraverso le sue scelte. Il secondo elemento di collaborazione emerge quando si paragona l’autore agli altri autori – cioè l’autore che sta scrivendo ora con la presenza virtuale di tutti gli autori “del sistema”, che hanno scritto in un momento diverso, ma i cui scritti sono tuttora presenti»[9]. Sicuramente è in qualche modo autore, inoltre, non solo chi scrive le pagine, ma anche chi appresta i collegamenti e chi gestisce i programmi necessari alla stesura materiale[10].

Si tratterà allora di capire come riconfigurare il diritto d’autore per opere concepite e realizzate da più menti, anche in contesti spazio-temporali distanti.

Bolter afferma che non c’è niente di scontato o di inevitabile nei processi comunicativi della rete:

«La comunicazione su Internet avrebbe potuto evolvere diversamente; avrebbe potuto essere progettata per facilitare l'omologazione e il controllo centralizzato, anziché la diversità e il decentramento. Dopotutto, i computer sono particolarmente adatti alla duplicazione fedele dei dati e alla creazione di strutture per il controllo gerarchico dell'informazione. Tuttavia, negli anni Ottanta l'evoluzione di Internet è stata soprattutto opera di appassionati di informatica, in gran parte giovani laureati e studenti universitari. Questi appassionati hanno forgiato una tecnologia congeniale alla loro cultura, che teneva in gran conto l'autonomia individuale. Il fatto che il World Wide Web sia scaturito dalla stessa cultura spiega la sua architettura orizzontale, la scarsità di dispositivi di sicurezza e l'uso di collegamenti di tipo intertestuale. È facile immaginare un protocollo per il Web in cui tutti i siti debbano registrarsi ed essere approvati da un’autorità centrale; ma un simile protocollo sarebbe entrato in conflitto con l’etica della comunità di internet allora esistente. Quando il Web diventò un fenomeno culturale tale da attirare l'attenzione dei governi burocrazia, era ormai tardi per modificare radicalmente la sua architettura»[11].



[1] G. P. Landow, L’ipertesto, Bruno Mondatori 1998

[2] M. Wolf, Teorie delle comunicazioni di massa, Bompiani, Milano 1985

[3] M. Miani, Internet: nuove forme di testualità e di comunicazione,

http://www.dsc.unibo.it/studenti/tesine/miani/ipertesto/simmetria.htm

[4] Jay David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 279

[5] G. P. Landow, L’ipertesto, Bruno Mondatori 1998, 340

[6] G. P. Landow, L’ipertesto, Bruno Mondatori 1998,  366

[7] A. Melucci, Cosa è ‘nuovo’ nei ‘nuovi movimenti sociali’? in Sociologia, 1992 n. 2-3, Milano, Istituto Luigi Sturzo, 282

[8] M. Miani, Internet: nuove forme di testualità e di comunicazione,

http://www.dsc.unibo.it/studenti/tesine/miani/ipertesto/globalizzazione.htm

[9] G. P. Landow, L’ipertesto, Bruno Mondatori 1998, 142

[10] L. Toselli, Il progettista multimediale, Bollati Boringhieri, Torino 1998

[11] David Bolter, Lo spazio dello scrivere, Vita e pensiero  2002, 275