“Hipertexto” es una palabra fetiche para toda comunidad crítica que se haya aproximado al fenómeno de la digitalización de la escritura. Es un clásico. Tiene resonancias futuristas… pero del futuro pasado, aquel de finales de los años setenta, tan presente ahora con toda esta profusión de pastiche, entre perverso y nostálgico, que aborda nuestros sentidos desde el púlpito mediático . Hasta en eso es un término postmoderno. Y como una copia de copias, como una reproducción falaz, la palabra “hipertexto” se trata de una mera carcasa con un contenido inalcanzable que solamente podemos atisbar otorgándole significados “diferentes” en esencia a él mismo. Como el “texto” y por extensión el “mundo” del que nos habló Derrida.
Si hay algo que evidencie con claridad la naturaleza convencional del lenguaje y su incapacidad para describir por sí mismo la realidad exterior, esto es un término nuevo que pretenda aprehender una realidad probable, potencial, o en constante cambio. Al término “hipertexto”, acuñado en los años sesenta, se le han tenido que añadir y quitar cualidades y atributos según ha ido evolucionando el panorama tecnológico. No obstante, nos parece interesante seguir la pista del término a lo largo de su breve historia sin un ímpetu totalizador ni exhaustivo en la cronología.
Conscientes de la incapacidad del término para abarcar y fijar el concepto, nos fijaremos en el significante mismo, en su visibilidad en el entorno académico y en su evolución, como quien indaga los diferentes impactos emocionales que a lo largo de las épocas ha causado un mismo término poético.
La historia del hipertexto es también un clásico. Desde que Gorge P. Landow pusiera de moda la crítica hipertextual a principios de los noventa con la publicación de Hypertext: The Convergence of Contemporary Critical Theory and Technology, todos los autores la han relatado con muy pocas alteraciones. Muchos y con muy buen criterio han aportado y, por supuesto publicado gratuitamente en Internet, sus inquisiciones como es el caso de la indispensable María Jesús Lamarca Lapuente y su historia del hipertexto . Simplemente me remito a ellos para la consulta de una cronología detallada. Sí quisiera, no obstante, subrayar que esta “historia oficial” del hipertexto obtiene su éxito de la apasionante fuente a la que remite. Una fuente de escasa relevancia científica para la creación de Internet pero que se ha incorporado definitivamente a la historia de este medio. Este hecho nos parece revelador de cómo la historia, por muy académica que sea, y con ella las demás disciplinas humanísticas basadas en la mediación del lenguaje, al igual que éste, no dejarán nunca de ser un juego entre humanos plagado de humor y guiños.
La fuente remota de la que hablamos es el artículo de 1945 As we May Think de Vannervar Bush y su Memex, publicado en la revista Athlantic Monthtly .
El documento de Vannevar Bush no ha sido indispensable para el desarrollo de la informática ni mucho menos está en la base de ningún estudio científico a cerca de Internet, pero los inextricables senderos de la historia han querido que este matemático estadounidense nacido a finales del siglo XIX, se encuentre ahora en boca de todos los que nos acercamos a las más modernas técnicas de la información. Su logro no es científico; aunque trabajaba en sistemas embrionarios de computadoras, los auténticos logros de la informática han sido los enderezados a la sustitución del paradigma analógico por el digital, y no a la mecanización exasperada de sistemas analógicos como hace Bush. Su logro es casi del orden de lo literario. Su relato es estupendo desde el punto de vista de la ficción. Pasados los cincuenta años más convulsos en materia tecnológica de la historia de la humanidad, no solo su propuesta idealista y fantasiosa ha terminado coincidiendo con la más pedestre realidad, sino que incluso el modelo de relato, ha terminado coincidiendo con un subgénero de la ciencia-ficción muy característico de la postmodernidad (Lyon, David 1996: 170).
La refundición y la mescolanza imperativas en las últimas décadas del siglo XX han dado lugar a una ingente variedad de estéticas basadas muchas veces en la fusión de géneros. El “steampunk”, se trata de un subgénero de la ciencia-ficción que plantea una realidad alternativa en la que no se hubiera dado la digitalización de la tecnología. Suele ambientarse en la Inglaterra victoriana y los artefactos tecnológicos son tan versátiles como los nuestros pero basados en la motorización a vapor, los engranajes, los triodos y las computadoras de tarjetas. La novela The Different Engine de William Gibson y Bruce Sterling de 1990, inspirada en la máquina del mismo nombre que proyectó Charles Babbage en 1822 para la Royal Astronomical society, ejemplifica muy bien este tipo de historias sobre realidades alternativas. El propio Vannevar Bush habla de esta “máquina aritmética” proyectada por Babbage en Cómo podríamos pensar (2001: 23).
También ha tenido gran visibilidad este subgénero (que a veces se limita a una estética) en el cine, la animación, el mundo del cómic y los videojuegos. Por citar un ejemplo reconocible de cada medio véase: Regreso al futuro III, la película de 1985 producida por Seteven Spielberg; The Wild Wild West, serie de televisión de finales de los sesenta de la que vimos una versión cinematográfica protagonizada por Will Smith en 1999 dónde se enfatizaba enormemente, gracias a la infografía, la estética “steampunk”; la conocida serie de dibujos Sherlock Holmes de Hayao Miyazaki, Tatsuo Hayakawa; el cómic que realizaran en 2003 para DC Alan Moore y Kevin O'Neal titulado La liga de los Hombres Extaordinarios y algunas de las entregas del exitoso videojuego Final Fantasy producido por la compañía japonesa Square Enix, que también utilizan el código estético del “steampunk”.
Pues bien, el relato de Vannevar Bush, en 1945, anticipa de manera absolutamente casual e inconsciente las características de este tipo de ficción. Parte de una preocupación por la labor de los científicos especializados en el campo de la física que, una vez terminada la guerra, no van a encontrar continuidad en sus investigaciones. Los avances tecnológicos y de técnicas de colaboración interdisciplinar habían sido muchos y el final de la guerra alimenta la perspectiva de un futuro pacífico en el que continuar por ese camino. Esto lleva a Bush a aventurar posibles invenciones y tecnologías del futuro, explotando esa faceta ingeniosa y creativa dónde ciencia y literatura convergen.
Vannervar Bush se encuentra entusiasmado por los avances en la miniaturización de las técnicas de microfilmado:
“Si, desde la invención de los tipos de imprenta móviles, la raza humana ha producido un archivo total, en forma de revistas, periódicos, libros, octavillas, folletos publicitarios y correspondencia equivalente a mil millones de libros, toda esa ingente cantidad de material, microfilmado, podría acarrearse en una furgoneta.”
Alentado por esta tecnología, idea dispositivos tan ingeniosos como unas gafas que sacan fotos, una cámara rápida para fotografía en seco y hasta una “máquina lógica” que “se alimentará de las instrucciones que le haga llegar una sala entera llena de señoritas armadas de teclados individuales”, y que, sin duda, “no tendrá el mismo aspecto que tienen las cajas registradoras en la actualidad, ni siquiera los modelos de líneas más modernas” . Pero su principal preocupación no es el almacenaje y reproducción de la información, sino llegar a ser capaces de consultarla. Su gran duda es ¿qué clase de aparato podría gestionar (almacenar y mostrar) esa cantidad ingente de información y qué sistema de indexación nos permitiría movernos por ella para dar con el material que nos interesa? La respuesta de Bush a esta cuestión es el Memex: un mueble del tamaño de un escritorio provisto con pantallas, palancas y un teclado en el que estuviera contenido el archivo de toda la información que su propietario fuera capaz de almacenar, microfilmada y dispuesta en compartimentos codificados a fin de poder ser accesible introduciendo el código específico de cada documento en el teclado. Mediante un sistema de proyección y ampliación de la imagen, los documentos aparecerían en las pantallas y con las palancas podríamos explorarlos página a página controlando incluso la velocidad. Con un botón especial puede visualizarse el índice del libro que se esté consultando en cualquier momento. Pero aún más interesante: podríamos añadir notas y comentarios a los documentos que consultáramos o vincular unos documentos a otros. Los “senderos de información” (como los llama Vannevar Bush) que vamos produciendo al consultar, anotar y enlazar documentos, quedan físicamente trazados, por lo que siempre podremos volver a seguir nuestros propios pasos, y con la ventaja de que un solo documento podría estar incluido en varios senderos distintos. Para rematar su ejercicio premonitorio, Bush añade que estos senderos podrían ser copiados a una película de microfilm virgen y compartidos con otros propietarios de un Memex, pudiendo ser incorporados como enlaces a sus propios senderos de información. Por supuesto la labor del enciclopedista evolucionará hacia una nueva profesión: “la de los trazadores de senderos, es decir, aquellas personas que encuentran placer en la tarea de establecer senderos de información útiles que transcurran a través de la inmensa masa del archivo común de la Humanidad”. El Memex se conduce por mecanismos asociativos, igual que la mente humana según su inventor, por lo que consiste en una verdadera extensión de nuestra memoria y de nuestro conocimiento. Llegados a este punto, y aún concediendo que la tecnología de su tiempo todavía no lo permite, el vuelo desatado de la imaginación de Bush no puede evitar dar un paso más en la fantasía y atisbar, en un futuro cercano a su tiempo, el mecanismo que permitirá conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente, igual que el resto de actividades intelectuales.
El documento de Vannevar Bush es tan original e imaginativo que, al igual que las novelas de Julio Verne, nunca agota su capacidad para servir de referencia a los sucesivos inventos que por diversos derroteros va ideando la humanidad. Así, en los años sesenta el Memex, con sus senderos de información a base de vínculos, constituyó la profecía del documento hipertextual concebido por Theodor Nelson, del que hablaremos inmediatamente; a finales de los años ochenta, las posibilidades del Memex para generar una red conjunta de senderos de información, parecían tomar forma en el desarrollo de la World Wide Web de Tim Berners-Lee; hoy en día existen páginas Web que se organizan a modo de comentarios en torno a determinados enlaces, donde los administradores exponen su experiencia navegadora en la Red, recordándonos vivamente al aficionado a trazar senderos que describía Vannevar Bush; muchos Web-Logs, funcionan en este sentido, con la añadidura de que el visitante puede publicar comentarios y la Wikipedia, con sus enlaces internos y externos, donde cada cual escribe y modifica a su antojo los artículos y las entradas ante el control altruista de una audiencia potencial de millones de usuarios, remite sin duda al nuevo bibliotecario imaginado por Bush. La magia de este texto reside precisamente en su gran libertad imaginativa, que ha sido capaz de proveer a la comunidad científica de inspiración conceptual durante cincuenta años, y de continuar haciéndolo.
La siguiente estación indispensable en este somero recorrido por el término “hipertexto”, es, naturalmente, su inventor: Theodore Holm Nelson. Se trata de un norteamericano nacido en 1937 del músico Ralph Nelson y la actriz Celeste Holm. Se licenció en Filosofía por la Universidad de Swarthmore en 1959 y en 1963 realizó un master en sociología en la Universidad de Harvard. En 2002 realizó su doctorado en la Universidad de Keio, Japón, donde es profesor de Environmental Information. En la actualidad también participa como profesor e investigador en la Universidad de Southampton, en el Wadham Collage de Oxford y en el Oxford Internet Institute.
Al contrario que Vannevar Bush, Ted Nelson no es un tecnólogo y nunca lo ha sido; coincidiendo con su predecesor, es un entusiasta visionario que anticipó la “idea” a la posibilidad de su realización técnica. Su “visión” queda reflejada por primera vez en su artículo A File Structure for the Complex, the Changing, and the Indeterminate, que leyó durante la vigésima conferencia anual de la Association of Computer Machinery (ACM) en 1965. Para entonces había habido grandes avances en la computerización electrónica basada en la aritmética binaria desde que en 1949 los británicos desarrollaran el EDSAC (Electronic Delay Storage Automatic Calculator), el primer embrión de ordenador tal y como lo conocemos hoy en día. Esto quiere decir que para entonces la tecnología había llegado, aunque de manera oblicua y persiguiendo otros fines, a la digitalización de la escritura. Un espacio indeterminado entre lo físico y lo virtual, entre lo real y lo ficticio, había sido creado gracias a la codificación electrónica y los programas de almacenado, y en él podía volcarse la letra. Ted Nelson lo había visto e imaginó su versión del “documento total” de “lectura no lineal” en ese espacio desde un principio.
Naturalmente, los informáticos sólo veían en la escritura digital la conexión necesaria entre el lenguaje humano y el lenguaje de la máquina que tiene lugar en la interfaz de un programa. Pero para Ted Nelson, interesado en la distribución, el almacenamiento y la consulta de documentos, la mera existencia de la escritura digital, abría un descomunal campo de posibilidades con las que el sistema analógico, sencillamente, no podía competir. Vannevar Bush, fascinado por la miniaturización del microfilm, nunca hubiera podido siquiera soñar con las dimensiones en las que trabaja el microchip y la capacidad de almacenaje de datos que ofrece. Ya estaba escrito que la informática iba a quedar vinculada por siempre a la revolución en la manera de concebir el texto.
La idea original de Ted Nelson es la de un nuevo universo textual “superior” al precedente, de ahí la etimología de su neologismo “hiper-texto”. En un primer momento define el concepto atendiendo poco a la realización práctica de él. Lo describe como un texto de lectura no secuencial, fragmentado y al que se accede a través de vínculos por asociaciones equivalentes a las que realiza el cerebro humano. Claramente, esta perspectiva continúa las tesis de Vannevar Bush a cerca de que la linealidad que se refleja en la escritura no da cuenta de los procesos mentales de que nos valemos los seres humanos para asimilar la información y que, por lo tanto, es necesario idear un sistema más adecuado de producción y recepción de documentos. Más adelante, influido por los avances en la presentación y usabilidad de las interfaces desarrollados sobre todo por el Xerox PARC , concreta más su definición de hipertexto y en su obra Literary Machines de 1981 , lo define de la siguiente manera:
"Con hipertexto, me refiero a una escritura no secuencial, a un texto que bifurca, que permite que el lector elija y que se lea mejor en una pantalla interactiva. De acuerdo con la noción popular, se trata de una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario"
Por supuesto estos fragmentos de texto podían ser también otro tipo de documentos como imágenes, sonidos o vídeo. Ted Nelson considera relevante la diferencia entre una red de textos exclusivamente compuestos de letra escrita y otra que incorpore también otro tipo de documentos en distintos formatos mediáticos, de manera que acuña también el término “hipermedia” para referirse a los hipertextos que incluyen imágenes y sonidos.
En principio parece un término útil para describir un concepto de documento más alejado todavía del texto impreso, pero como hemos dicho más arriba, la historia de una terminología no siempre responde a los imperativos axiomáticos de la lógica, sino, en muchas ocasiones, al albur de los impredecibles acontecimientos de una sociedad cuya racionalización está lingüísticamente mediada. Aquí queremos centrarnos en la historia de los términos, y lo cierto es que el término “hipermedia” no ha disfrutado de mucho éxito. Un dato ilustrador de esta situación aunque no excesivamente relevante, es el hecho de que la Real Academia de la lengua, recoja el término “hipertexto” y no “hipermedia”. La situación privilegiada que el término “texto” ha tenido para la crítica en los años sucesivos a las definiciones de Nelson, ha influido sin duda en el escaso éxito del neologismo. El “texto” a sido reverenciado como elemento básico de todo acto comunicativo y, bajo esta perspectiva, puede considerarse “texto” prácticamente cualquier cosa que signifique algo para alguien. La incorporación de imágenes y sonidos al hipertexto solo amplía la tipología de documentos que usamos para construir nuestro mensaje, pero en tanto que elemento comunicativo encaminado a la recepción significativa por parte de otros, el concepto hipermedia puede verse incluido dentro del término “hipertexto”, y así lo consideraremos en lo sucesivo.
Pero Ted Nelson no solamente fue un prolífico inventor de palabras. A él debemos, haciendo honor a la justicia, atribuirle la idea primigenia que más adelante dio lugar a la creación de la World Wide Web. El propio Tim Berners Lee, inventor técnico de la WWW, no tiene inconvenientes en reconocer la gran deuda adquirida con las investigaciones de su predecesor teórico.
La idea de Ted Nelson cobra forma en el proyecto Xanadú, un sistema de organización y almacenamiento de ficheros informáticos conectados por una red de vínculos que aspiraba a aglutinar todos los documentos escritos de la humanidad. El nombre, Xanadú, da cuenta de la vocación literaria y humanística de su autor. Hace referencia a la ciudad-palacio del emperador mongol Kubla Khan descrita en el poema del mismo nombre de Samuel Taylor Coleridge . Las reminiscencias idealistas y oníricas de este espacio maravilloso e inaprensible, se adecuan perfectamente al espíritu poético y visionario de Nelson, para quien Xanadú nunca dejó, ni ha dejado de ser, un sueño utópico largamente codiciado por la humanidad.
En El sueño de Coleridge, en Otras Inquisiciones , Borges pone de relieve la naturaleza onírica tanto del Xanadú lírico de Coleridge como del arquitectónico de Kubla Khan. En 1816 Coleridge publica a modo de glosa un comentario a su propio poema en el que relata cómo éste le fue sugerido en un sueño. Veinte años más tarde se publica un Compendio de historias de Rashid el-Din, que data del siglo XIV, dónde, según el omniscio Borges, podía leerse: “Al este de Shang-tu, Kublai Khan erigió un palacio, según un plano que había visto en un sueño y que guardaba en la memoria” . Kubla Khan sueña Xanadú y construye un castillo, Coleridge sueña casi mil años después Xanadú y escribe un poema… De esta concatenación de sueños, Borges deduce el plan trascendental de un ser inmortal para la construcción de Xanadú, y en vista de que el proyecto no esta acabado, no descarta que:
“…algún lector de Kubla Khan soñará, en una noche de la que nos separan los siglos, un mármol o una música. Ese hombre no sabrá que otro dos soñaron, quizá la serie de los sueños no tenga fin, quizá la clave esté en el último.”
Ted Nelson se convierte en el tercer soñante de Xanadú, y como en las empresas que le precedieron, su proyecto de utopía no será definitivo. Su Xanadú no se encuentra en el espacio tal y como lo entendemos los humanos, sino en una microscópica relación de impulsos eléctricos solamente comprensible a nuestros ojos a través de la interfaz. Tampoco está construido de mármoles; como en el del sueño de Coleridge, la materia prima del Xanadú de Nelson es mucho más duradera: el lenguaje, para muchos la materia prima de lo humano. Xanadú es el lugar donde convergen todos los discursos humanos hipervinculados entre sí. De nuevo la historia del término nos resulta más atrayente que la del concepto que pretendía abarcar: al origen y carácter onírico debía su suceso el término elegido por Nelson para su proyecto; más adelante, cuando la tecnología permitió llevar a cabo algo muy similar a su realización técnica, desapareció toda poesía y no se reparó ya más en Xanadú, sino en las posibilidades que ofrecía la Red para hacer dinero.
Hoy en día el proyecto Xanadú está totalmente eclipsado por el éxito de la WWW, y es difícil oír nada a cerca de él si no es en retrospectivas históricas a cerca del hipertexto como ésta. Aún así, tiene una página oficial en le Web, http://www.udanax.com, en la que se nos explica la trayectoria y filosofía del proyecto, así como se nos muestran ejemplos de cómo funcionaría el tipo de hipertexto preconizado por Nelson. Por supuesto, se trata éste de un sistema que tiende a maximizar las diferencias con respecto a la Web de Tim Berners-Lee, en un intento por salvaguardar su originalidad. Las diferencias que ofrece el sistema de Nelson son principalmente del orden del almacenamiento (En Xanadú se guarda una copia de cada documento con lo que son siempre accesibles todas las versiones del documento con todas sus modificaciones) y de la licencia de autoría (Nelson abogaba por un sistema de micro-pagos automáticos a la cuenta del autor de cada hipertexto que consultáramos), pero en la práctica, la enorme difusión de la WWW ha sido un valor que por sí solo ha desvirtuado todo intento de crítica o de modificación; la tónica general ha sido la de mejorar el sistema desde dentro con nuevas aplicaciones antes que hacerlo partir de cero con una organización distinta. No obstante, es interesante que la propuesta de Nelson tenga su continuidad aunque sea en un estado de aletargamiento indefinido, y es que quizás, en un posible futuro en el que la Web esté totalmente controlada por las corporaciones productoras y distribuidoras de sistemas informáticos y sus patrocinadores, se haga conveniente despertarla.
La aportación fundamental de Theodor Nelson a toda la teoría crítica es la de vincular la escritura digital y los enlaces al mundo de la investigación y la literatura.
El hipertexto ya tenía un nombre y empezaba a ser objeto de estudio desde muy diversos ámbitos para indagar en sus cualidades, sus potencialidades y su aplicabilidad. Internet no estaba prácticamente desarrollada por aquella época, así que el hipertexto se concebía como un documento independiente: un hipertexto se guardaba en disquetes que luego podían grabarse a un ordenador. Se accedía a su contenido a través de un ordenador y usando el consabido sistema de enlaces, pero no dejaba de ser un documento aislado. Xanadú pretendía superar esta situación creando una red más o menos grande de ordenadores, pero en los años sesenta la idea de una cultura de la letra informatizada, de un acceso diverso a la información y una nueva manera de producirla ya era suficiente para mantener ocupada a la comunidad académica. Sobre todo a la comunidad humanística, tradicionalmente tan reacia a la tecnología, para la que estos cambios ya suponían un elevado coste de asimilación. Muchos se mostraron escépticos ante el nuevo medio y algunos extremadamente entusiastas. Se insistía desde una parte en la incomodidad de la lectura en el ordenador, en el estatus superior del venerado libro… otros en cambio veían en el hipertexto la superación definitiva de la letra impresa por sus cualidades, y en la literatura el final de una era y de una manera de entender la ficción narrativa y la poesía.
La palabra nueva comenzaba a ser abusada por las guerras dialécticas y las distintas corrientes interpretativas para tratar de imponerle el concepto al que refería.
Las aportaciones fundamentales que tuvieron lugar en los años sucesivos a los primeros trabajos de Nelson en cuanto al Hipertexto en los años setenta y ochenta, pueden dividirse grosso modo en dos frentes: el de los tecnólogos y el de los humanistas.
sábado, 23 de agosto de 2008
APORTACIONES TÉCNICAS
Por un lado están los estudiosos que encauzaron la realización y perfeccionamiento técnico del hipertexto. Se trata de un nutridísimo número de científicos individuales y grupos de investigación, del que sólo nombraré algunos nombres relevantes, lamentando la exclusión de tantos y tantos colaboradores de proyectos grupales que con su capacidad de resolución de problemas concretos han logrado facilitar el acceso al medio digital a muchos neófitos como yo, y continúan haciéndolo.
De mención obligatoria en este apartado es Douglas Englebart , investigador en el Stanford Research Institute (EE.UU.) y uno de los auténticos pioneros de la informática. En 1942 se graduó en Ingeniería Electrónica en la Universidad Estatal de Oregón, y trabajó desde 1948 como ingeniero en la NACA (precursora de la NASA). Durante la segunda guerra mundial trabajó dos años en la marina como ingeniero de radares en Filipinas. Se trata por tanto de uno de esos científicos a los que se refería Vannevar Bush en As we may think, a los que la guerra había obligado a desviarse de sus investigaciones cotidianas, y que al término de ésta se encontraban con una avanzadísima formación tecnológica que podía ser empleada, inéditamente, en la construcción pacífica. Fascinado por la gestión de los documentos en pantalla que había tenido ocasión de observar en su trabajo con radares, nunca dejó de plantearse la manera en que estos avances podrían ayudar a mejorar la vida de las personas corrientes. A finales de los sesenta elabora un sistema de hipermedia para trabajar conjuntamente en los mismos documentos desde distintos terminales de ordenador llamado NLS (oNLine System). Este software diseñado por Englebart, incorporaba ya muchas tecnologías que hoy día utilizamos cotidianamente: el ratón, el sistema de ventanas múltiples, el hipervínculo, el control de visionado de un documento… de hecho Englebart ha generado hasta veinte patentes de sistemas informáticos indispensables para la tecnología informática tal y como la entendemos en la actualidad.
El NLS tuvo gran difusión y un papel fundamental en la formación de ARPANET (el embrión de lo que más adelante sería Internet), y muchos lo consideran el primer sistema de hipertexto operativo, aunque no fue concebido como un hipertexto sino como una plataforma en la que compartir y vincular información. Como buen tecnólogo Englebart estaba más preocupado en los procesos técnicos que en los contenidos.
Pero como veremos en adelante, la incipiente Red de comunicación que se estaba generando en el ámbito de la investigación institucional (ejército, universidades) sería en el futuro absolutamente determinante en el desarrollo del Hipertexto. El sistema de Request For Comments (RFC) que utilizaba el primer grupo de trabajo en red de ARPANET, consistía en unas publicaciones no oficiales, públicas y modificables que funcionaban como proposiciones que debían debatirse . Puede verse claramente en esta iniciativa original, pensada para optimizar mediante el libre intercambio de información la investigación científica, es decir, basada puramente en la racionalidad técnica, el germen de toda la revolución de las comunicaciones que se viviría con la explosión de Internet, dónde el derecho a la libertad de intercambio trasciende el ámbito puramente técnico para alcanzar visos éticos, filosóficos y legales.
Simultáneamente al desarrollo de ARPANET, los laboratorios Bell, un departamento de investigación del operador de telefonía estadounidense AT&T, desarrollaron Unix, un sistema operativo de red, para su comunicación interna. El hecho de que no tuviera un interés comercial dado que no había un mercado de software, sumado a que un decreto de 1965 prohibía a AT&T obtener beneficios en otros sectores que no fuera la telefonía, permitió que el programa se distribuyera gratuitamente en el ámbito de las universidades. Esto produjo a su vez una comunidad cada vez más numerosa de individuos interesados en la informática que se comunicaban, aún de manera muy rudimentaria por esta red, por el momento global sólo en potencia, que se denominó Usenet .
Andries Van Dam, de la Brown University, creador del término libro electrónico, desarrolla en 1968 el FRESS (File Retrieval and Editing System) en colaboración con sus estudiantes entre los que se encontraba el propio Theodor Nelson . Se trata de un programa para escribir hipertextos y centraba sus esfuerzos técnicos en el elemento fundamental del nuevo medio: el hipervínculo. Así, el sistema de hipervínculos era muy rico, permitiendo marcar documentos para poder acceder a ellos con un clic desde cualquier otro sitio tanto desde fuera como desde dentro del mismo documento y con la posibilidad de asignar palabras clave relacionadas con los documentos para acceder a ellos directamente. Además tenía dos tipos de hipervínculos: tags y jumps. Los primeros remitían a un documento como una nota al pie o un comentario, los jumps eran hipervínculos de ida y retorno que enlazaban documentos más distantes. En lugar de ratón funcionaba con un bolígrafo de luz y se clicaba mediante un pedal. El principal escollo del FRESS era que se trataba más bien de un prototipo. Era un sistema complejo de manejar, en el que para editar un documento era necesario tener acceso a la computadora específica en que se había desarrollado.
Tuvieron que pasar muchos años de trepidantes avances tecnológicos en el campo de la informática a “nivel usuario”, de descubrimientos y estipulación de estándares, para llegar al primer sistema de hipertexto con una interfaz gráfica dinámica e intuitiva, similar a lo que conocemos hoy día.
Fueron los años en los que se fraguó la informática, sobre todo, gracias a la investigación en el ámbito norteamericano, en las universidades y en el ejército. Se comenzaron a aplicar y a rentabilizar muchos de los inventos de Douglas Englebart, pero también surgieron nuevas aplicaciones y propuestas de grupos de trabajo como el responsable del AMM (Aspen Movie Map) desarrollado en el MIT, que consistía en una secuencia de fotografías de la ciudad de Aspen por la que el usuario podía moverse a voluntad mediante unos controladores en la pantalla.
En 1986 Peter Brown desarrolla Guide en la Universidad de Kent en un sistema Unix, primero para Macintosh y luego para el PC de IBM. Un programa que permitía por primera vez la autoría de hiperdocumentos en ordenadores personales y que ofrecía además la posibilidad de utilizar tres tipos distintos de enlaces.
Pero el formato más exitoso de producción de hipertexto que siguiera con cierta fidelidad los preceptos de Ted Nelson, fue Hypercard, en 1987. Apple lo regaló durante años con su sistema operativo, lo que hizo que Hypercard fuera el programa para escribir hipertextos más difundido de la historia. Consistía en una base de datos en la que la información se presentaba en “tarjetas” (cards), en las que podían aparecer palabras resaltadas que conducían a otras tarjetas. Numerosos sistemas de Hipertexto fueron desarrollados en los años ochenta.
Pero el Hipertexto, tal y como fue concebido por Ted Nelson, durante muchos años fue una de esas aplicaciones de la informática relegada a un plano secundario por su escasa repercusión comercial. Hasta tal punto fue determinante una versión competitiva en términos comerciales y de mercado para la publicación de Hipertextos, como es el Web, que todos los sistemas desarrollados con ese mismo fin, previos a la aparición de la WWW, se denominan hoy día “sistemas pre-Web”. En la magnífica tesis doctoral de Mª Jesús Lamarca Lapuente podemos encontrar un pormenorizado análisis de todos estos sistemas de Hipertexto pre-web . Hoy día están obsoletos, pero sus aportaciones técnicas han sido indispensables para el desarrollo actual de WWW. Y lo más importante es que, en su día, también sirvieron para que un sector del mundo de las humanidades comenzara a acercarse al fenómeno de la digitalización de la escritura experimentando, analizando y cuestionando las posibilidades que ofrecía el nuevo medio.
De mención obligatoria en este apartado es Douglas Englebart , investigador en el Stanford Research Institute (EE.UU.) y uno de los auténticos pioneros de la informática. En 1942 se graduó en Ingeniería Electrónica en la Universidad Estatal de Oregón, y trabajó desde 1948 como ingeniero en la NACA (precursora de la NASA). Durante la segunda guerra mundial trabajó dos años en la marina como ingeniero de radares en Filipinas. Se trata por tanto de uno de esos científicos a los que se refería Vannevar Bush en As we may think, a los que la guerra había obligado a desviarse de sus investigaciones cotidianas, y que al término de ésta se encontraban con una avanzadísima formación tecnológica que podía ser empleada, inéditamente, en la construcción pacífica. Fascinado por la gestión de los documentos en pantalla que había tenido ocasión de observar en su trabajo con radares, nunca dejó de plantearse la manera en que estos avances podrían ayudar a mejorar la vida de las personas corrientes. A finales de los sesenta elabora un sistema de hipermedia para trabajar conjuntamente en los mismos documentos desde distintos terminales de ordenador llamado NLS (oNLine System). Este software diseñado por Englebart, incorporaba ya muchas tecnologías que hoy día utilizamos cotidianamente: el ratón, el sistema de ventanas múltiples, el hipervínculo, el control de visionado de un documento… de hecho Englebart ha generado hasta veinte patentes de sistemas informáticos indispensables para la tecnología informática tal y como la entendemos en la actualidad.
El NLS tuvo gran difusión y un papel fundamental en la formación de ARPANET (el embrión de lo que más adelante sería Internet), y muchos lo consideran el primer sistema de hipertexto operativo, aunque no fue concebido como un hipertexto sino como una plataforma en la que compartir y vincular información. Como buen tecnólogo Englebart estaba más preocupado en los procesos técnicos que en los contenidos.
Pero como veremos en adelante, la incipiente Red de comunicación que se estaba generando en el ámbito de la investigación institucional (ejército, universidades) sería en el futuro absolutamente determinante en el desarrollo del Hipertexto. El sistema de Request For Comments (RFC) que utilizaba el primer grupo de trabajo en red de ARPANET, consistía en unas publicaciones no oficiales, públicas y modificables que funcionaban como proposiciones que debían debatirse . Puede verse claramente en esta iniciativa original, pensada para optimizar mediante el libre intercambio de información la investigación científica, es decir, basada puramente en la racionalidad técnica, el germen de toda la revolución de las comunicaciones que se viviría con la explosión de Internet, dónde el derecho a la libertad de intercambio trasciende el ámbito puramente técnico para alcanzar visos éticos, filosóficos y legales.
Simultáneamente al desarrollo de ARPANET, los laboratorios Bell, un departamento de investigación del operador de telefonía estadounidense AT&T, desarrollaron Unix, un sistema operativo de red, para su comunicación interna. El hecho de que no tuviera un interés comercial dado que no había un mercado de software, sumado a que un decreto de 1965 prohibía a AT&T obtener beneficios en otros sectores que no fuera la telefonía, permitió que el programa se distribuyera gratuitamente en el ámbito de las universidades. Esto produjo a su vez una comunidad cada vez más numerosa de individuos interesados en la informática que se comunicaban, aún de manera muy rudimentaria por esta red, por el momento global sólo en potencia, que se denominó Usenet .
Andries Van Dam, de la Brown University, creador del término libro electrónico, desarrolla en 1968 el FRESS (File Retrieval and Editing System) en colaboración con sus estudiantes entre los que se encontraba el propio Theodor Nelson . Se trata de un programa para escribir hipertextos y centraba sus esfuerzos técnicos en el elemento fundamental del nuevo medio: el hipervínculo. Así, el sistema de hipervínculos era muy rico, permitiendo marcar documentos para poder acceder a ellos con un clic desde cualquier otro sitio tanto desde fuera como desde dentro del mismo documento y con la posibilidad de asignar palabras clave relacionadas con los documentos para acceder a ellos directamente. Además tenía dos tipos de hipervínculos: tags y jumps. Los primeros remitían a un documento como una nota al pie o un comentario, los jumps eran hipervínculos de ida y retorno que enlazaban documentos más distantes. En lugar de ratón funcionaba con un bolígrafo de luz y se clicaba mediante un pedal. El principal escollo del FRESS era que se trataba más bien de un prototipo. Era un sistema complejo de manejar, en el que para editar un documento era necesario tener acceso a la computadora específica en que se había desarrollado.
Tuvieron que pasar muchos años de trepidantes avances tecnológicos en el campo de la informática a “nivel usuario”, de descubrimientos y estipulación de estándares, para llegar al primer sistema de hipertexto con una interfaz gráfica dinámica e intuitiva, similar a lo que conocemos hoy día.
Fueron los años en los que se fraguó la informática, sobre todo, gracias a la investigación en el ámbito norteamericano, en las universidades y en el ejército. Se comenzaron a aplicar y a rentabilizar muchos de los inventos de Douglas Englebart, pero también surgieron nuevas aplicaciones y propuestas de grupos de trabajo como el responsable del AMM (Aspen Movie Map) desarrollado en el MIT, que consistía en una secuencia de fotografías de la ciudad de Aspen por la que el usuario podía moverse a voluntad mediante unos controladores en la pantalla.
En 1986 Peter Brown desarrolla Guide en la Universidad de Kent en un sistema Unix, primero para Macintosh y luego para el PC de IBM. Un programa que permitía por primera vez la autoría de hiperdocumentos en ordenadores personales y que ofrecía además la posibilidad de utilizar tres tipos distintos de enlaces.
Pero el formato más exitoso de producción de hipertexto que siguiera con cierta fidelidad los preceptos de Ted Nelson, fue Hypercard, en 1987. Apple lo regaló durante años con su sistema operativo, lo que hizo que Hypercard fuera el programa para escribir hipertextos más difundido de la historia. Consistía en una base de datos en la que la información se presentaba en “tarjetas” (cards), en las que podían aparecer palabras resaltadas que conducían a otras tarjetas. Numerosos sistemas de Hipertexto fueron desarrollados en los años ochenta.
Pero el Hipertexto, tal y como fue concebido por Ted Nelson, durante muchos años fue una de esas aplicaciones de la informática relegada a un plano secundario por su escasa repercusión comercial. Hasta tal punto fue determinante una versión competitiva en términos comerciales y de mercado para la publicación de Hipertextos, como es el Web, que todos los sistemas desarrollados con ese mismo fin, previos a la aparición de la WWW, se denominan hoy día “sistemas pre-Web”. En la magnífica tesis doctoral de Mª Jesús Lamarca Lapuente podemos encontrar un pormenorizado análisis de todos estos sistemas de Hipertexto pre-web . Hoy día están obsoletos, pero sus aportaciones técnicas han sido indispensables para el desarrollo actual de WWW. Y lo más importante es que, en su día, también sirvieron para que un sector del mundo de las humanidades comenzara a acercarse al fenómeno de la digitalización de la escritura experimentando, analizando y cuestionando las posibilidades que ofrecía el nuevo medio.
APORTACIONES HUMANÍSTICAS
Si queremos rastrear la relación entre el Hipertexto y el mundo de las letras y las humanidades observaremos que ésta puede atestiguarse desde sus orígenes. El propio Ted Nelson, quien acuña el término en 1965, comienza su curriculum vitae online con la frase “I´m not a tekkie”, es decir que no se considera un tecnólogo en absoluto. Él se considera un “humanista de sistemas” (“a sistems humanist”), o bien un “poeta y un filósofo” tal y como lo definió la ministra francesa de cultura, Catherin Tasca, cuando lo envistió con los honores de Officier des Arts et Lettres .
Su relación con el objeto hipertextual es como la de un incomprendido guionista de Hollywood con el producto final que se estrena: en ocasiones, por muy bien razonado que esté un proyecto, por brillante que sea su concepción, ve supeditada su realización ulterior a la aceptación de múltiples condicionantes que en la mayoría de casos terminan por desvirtuar el valor artístico de la obra. Un actor de moda, una ligera o drástica suavización de los textos para abarcar al público masivo, la decisión de rodar en un estudio y no en otro por cuestiones de tráfico de favores… son todo ello decisiones tomadas al margen del interés por la calidad artística de la película, pero que resultan de una relevancia absoluta a la hora de optimizar los beneficios económicos. Solo en algunos casos concretos, y siempre de manera fortuita, estas modificaciones al original contribuyen a aumentar el valor del producto. En el ámbito del Hipertexto y de forma más patente en el de la informática en general, ha sucedido algo similar: las ideas de muchos teóricos enderezadas a mejorar el mundo y la comunicación entre las personas a través de la informática, se han topado con las exigencias de un tipo de competitividad determinada, en un tipo de mercado concreto, que en muchos casos ha coartado definitivamente su potencial de mejora social. No obstante mencionaremos, en este somero recorrido cronológico por los avatares del término, algunas de las iniciativas que se plantearon con anterioridad a la explosión Web.
Su relación con el objeto hipertextual es como la de un incomprendido guionista de Hollywood con el producto final que se estrena: en ocasiones, por muy bien razonado que esté un proyecto, por brillante que sea su concepción, ve supeditada su realización ulterior a la aceptación de múltiples condicionantes que en la mayoría de casos terminan por desvirtuar el valor artístico de la obra. Un actor de moda, una ligera o drástica suavización de los textos para abarcar al público masivo, la decisión de rodar en un estudio y no en otro por cuestiones de tráfico de favores… son todo ello decisiones tomadas al margen del interés por la calidad artística de la película, pero que resultan de una relevancia absoluta a la hora de optimizar los beneficios económicos. Solo en algunos casos concretos, y siempre de manera fortuita, estas modificaciones al original contribuyen a aumentar el valor del producto. En el ámbito del Hipertexto y de forma más patente en el de la informática en general, ha sucedido algo similar: las ideas de muchos teóricos enderezadas a mejorar el mundo y la comunicación entre las personas a través de la informática, se han topado con las exigencias de un tipo de competitividad determinada, en un tipo de mercado concreto, que en muchos casos ha coartado definitivamente su potencial de mejora social. No obstante mencionaremos, en este somero recorrido cronológico por los avatares del término, algunas de las iniciativas que se plantearon con anterioridad a la explosión Web.
Iniciativas encaminadas a la publicación y almacenaje de textos tradicionales y su publicación en una red hiper-vinculada.
Recordemos que se trata éste de un objetivo capital e indisociable de toda propuesta Hipertextual desde aquella máquina Memex de Vannevar Bush hasta el proyecto Xanadú de Theodor Nelson.
La tentativa más exitosa hasta la fecha de conversión al formato digital de textos tradicionales es, sin duda, por su antigüedad y su adaptabilidad a los sucesivos avances informáticos, el Proyecto Gutenberg. Se trata a su vez de un producto indisociable de la tecnología que permitió la posibilidad de publicar documentos digitales accesibles desde cualquier ordenador, es decir, Internet. En el año 1971 la incipiente red conocida como ARPANET, conectaba diversas universidades norteamericanas mediante quince ordenadores que realizaban la función de nodos principales. A Michael Hart, estudiante en aquella época de la universidad de Illinois, le fue dado trabajar con uno de estos ordenadores, el Xerox Sigma V en una época en la que el potencial de Internet era todavía mayor que las ideas a cerca de qué hacer realmente con él. El joven Hart se encontró con un valiosísimo tiempo de conexión a una red que ofreciendo posibilidades casi infinitas, carecía prácticamente de contenidos. De hecho, el joven Michael, que no se veía capaz de aportar gran cosa en el ámbito de tecnología de computerización, decidió emplear el tiempo de conexión del que disponía en dotar a la red de contenidos. El primer texto que incorporó fue la Declaración de Independencia de los Estados Unidos (por supuesto debía ser un texto libre de derechos de autor) y lo envió a todos los terminales a los que tenía acceso, no más de un centenar de personas, como si de un actual virus informático se tratara. Así nació el primer e-Book del proyecto Gutenberg, siguiendo la terminología de Andrie Van Dam para referirse a las publicaciones digitales. Nosotros preferimos utilizar el adjetivo “digital” en lugar de “electrónico” tal y como recomienda la Presentación del número 142 de la revista Novatica, que recoge una selección de artículos de las Jornadas de Publicación Electrónica: un Nuevo Espacio de Comunicación, celebradas en la Universidad Carlos III de Madrid en Julio de 1999 .
Hoy en día el Proyecto Gutenberg cuenta con un ideario bien definido en el que se expone su filosofía, y con más de cincuenta mil libros digitales publicados en más de cuarenta lenguas distintas. Se trata de un proyecto de colaboración en el que cada usuario puede contribuir con su tiempo o dinero en las múltiples tareas que requiere el mantenimiento y ampliación de todo el servicio. La contrapartida de todo esto es que su propia magnitud está complicando en la actualidad su capacidad de crecimiento, tanto por problemas técnicos de almacenaje, como por agotamiento de los recursos humanos necesarios.
Pero el proyecto continúa y lo hace siendo fiel a sus premisas de gratuidad y accesibilidad, lo cual es muy meritorio en una sociedad racionalizada en torno a la productividad material. Ante todo, creemos que Michael Hart merece ser recordado por su capacidad visionaria. En un momento en el que la Red era un sistema de comunicación ínfimo, él supo ver el potencial que albergaba y vislumbró un futuro en el que miles de millones de personas podrían acceder a miles de millones de libros simultáneamente. Michael Hart supo ver y aprovechar una cualidad importantísima de la tecnología digital, la que él denomino Replicator Technology, que consiste en la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo (“o de fuera de este mundo gracias a los satélites”, se atreve a bromear en la página oficial del Proyecto) .
No han sido pocos los escollos que el proyecto de Michael Hart ha tenido que sortear para mantenerse activo durante treinta y seis años. Su propuesta de distribución pública y gratuita cuestionó desde el momento en que se subió a la red la primera letra, la utilidad de mantener un sistema editorial que basa la mayoría de sus ingresos en ofrecer unos servicios (de recopilación y distribución de obras clásicas) que se tornaban innecesarios, al menos en el nivel más primario de acceso al texto, es decir, el de el acceso al texto llano sin demasiada precisión filológica. Esto ha supuesto naturalmente fuertes tensiones con el mercado editorial y con las sociedades de autores que continuamente pugnan por ampliar el plazo de prescripción de los derechos autoriales. No es en absoluto casualidad que el Proyecto Gutenberg no haya tenido prácticamente resonancia mediática, ya que por su naturaleza marginal al sistema económico capitalista no se ha podido invertir en propaganda para su visibilización. Antes bien, los fortísimos intereses económicos que el Proyecto pone en peligro, se han esforzado en silenciarlo y boicotearlo en la medida de sus posibilidades, y buena prueba de ello es el hecho de que ningún gobierno ha consentido apoyar un servicio que, en el fondo, no dista del ofrecido por las bibliotecas públicas.
La “Tecnología de Replicación” supuso un paso adelante demasiado grande para ser asumido por el Marco Institucional de las sociedades desarrolladas. Lo atestiguan las continuas polémicas suscitadas por los programas que permiten compartir datos como Napster, e-Mule… (herederos, todos ellos, de la iniciativa original de Michael Hart) que han puesto de manifiesto una importante laguna legal: ¿debe ponerse cortapisas al avance tecnológico por mor del mantenimiento de un sistema que no favorece a la mayoría? ¿Debe punirse la voluntad de compartir sin ánimo lucrativo lo que uno tiene? Lo cierto es que los defensores del “antiguo régimen” como por ejemplo la SGAE —un organismo que funciona con el mismo espíritu conservador e interesado de los gremios medievales— han intentado “parchear” la situación con la imposición de tasas a la compra de cedés vírgenes y otro tipo de medidas de dudosa moralidad , que en cambio han contado con el beneplácito de las autoridades estatales y la justicia.
Puede decirse que Michael Hart es la persona que durante más tiempo ha sufrido la patente falta de simetría entre los cauces legales tradicionales de distribución y recepción de la propiedad intelectual y los nuevos modelos de comunicación instaurados por Internet. En una magnífica entrevista realizada por Sam Vaknin en 2005, Hart resumía con esta tesis concisa e incisiva, la base de todo el problema:
I would have to say the most important thing I learned in the past 35 years of thinking about eBooks is that the underlying philosophy since time immemorial is:
"It is better if I have it, and YOU do NOT have it."
En cualquier caso la situación actual del Proyecto Gutenberg es muy interesante ya que en la nuevísima generación de contenido Web estamos siendo testigos de un renacimiento de este tipo de iniciativas basadas en compartir desinteresadamente y de manera cada vez más sencilla. Por supuesto el Proyecto Gutenberg no ha permanecido al margen de los nuevos sistemas de gestión de contenidos Wiki ni de los formatos de publicación cada vez más versátiles.
Además del Proyecto Gutemberg en los últimos diez años y gracias a la tecnología Web, han proliferado las bibliotecas digitales por todo el mundo. La Universidad de Alicante publica una lista de las bibliotecas digitales y virtuales más importantes de España y Estados Unidos, entre las que cabe destacar la del Instituto Cervantes , que es una compilación de 280 proyectos de bibliotecas virtuales, o la Virtual Library of the W3 Consortium fundada por el propio Tim Berners Lee, que constituye un importante índice de contenidos académicos en la Web realizado por especialistas de cada campo. Lo más interesante de estas iniciativas es que pretenden proveer de versiones de los textos tan fidedignas y precisas como cualquier libro editado en forma tradicional.
Pero no nos interesa aquí desviarnos del análisis de los sistemas hipertextuales pre-Web. Los e-Books de Michael Hart cubren una parcela importante de la noción que pretende abarcar el hipertexto: la de crear un índice accesible que contenga toda la literatura mundial. Pero para llegar a ser hipertextos les falta la característica imprescindible de estar conectados entre sí por una red no jerárquica de hipervínculos por la que el lector pueda moverse a voluntad. Tal y como está planteado el proyecto de Hart, se trata más bien de una base de datos de textos digitales que de un auténtico sistema de hipertexto.
Esto nos lleva al siguiente tipo de iniciativa de orientación Humanista, enderezada a dotar de contenido real al concepto, hasta el momento tenue y etéreo, del hipertexto.
La tentativa más exitosa hasta la fecha de conversión al formato digital de textos tradicionales es, sin duda, por su antigüedad y su adaptabilidad a los sucesivos avances informáticos, el Proyecto Gutenberg. Se trata a su vez de un producto indisociable de la tecnología que permitió la posibilidad de publicar documentos digitales accesibles desde cualquier ordenador, es decir, Internet. En el año 1971 la incipiente red conocida como ARPANET, conectaba diversas universidades norteamericanas mediante quince ordenadores que realizaban la función de nodos principales. A Michael Hart, estudiante en aquella época de la universidad de Illinois, le fue dado trabajar con uno de estos ordenadores, el Xerox Sigma V en una época en la que el potencial de Internet era todavía mayor que las ideas a cerca de qué hacer realmente con él. El joven Hart se encontró con un valiosísimo tiempo de conexión a una red que ofreciendo posibilidades casi infinitas, carecía prácticamente de contenidos. De hecho, el joven Michael, que no se veía capaz de aportar gran cosa en el ámbito de tecnología de computerización, decidió emplear el tiempo de conexión del que disponía en dotar a la red de contenidos. El primer texto que incorporó fue la Declaración de Independencia de los Estados Unidos (por supuesto debía ser un texto libre de derechos de autor) y lo envió a todos los terminales a los que tenía acceso, no más de un centenar de personas, como si de un actual virus informático se tratara. Así nació el primer e-Book del proyecto Gutenberg, siguiendo la terminología de Andrie Van Dam para referirse a las publicaciones digitales. Nosotros preferimos utilizar el adjetivo “digital” en lugar de “electrónico” tal y como recomienda la Presentación del número 142 de la revista Novatica, que recoge una selección de artículos de las Jornadas de Publicación Electrónica: un Nuevo Espacio de Comunicación, celebradas en la Universidad Carlos III de Madrid en Julio de 1999 .
Hoy en día el Proyecto Gutenberg cuenta con un ideario bien definido en el que se expone su filosofía, y con más de cincuenta mil libros digitales publicados en más de cuarenta lenguas distintas. Se trata de un proyecto de colaboración en el que cada usuario puede contribuir con su tiempo o dinero en las múltiples tareas que requiere el mantenimiento y ampliación de todo el servicio. La contrapartida de todo esto es que su propia magnitud está complicando en la actualidad su capacidad de crecimiento, tanto por problemas técnicos de almacenaje, como por agotamiento de los recursos humanos necesarios.
Pero el proyecto continúa y lo hace siendo fiel a sus premisas de gratuidad y accesibilidad, lo cual es muy meritorio en una sociedad racionalizada en torno a la productividad material. Ante todo, creemos que Michael Hart merece ser recordado por su capacidad visionaria. En un momento en el que la Red era un sistema de comunicación ínfimo, él supo ver el potencial que albergaba y vislumbró un futuro en el que miles de millones de personas podrían acceder a miles de millones de libros simultáneamente. Michael Hart supo ver y aprovechar una cualidad importantísima de la tecnología digital, la que él denomino Replicator Technology, que consiste en la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo (“o de fuera de este mundo gracias a los satélites”, se atreve a bromear en la página oficial del Proyecto) .
No han sido pocos los escollos que el proyecto de Michael Hart ha tenido que sortear para mantenerse activo durante treinta y seis años. Su propuesta de distribución pública y gratuita cuestionó desde el momento en que se subió a la red la primera letra, la utilidad de mantener un sistema editorial que basa la mayoría de sus ingresos en ofrecer unos servicios (de recopilación y distribución de obras clásicas) que se tornaban innecesarios, al menos en el nivel más primario de acceso al texto, es decir, el de el acceso al texto llano sin demasiada precisión filológica. Esto ha supuesto naturalmente fuertes tensiones con el mercado editorial y con las sociedades de autores que continuamente pugnan por ampliar el plazo de prescripción de los derechos autoriales. No es en absoluto casualidad que el Proyecto Gutenberg no haya tenido prácticamente resonancia mediática, ya que por su naturaleza marginal al sistema económico capitalista no se ha podido invertir en propaganda para su visibilización. Antes bien, los fortísimos intereses económicos que el Proyecto pone en peligro, se han esforzado en silenciarlo y boicotearlo en la medida de sus posibilidades, y buena prueba de ello es el hecho de que ningún gobierno ha consentido apoyar un servicio que, en el fondo, no dista del ofrecido por las bibliotecas públicas.
La “Tecnología de Replicación” supuso un paso adelante demasiado grande para ser asumido por el Marco Institucional de las sociedades desarrolladas. Lo atestiguan las continuas polémicas suscitadas por los programas que permiten compartir datos como Napster, e-Mule… (herederos, todos ellos, de la iniciativa original de Michael Hart) que han puesto de manifiesto una importante laguna legal: ¿debe ponerse cortapisas al avance tecnológico por mor del mantenimiento de un sistema que no favorece a la mayoría? ¿Debe punirse la voluntad de compartir sin ánimo lucrativo lo que uno tiene? Lo cierto es que los defensores del “antiguo régimen” como por ejemplo la SGAE —un organismo que funciona con el mismo espíritu conservador e interesado de los gremios medievales— han intentado “parchear” la situación con la imposición de tasas a la compra de cedés vírgenes y otro tipo de medidas de dudosa moralidad , que en cambio han contado con el beneplácito de las autoridades estatales y la justicia.
Puede decirse que Michael Hart es la persona que durante más tiempo ha sufrido la patente falta de simetría entre los cauces legales tradicionales de distribución y recepción de la propiedad intelectual y los nuevos modelos de comunicación instaurados por Internet. En una magnífica entrevista realizada por Sam Vaknin en 2005, Hart resumía con esta tesis concisa e incisiva, la base de todo el problema:
I would have to say the most important thing I learned in the past 35 years of thinking about eBooks is that the underlying philosophy since time immemorial is:
"It is better if I have it, and YOU do NOT have it."
En cualquier caso la situación actual del Proyecto Gutenberg es muy interesante ya que en la nuevísima generación de contenido Web estamos siendo testigos de un renacimiento de este tipo de iniciativas basadas en compartir desinteresadamente y de manera cada vez más sencilla. Por supuesto el Proyecto Gutenberg no ha permanecido al margen de los nuevos sistemas de gestión de contenidos Wiki ni de los formatos de publicación cada vez más versátiles.
Además del Proyecto Gutemberg en los últimos diez años y gracias a la tecnología Web, han proliferado las bibliotecas digitales por todo el mundo. La Universidad de Alicante publica una lista de las bibliotecas digitales y virtuales más importantes de España y Estados Unidos, entre las que cabe destacar la del Instituto Cervantes , que es una compilación de 280 proyectos de bibliotecas virtuales, o la Virtual Library of the W3 Consortium fundada por el propio Tim Berners Lee, que constituye un importante índice de contenidos académicos en la Web realizado por especialistas de cada campo. Lo más interesante de estas iniciativas es que pretenden proveer de versiones de los textos tan fidedignas y precisas como cualquier libro editado en forma tradicional.
Pero no nos interesa aquí desviarnos del análisis de los sistemas hipertextuales pre-Web. Los e-Books de Michael Hart cubren una parcela importante de la noción que pretende abarcar el hipertexto: la de crear un índice accesible que contenga toda la literatura mundial. Pero para llegar a ser hipertextos les falta la característica imprescindible de estar conectados entre sí por una red no jerárquica de hipervínculos por la que el lector pueda moverse a voluntad. Tal y como está planteado el proyecto de Hart, se trata más bien de una base de datos de textos digitales que de un auténtico sistema de hipertexto.
Esto nos lleva al siguiente tipo de iniciativa de orientación Humanista, enderezada a dotar de contenido real al concepto, hasta el momento tenue y etéreo, del hipertexto.
Los primeros pasos de la ficción hipertextual
La ficción hipertextual, es uno de los fenómenos más interesantes de la literatura actual. Ahora nos gustaría dar cuenta de sus inicios, de los primeros autores que experimentaron con el nuevo formato y teorizaron acerca de lo que el hipertexto aportaba al panorama literario. Para ello nos es indispensable remitir al final del apartado de este capítulo dedicado a las aportaciones técnicas, donde se habla de los sistemas pre-Web de producción hipertextual.
Como se ha dicho más arriba, durante los años ochenta se produjo una gran proliferación de programas de “edición digital”. Programas que ofrecían herramientas a los escritores para organizar sus textos introduciendo hipervínculos de varios tipos, diagramas del contenido, etc. La profesora Mª José Lamarca Lapuente, ha confeccionado una exhaustiva lista de todos estos programas detallando cada una de sus características técnicas. Sin ninguna duda es un recorrido interesantísimo por la historia de la “era digital”, y de una relevancia indispensable para todo aquel que se acerque al fenómeno de la literatura hipertextual, pero no podemos permitirnos aquí gastar un espacio precioso en describir sistemas que han quedado obsoletos cuyos productos nunca han terminado de adecuarse a lo que la sociedad actual requiere. De modo que nos centraremos en señalar algunos de los artefactos artísticos concretos y de los autores que de mayor visibilidad han disfrutado entre la crítica en general.
La empresa más a la vanguardia en lo que a comercialización de programas de producción hipertextual se refiere, era por los años ochenta Eastgate Systems . En 1986 Jay David Bolter, John B. Smith y Michael Joyce diseñaron para Eastgate un programa dirigido a escritores que quisieran adentrarse en la nueva ficción hipertextual: Storyspace. Explotando al máximo sus posibilidades, uno de sus creadores, el propio Michael Joyce, escribe Afternoon, a story, que se ha convertido en el hipertexto de ficción más citado y reseñado de la historia del medio.
Se trata de un relato fragmentado en el que la mayoría de palabras constituyen un vínculo a otros fragmentos del relato. El lector se ve impelido a explorar el documento en busca del rastro de un sentido que no se le ofrece expedito, contribuyendo como co-autor a la configuración de la trama y su conclusión (o la falta de ella). Cada lector realiza su propio recorrido particular, diferente al de los demás en cuanto al orden de lectura, y esta exclusividad del texto al que cada lector accede, se intensifica gracias a un ingenioso recurso por el cual las palabras vinculadas del mismo fragmento varían según se haya llegado a él desde una u otra lexía (o fragmento del hipertexto) .
La publicación de Afternoon representa un momento clave para la historia del término hipertexto. Michael Joyce consigue llevar más allá la noción de “publicación digital” de lo que proponía el libro electrónico de Michael Hart, donde los vínculos, de existir, son meras herramientas para facilitar la exploración del texto. En Afternoon, el vínculo se presenta como elemento tectónico en la elaboración del relato, como instrumento indispensable para llevar adelante la ficción literaria. Por primera vez se pone en marcha un artefacto literario basado totalmente en la escritura digital, que desafía preceptos ancestralmente asumidos en la creación literaria como la linealidad, la univocidad, la conclusión y la singularidad, desvelándolos, más a las claras que nunca, productos de la tiranía de una determinada tecnología de la escritura: la del soporte físico de la tinta.
Naturalmente no fue Michael Joyce el primero en cuestionar los fundamentos más sacros de la literatura. El arte del siglo XX se ha caracterizado precisamente por un continuo movimiento de disensión con los valores establecidos. Ya las vanguardias históricas en los años veinte, y muy especialmente en el ámbito de las artes plásticas, pusieron en evidencia la especificidad de su medio físico, rompiendo con una tradición secular de operar en el arte, que consistía en solapar las propias técnicas artísticas que se empleaban. La técnica del collage, que incorpora elementos de la realidad al plano de lo que antes sólo era mimesis de ésta, es quizás la muestra más patente y emblemática de este desafío a la Historia del Arte universal . Y no olvidemos el importante papel que desempeñaron acontecimientos tan prosaicos como los avances tecnológicos en materia de óptica, con la aparición de la cámara fotográfica, para el desarrollo de estas nuevas sensibilidades artísticas. Así mismo en teatro, el expresionismo alemán o el constructivismo, eran movimientos que exhibían pródigamente los artificios propios del medio teatral, y lo hacían simultáneamente al desarrollo y perfeccionamiento de las técnicas cinematográficas.
Pero sin movernos del campo literario, son múltiples los ejemplos de obras vanguardistas que se proponen derribar los mismos principios que el hipertexto, por sus propias características formales, suspende. El Cesar Vallejo de Escalas melografiadas , salta de un género discursivo a otro, de una voz narrativa a otra, de un tiempo a otro de la narración, de una manera que difícilmente podemos catalogarlo de lineal; la obra El público de Federico García Lorca, probablemente su incursión más radical en el surrealismo, carece absolutamente de conclusión; en cuanto a la univocidad, se trata de un antiguo caballo de batalla del siglo XX desde que Batjin reivindicara la polifonía en las obras literarias; finalmente, la singularidad de la obra artística también fue puesta en entredicho con la práctica de las performances ofensivas cuyo desarrollo dependía de la reacción del público, o mediante muchas de las propuestas dadaístas que incorporan objetos fruto de la producción en cadena a la palestra artística.
Hoy en día los autores con características hipertextuales más mencionados por la crítica son Borges y Cortazar.
En efecto, si tomamos una obra como El jardín de senderos que se bifurcan, casi nos parece inquietantemente premonitoria la descripción que Stephen Albert hace de la novela de Ts'ui Pên, al confrontarla con la actual estructura de los hipertextos:
Creía en infinitas series de tiempos, en una red creciente y vertiginosa de tiempos divergentes, convergentes y paralelos. Esa trama de tiempos que se aproximan, se bifurcan, se cortan o que secularmente se ignoran, abarca todas la posibilidades .
Recientemente en el curso Literatura i cultura llatinoamericana: discursos en la frontera, inscrito en el congreso Per la mar, sense fronteres que se celebró en Gandía en julio de 2007, el profesor Eduardo Ramos señalaba muy acertadamente un precedente en el mismo Borges de una propuesta de escritura hipertextual. Se trata de la falsa reseña titulada Examen de la obra de Herbert Quain recogida en Ficciones en 1941. Aquí Borges nos habla de una novela, April March, que define como “novela regresiva, ramificada” en la que a partir de un nodo central se van abriendo posibilidades que determinan otras posibilidades, exactamente como hace Michael Joyce en Afternoon.
Rayuela , por su parte, tiene una estructura eminentemente hipertextual, ya que rompe con la linealidad absolutamente, haciéndonos saltar de unos fragmentos de texto a otros mediante unas indicaciones a final de cada capítulo que recuerdan tremendamente a los hipervínculos. El final dudoso de la novela que desde el capítulo 131 nos remite al capítulo 58 para volver a remitirnos al 131 y así en un bucle más o menos infinito, refleja a la perfección la sensación que se experimenta al acercarse al final de Afternoon, cuando el lector comprueba cómo todos los hipervínculos que clica, le remiten a fragmentos ya leídos del texto.
Por supuesto Michael Joyce es ávido lector de sus predecesores y no le cuesta confesar su deuda contraída con Borges y Cortazar . De hecho, esta influencia patente nos lleva a reflexionar en qué medida los hipertextos producidos en programas pre-Web, tan influidos todos por la obra de Michael Joyce, no sean sino la puesta en práctica de unas ideas bien antiguas aprovechando nuevas tecnologías, antes que la evolución paradigmática del texto que conocemos, como pretenden sus vendedores. Porque Eastgate, y las demás empresas productoras de programas de creación de hipertextos, no dejan de ser marcas comerciales cuyo máximo interés reside en vender su producto. No podemos olvidar que Afternoon: a story, además de un indiscutible referente para toda la posterior ficción hipertextextual, era un modelo demostrativo de las posibilidades creativas que ofrecía el nuevo lanzamiento comercial de Eastgate, el programa Storyspace, en manos de uno de sus diseñadores. Hoy en día, gracias a la excelente promoción que les brindó el éxito de Afternoon: a story, Eastgate sigue vendiendo su programa Storyspace al más que razonable precio de 295 dólares.
Es cierto que estas plataformas que facilitaban la autoedición de hipertextos suscitaron gran entusiasmo en los años ochenta y Eastgate albergó a muchos de los autores pioneros de la crítica y la literatura hipertextual, como es el caso de Stuart Moulthrop, Shelley Jackson, Deena Larsen… todos ellos grandes teóricos de la literatura hipertextual, y sin duda reconocidísimos autores de ficciones hipertextuales. De hecho, gracias a la repercusión de muchos de estos autores que participaron del proyecto, hoy en día, Eastage consigue mantenerse a base de su papel como “distribuidora” de obras hipertextuales diseñadas con sus programas.
Pero el interés de toda iniciativa privada nunca es “mejorar el mundo”, como rezan sus campañas publicitarias, sino “aumentar sus ingresos”, y una buena manera de conseguirlo siempre ha sido la de introducir en el mercado un artefacto remediador de un problema que previamente no existía. Tanto más en la era de revolución tecnológica continua en la que vivimos.
Lo cierto es que, transcurridas dos décadas y un año desde la publicación de Afternoon, la popularidad de estos artefactos literarios producidos en sistemas del tipo Storyspace, lejos de crecer, ha disminuido bastante. Como veremos inmediatamente, la World Wide Web tiene mucho que ver con esto, pero además, consideramos que esta especie de objeto comercial que es Storyspce, que se autoimpone indispensable para la producción del hipertexto, restringe en tal medida la amplitud del término, que las obras producidas en este sistema, en nuestra opinión, no hubieran podido en ningún caso protagonizar la revolución literaria “definitiva” que en sus inicios preconizaban.
La primera restricción que supone un programa como Storyspace es la de producir documentos aislados. Estos programas hacen realidad punto por punto la definición nelsoniana de hipertexto en sus aspectos técnicos: permiten la producción de documentos formados por “una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario”. Su foco de atención recae sobre aquel anhelo al que aspiraba Vannevar Bush de crear un sistema de organización textual más acorde con los procesos perceptivos y asociativos del cerebro humano, que se emancipara de las limitaciones de un tipo determinado de tecnología basada en la linealidad. Y en este sentido cubren con bastante éxito la carencia de la que adolecía el e-book, de Michael Hart, que se limitaba a reproducir una tecnología analógica en formato digital.
Pero al mismo tiempo, por tratarse de artefactos aislados, cuyos vínculos no pueden exceder por razones comerciales los límites de la compilación de fragmentos que dispone el autor, estos documentos traicionan una de las aspiraciones más interesantes de la noción de hipertexto: la de generar una red de textos que fuera capaz, en potencia, de albergar la totalidad de documentos que se produjeran en el mundo; precisamente el propósito establecido por Michael Hart en su Proyecto Gutenberg y, por supuesto, por Ted Nelson en Xanadu. La manera en que se comercializan, distribuyen y adquieren los hipertextos de Eastgate, explota óptimamente los recursos más avanzados de la “era de la reproductividad técnica”, pero no aprovecha el avance comunicativo más sustancial que le brinda la tecnología de Internet: la tecnología de replicación, la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo. Este tipo de hipertextos son copias que facilita la empresa distribuidora a sus compradores vía Internet y que solo pueden ser explorado por el comprador.
Adquirir uno de estos artefactos es como comprar una película o una fotocopia, pero lo que Internet nos propone funciona mucho más acorde con la filosofía globalizadora del hipertexto: nos ofrece un lugar en el que publicar una copia y que ésta se replique en la pantalla de todo aquel que acceda a ella simultáneamente. Se producen exactamente el mismo número de copias que terminales de ordenador la solicitan, y estas copias existen durante el mismo tiempo que dura su consulta. Con la añadidura de que los consultantes pueden guardar una copia perpetua del documento en su disco duro. Pero semejante facilidad para la transmisión de la información puede ser cualquier cosa menos rentable en términos económicos, y es por ello que se eludieron las posibilidades que ofrecía la tecnología replicante en las versiones comerciales que las empresas privadas desarrollaron del hipertexto en los años ochenta, tan apropiada para los objetivos organizativos y comunicativos que se perseguían,.
El otro problema que encuentro en esta noción concreta de hipertexto, no tiene tanto que ver con sus características técnicas o de distribución como con una cierta actitud de sus alentadores provenientes sobre todo del ámbito de la crítica literaria. El hipertexto literario fue presentado invariablemente por todo aquel que se interesó en el tema, como una forma de superación de la literatura en tanto que la tecnología rizomática de escritura de que se servía (tan apropiada al parecer a los mecanismos de asociación del cerebro humano) superaba la tecnología lineal de escritura precedente. Con ello se estaba diciendo que la forma tradicional de escritura había llegado a su fin y que sería sustituida por una nueva manera de comunicarse entre las personas, y de comunicar los propios sentimientos. La “muerte del libro” de la que tanto se venía hablando desde finales de los sesenta se concretaba literalmente, y en el lugar de los viejos tomos polvorientos surgía el hipertexto con sus ramificaciones asociativas entre nodos, a imagen y semejanza de los enlaces neuronales y los impulsos eléctricos que rigen el cerebro humano. De nuevo el ímpetu imaginativo llegaba al paroxismo alucinado como cuando Vannevar Bush pretendió conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente igual que el resto de actividades intelectuales.
Como hemos visto, detrás de este entusiasmo desaforado en torno al modelo de hipertexto literario que se estaba produciendo en los años ochenta, había en muchas ocasiones un interés puramente comercial. Pero además, consideramos que la situación por la que atravesaba la teoría literaria en aquellos años, en muchos sentidos servía de acicate a los teóricos que postulaban revoluciones copernicanas. La corriente post-estructuralista originada principalmente en Francia en torno a los acontecimientos del sesenta y ocho, cuajó en el ámbito académico norteamericano y se extendió por todo el orbe humanístico. Se comenzó a hablar de post-modernidad para describir los cambios sustanciales que experimentaba la sociedad; los principios en los que se asentaba la racionalización occidental eran cuestionados y, en la mayoría de producciones críticas de este periodo, se percibe una sensación de crisis de un modelo en el que algo ha cambiado o tiene que cambiar. De hecho, es muy interesante cotejar, como muchos otros han hecho, las nuevas nociones teóricas acerca del conocimiento, el texto, el arte, las instituciones… que se producen en esta época —casi siempre al margen de la investigación informática— con las innovaciones tecnológicas simultáneas que iban a alterar para siempre muchos de estos mismos conceptos. Pero este tema será tratado en profundidad en un apartado específico de esta tesis que se ocupará de las convergencias teóricas entre hipertexto y teoría crítica postmoderna.
Que los estudios literarios y sociológicos de grandes pensadores como Derrida, Roland Barthes, Foucault o Deleuze, estuvieran en estrecha relación con las nuevas formas de la tecnología de la comunicación, no es algo de lo que quepa sorprenderse. Ahora bien, que el formato de hipertexto en el que se desarrolla Afternoon: a story, fuera a sustituir la literatura impresa, me parece de una osadía tal que no soporta la crítica más exigua.
En primer lugar tenemos que sumarnos a la voz de Susana Pajares Tosca , en el tema referente a la supuesta identificación del sistema de almacenamiento y disposición del hipertexto con el modo en que se comporta el cerebro humano ante los datos e impulsos externos. Lo que esta autora afirma en su libro, Literatura digital: el paradigma hipertextual, es que no puede plantearse una reproducción de ningún tipo del pensamiento cuando “ni siquiera los neurólogos están seguros de cómo funciona exactamente la mente humana” (Pajares Tosca 2004: 38).
Un hipervínculo que relaciona dos fragmentos de texto puede “sugerir” la asociación mental que experimentamos cuando conocemos a alguien que nos recuerda a otra persona, cuando leemos algo en una novela que evoca a otro texto literario… pero todo eso no equivale a la reproducción de un sistema como el de la psique humana con sus anhelos, sus complejos, su capacidad creativa, su sensibilidad, sus dudas, sus miedos y, en definitiva, su libertad, porque a fin de cuentas, la principal limitación de los hipertextos en sistemas del tipo Storyspace, es el hecho de que el lector no pueda exceder las posibilidades de elección que le traza el autor.
Lo que nos propone un hipertexto como Afternoon: a story es una tecnología que facilita enormemente la realización de ciertas actividades que ya estaban incluidas en la textualidad tradicional como posibilidades marginales, tal y como demuestran numerosos ejemplos de la literatura clásica a parte de los ya mencionados. Y las ha facilitado hasta el punto de convertirse en absolutamente centrales. Del mismo modo en que el medio impreso o físico impone al texto escrito una posición central y a los textos relacionados una posición de marginalidad, así, con la nueva tecnología, se disuelve toda relación jerárquica entre el texto base y sus relaciones. La “relación” es lo que pasa a ocupar el centro de interés.
Este tipo de hipertextos (que no dejan de ser una interesante forma de expresión) proporcionan un nuevo medio, no la superación del ancestral método de producción y recepción de textos que es la escritura. Afirmar una cosa así sería como afirmar que el cine es la superación del teatro por el hecho de que resuelva con facilidad muchos aspectos de la dramatización de una obra literaria que resultaban problemáticos en el medio teatral.
La aparición de un nuevo medio puede imponer la reorganización de los otros medios, puede afectar a su popularidad, puede, incluso, inducir a los autores de otros medios a modificar sustancialmente la forma y el contenido de sus obras, en muchas ocasiones reforzando la especificidad del medio en que trabajan, pero en ningún caso puede sustituirlos situándose en su lugar.
Como se ha dicho más arriba, durante los años ochenta se produjo una gran proliferación de programas de “edición digital”. Programas que ofrecían herramientas a los escritores para organizar sus textos introduciendo hipervínculos de varios tipos, diagramas del contenido, etc. La profesora Mª José Lamarca Lapuente, ha confeccionado una exhaustiva lista de todos estos programas detallando cada una de sus características técnicas. Sin ninguna duda es un recorrido interesantísimo por la historia de la “era digital”, y de una relevancia indispensable para todo aquel que se acerque al fenómeno de la literatura hipertextual, pero no podemos permitirnos aquí gastar un espacio precioso en describir sistemas que han quedado obsoletos cuyos productos nunca han terminado de adecuarse a lo que la sociedad actual requiere. De modo que nos centraremos en señalar algunos de los artefactos artísticos concretos y de los autores que de mayor visibilidad han disfrutado entre la crítica en general.
La empresa más a la vanguardia en lo que a comercialización de programas de producción hipertextual se refiere, era por los años ochenta Eastgate Systems . En 1986 Jay David Bolter, John B. Smith y Michael Joyce diseñaron para Eastgate un programa dirigido a escritores que quisieran adentrarse en la nueva ficción hipertextual: Storyspace. Explotando al máximo sus posibilidades, uno de sus creadores, el propio Michael Joyce, escribe Afternoon, a story, que se ha convertido en el hipertexto de ficción más citado y reseñado de la historia del medio.
Se trata de un relato fragmentado en el que la mayoría de palabras constituyen un vínculo a otros fragmentos del relato. El lector se ve impelido a explorar el documento en busca del rastro de un sentido que no se le ofrece expedito, contribuyendo como co-autor a la configuración de la trama y su conclusión (o la falta de ella). Cada lector realiza su propio recorrido particular, diferente al de los demás en cuanto al orden de lectura, y esta exclusividad del texto al que cada lector accede, se intensifica gracias a un ingenioso recurso por el cual las palabras vinculadas del mismo fragmento varían según se haya llegado a él desde una u otra lexía (o fragmento del hipertexto) .
La publicación de Afternoon representa un momento clave para la historia del término hipertexto. Michael Joyce consigue llevar más allá la noción de “publicación digital” de lo que proponía el libro electrónico de Michael Hart, donde los vínculos, de existir, son meras herramientas para facilitar la exploración del texto. En Afternoon, el vínculo se presenta como elemento tectónico en la elaboración del relato, como instrumento indispensable para llevar adelante la ficción literaria. Por primera vez se pone en marcha un artefacto literario basado totalmente en la escritura digital, que desafía preceptos ancestralmente asumidos en la creación literaria como la linealidad, la univocidad, la conclusión y la singularidad, desvelándolos, más a las claras que nunca, productos de la tiranía de una determinada tecnología de la escritura: la del soporte físico de la tinta.
Naturalmente no fue Michael Joyce el primero en cuestionar los fundamentos más sacros de la literatura. El arte del siglo XX se ha caracterizado precisamente por un continuo movimiento de disensión con los valores establecidos. Ya las vanguardias históricas en los años veinte, y muy especialmente en el ámbito de las artes plásticas, pusieron en evidencia la especificidad de su medio físico, rompiendo con una tradición secular de operar en el arte, que consistía en solapar las propias técnicas artísticas que se empleaban. La técnica del collage, que incorpora elementos de la realidad al plano de lo que antes sólo era mimesis de ésta, es quizás la muestra más patente y emblemática de este desafío a la Historia del Arte universal . Y no olvidemos el importante papel que desempeñaron acontecimientos tan prosaicos como los avances tecnológicos en materia de óptica, con la aparición de la cámara fotográfica, para el desarrollo de estas nuevas sensibilidades artísticas. Así mismo en teatro, el expresionismo alemán o el constructivismo, eran movimientos que exhibían pródigamente los artificios propios del medio teatral, y lo hacían simultáneamente al desarrollo y perfeccionamiento de las técnicas cinematográficas.
Pero sin movernos del campo literario, son múltiples los ejemplos de obras vanguardistas que se proponen derribar los mismos principios que el hipertexto, por sus propias características formales, suspende. El Cesar Vallejo de Escalas melografiadas , salta de un género discursivo a otro, de una voz narrativa a otra, de un tiempo a otro de la narración, de una manera que difícilmente podemos catalogarlo de lineal; la obra El público de Federico García Lorca, probablemente su incursión más radical en el surrealismo, carece absolutamente de conclusión; en cuanto a la univocidad, se trata de un antiguo caballo de batalla del siglo XX desde que Batjin reivindicara la polifonía en las obras literarias; finalmente, la singularidad de la obra artística también fue puesta en entredicho con la práctica de las performances ofensivas cuyo desarrollo dependía de la reacción del público, o mediante muchas de las propuestas dadaístas que incorporan objetos fruto de la producción en cadena a la palestra artística.
Hoy en día los autores con características hipertextuales más mencionados por la crítica son Borges y Cortazar.
En efecto, si tomamos una obra como El jardín de senderos que se bifurcan, casi nos parece inquietantemente premonitoria la descripción que Stephen Albert hace de la novela de Ts'ui Pên, al confrontarla con la actual estructura de los hipertextos:
Creía en infinitas series de tiempos, en una red creciente y vertiginosa de tiempos divergentes, convergentes y paralelos. Esa trama de tiempos que se aproximan, se bifurcan, se cortan o que secularmente se ignoran, abarca todas la posibilidades .
Recientemente en el curso Literatura i cultura llatinoamericana: discursos en la frontera, inscrito en el congreso Per la mar, sense fronteres que se celebró en Gandía en julio de 2007, el profesor Eduardo Ramos señalaba muy acertadamente un precedente en el mismo Borges de una propuesta de escritura hipertextual. Se trata de la falsa reseña titulada Examen de la obra de Herbert Quain recogida en Ficciones en 1941. Aquí Borges nos habla de una novela, April March, que define como “novela regresiva, ramificada” en la que a partir de un nodo central se van abriendo posibilidades que determinan otras posibilidades, exactamente como hace Michael Joyce en Afternoon.
Rayuela , por su parte, tiene una estructura eminentemente hipertextual, ya que rompe con la linealidad absolutamente, haciéndonos saltar de unos fragmentos de texto a otros mediante unas indicaciones a final de cada capítulo que recuerdan tremendamente a los hipervínculos. El final dudoso de la novela que desde el capítulo 131 nos remite al capítulo 58 para volver a remitirnos al 131 y así en un bucle más o menos infinito, refleja a la perfección la sensación que se experimenta al acercarse al final de Afternoon, cuando el lector comprueba cómo todos los hipervínculos que clica, le remiten a fragmentos ya leídos del texto.
Por supuesto Michael Joyce es ávido lector de sus predecesores y no le cuesta confesar su deuda contraída con Borges y Cortazar . De hecho, esta influencia patente nos lleva a reflexionar en qué medida los hipertextos producidos en programas pre-Web, tan influidos todos por la obra de Michael Joyce, no sean sino la puesta en práctica de unas ideas bien antiguas aprovechando nuevas tecnologías, antes que la evolución paradigmática del texto que conocemos, como pretenden sus vendedores. Porque Eastgate, y las demás empresas productoras de programas de creación de hipertextos, no dejan de ser marcas comerciales cuyo máximo interés reside en vender su producto. No podemos olvidar que Afternoon: a story, además de un indiscutible referente para toda la posterior ficción hipertextextual, era un modelo demostrativo de las posibilidades creativas que ofrecía el nuevo lanzamiento comercial de Eastgate, el programa Storyspace, en manos de uno de sus diseñadores. Hoy en día, gracias a la excelente promoción que les brindó el éxito de Afternoon: a story, Eastgate sigue vendiendo su programa Storyspace al más que razonable precio de 295 dólares.
Es cierto que estas plataformas que facilitaban la autoedición de hipertextos suscitaron gran entusiasmo en los años ochenta y Eastgate albergó a muchos de los autores pioneros de la crítica y la literatura hipertextual, como es el caso de Stuart Moulthrop, Shelley Jackson, Deena Larsen… todos ellos grandes teóricos de la literatura hipertextual, y sin duda reconocidísimos autores de ficciones hipertextuales. De hecho, gracias a la repercusión de muchos de estos autores que participaron del proyecto, hoy en día, Eastage consigue mantenerse a base de su papel como “distribuidora” de obras hipertextuales diseñadas con sus programas.
Pero el interés de toda iniciativa privada nunca es “mejorar el mundo”, como rezan sus campañas publicitarias, sino “aumentar sus ingresos”, y una buena manera de conseguirlo siempre ha sido la de introducir en el mercado un artefacto remediador de un problema que previamente no existía. Tanto más en la era de revolución tecnológica continua en la que vivimos.
Lo cierto es que, transcurridas dos décadas y un año desde la publicación de Afternoon, la popularidad de estos artefactos literarios producidos en sistemas del tipo Storyspace, lejos de crecer, ha disminuido bastante. Como veremos inmediatamente, la World Wide Web tiene mucho que ver con esto, pero además, consideramos que esta especie de objeto comercial que es Storyspce, que se autoimpone indispensable para la producción del hipertexto, restringe en tal medida la amplitud del término, que las obras producidas en este sistema, en nuestra opinión, no hubieran podido en ningún caso protagonizar la revolución literaria “definitiva” que en sus inicios preconizaban.
La primera restricción que supone un programa como Storyspace es la de producir documentos aislados. Estos programas hacen realidad punto por punto la definición nelsoniana de hipertexto en sus aspectos técnicos: permiten la producción de documentos formados por “una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario”. Su foco de atención recae sobre aquel anhelo al que aspiraba Vannevar Bush de crear un sistema de organización textual más acorde con los procesos perceptivos y asociativos del cerebro humano, que se emancipara de las limitaciones de un tipo determinado de tecnología basada en la linealidad. Y en este sentido cubren con bastante éxito la carencia de la que adolecía el e-book, de Michael Hart, que se limitaba a reproducir una tecnología analógica en formato digital.
Pero al mismo tiempo, por tratarse de artefactos aislados, cuyos vínculos no pueden exceder por razones comerciales los límites de la compilación de fragmentos que dispone el autor, estos documentos traicionan una de las aspiraciones más interesantes de la noción de hipertexto: la de generar una red de textos que fuera capaz, en potencia, de albergar la totalidad de documentos que se produjeran en el mundo; precisamente el propósito establecido por Michael Hart en su Proyecto Gutenberg y, por supuesto, por Ted Nelson en Xanadu. La manera en que se comercializan, distribuyen y adquieren los hipertextos de Eastgate, explota óptimamente los recursos más avanzados de la “era de la reproductividad técnica”, pero no aprovecha el avance comunicativo más sustancial que le brinda la tecnología de Internet: la tecnología de replicación, la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo. Este tipo de hipertextos son copias que facilita la empresa distribuidora a sus compradores vía Internet y que solo pueden ser explorado por el comprador.
Adquirir uno de estos artefactos es como comprar una película o una fotocopia, pero lo que Internet nos propone funciona mucho más acorde con la filosofía globalizadora del hipertexto: nos ofrece un lugar en el que publicar una copia y que ésta se replique en la pantalla de todo aquel que acceda a ella simultáneamente. Se producen exactamente el mismo número de copias que terminales de ordenador la solicitan, y estas copias existen durante el mismo tiempo que dura su consulta. Con la añadidura de que los consultantes pueden guardar una copia perpetua del documento en su disco duro. Pero semejante facilidad para la transmisión de la información puede ser cualquier cosa menos rentable en términos económicos, y es por ello que se eludieron las posibilidades que ofrecía la tecnología replicante en las versiones comerciales que las empresas privadas desarrollaron del hipertexto en los años ochenta, tan apropiada para los objetivos organizativos y comunicativos que se perseguían,.
El otro problema que encuentro en esta noción concreta de hipertexto, no tiene tanto que ver con sus características técnicas o de distribución como con una cierta actitud de sus alentadores provenientes sobre todo del ámbito de la crítica literaria. El hipertexto literario fue presentado invariablemente por todo aquel que se interesó en el tema, como una forma de superación de la literatura en tanto que la tecnología rizomática de escritura de que se servía (tan apropiada al parecer a los mecanismos de asociación del cerebro humano) superaba la tecnología lineal de escritura precedente. Con ello se estaba diciendo que la forma tradicional de escritura había llegado a su fin y que sería sustituida por una nueva manera de comunicarse entre las personas, y de comunicar los propios sentimientos. La “muerte del libro” de la que tanto se venía hablando desde finales de los sesenta se concretaba literalmente, y en el lugar de los viejos tomos polvorientos surgía el hipertexto con sus ramificaciones asociativas entre nodos, a imagen y semejanza de los enlaces neuronales y los impulsos eléctricos que rigen el cerebro humano. De nuevo el ímpetu imaginativo llegaba al paroxismo alucinado como cuando Vannevar Bush pretendió conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente igual que el resto de actividades intelectuales.
Como hemos visto, detrás de este entusiasmo desaforado en torno al modelo de hipertexto literario que se estaba produciendo en los años ochenta, había en muchas ocasiones un interés puramente comercial. Pero además, consideramos que la situación por la que atravesaba la teoría literaria en aquellos años, en muchos sentidos servía de acicate a los teóricos que postulaban revoluciones copernicanas. La corriente post-estructuralista originada principalmente en Francia en torno a los acontecimientos del sesenta y ocho, cuajó en el ámbito académico norteamericano y se extendió por todo el orbe humanístico. Se comenzó a hablar de post-modernidad para describir los cambios sustanciales que experimentaba la sociedad; los principios en los que se asentaba la racionalización occidental eran cuestionados y, en la mayoría de producciones críticas de este periodo, se percibe una sensación de crisis de un modelo en el que algo ha cambiado o tiene que cambiar. De hecho, es muy interesante cotejar, como muchos otros han hecho, las nuevas nociones teóricas acerca del conocimiento, el texto, el arte, las instituciones… que se producen en esta época —casi siempre al margen de la investigación informática— con las innovaciones tecnológicas simultáneas que iban a alterar para siempre muchos de estos mismos conceptos. Pero este tema será tratado en profundidad en un apartado específico de esta tesis que se ocupará de las convergencias teóricas entre hipertexto y teoría crítica postmoderna.
Que los estudios literarios y sociológicos de grandes pensadores como Derrida, Roland Barthes, Foucault o Deleuze, estuvieran en estrecha relación con las nuevas formas de la tecnología de la comunicación, no es algo de lo que quepa sorprenderse. Ahora bien, que el formato de hipertexto en el que se desarrolla Afternoon: a story, fuera a sustituir la literatura impresa, me parece de una osadía tal que no soporta la crítica más exigua.
En primer lugar tenemos que sumarnos a la voz de Susana Pajares Tosca , en el tema referente a la supuesta identificación del sistema de almacenamiento y disposición del hipertexto con el modo en que se comporta el cerebro humano ante los datos e impulsos externos. Lo que esta autora afirma en su libro, Literatura digital: el paradigma hipertextual, es que no puede plantearse una reproducción de ningún tipo del pensamiento cuando “ni siquiera los neurólogos están seguros de cómo funciona exactamente la mente humana” (Pajares Tosca 2004: 38).
Un hipervínculo que relaciona dos fragmentos de texto puede “sugerir” la asociación mental que experimentamos cuando conocemos a alguien que nos recuerda a otra persona, cuando leemos algo en una novela que evoca a otro texto literario… pero todo eso no equivale a la reproducción de un sistema como el de la psique humana con sus anhelos, sus complejos, su capacidad creativa, su sensibilidad, sus dudas, sus miedos y, en definitiva, su libertad, porque a fin de cuentas, la principal limitación de los hipertextos en sistemas del tipo Storyspace, es el hecho de que el lector no pueda exceder las posibilidades de elección que le traza el autor.
Lo que nos propone un hipertexto como Afternoon: a story es una tecnología que facilita enormemente la realización de ciertas actividades que ya estaban incluidas en la textualidad tradicional como posibilidades marginales, tal y como demuestran numerosos ejemplos de la literatura clásica a parte de los ya mencionados. Y las ha facilitado hasta el punto de convertirse en absolutamente centrales. Del mismo modo en que el medio impreso o físico impone al texto escrito una posición central y a los textos relacionados una posición de marginalidad, así, con la nueva tecnología, se disuelve toda relación jerárquica entre el texto base y sus relaciones. La “relación” es lo que pasa a ocupar el centro de interés.
Este tipo de hipertextos (que no dejan de ser una interesante forma de expresión) proporcionan un nuevo medio, no la superación del ancestral método de producción y recepción de textos que es la escritura. Afirmar una cosa así sería como afirmar que el cine es la superación del teatro por el hecho de que resuelva con facilidad muchos aspectos de la dramatización de una obra literaria que resultaban problemáticos en el medio teatral.
La aparición de un nuevo medio puede imponer la reorganización de los otros medios, puede afectar a su popularidad, puede, incluso, inducir a los autores de otros medios a modificar sustancialmente la forma y el contenido de sus obras, en muchas ocasiones reforzando la especificidad del medio en que trabajan, pero en ningún caso puede sustituirlos situándose en su lugar.
ASOCIATION FOR COMPUTING MACHINERY
No podemos dejar de mencionar durante este recorrido histórico por el término hipertexto, la organización científica que más ha impulsado el estudio y desarrollo de la letra digita: la Association of Computing Machinery (ACM). Se trata de la primera sociedad profesional dedicada a la computación, creada por Edmund Berkeley en el año 1947. Creemos importante recordar aquí el inicio, el impulso original y las expectativas que despertó en sus fundadores, para entender hasta qué punto su actual trabajo puede estar vinculado con el mundo de la literatura.
Para ello, una vez más, debemos volver la mirada al “año cero” de nuestro mundo tal y como lo conocemos: la segunda guerra mundial. Después de aquel desaforado episodio de la historia, cualquier posible orden planetario vigente quedó devastado o fue reestructurado.
El exitoso desarrollo del positivismo condujo a las grandes potencias humanas a una desenfrenada exhibición del poder al que podían aspirar llevando a término los principios que Habermas denomina principios de racionalización en las sociedades secularizadas. Y esta exhibición se vio materializada en una competición (que por supuesto tenía que ver con la tecnología) por alcanzar el mayor poder de destrucción posible. Cuando el poder de destrucción superó con creces las dimensiones del planeta en el que toda forma de vida conocida mora, ni la guerra ni la paz volvieron a ser lo que eran en ninguna parte del globo.
Lo cierto es que la perspectiva de la autoaniquilación ahogaba cualquier exaltación excesivamente entusiasta de los distintos modelos de sociedades que habían participado de la porfía, lo que provocó sustanciales reconsideraciones ideológicas y filosóficas que afectaron, como es bien sabido, a todos los demás campos del conocimiento, desde el estudio tecnológico y científico hasta el de la estética.
En cuanto al ámbito técnico-científico, si observamos su posterior desarrollo, nos percatamos de que la mayoría de avances y logros parten de las esforzadas mentes de muchos de los ingenieros utilizados para el perfeccionamiento de la matanza, y que luego, aterrorizados por los resultados, buscaron la posibilidad de volcar sus investigaciones científicas en la mejora de las condiciones de vida en paz. En esta dirección trabajó, como hemos visto, Vannevar Bush cuando ideó su Memex en 1945, y en este mismo rumbo se embarcó el propósito de Edmund Berkeley, como veremos a continuación.
Cuando fue llamado a filas en 1942 por la marina norteamericana, Berkeley era un joven graduado en matemáticas de la Universidad de Harvard empleado como experto en métodos de aseguración industrial en una compañía de seguros llamada Prudential Insurance Company . Debido a su formación matemática fue destinado al término de la guerra en agosto de 1945, a trabajar en el Harvard Mark I, el primer ordenador electromecánico de la historia, construido por Howard H. Aiken, con la subvención de IBM . Berkeley que venía de un mundo, el de los seguros, en el que había trabajadores especializados en el cálculo mental que resolvían los complejísimos algoritmos que los matemáticos diseñaban para establecer según los riesgos, las tarifas de aseguración, supo ver enseguida en esas enormes máquinas calculadoras bélicas, su perfecta aplicación a la vida civil. Cuando regresó a la compañía de seguros Prudential, estudió las posibilidades que estaban ofreciendo las máquinas calculadoras por aquel entonces en diversos laboratorios, y aventuró algunas aplicaciones prácticas. Pero no fue hasta 1947, durante un simposio sobre computación en la Universidad de Harvard, que se convenció del verdadero potencial multidisciplinar que esta tecnología brindaba, gracias al contacto con gran parte de la comunidad científica formada en torno a este campo. Berkeley, impresionado tras el simposio, decidió formar una asociación al margen de cualquier institución académica o gubernamental que se ocupara específicamente en materia de computación: la Eastern Association of Computing Machinery (EACM). La sociedad estaba compuesta en un principio por unos cuantos asistentes al simposio interesados en mantenerse al día en las nuevas tecnologías. Pero el verdadero éxito de la organización devino realmente cuando Berkeley emitió un comunicado entre todos sus miembros, citando unas palabras del por entonces director del MIT Center of Analysis, Samuel Cadwell, pronunciadas durante el simposio de Harvard. Cadwell se mostraba preocupado por la labor de encubrimiento que el propio ejército de los Estados Unidos estaba llevando a cabo con las investigaciones realizadas durante la segunda Guerra Mundial, y en su conferencia hizo un llamamiento a la libre difusión del conocimiento y al libre intercambio de información entre los investigadores de todas las áreas relacionadas con la computación. Berkeley se sumó a esta iniciativa, y la propuso como elemento motriz de su asociación con el fin de que todos sus miembros pudieran obtener beneficios profesionales. Muchos especialistas y directores de otras asociaciones relacionadas con la tecnología, vieron el proyecto con muy buenos ojos y se ofrecieron para colaborar en él. En agosto de 1948 ya eran 350 miembros, provenientes de una extensión geográfica tal, que Berkeley consideró que el Eastern, podía ser eliminado del nombre . Desde entonces hasta nuestros días, la ACM ha constituido un foro de debate en el que han participado especialistas de todo el mundo y de todas las áreas del conocimiento, legándonos un ingente material bibliográfico que puede ser consultado en su Librería Digital .
Principalmente nos hemos interesado por la Association of Computing Machinery debido a dos conceptos fundamentales en los que se basó su fundación: la voluntad de libre intercambio y el carácter multidisciplinar de sus investigaciones.
Se trata de conceptos que el tiempo ha terminado por situar en el eje central de nuestras sociedades contemporáneas, pero que en el año cuarenta y siete no eran más que la arriesgada apuesta de un espíritu visionario. Cuando Berkeley pensaba en intercambio libre de información, imaginaba salones de actos en los que se reunirían cientos de estudiosos en conferencias periódicas para exponer las evoluciones progresivas de sus investigaciones. Nunca hubiera podido imaginar que la misma materia sobre la que versaban las inquietudes de los participantes en las conferencias de la ACM, iba a desencadenar en el futuro un cambio radical y definitivo en la manera de concebir el intercambio libre. Hemos llegado a un estadio tecnológico en materia de computación que nos permite trasladar ese “salón de actos” para el debate, a todas las pantallas de ordenador del mundo y poder así compartir con libertad y gratuidad cualquier cosa que nos interese. Asistimos al declive y remodelación de los antiguos métodos de difusión, lo que está provocando no pocos conflictos de intereses que afectan ya al ámbito legislativo, en extremos que durante muchos años no habían sido cuestionados, como a la propiedad intelectual. Pero además, la comunicación libre, o mejor, el libre intercambio de información entre las personas, ha sido el caballo de batalla de muchos de los movimientos intelectuales, tecnológicos y humanísticos, del fin de milenio tales como el Software Libre o la noción de “multitud inteligente” de Hardt y Negri .
La otra noción que nos atrae de los fundamentos de la ACM es la multidisciplinariedad. Berkeley observó que en el seno de la tecnología de computación se daban cita muchas áreas de la ciencia: las matemáticas proveían de los modelos teóricos necesarios para diseñar las computadoras, pero era la física, la disciplina que se encargaba de que todos esos cálculos pudieran materializarse en un aparato real; además estaba la tecnología de válvulas que se utilizaba para la construcción de estas máquinas ingentes, lo que vinculaba su producción al ámbito de la ingeniería electrónica e industrial; por último, la versatilidad de estas máquinas para ser aplicadas en múltiples tareas de cálculo disparaba el número de disciplinas que podían verse involucradas en la confección de computadoras como, por ejemplo, la estadística, con la que Berkeley quiso implementar las primeras aplicaciones informáticas de la historia. Pero todo esto no es nada comparado con la cantidad de disciplinas científicas y artísticas que envuelven hoy día el mundo de las computadoras. Tan solo pensemos por un momento en la aplicación de la infografía en el cine o los videojuegos, o en la simbiosis que hoy día se verifica entre la informática y la medicina. La misma palabra “multidisciplinar”, se ha convertido en una especie de ensalmo propiciatorio para todo proyecto académico o profesional, como reflejo sugestivo del mundo globalizado en el que vivimos.
Precisamente, esta multidisciplinariedad de campos en los que se mueve la tecnología de computación, es la que llevará con el tiempo a la ACM a toparse de lleno con la creación literaria, y por lo tanto con nuestra parcela concreta de conocimiento.
En realidad podrían verterse ríos de tinta sobre la relación que se establece entre la computación y la lingüística desde la creación de los primeros estándares en “lenguajes de programación”, pero como ya mencionamos en otro lugar, el uso del lenguaje en programación, aunque también esté basado en la tecnología de escritura digital, es de un uso restringido al entendimiento entre el hombre y la máquina, y, por lo tanto, compete su estudio y optimización, sobre todo, a la ingeniería informática. Ahora nos parece más interesante el momento en que la computadora se convierte en una plataforma para la comunicación, mediante la letra digital, de persona a persona. Y este es un proceso lento pero continuo que no culminará hasta la entrada en escena del hipertexto con todas sus potencialidades.
Durante los años setenta causaron gran impacto en el mundo de la computación los conceptos hipertexto e hipermedia acuñados por Theodor Nelson, y con la exitosa explosión de los sistemas pre-Web en los años ochenta, el hipertexto acabó por situarse en una posición cardinal de los estudios sobre computación.
La ACM debía hacerse eco de esta novedosa aplicación informática que estaba haciendo realidad algunas de las aspiraciones más optimistas y también más genuinas, de la historia de las computadoras. En 1982 el foco de interés de la ingeniería informática comenzaba a desviarse de los impulsos eléctricos y los transistores hacia el ser humano, y la ACM inaugura su primer congreso sobre “El Factor Humano en Sistemas de Computación”.
Para 1987, ya se hacía indispensable la existencia de un congreso que tratara con exclusividad el tema del hipertexto. Nace así, la primera Conferencia sobre Hipertexto e Hipermedia de la ACM , que ha continuado celebrándose anualmente, con excepción de los años 1988 y 1995. En ella se dieron cita los principales protagonistas de la cultura hipertextual. Allí estaba Michael Joyce y David Bolter, estaba el mismo Theodor Nelson, Catherine Marshall y un todavía desconocido George P. Landow, quien años más tarde desempeñaría un papel decisivo en la constitución de la nueva “teoría crítica hipertextual”. Por supuesto también acudieron miembros importantísimos de la comunidad científico-tecnológica como el experto en diseño gráfico de interfaz Jef Raskin, pero lo más importante de este acontecimiento es que por primera vez participan de un proyecto común y en un mismo sentido el mundo del arte y las humanidades con el de la tecnología informática. Por primera vez escritores, artistas y críticos literarios reflexionan conjuntamente con los tecnólogos, para dar una visión conjunta del incesantemente complejo mundo en el que vivimos.
Precisamente, durante el congreso sobre hipertexto de la ACM de 1991 tuvo lugar una demostración de última hora de un nuevo programa informático que iba a cambiar el rumbo de la historia del hipertexto y de los contenidos mismos de las sucesivas conferencias de la ACM. Se trataba de una demostración que ni siquiera aparecía en el programa del congreso y que pudo llevarse a cabo con muchas dificultades, presentada por un joven suizo, Tim Berners Lee, y su compañero Robert Cailliau. Estaban trabajando en un sistema de hipertexto que aprovechara la tecnología de Internet para poder expandirse por todo el ancho mundo como una gran tela de araña: la World Wide Web, que supone el siguiente paso de gigante hacia la era de la comunicación en la que nos encontramos.
Para ello, una vez más, debemos volver la mirada al “año cero” de nuestro mundo tal y como lo conocemos: la segunda guerra mundial. Después de aquel desaforado episodio de la historia, cualquier posible orden planetario vigente quedó devastado o fue reestructurado.
El exitoso desarrollo del positivismo condujo a las grandes potencias humanas a una desenfrenada exhibición del poder al que podían aspirar llevando a término los principios que Habermas denomina principios de racionalización en las sociedades secularizadas. Y esta exhibición se vio materializada en una competición (que por supuesto tenía que ver con la tecnología) por alcanzar el mayor poder de destrucción posible. Cuando el poder de destrucción superó con creces las dimensiones del planeta en el que toda forma de vida conocida mora, ni la guerra ni la paz volvieron a ser lo que eran en ninguna parte del globo.
Lo cierto es que la perspectiva de la autoaniquilación ahogaba cualquier exaltación excesivamente entusiasta de los distintos modelos de sociedades que habían participado de la porfía, lo que provocó sustanciales reconsideraciones ideológicas y filosóficas que afectaron, como es bien sabido, a todos los demás campos del conocimiento, desde el estudio tecnológico y científico hasta el de la estética.
En cuanto al ámbito técnico-científico, si observamos su posterior desarrollo, nos percatamos de que la mayoría de avances y logros parten de las esforzadas mentes de muchos de los ingenieros utilizados para el perfeccionamiento de la matanza, y que luego, aterrorizados por los resultados, buscaron la posibilidad de volcar sus investigaciones científicas en la mejora de las condiciones de vida en paz. En esta dirección trabajó, como hemos visto, Vannevar Bush cuando ideó su Memex en 1945, y en este mismo rumbo se embarcó el propósito de Edmund Berkeley, como veremos a continuación.
Cuando fue llamado a filas en 1942 por la marina norteamericana, Berkeley era un joven graduado en matemáticas de la Universidad de Harvard empleado como experto en métodos de aseguración industrial en una compañía de seguros llamada Prudential Insurance Company . Debido a su formación matemática fue destinado al término de la guerra en agosto de 1945, a trabajar en el Harvard Mark I, el primer ordenador electromecánico de la historia, construido por Howard H. Aiken, con la subvención de IBM . Berkeley que venía de un mundo, el de los seguros, en el que había trabajadores especializados en el cálculo mental que resolvían los complejísimos algoritmos que los matemáticos diseñaban para establecer según los riesgos, las tarifas de aseguración, supo ver enseguida en esas enormes máquinas calculadoras bélicas, su perfecta aplicación a la vida civil. Cuando regresó a la compañía de seguros Prudential, estudió las posibilidades que estaban ofreciendo las máquinas calculadoras por aquel entonces en diversos laboratorios, y aventuró algunas aplicaciones prácticas. Pero no fue hasta 1947, durante un simposio sobre computación en la Universidad de Harvard, que se convenció del verdadero potencial multidisciplinar que esta tecnología brindaba, gracias al contacto con gran parte de la comunidad científica formada en torno a este campo. Berkeley, impresionado tras el simposio, decidió formar una asociación al margen de cualquier institución académica o gubernamental que se ocupara específicamente en materia de computación: la Eastern Association of Computing Machinery (EACM). La sociedad estaba compuesta en un principio por unos cuantos asistentes al simposio interesados en mantenerse al día en las nuevas tecnologías. Pero el verdadero éxito de la organización devino realmente cuando Berkeley emitió un comunicado entre todos sus miembros, citando unas palabras del por entonces director del MIT Center of Analysis, Samuel Cadwell, pronunciadas durante el simposio de Harvard. Cadwell se mostraba preocupado por la labor de encubrimiento que el propio ejército de los Estados Unidos estaba llevando a cabo con las investigaciones realizadas durante la segunda Guerra Mundial, y en su conferencia hizo un llamamiento a la libre difusión del conocimiento y al libre intercambio de información entre los investigadores de todas las áreas relacionadas con la computación. Berkeley se sumó a esta iniciativa, y la propuso como elemento motriz de su asociación con el fin de que todos sus miembros pudieran obtener beneficios profesionales. Muchos especialistas y directores de otras asociaciones relacionadas con la tecnología, vieron el proyecto con muy buenos ojos y se ofrecieron para colaborar en él. En agosto de 1948 ya eran 350 miembros, provenientes de una extensión geográfica tal, que Berkeley consideró que el Eastern, podía ser eliminado del nombre . Desde entonces hasta nuestros días, la ACM ha constituido un foro de debate en el que han participado especialistas de todo el mundo y de todas las áreas del conocimiento, legándonos un ingente material bibliográfico que puede ser consultado en su Librería Digital .
Principalmente nos hemos interesado por la Association of Computing Machinery debido a dos conceptos fundamentales en los que se basó su fundación: la voluntad de libre intercambio y el carácter multidisciplinar de sus investigaciones.
Se trata de conceptos que el tiempo ha terminado por situar en el eje central de nuestras sociedades contemporáneas, pero que en el año cuarenta y siete no eran más que la arriesgada apuesta de un espíritu visionario. Cuando Berkeley pensaba en intercambio libre de información, imaginaba salones de actos en los que se reunirían cientos de estudiosos en conferencias periódicas para exponer las evoluciones progresivas de sus investigaciones. Nunca hubiera podido imaginar que la misma materia sobre la que versaban las inquietudes de los participantes en las conferencias de la ACM, iba a desencadenar en el futuro un cambio radical y definitivo en la manera de concebir el intercambio libre. Hemos llegado a un estadio tecnológico en materia de computación que nos permite trasladar ese “salón de actos” para el debate, a todas las pantallas de ordenador del mundo y poder así compartir con libertad y gratuidad cualquier cosa que nos interese. Asistimos al declive y remodelación de los antiguos métodos de difusión, lo que está provocando no pocos conflictos de intereses que afectan ya al ámbito legislativo, en extremos que durante muchos años no habían sido cuestionados, como a la propiedad intelectual. Pero además, la comunicación libre, o mejor, el libre intercambio de información entre las personas, ha sido el caballo de batalla de muchos de los movimientos intelectuales, tecnológicos y humanísticos, del fin de milenio tales como el Software Libre o la noción de “multitud inteligente” de Hardt y Negri .
La otra noción que nos atrae de los fundamentos de la ACM es la multidisciplinariedad. Berkeley observó que en el seno de la tecnología de computación se daban cita muchas áreas de la ciencia: las matemáticas proveían de los modelos teóricos necesarios para diseñar las computadoras, pero era la física, la disciplina que se encargaba de que todos esos cálculos pudieran materializarse en un aparato real; además estaba la tecnología de válvulas que se utilizaba para la construcción de estas máquinas ingentes, lo que vinculaba su producción al ámbito de la ingeniería electrónica e industrial; por último, la versatilidad de estas máquinas para ser aplicadas en múltiples tareas de cálculo disparaba el número de disciplinas que podían verse involucradas en la confección de computadoras como, por ejemplo, la estadística, con la que Berkeley quiso implementar las primeras aplicaciones informáticas de la historia. Pero todo esto no es nada comparado con la cantidad de disciplinas científicas y artísticas que envuelven hoy día el mundo de las computadoras. Tan solo pensemos por un momento en la aplicación de la infografía en el cine o los videojuegos, o en la simbiosis que hoy día se verifica entre la informática y la medicina. La misma palabra “multidisciplinar”, se ha convertido en una especie de ensalmo propiciatorio para todo proyecto académico o profesional, como reflejo sugestivo del mundo globalizado en el que vivimos.
Precisamente, esta multidisciplinariedad de campos en los que se mueve la tecnología de computación, es la que llevará con el tiempo a la ACM a toparse de lleno con la creación literaria, y por lo tanto con nuestra parcela concreta de conocimiento.
En realidad podrían verterse ríos de tinta sobre la relación que se establece entre la computación y la lingüística desde la creación de los primeros estándares en “lenguajes de programación”, pero como ya mencionamos en otro lugar, el uso del lenguaje en programación, aunque también esté basado en la tecnología de escritura digital, es de un uso restringido al entendimiento entre el hombre y la máquina, y, por lo tanto, compete su estudio y optimización, sobre todo, a la ingeniería informática. Ahora nos parece más interesante el momento en que la computadora se convierte en una plataforma para la comunicación, mediante la letra digital, de persona a persona. Y este es un proceso lento pero continuo que no culminará hasta la entrada en escena del hipertexto con todas sus potencialidades.
Durante los años setenta causaron gran impacto en el mundo de la computación los conceptos hipertexto e hipermedia acuñados por Theodor Nelson, y con la exitosa explosión de los sistemas pre-Web en los años ochenta, el hipertexto acabó por situarse en una posición cardinal de los estudios sobre computación.
La ACM debía hacerse eco de esta novedosa aplicación informática que estaba haciendo realidad algunas de las aspiraciones más optimistas y también más genuinas, de la historia de las computadoras. En 1982 el foco de interés de la ingeniería informática comenzaba a desviarse de los impulsos eléctricos y los transistores hacia el ser humano, y la ACM inaugura su primer congreso sobre “El Factor Humano en Sistemas de Computación”.
Para 1987, ya se hacía indispensable la existencia de un congreso que tratara con exclusividad el tema del hipertexto. Nace así, la primera Conferencia sobre Hipertexto e Hipermedia de la ACM , que ha continuado celebrándose anualmente, con excepción de los años 1988 y 1995. En ella se dieron cita los principales protagonistas de la cultura hipertextual. Allí estaba Michael Joyce y David Bolter, estaba el mismo Theodor Nelson, Catherine Marshall y un todavía desconocido George P. Landow, quien años más tarde desempeñaría un papel decisivo en la constitución de la nueva “teoría crítica hipertextual”. Por supuesto también acudieron miembros importantísimos de la comunidad científico-tecnológica como el experto en diseño gráfico de interfaz Jef Raskin, pero lo más importante de este acontecimiento es que por primera vez participan de un proyecto común y en un mismo sentido el mundo del arte y las humanidades con el de la tecnología informática. Por primera vez escritores, artistas y críticos literarios reflexionan conjuntamente con los tecnólogos, para dar una visión conjunta del incesantemente complejo mundo en el que vivimos.
Precisamente, durante el congreso sobre hipertexto de la ACM de 1991 tuvo lugar una demostración de última hora de un nuevo programa informático que iba a cambiar el rumbo de la historia del hipertexto y de los contenidos mismos de las sucesivas conferencias de la ACM. Se trataba de una demostración que ni siquiera aparecía en el programa del congreso y que pudo llevarse a cabo con muchas dificultades, presentada por un joven suizo, Tim Berners Lee, y su compañero Robert Cailliau. Estaban trabajando en un sistema de hipertexto que aprovechara la tecnología de Internet para poder expandirse por todo el ancho mundo como una gran tela de araña: la World Wide Web, que supone el siguiente paso de gigante hacia la era de la comunicación en la que nos encontramos.
WWW
Cuando comenzamos este recorrido cronológico por el término hipertexto, ya advertimos que nos moveríamos en un terreno movedizo, el terreno propio de una noción vinculada a un determinado desarrollo tecnológico en constante evolución, que pretende ser atrapada en los límites de un término acuñado en los años sesenta. A lo largo de estas páginas nos ha interesado analizar el porqué del éxito del término hasta nuestros días y, después de nuestras investigaciones, podemos concluir que este éxito tiene que ver con su capacidad para hacer cristalizar en él un viejo anhelo del pensamiento científico secularizado, un anhelo que atraviesa transversalmente toda disciplina académica basada en la optimización de una racionalización finalista: el de alcanzar un sistema de gestión de la información que facilitara al máximo la exploración del universo textual y el intercambio de documentos entre los seres humanos. Así mismo, no podemos dejar de advertir cómo buena parte del material bibliográfico que ha asumido su estudio (sobre todo aquel que, como nosotros, se ha interesado por las implicaciones literarias que despertaba), ha limitado la percepción del hipertexto al plano de su novedosa gestión de la información y su sistema de exploración del documento, dejando de lado esa otra parcela que tiene que ver con el libre intercambio de información. Esta tendencia se ve claramente ilustrada en el trabajo de recopilación de definiciones de hipertexto que ofrece la profesora Adelaide Bianchini de la Universidad Simón Bolívar de Venezuela, dónde observamos que casi todas las definiciones posteriores a los pioneros Vannevar Bush y Ted Nelson, hacen hincapié en los modelos de disposición y exploración de los documentos pero no en su capacidad comunicadora. Solo la definición de Janet Fiderio , directora de publicaciones del Antioch New England Institute, interesada en los sistemas de investigación y trabajo colaborativo, incorpora en su definición de hipertexto esa faceta comunicativa con la que soñaron sus predecesores.
Es cierto que las innovaciones en la estructura del texto, con la ruptura de la linealidad, con la posibilidad de realizar un recorrido ergódico por la obra literaria… son nociones tan atractivas que por sí mismas justifican el interés de buena parte de la crítica, pero también creemos que en el olvido del componente comunicativo del hipertexto ha influido indebidamente una determinada versión del hipertexto que atendía quizás más a sus posibilidades comerciales que a la idea originaria de sus fundadores.
Nos referimos por supuesto a los sistemas pre-Web, de los que hablamos en capítulos anteriores. Sistemas que producían objetos electrónicos aislados, incomunicados con el resto del mundo, concebidos como obras finitas en las que el lector tiene un papel muy activo en su recepción, pero que se agota en cuanto ha terminado de explorar la totalidad de las lexías. Obras, en definitiva, que hacen alarde de un soporte tecnológico avanzadísimo, en el que pueden desarrollarse con facilidad organizaciones complejas del material literario, pero que como tales, no incorporan ninguna novedad que no apareciera ya antes en Borges o en los libros juveniles de “elige tu propia aventura”.
El rápido e incontrolable desarrollo de la Web, quizás lo polémico de sus contenidos, el desastre financiero de las famosas “punto com”, su temprana y pingüe aplicación comercial… son quizás elementos que han mantenido a los sectores más conservadores de la crítica escépticos ante el valor de la profunda intrusión de la Red en nuestras sociedades. Al fin y al cabo se trata de una tecnología muy reciente (desarrollada mayormente durante los años noventa) y los recelos y precauciones ante cualquier invento novedoso son totalmente razonables en el mundo plagado de falsas necesidades en el que vivimos. Pero los años pasan y el argumento de la “tecnología en pañales” se agota. Llegados a este punto de la historia y de mi trabajo, me veo en la obligación de posicionarme con respecto a esta cuestión, sobre todo teniendo en cuenta los últimos avances en la Web con sus sugerentes aplicaciones literarias. Y debo decir que la Web, por su explotación inteligente del recurso Internet, me parece no solo el sistema más interesante de publicación de hipertexto, sino además, la razón misma por la que hoy estamos hablando de ese mismo concepto.
Para ilustrar esta postura nos centraremos en dos momentos que consideramos clave para cifrar el verdadero valor de la Web: sus orígenes y desarrollo, que nos revelarán el propósito primero de la Web, su filosofía inicial y la manera en que estos principios han reaccionado a la evolución social y tecnológica del medio; y su redescubrimiento en el nuevo milenio, que nos conduce a la reflexión de la crucial importancia que el hipertexto está teniendo y sin duda tendrá en los estudios literarios.
Es cierto que las innovaciones en la estructura del texto, con la ruptura de la linealidad, con la posibilidad de realizar un recorrido ergódico por la obra literaria… son nociones tan atractivas que por sí mismas justifican el interés de buena parte de la crítica, pero también creemos que en el olvido del componente comunicativo del hipertexto ha influido indebidamente una determinada versión del hipertexto que atendía quizás más a sus posibilidades comerciales que a la idea originaria de sus fundadores.
Nos referimos por supuesto a los sistemas pre-Web, de los que hablamos en capítulos anteriores. Sistemas que producían objetos electrónicos aislados, incomunicados con el resto del mundo, concebidos como obras finitas en las que el lector tiene un papel muy activo en su recepción, pero que se agota en cuanto ha terminado de explorar la totalidad de las lexías. Obras, en definitiva, que hacen alarde de un soporte tecnológico avanzadísimo, en el que pueden desarrollarse con facilidad organizaciones complejas del material literario, pero que como tales, no incorporan ninguna novedad que no apareciera ya antes en Borges o en los libros juveniles de “elige tu propia aventura”.
El rápido e incontrolable desarrollo de la Web, quizás lo polémico de sus contenidos, el desastre financiero de las famosas “punto com”, su temprana y pingüe aplicación comercial… son quizás elementos que han mantenido a los sectores más conservadores de la crítica escépticos ante el valor de la profunda intrusión de la Red en nuestras sociedades. Al fin y al cabo se trata de una tecnología muy reciente (desarrollada mayormente durante los años noventa) y los recelos y precauciones ante cualquier invento novedoso son totalmente razonables en el mundo plagado de falsas necesidades en el que vivimos. Pero los años pasan y el argumento de la “tecnología en pañales” se agota. Llegados a este punto de la historia y de mi trabajo, me veo en la obligación de posicionarme con respecto a esta cuestión, sobre todo teniendo en cuenta los últimos avances en la Web con sus sugerentes aplicaciones literarias. Y debo decir que la Web, por su explotación inteligente del recurso Internet, me parece no solo el sistema más interesante de publicación de hipertexto, sino además, la razón misma por la que hoy estamos hablando de ese mismo concepto.
Para ilustrar esta postura nos centraremos en dos momentos que consideramos clave para cifrar el verdadero valor de la Web: sus orígenes y desarrollo, que nos revelarán el propósito primero de la Web, su filosofía inicial y la manera en que estos principios han reaccionado a la evolución social y tecnológica del medio; y su redescubrimiento en el nuevo milenio, que nos conduce a la reflexión de la crucial importancia que el hipertexto está teniendo y sin duda tendrá en los estudios literarios.
Suscribirse a:
Comentarios (Atom)
