El fenómeno de la información compartida —no ya sobre el presente, sino sobre el pasado o la ciencia en general— ha dado lugar a las enciclopedias de libre cooperación masiva, las wikis. Estas enciclopedias no las ha organizado ninguna mente maliciosa y, sin embargo, han tenido un efecto fulminante sobre la ciencia institucionalizada. El hecho de que muchos conocimientos se puedan consultar en la red hizo caduca la consulta de libros y diccionarios. Pero el que tales conocimientos estén interconectados, de modo que sea muy fácil pasar de unos a otros, y el que su actualización sea permanente y barata —los autores no cobran, pero no faltan voluntarios— ha terminado por arruinar a los editores de enciclopedias.

La Encyclopaedia Britannica tiró la toalla respecto al papel, pero trató de venderse en CD-Rom. La velocidad de la red y las wikis ya hacían que fuera más rápida la consulta online que pasar páginas y no digamos acarrear tomos. Pero la actualización continua hizo que Britannica terminara por poner todos sus contenidos gratuitamente en la red (aunque con un período de uso limitado por usuario), con el objetivo de atraer usuarios de pago. Intento inútil: por muy rica que sea una editorial y por mucha voluntad que tengan sus colaboradores, nunca tendrá posibilidad de reclutar tantos como la principal enciclopedia libre (Wikipedia). El resultado es que Wikipedia se actualiza más rápidamente. Si a ello sumamos que los colaboradores de ésta pueden consultar también los contenidos de Britannica (y compararlos con otros), comprenderemos por qué no hay organización que pueda competir con una red libre de usuarios que colaboran entre sí por amor al arte. No en vano, los elogios que Britannica incluye en su web acerca de los contenidos online, donde se califican de excelentes, datan de… 2004.

La accesibilidad de los contenidos de referencia parece implicar el fin de la memoria en el sistema educativo y en el trabajo humano en general. Los contenidos, y no digamos los textos educativos, que en la antigüedad se aprendían de memoria, y hasta hace pocos años al menos se estudiaban, están cada vez más al alcance de la mano. Hasta hace poco, buena parte del esfuerzo educativo y laboral consistía en extraer (en el caso de la educación, más bien en almacenar) esos contenidos en un lugar —la memoria o un archivo—, algo que ahora nos viene dado. Esto ha dado lugar a una crisis del sistema educativo, ya que aún no sabemos dónde deberían aplicar los niños el esfuerzo que en otro tiempo consistía en ejercitar su memoria. Esta crisis afecta en algún grado a todos los trabajos, pero algo parece innegable: por una parte, no tendría sentido renunciar al progreso que supone la simplificación espacial y metodológica que la tecnología nos ofrece; por el otro, sería absurdo dejarnos engañar por la utopía de una educación —o incluso un trabajo— que no requiere esfuerzo.

Excede mi capacidad y la extensión de este trabajo proponer cómo ha de ser la educación y la formación profesional del futuro. Pero sí es posible entrever qué aspecto tendrán los contenidos culturales en un mundo interconectado. El mito de la biblioteca universal se ha hecho realidad, según Kevin Kelly, y además una realidad de la que, cuando la tecnología lo permita, podrá disponer cada persona. Veamos de qué forma. En diciembre de 2004, Google dio a conocer su proyecto de digitalización de bibliotecas. Según Kelly, desde los comienzos de la historia, en el mundo se han publicado 32 millones de libros, 750 millones de artículos, 25 millones de canciones, 500 millones de imágenes, medio millón de películas, tres millones de vídeos y shows televisivos, y 100.000 millones de páginas web. Todo este material disperso por las bibliotecas del mundo entero, digitalizado, ocuparía 50 petabytes en discos duros.

Un bit es la menor unidad de información computacional: un 0 ó un 1. Combinando 8 de ellos, obtenemos un byte, definido como base del lenguaje computacional, ya que hay 256 distintos (combinaciones de 8 bits) y puede asignársele a cada uno un significado (una letra u otro signo alfanumérico). Las unidades superiores son el megabyte (MB: 1024 bytes), el gigabyte (GB: 1024 MB), el terabyte (TB: 1024 GB), el petabyte (PB: 1024 TB), el exabyte (EB: 1024 PB), el zetabyte (ZB: 1024 EB) y el yotabyte (YB: 1024 ZB). Un petabyte contiene casi 1.226 billones de bytes: 1.125.899.906.842.624 para ser exactos. Pues bien, hoy día, según Kelly, los 50 petabytes que podrían contener todo lo que la cultura humana ha producido, cabrían en un edificio “del tamaño de la biblioteca de un pequeño pueblo. Con la tecnología del futuro, cabrían en un iPod. Cuando eso suceda, la biblioteca de bibliotecas se meterá en el bolso o la cartera, eso si no nos la meten directamente en el cerebro atada con unos finos cables blancos”.

Probablemente no será necesario llegar a tal grado de conectividad entre los cerebros y los contenidos culturales. Pero sin duda estarán al alcance de la mano. Superstar, una compañía de Pekín, ya ha digitalizado 1,3 millones de libros, la mitad de los editados en China desde 1949: escanear un libro le cuesta a esta empresa 10 dólares, mientras que en Stanford, una de las bibliotecas que colaboran con Google, cuesta 30. Superstar ofrece a las propias bibliotecas de donde escanea los libros, cualquiera de ellos a 50 céntimos de dólar la copia. Bill McCoy, gerente de la división de publicaciones de Adobe, que colabora con Amazon.com ofreciendo libros en formato digital (PDF), está seguro de que el efecto más importante de este cambio no se producirá en los ciudadanos que ya tienen a su alcance grandes bibliotecas (aquí la mejora es obtener cualquier libro al instante en formato digital o de un día para otro en papel), sino en los estudiantes de países pobres donde, a pesar de existir demanda, no hay oferta de libros: el micropoder cultural está al alcance de muchos, aunque aparentemente carezcan de medios para hacerse oír. Sólo que en este caso el micro se refiere al tamaño de su soporte, porque potencialmente todos pueden adquirir la misma cultura.

La transformación más radical, según Kelly, no será el mero acceso de las personas a los libros, incluso a todos los libros, sino que los propios libros estén interconectados, formando no ya una librería de librerías, sino un libro de libros. La interactividad en la lectura de libros es posible, como en los demás elementos de la Web 2.0, porque “cada palabra en cada libro está más interconectada, agrupada, citada, extraída, indexada, analizada, anotada, remezclada, reelaborada, y más intensamente tejida dentro de la cultura que antes. En el nuevo mundo de los libros, cada bit informa sobre los demás; cada página lee a todas las demás”. Al igual que sucede en el caso de la Wikipedia (cuyo ejemplo es el que ha promovido esta acción), no hay institución en el mundo capaz de reclutar a miles de millones de personas para que escriban las palabras clave (tags), seleccionen citas en los libros y las vinculen con otras: pero esto lo van haciendo voluntaria y gratuitamente los internautas.

El link y el tag pueden haber sido dos de las invenciones más importantes de los últimos 50 años. Adquieren su cuota inicial de poder cuando los codificamos dentro de unos bits de texto. Pero sus energías transformadoras reales se disparan cuando los usuarios ordinarios hacen clic sobre ellos mientras surfean a diario por la red, sin darse cuenta de que cada una de esas pulsaciones rutinarias vota a un enlace, elevando su ranking de relevancia. Uno puede pensar que simplemente está navegando, inspeccionando casualmente un párrafo de una página, pero en realidad está marcando anónimamente la web con migajas de atención. Los buscadores juntan y analizan esos bits de interés, para reforzar las relaciones entre los puntos finales de cada enlace y las conexiones sugeridas por cada tag. Esta clase de información es común en la red, pero hasta ahora era algo extraño al mundo de los libros. Con cada elección, con cada clic ejercemos nuestro micropoder de determinar qué es y no es importante en la red, y por tanto, en la sociedad.

Cuando los libros digitales estén interconectados, lo estará una inmensa red de nombres e ideas. La fuerza de las relaciones —perseguida por los motores de búsqueda— de las páginas web (cada una de las cuales tiene en promedio 10 enlaces) es de sobra conocida. La que tendrá la red de libros interconectados puede ser de momento sólo imaginada. Leerlos se convertirá también en una actividad comunitaria. Si ya antes los libros tenían “vida propia” en función del efecto (quizá imprevisto por el autor) que provocaban en los lectores, ahora los lectores, con sus elecciones, irán dando nueva vida y forma a los libros. Del mismo modo que hoy la red permite al usuario fabricar listas de temas musicales preferidos, de páginas web favoritas, etc., cada uno constituirá su particular librería de textos y autores.

La digitalización de libros había facilitado la promoción de autores noveles o marginales. Su interconexión intensificará este proceso. Además facilitará el acceso a fuentes inéditas, mejorando nuestra comprensión de la historia. Según Kelly, el tercer efecto importante de esta interconectividad será “cultivar un nuevo sentido de la autoridad”, permitiendo una comprensión global de la cultura al incorporar todos los textos, pasados y presentes, y en cualquier lengua, dándonos “un sentido claro de lo que como civilización, como especie, sabemos y no sabemos. Este grado de autoridad lo logra hoy rara vez nuestra enseñanza, pero se convertirá en rutina”. La funcionalidad de la web se multiplicará, ofreciéndonos —por hacer una comparación geográfica— un mapa de la tierra donde no veremos solamente el aspecto de un punto, sino, todo lo que en cada punto ha pasado, qué han hecho las personas que allí han estado o qué se ha escrito sobre tales lugares o personas.

Naturalmente, este proceso exigirá una negociación con los autores que tienen derechos sobre las copias de sus obras. Pero el 15% de los 32 millones de libros catalogados en el mundo están libres de derechos de autor, y el volumen de información que eso supone es ya importante: a estos libros apunta el Million Book Project de Google. También se digitalizarán los libros que están en el mercado, que según Kelly suponen el 10% del total: de esto se encargará principalmente Amazon, que ya ofrece cuatro millones de libros. Google, que quiere competir por este porcentaje, pretende además escanear el 75% restante, los libros que ni se venden ni carecen de derechos de autor: en principio nadie los lee. Puesto que el Tribunal Supremo de Estados Unidos dictaminó en 2003 que hasta 2019 no serán de dominio público, Google se propone indexarlos y pemitir la búsqueda en ellos, pero ofrecer sólo algunos fragmentos a quienes quieran consultarlos. De momento, el proyecto escaneará los 10 millones de libros de las bibliotecas universitarias de Stanford, Harvard, Oxford, Michigan y de la New York Public Library. 

Puede observarse como un descomunal patrimonio cultural aflora en las manos de las ciudadanos, a su favor. Súbitamente muchos, todos los que puedan interconectarse e interactuar, tendrán acceso a gran parte de la producción intelectual del género humano, con consecuencias a medio y largo plazo insospechadas.

De acuerdo