David Casacuberta

Gestión cultural y TICs. Una perspectiva desde la web 2.0

Qué es la web 2.0

Este texto intenta  presentar el paradigma web 2.0 como una forma más adecuada de establecer las relaciones entre las nuevas tecnologías digitales y la gestión cultural. Para ello, el primer paso consiste en establecer con cierto detalle que entendemos por web 2.0.

En breve, podríamos decir que la web 2.0 pasa por reinterpretar la web, no como un mecanismo de comunicación de pocos a muchos, en un proceso que es una mera transposición del modelo editorial al mundo digital, sino como una forma de establecer mecanismos de comunicación y construcción colectiva. 

El término web 2.0 y la conceptualización asociada se la debemos básicamente a Tim O'Reilly, el editor detrás de la conocida editorial técnica O'Reilly. Un tiempo después de la explosión de la burbuja de las punto com, O'Reilly y sus asociados observaron la emergencia de una forma alternativa de entender la red, mucho más  participativa, innovadora y que explotaba de una forma mucho más pertinente los recursos que ofrecían las TIC. 

En un sesión de brainstorming detectaron cuales eran las características más significativas de esta nueva visión y las recombinaron, etiquetándolas bajo el nombre de web 2.0.

Básicamente, las características que O'Reilly detectó y que nos resultarán más significativas a la hora de establecer su importancia dentro de la gestión cultural son las siguientes;

Aplicaciones multiplataforma

Construcción colectiva de los datos: el usuario como co-desarrollador.

Identificación y localización de items (RSS y XML)

Inteligencia colectiva

Data remix


Por aplicaciones multiplataforma entendemos diversos tipos de programas que normalmente se ejectuan desde web y que pueden utilizarse desde cualquier navegador (Explorer, Firefox, Opera, Safari, Galeon..,) y desde cualquier sistema operativo (Linux, Windows, Mac OS...). Dentro de lo que es el tema específico de nuestra discusión es seguramente el tema menos importante, pero no está de más recordarlo si planeamos diseñar alguna aplicación específica en el contexto web 2.0 para la gestión cultural. Hay vida más allá de Windows XP y el Explorer.

La construcción colectiva de los datos seguramente aparece como la característica más llamativa y apetecible del web 2.0. En el paradigma anterior, el de las punto com o, si queremos, la web 1.0,  el modelo se basaba en la existencia de una empresa que procedía a gestionar ella misma una gran cantidad de datos a partir del esfuerzo de una serie de expertos, o quizás la idea de una inteligencia artificial que era capaz de gestionar y ordenar esos datos, siendo capaz de ofrecer búsquedas y consultas inteligentes. 

Por el contrario, la web 2.0 se basa en ofrecer un medio colaborativo de construcción y esperar que sean los propios usuarios los que ofrezcan e introduzcan los datos. Podemos poner como ejemplo ell archifamoso Google. En lugar de limitarse simplemente a algoritmos que buscan términos en páginas web -como hacían los primeros buscadores- Google confía sobre todo en los enlaces que los usuarios hacen a páginas web. Así,a un usuario no le resulta nada trabajoso hacer un enlace a su web favorito sobre gestión cultural. Pero al hacerlo miles de usuarios, el algoritmo es capaz de detectar de forma más fiable qué página sobre recursos de gestión cultural parece ser la más conocida y citada.

El mismo modelo está presente en la Wikipedia. Una enciclopedia construida colectivamente a partir de esfuerzos relativamente pequeños de muchos usuarios. En lugar de tener un equipo de profesionales redactando artículos, lo que tenemos es literalmente miles de personas escribiendo exclusivamente sobre aquellos temas que más conocen y disfrutan, construyendo entre todos una enciclopedia colectiva.

La tercera característica es Ia identificación y localización de items (RSS y XML). Es la parte más tecnológica de la revolución web 2.0.  RSS son las siglas de Real Simple Syndication, y permite saber cuándo se ha actualizado la información en una aplicación de Internet sin necesidad de visitarla. Esta tecnología  permite que sistemas como los blogs o el podcasting sean realmente útiles, y facilita la creación sistemas de agrupación de información a partir diferentes fuentes (los llamados "aggregators").

El XML es un sistema de marcado de elementos informativos mucho más poderoso que el HTML (de hecho, el HTML vendría a ser un pequeño subconjunto de este sistema) y permite facilitar la creación de webs mucho más interactivas y complejas, procesos como la customización de páginas, separar en las webs el contenido de la forma, etc.

La siguiente característica es la inteligencia colectiva, y la analizaremos con cierto detalle en este articulo. Deviene una especie  de corolario de la idea de los datos introducidos por el usuario. Al juntar la fuerza mental de miles de personas, el resultado final es muchas veces similar o incluso mejor del que podrían dar unos pocos expertos.

La remezcla de datos o "data remix" se apoya en parte en la idea de identificación y localización para construir nuevos sistemas informativos a partir de reciclar el material presentado por otros. Puede consistir en un "mashup" resultado de mezclar dos temas musicales imposibles, o un blog de noticias que reusa material de otros blogs.

Así pues, ¿qué características de la web 2.0 nos resultan más relevantes para la idea de cultura, gestión cultural y que nos permitan aplicar de la forma más funcional y pertinente las características de los medios digitales?

La más clara y relevante para nosotros es la que podríamos llamar "Sabiduría de las multitudes". La idea de que en el grupo hay más inteligencia que en los miembros más inteligentes del grupo. En la expresión  de Surowiecki en su libro llamado precisamente The Wisdom of Crowds: "Bajo las circunstancias correctas, los grupos son claramente más inteligentes que las personas más inteligentes que forman el grupo".  Esta es la característica más poderosa de la Web 2.0 y aquella que más relevancia tiene para la gestión cultural. 

En el fondo, y esta es una de las tesis de este artículo, la web 2.0 y su idea de sabuduría de las multitudes es el intento de trasplantar algunos de los mecanismos de la cultura tradicional al mundo digital. Después de todo ¿Cómo entendemos a cultura sino como la sabiduría de las multitudes codificada a través de otros procesos más lentos? ¿No comparten el algoritmo de búsqueda de Google y el boca a oreja una serie de características sociales? Desde luego, la cultura y el boca a oreja son más fiables que un buscador o un blog, pues la web 2.0 todavía necesita muchos niveles de refinamiento para ser exactamente igual que las "multitudes analógicas".

Un siguiente elemento clave que tenemos que comentar es el llamado "efecto red". El fenómeno analizado por expertos como Kevin Kelly (el antiguo editor de la revista Wired) que establece que cuanta más gente se conecta más efectivo es el sistema, con lo cual se invita a más gente a unirse. Kelly lo llama "el efecto fax". Un fax no sirve para nada. Si se conecta a otro fax, simplemente permite a dos personas enviarse mensajes. Pero, si tenemos cien faxes y conectamos el fax 101, no permitimos una nueva conversación, sino miles de ellas. De la misma forma, si en Internet sólo hubieran 50 páginas web, Google sería básicamente inútil. Pero al haber millones de ellas, hay suficiente información como para organizar un análisis estadístico y establecer qué páginas son más relevantes para una búsqueda concreta.

Si volvemos a la idea de inteligencia colectiva, veremos que lo que en principio ofrece la web 2.0 es un sistema de filtrado y etiquetado de informaciones (incluyendo las culturales) en el que la multitud desarrolla ese trabajo de forma gratuita y - si hemos de creer la tesis sobre la inteligencia de las multitudes- igual de bien o incluso mejor que un experto. Nadie puede negar que la Wikipedia es mucho más barata de desarrollar que la Enciclopedia Britannica. Decidir si son equivalentes es algo más complejo. De hecho, creo que, desde la perspectiva de la gestión cultural, es el gran tema. En una próxima sección intentaremos dar algunas ideas sobre hasta qué punto las multitudes pueden llegar a ser "listas", aunque es un tema que todavía necesita de mucha investigación y en el que podría ser un error dar respuestas categóricas.

Ello nos lleva a la idea de software social, y a la forma de remedar las interacciones sociales a partir de aplicaciones digitales. Ideas como los seis grados de separación, según el cual hay como máximo una cadena de seis personas que nos conecta con cualquier otra persona de la Tierra. Este principio se ha aplicado en portales para facilitar la conexión entre personas que no se conocen pero podrían desarrollar proyectos en común, como Friendster o Grock. Estos softwares están todavía en sus inicios, y no todos resultan igual de útiles. El articulo de Óscar Martínez en este mismo volumen analiza en detalle las características y posibilidades de este tipo de software.

Un principio más estético y que rige el desarrollo de las interficies en el planeta web 2.0 viene directo de la Bauhaus participa de  la idea de "menos es más". Si la web de las punto com (la web 1.0) se trataba de ofrecer portales donde todo se podía obtener, llenos de opciones, botones, imágenes en movimiento, inteligencia artificial, etc.la web 2.0 consiste en la web de la simplicidad: desarrollar interficies muy simples, para una función muy específica y con un sistema de funcionamiento muy básico. No hay más que comparar un portal de la web 1.0 con Google para notar la diferencia.

Otro fenómeno que por un lado potencia la web 2.0 y por otro le sirve de combustible para funcionar es el concepto de libre distribución de contenidos. Ya le llamemos Creative Commons, Copyleft, Software libre, Código Abierto, etc. parte de la estructura de la web 2.0, especialmente la que se basa en el data remix y en la aportación de datos por los usuarios, necesita que información, software, imágenes, música y otros materiales culturales puedan distribuirse y reusarse de forma libre. Ello no implica necesariamente violaciones de copyright, aunque sin duda este nuevo paradigma está poniendo en aprietos los sistemas tradicionales de distribuir los objetos culturales. Sobre todo se trata, como en el modelo de Creative Commons de desarrollar nuevos modelos a la hora de distribuir los contenidos intelectuales, sin necesariamente pasar por el modelo del copyright.


Algunas definiciones.

Diversos autores han intentado capturar la posible esencia de la web 2.0 a través de diversas definiciones.  Tim O'Reilly lo planteó afirmando que "Empresas como Google, Amazon o EBay obtienen conocimiento de todos sus usuarios y lo implementan en su interface." 

 Para Marten Mickos de MySQL, se podría decir que "el ecosistema es la computadora y la colaboración es su sistema operativo".

Según Danah Boyd, una experta del naciente campo de la sociocultura on-line de la universidad de Berkeley, "La web 2.0 es un complejo flujo de información multidireccional en constante cambio, en el que la información va evolucionando  según fluye". 

Todas estas definiciones recuperan las ideas que hemos planteado más arriba, la idea de la colaboración de muchos usuarios como ejercicio básico, la creación de procesos que se transforman a gran velocidad según se van usando y la idea de aplicación web como un medio en el que es el usuario, finalmente, el que crea los contenidos.

Otra imagen potente es, en mi opinión, la que varios autores han utilizado en relación con la obscenidad y el infinito. La idea es simple: los humanos normalmente somos  muy buenos en detectar patrones y clasificar material. Casi siempre sabremos decir si una determinada fotografía es pornográfica u obscena, aunque en la mayoría de casos nos resultaría muy difícil establecer por qué, explicar qué rasgos de la fotografía la convierten finalmente en obscena. Un ordenador tendría muchas dificultades en establecer la obscenidad incluso de un texto -salvo recursos muy crudos como la búsqueda de palabras clave. En cambio, somos especialmente malos con los números. Hacer cálculos no es lo nuestro. Pero los ordenadores sí que son buenos para trabajar con números y sacarles todo el jugo. En la web 1.0 la idea que atraía el capital era utilizar la inteligencia artificial para buscar patrones que ayudaran a los usuarios a obtener información. Enseñar a los ordenadores a reconocer lo que es obsceno. En la web 2.0 dejamos a los ordenadores que hagan lo que saben, procesar números y ordenar largas cantidades de datos de forma mecánica, y los usuarios hacen lo que saben hacer bien: buscar patrones y clasificar según criterios más culturales y sociales.


Gestionar la participación.

Una parte significativa de los proyectos culturales basados en web acostumbran a nacer en estado catatónico y mueren al poco tiempo. La razón acostumbra a ser no disponer de ninguna estrategia clara a la hora de gestionar la participación.  La confianza de que "ya nos encontrarán" o el apostar por un mega-envío de correos a nuestra lista de simpatizantes y colaboradores es claramente insuficiente. El resultado muchas veces consiste en un empellón inicial resultón que rápidamente degrada en una participación caótica, una reducción drástica repentina de la participación y finalmente una web fantasma en la que las únicas participaciones en el foro son los mensajes de spam. 

¿Cómo podemos gestionar esa participación para que resulte funcional en un contexto web 2.0? Nuestra propuesta se basa en el concepto de Remediación, desarrollado por Bolter y Grusin en su libro del mismo título. La idea básica es muy simple: los nuevos medios no nacen de la nada, sino que imitan o "re-median" medios anteriores. Así, no es difícil ver una web que remedia un diario, o una emisora de radio, o una televisión, etc. Es de hecho una solución eficaz. Un usuario encontrará muy difícil trabajar con un medio que es genuinamente nuevo. Por el contrario,si los mecanismos básicos de navegación o interacción recuerdan a medios anteriores, con los que el usuario está familiarizado, le resultará mucho más fácil empezarlo a utilizar y así asimilar más fácilmente las partes que son nuevas.

Planteado desde esta perspectiva, ¿sobre qué medios previos se basa la gestión de la participación en las aplicaciones más exitosas del planeta web 2.0? Aunque sin duda no cubriremos todo el espectro, un referente común es el mundo de los video-juegos, siguiendo a la experta en juegos de carácter social Amy Jo Kim vamos a presentar a continuación una serie de estrategias.

Coleccionar puntos

Buena parte de los video-juegos, desde su infancia, se basan en ir acumulando puntos. Esa sensación de ir progresando acaba siendo adictiva y podemos pasarnos horas repitiendo una serie de movimientos histéricos para así conseguir sumar más puntos en el Tetris o nuestro juego favorito.

Esta estrategia ha pasado también a diversas aplicaciones web. Así, foros de discusión "meritocráticos" como Slashdot (Barrapunto en su versión española)  o digg (meneame en la versión española) los usuarios que participan enviando material, comentándolo, etc ganan "puntos de karma". Cuantos más puntos de karma, más fácil resulta que se acepten nuestras propuestas -hemos subido en el sistema meritocrático- aparte del placer intrínseco de tener más puntos que tal otra persona.

A veces esta obsesión por coleccionar puede también dañar la eficacia del sistema. Así, sistemas de software social como Orkutt han generado una especie de concurso a ver de quién tiene más amigos on-line, llegando personas a tener literalmente cientos de amigos conectados. Sin embargo, como el sistema funciona precisamente enviándonos mensajes de amigos de amigos, cuantos más amigos tenemos en lista, más mensajes recibiremos, siguiendo una estricta progresión geométrica, con lo que es fácil que acabemos recibiendo miles de mensajes al día, con lo que el sistema resulta básicamente inútil.

Pasar niveles.

Muchos juegos tienen la estrategia añadida de pasar "de nivel" una vez hemos conseguido una serie de puntos. Esta estrategia ha sido rápidamente adaptada por Ebay, el famoso sistema de subastas por Internet. Así, los usuarios tienen estrellas de diferentes colores, que indican su grado de fiabilidad (tanto de vendedores como compradores). El resultado final es que muchos adictos a Ebay -y hay unos cuantos- pueden acabar comprando o vendiendo cosas no por el valor en si, sino por la posibilidad de tener una nueva estrella al haber subido de nivel.

Feedback automático.

Los videojuegos tienen una característica que los hace muy adictivos: la facilidad con la que al hacer click en un punto, el sistema responde casi de forma instantánea y se transforma lo que tenemos en la pantalla. Además todo ello de forma sistemática. Esta facilidad se usa en aplicaciones como Google Earth o Google Maps que transforman la estática acción de mirar un atlas en un juego interactivo. Es natural que mucha gente se pase horas frente al Google Earth, mirando fotografías vía satélite del planeta, haciendo zooms arriba y abajo, sin estar buscando nada en particular, simplemente disfrutando del placer del feedback...

Turnos

Toda actividad social incluye turnos. Los juegos no don una excepción. Ofrecer un sistema de turnos facilita mucho la interacción, y le da mucho más sentido al juego. La mayoría de los sistemas de dar acceso a noticias en función del grado de interés que genera en los miembros de una comunidad (como Digg y Menéame) utilizan esos sistemas de turnos para facilitar la interacción y  hacerla más atractiva. Lo mismo puede decirse del proceso de subastas de Ebay, que tiene unos turnos claros y que también ayuda a hacerlo en más adictivo.

Customización

Ahí está buena parte del secreto de Myspace. Desde fuera, muchas o todas de esas páginas nos pueden parecer absolutamente horripilantes, estéticamente hablando, pero para un adolescente, esa sensación de tener control total sobre un espacio concreto, decidiendo colores, fondos, imágenes, música, textos, etc resulta claramente atractivo. Facilidad en customización es un elemento clave en un proyecto digital de raíz cultural, especialmente si queremos facilitar la libre expresión de los usuarios y buscar esa "sabiduría de las multitudes".


¿Son realmente sabias las multitudes?

Evidentemente, hay muchos contextos en los que no dejaríamos que las multitudes decidieran en un tema: desde la mejor cura para un tumor a como detener a tiempo un accidente en una central nuclear antes de que vaya a más, parece claro que el trabajo debería recaer en manos de expertos que saben de qué hablan. En el campo de la medicina especialmente, esta "sabiduría de las multitudes" puede acabar siendo particularmente peligrosa. Así muchos médicos se quejan de pacientes que llegan con problemas después de haberse automedicado en función de información que "había encontrado en la red."

Los entusiastas de la web 2.0, sin embargo, defienden que hay aspectos en los que las multitudes sí resultan especialmente útiles. Así, les parece mucho más fiable la recomendación de un restaurante basado en los enlaces de diferentes usuarios que un web de un experto gastronómico que quizás base sus recomendaciones en pagos por publicidad. Un ejemplo ampliamente citado es un artículo de la revista Nature que comparó diversos artículos de ciencia en la Wikipedia y en la Encyclopaedia Britannica. Se enviaron una selección de diferentes artículos, sin especificar de donde provenían, a diversos expertos en la materia en cuestión, y estos tenían que evaluar si habían errores y cuáles eran. El estudio demostraba que el nivel de errores era similar en la Britannica y la Wikipedia, con lo que mostraba que su grado de fiabilidad era similar. Lo más interesante, de todas formas, vino después. A los pocos días de publicarse el artículo en Nature, prácticamente todos los errores que según los expertos contenían los artículos de la Wikipedia fueron corregidos, mientras que nada de ello sucedió con la Encyclopaedia Britannica.

El estudio es muy sugerente pero todavía es muy preliminar. Otros análisis apuntan a la poca fiabilidad de la Wikipedia en cuestiones muy polémicas y controvertidas, o en la posibilidad de generar noticias trampa a propósito o simplemente un excesivo celo del autor de los artículos que impida una edición más cuidada de los artículos. Jarom Lanier -uno de los pioneros de la realidad virtual- explica que en la Wikipedia aparece como si fuera un director de cine, que no es el caso. Ha intentado varias veces modificar su propia entrada, pero inevitablemente, alguien ha vuelto a re-catalogarlo como director de cine.

El debate ha simplemente empezado, y sin duda es uno de los temas clave a la hora de juzgar la utilidad del paradigma web 2.0 en el mundo de la cultura. ¿No nos conducirían la multitudes a webs sobre el Código da Vinci y otros best-sellers obviando la alta cultura? O por el contrario ¿facilitará la web 2.0 la reconversión de nuestra gestión cultural hacia derroteros menos elitistas, manteniendo sin embargo el nivel de producciiones?


Otras objeciones.

Además de la objeción clave: ¿hasta qué punto las multitudes son sabias? otros autores han lanzado diversas críticas al concepto web 2.0

Un primer problema es que el concepto en sí mismo es suficientemente vago para que muchísima gente que no tiene nada que decir se ponga la etiqueta de "web 2.0", al estilo de la avalancha de las .com a mediados de los noventa. Teniendo en cuenta que cualquier definición, estilo, moda o paradigma es finalmente reutilizable y abusable, no creo que sea una objeción de peso. Por muy bien definido que esté nuestro modelo, si se convierte en algo exitoso, inevitablemente alguien desarrollará una reutilización excesiva para arrimar el ascua a su sardina. Lo que tenemos que hacer es reconocer las aplicaciones genuinas y evitar las que no van a ningún sitio.

Una crítica más elaborada, desde coordenadas posmodernas de crítica a la cultura globalizada digital o desde el modelo desarrollado por Hard y Negri en Imperio ponen de manifiesto el cinismo del capital que convierte nuestro tiempo de ocio en tiempo de trabajo. Mientras hacemos un enlace a nuestras páginas favoritas o participamos en un foro sobre un tema de nuestro interés, o estamos comprando un libro en Amazon, al mismo tiempo estamos trabajando (gratis) para el "sistema", ayudando a Google, Amazón o Ebay a aumentar sus beneficios, al mismo tiempo que ofrecemos información privada sobre nosotros mismos y los que nos rodean. Creo que es una advertencia potente, y que en nuestros proyectos culturales basados en web 2.0 hemos de vigilar el uso final que se hará de las informaciones de los usuarios, evitando que terceros ajenos al proyecto acaben rentabilizando el esfuerzo desinteresado de muchos.

Algunos expertos como Bruce Sterling (periodista y escritor de ciencia-ficción) apuntan al hecho de que las aplicaciones de web 2.0 necesitan complejos desarrrollos de programación, no accesibles a los amateurs, frente a la facilidad en que podía hacerse webs en los primeros noventa, con el simple lenguaje HTML. Para Sterling, en parte la web 2.0 es una estrategia de los expertos en ordenadores para volver a tener la exclusiva en el desarrrollo de aplicaciones, y volver a disfrutar de la situación de poder de la que disponían. Aunque el mismo Sterling bromea cuando lo presenta como una especie de conspiración, no es menos cierto que el modelo de web 2.0 ha de convivir con otros sistemas más sencillos que permitan a los amateurs construir sus sites. Por otra parte, no es menos cierto que aunque conseguir que una web aloje blogs es técnicamente complejo, no es menos cierto que una vez tenemos acceso, mantener un blog resulta sencillo, mucho más que generar nuestro propio HTML.


Conclusiones.

La web 2.0 es una forma mucho más natural de acercar  la cultura al público y la gestión cultural que los modelos que heredamos de portales y megasites de los tiempos de las .com. Básicamente, utiliza mucho mejor los recursos digitales que posibilitan que muchos hablen con muchos y generen contenidos colectivamente que las webs de "pocos a muchos" que remediaban los modelos de la publicación de libros y objetos culturales de la era industrial.

La facilidad de construir colectivamente permite crear objetos en los que gracias al pequeño esfuerzo de mucha gente conseguimos repositorios de información y  objetos  culturales que resultaría muy caro de producir desde un modelo propietario.

La web 2.0 es también un sistema mucho más adecuado al nuevo status del objeto cultural y su distribución, así como las recientes reflexiones y replanteamientos sobre en qué debería consistir finalmente la propiedad intelectual.

El talón de Aquiles de cualquier proyecto cultural basado en web 2.0 es la participación. Sin una participación suficiente, los materiales generados colectivamente serán irremediablemente flojos o incluso inexistentes. Además de las inevitables campañas de promoción on-line y off-line para facilitar el conocimiento del proyecto, una serie de estrategias re-mediadas del mundo de los video-juegos pueden ser muy útiles a la hora de garantizar que la participación sea más estable y eficaz.


Referencias a textos

El artículo de Tim O'Reilly donde se define el concepto de Web 2.0
www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

New Rules for the New Economy. El libro en el que Kelly habla del efecto fax: www.kk.org/newrules/contents.php

El artículo de Nature. "Internet Encyclopaedias go head to head" www.nature.com/nature/journal/v438/n7070/full/438900a.html

Referencias sitios web

Barrapunto 
Digg
Ebay
Google Earth 
Google Maps 
meneame
myspace
Slashdot