Mossos d’Escuadra y sociedad de control

La tecnología hace posibles ciertos sueños represivos. Los Mossos d’escuadra piden colaboración (lleva nofollow) para identificar a una serie de participantes en una manifestación de la CGT, y lo descubro gracias a Kozzak que me pasó el enlace.

Podrá estarse de acuerdo o no en las formas, los motivos y el trasfondo de ciertas protestas. Pero el hecho de que el Estado esté tan inclinado al uso de la tecnología para aumentar el control y sea tan duro y lento a la hora de implementar bien la tecnología para hacernos la vida más fácil (piensen en la continua persecución del p2p o el barullo de certificados digitales y su nada amigable uso desde Linux, por ejemplo) debería animar una sana reflexión sobre si el mismo es la panacea que se defiende desde ciertos ámbitos en estos días de recortes.

Está claro que no puedes coger y eliminar el Estado sin pensar un orden alternativo, pero de ahí a que el sistema sea lo más hay un trecho. La videovigilancia surge en las cárceles y de ahí se exporta a las calles: la sociedad de control prohíbe los usos beneficios de la tecnología y alimenta los indeseados. No debería sorprendernos: una cárcel es un rincón en el que se hacen experimentos sociales.

De Borjamari a Espeonza

En 2003 las parodias eran blogs riéndose de otros blogs más o menos conocidos y sus manías más o menos públicas. En 2012 la parodia de moda es un tuiter que se burla de un político. Basta ya de decir que si blanco, que si negro. Las cosas son útiles en su justa medida, pero el diseño condiciona la función. En 2003 (y en 2004, y en 2005) la moda era «la conversación» y el metajuego le daba entidad no invitando a la fiesta a todo aquel que no fuera explícitamente parte del mismo. En 2012 la conversación es la de toda la vida (tirios contra troyanos). Han pasado nueve años y no sé, pero tú antes molabas. O quizá es tan sólo que a mí me ha dado un poco de morriña. No me lo tengan demasiado en cuenta.

Harvard se queja del precio de los journals y gira totalmente a Open Access

Harvard

Durante muchos años fui investigador (aunque casi nunca saco a relucir ese Ph.D. del que otros hacen gala constantemente). Me encanta la ciencia y creo que si hay algo que tienen en común la ciencia y el tipo de consultoría y servicios que realizo habitualmente es que ambos requieren estar leyendo y estudiando constantemente. Durante años nos hemos venido quejando de que el precio de los journals es excesivo, al tiempo que lamentábamos el poco alcance de las iniciativas Open Access. La situación podría dar un vuelco con el cambio de posición Harvard a este respecto.

En este blog hay algunos posts antiguos (y no tanto) en los que analizamos a fondo el problema del Open Access. En 2007 abogábamos abiertamente por el dominio público para toda la investigación científica pagada con dinero público. Es demencial que con dinero de todos se pague una investigación que luego debemos volver a pagar para poder leer.

Cuando un año después, en 2008, se lanzó un programa piloto en el ámbito de toda la UE para impulsra Open Access fuimos muy excépticos. El programa garantizaba 12 meses de explotación a las editoriales, con lo cual seguía habiendo esa necesidad de pasar por caja si uno quiere estar en la punta de lanza de una disciplina concreta. Seguía existiendo la necesidad de pasar por caja.

En junio del año pasado, los datos venían a confirmar lo que como insider uno ya sospechaba: el dinero invertido en journals ha crecido en los últimos años, pese a la llegada de Internet. El 65% del dinero que gastan las universidades es para Journals, Elsevier tiene un increíble margen de explotación de casi el 40%. Argumentábamos entonces por qué se han perpetuado estos monopolios pese a Internet, y aunque a todos nos gusta Open Access, la reciente queja oficial de Harvard sobre el precio de los journals:

«Harvard’s annual cost for journals from these providers now approaches $3.75M. In 2010, the comparable amount accounted for more than 20% of all periodical subscription costs and just under 10% of all collection costs for everything the Library acquires. Some journals cost as much as $40,000 per year, others in the tens of thousands. Prices for online content from two providers have increased by about 145% over the past six years»

Después de eso, una serie de buenas prácticas en las que recomiendan enviar los resultados al propio canal de Open Access de la Universidad. Hay leyes en EE.UU. para conseguir que la investigación con dinero público sea más accesible para todos, al menos todavía… quizá con este paso de Harvard la cosa cambie. La decisión está en manos de los investigadores, pero si no se tocan sus incentivos más inmediatos… puede que el apoyo de un peso pesado com Harvard sirva de punto de apoyo a lo que todos deseamos: que los resultados de la investigación científica sean más libres y más accesibles.

Bocados de Actualidad (148º)

22 de abril y tenemos con nosotros la ronda centésima cuadragésima octava de los Bocados, esa colección de enlaces que no tuve tiempo (o ganas) de comentar durante la(s) última(s) semana(s). Nos acompañan Bee & Flower cuyo esperadísimo nuevo álbum (Suspension, cuyo adelanto saboreamos hace más de un año) por fin podemos disfrutar plenamente.

  • El blog de desarrolladores de Dropbox y una estimación realista de la fortaleza de las contraseñas.
  • Error 500 y los sesgos de los wikipedistas. Creo que su ejemplo no es el más acertado, pero aún es reseñable.
  • Iván Fanego y Larry debe vivir. Una historia más de financiación colectiva.
  • Y hablando de financiación colectiva, esta semana hay que destacar a Fixmedia, que han hecho una campaña impecable, aunque con la idea de periodismo haya que ser sanamente crítico.
  • Miguel Almeida nos descubrió un simulador de máquina enigma para Android.
  • Cometario y el «principio de economía» aplicado a la ortografía, con el ejemplo de las tildes.
  • Packet Storm Security y el ataque DoS a las Sony Bravia. ¿Queremos televisión conectada a Internet? Pues serán televisiones «atacables».
  • Mark Sweep el juego de la cerveza y por qué Apple no puede fabricar los iPad en EE.UU.
  • Tubuntux y Caffeine para Precise Pangolin. Sustituye al Apple inhibidor de energía de forma elegante.

Esto es todo por ahora. Os recuerdo que voy compartiendo enlaces en mi gestor de enlaces y que os podéis suscribir directamente a ese feed.

Para terminar, Bee and Flower y su Waiting Room. Ni de lejos el mejor tema del nuevo álbum, pero es lo que he encontrado esta mañana.

A vueltas con el Tipping Point y el conocimiento de las redes

Si sacamos nuestra vena de analistas, la noticia más importante de ayer fue el final de la «war on drugs» declarada por Nixon en 1971, por cuanto podría presagiar un giro de mayor calado sobre el que ya sonaron tambores. Cabe incluso preguntarse cuándo llegará el final del «war on terror» con el que nos han martilleado (y arañado libertades) desde aquel día de septiembre de 2001. (Imagino que habrá que esperar aún 3 décadas; en todo caso… pero es una guerra perdida desde su enfoque.)

Pero si nos centramos un rato en temas más mundanos y hacemos análisis, pero esta vez análisis de redes, el flujo de la noticia va por las críticas al Tipping point y la creencia de que contar con los líderes de opinión garantiza el éxito en la comunicación en red. Es una crítica con mucho sentido: desde luego que contar con líderes de opinión es más bueno que malo para una causa dada, pero no es suficiente. No garantiza nada. Y ello explicaría que los mismos protagonistas, usando los mismos procedimientos, unas veces creen la bola de nieve y otras veces se derritan previsiblemente bajo el sol más tibio del invierno.

Y en ese «previsiblemente» reside el quid de este post. Quienes estamos en el día a día en la Red sabíamos que aquella intentona sobre Ryanair no llegaría a ninguna parte. Mismos protagonistas, mismos métodos, pero el resultado se percibía diferente. Era un conocimiento asentado pero difícil de justificar y el trabajo aparecido en Nature este mes viene a convertir en teoría eso que hasta ahora no era más que un postulado sin demostrar: la clave podría no estar en quién te apoya (aunque todo apoyo sume, obvio), sino en la lectura concreta que una persona es capaz de hacer de una red concreta en un momento concreto. Ese expertise no lo regalan con la fanta, ni con la licenciatura de periodismo. Y, más importantemente, no hace grandes aspavientos ni desprende glamour, pero seguramente contar con ese expertise de tu parte es, si nos movemos entre redes, una parte tan relevante (o más) para alcanzar ese «tipping point» que los rostros y nombres que se prestan a tu campaña y los medios en que consigues armar tu puzzle.

Empresas, cooperación social y la magnitud de las multas

La idea de que «las empresas todo lo miden en clave económica» está muy extendida por motivos justificados.

En primer lugar las empresas, incluso esas que se autodenominan «emprendimientos sociales», se hacen para crear puestos de trabajo (al menos los de los fundadores) y asegurarles el salario a esas personas (la motivación económica es inevitable en todas, y todas hacen una función social al crear empleo). Es obvio que hay muchas formas de enfocar un proyecto, pero decir «somos un emprendimiento social y no tenemos ánimo de lucro» es una falacia. Tu salario también es lucro. Y si no lo crees, pregúntale a un desempleado.

En segundo lugar, el sistema de presión social que sirve para que nos comportemos socialmente de forma más o menos honesta (para que cooperemos unos con otros y no abusemos de nuestra posición) tiene un problema con las empresas, ya que la pena máxima (el daño físico: cárcel, pena de muerte, etc.) no puede ser aplicada a una «persona no física», a quien lo más que le puedes es poner una multa, como bien explicó Schneier en Liars & Outliers.

Paul Newman y Tim Robbins en El gran salto de Joel Cohen
[Foto: Paul Newman y Tim Robbins en El gran salto de Joel Cohen (tres tipos muy grandes, si me lo permiten).]

Con esto en mente, no puedo sino recibir con diversión lo que leemos en Mashable:

The FCC is fining Google $25,000 for impeding an investigation into personal e-mails and other data collected via the company’s Street View cars.

But that’s far from a punitive fine for the search giant. In fact, it is less than the company spends on one day of lunch for its employees.

Vaya, si las consecuencias derivadas de recopilar información masiva de las personas y sus redes sale así de barato, ¿esta multa incentiva o desincentiva la violación futura? ¿Nos conformamos con que lo sintieran profundamente?

Pero no es todo, cuando ya tenía este post casi concluido llego a una resolución judicial (gracias a Félix Haro) que impone una sanción al PSOE por violación de la LOPD. Los hechos probados incluyen una violación a gran escala de la LOPD (infracción grave) y la multa asciende (aunque casi vale la pena decir desciende) hasta los 18.000 euros. Del mismo modo, si las consecuencias de violar la LOPD de forma grave sale por ese coste, ¿esta multa incentiva o desincentiva la violación futura?

Está claro que las entidades, personas «no físicas», escapan al último eslabón que articula el fortalecimiento de la confianza y los mecanismos de cohesión social. Pero eso habría de ayudar a desarrollar un tercer nivel (el de las sanciones económicas) capaz de suplir esa carencia. Cuando ese sistema no cumple su función (si la multa te cuesta menos que un día de comida, la empresa probablemente gane más diner saltándose la norma), está claro que estamos alimentando esa «impunidad comprada con dinero». Pero, más importante aún, ¿por qué el sistema actúa así? ¿De verdad el legislador no sabe lo que hace? A todo esto, claro, a nuestra privacidad que le vayan dando matarile.

Conocer bien las dinámicas de una red, más importante que conocer sus líderes

Desde que Malcolm Gladwell publicara The Tipping Point hace una década, los argumentos contenidos en ese libro han sido aderezo imprescindible para toda campaña de comunicación online, incluso para aquellas que no pasaban de ser marketing aburrido (o agotador, como la recurrente y repetida búsqueda del «viral» a toda costa). El enfoque es sencillo: detectemos a los individuos influyentes en un ámbito, sumémoslos a nuestra causa y su prestigio hará el resto. Mientras este planteamiento parece correcto (quizá porque llevamos una década manejándolo), ¿qué sucedería si la propagación de un meme no estuviera relacionada con la reputación o la influencia del emisor sino con otros parámetros que no estamos contemplando? Recientemente no uno sino dos trabajos parecen apuntar en esta idea: uno pone la carga de la propagación en el receptor del mensaje y otro en la topología de la red.

Los nodos centralizadores

Malcolm Gladwell parte de la idea de que en una red hay nodos que actúan como hubs actuando de conectores entre unos y otros. Así, para llevar un mensaje desde A hasta C no podemos ir de cualquier forma, sino que necesitamos pasar por B, que actúa como conector. En su argumentación, los nodos que al igual que el B de nuestro ejemplo actúan como conectores masivos son los que con más probabilidad pueden ayudar a que nuestro mensaje alcance la masa crítica necesaria para asegurar su propagación. Acceder a ellos sería La clave del éxito, que es como algún traductor creativo tradujo el título de la obra de Gladwell.

Pero, ¿y si la propagación de una noticia o un meme no estuviera relacionado con la reputación o la influencia del emisor sino con otros parámetros? Todo parece indicar que sucede exactamente eso y que los parámetros relevantes no son la influencia del emisor, sino la influenciabilidad del receptor y la topología de la red que estemos analizando y en la que deseemos comunicarnos.

De los «6 grados de separación» al Tipping Point… y vuelta atrás

El primero de los apuntes en esta línea lo proporcionaba Duncan Watts, teórico de redes que fuera profesor en la Universidad de Columbia y ahora trabaja para Yahoo!. Watts no estaba convencido del modelo de Gladwell, así que organizó por su cuenta una repetición masiva del clásico experimento de Milgram que dio origen a la regla de los «seis grados de separación». Según nos contaron en FastCompany:

«But Watts, for one, didn’t think the gatekeeper model was true. It certainly didn’t match what he’d found studying networks. So he decided to test it in the real world by remounting the Milgram experiment on a massive scale. In 2001, Watts used a Web site to recruit about 61,000 people, then asked them to ferry messages to 18 targets worldwide. Sure enough, he found that Milgram was right: The average length of the chain was roughly six links. But when he examined these pathways, he found that «hubs»–highly connected people–weren’t crucial. Sure, they existed. But only 5% of the email messages passed through one of these superconnectors. The rest of the messages moved through society in much more democratic paths, zipping from one weakly connected individual to another, until they arrived at the target.»

Aquí una referencias al trabajo de Watts en Scientific American, ya en el 2003. El experimento de Watts corroboró los seis grados de separación de Milgram, pero levantó en él otras dudas. Por supuesto que descubrió algunos nodos centralizadores que aglutinan más mensajes que otros (esta centralidad irregular seguramente es inevitable en una red compuesta por personas), lo que sucede es que en su experimento los mismos tenían un rol menos concentrador que lo que Gladwell había sugerido. Un 5% es un 5%, pero si ha de traernos una idea a la mente es que es sólo un 5%.

Watts concluye que para la propagación de un mensaje no es tan relevante la autoridad del emisor como la capacidad del receptor de ser influido. Es mucho es más importante cuán influenciable es el público objetivo del meme.

La no importancia acerca del emisor

Un artículo publicado en Nature hace apenas 3 semanas va más allá, referenciando un trabajo publicado en 2004 en Physical Review E:

A closer analogy to our approach is perhaps provided by neutral models of ecosystems, where individuals (posts) belonging to different species (memes) produce offspring in an environment (our collective attention) that can sustain only a limited number of individuals. At every generation, individuals belonging to new species enter the ecosystem while as many individuals die as needed to maintain the sustainability threshold.

Esa definición en clave estocástica de lo que no es sino un juego de suma cero lleva a Bianka Hajdu a afirmar que:

«Twitter se comporta como los medios de masas, donde para la popularidad también es más importante el medio y su estructura (qué medio leo y quién más lo lee, a quién sigo, a quién retuiteo sin leer qué) que el mensaje y donde dinámicas como la polarización de grupo campan a sus anchas.»

Buscando las diferencias… y las similitudes

En efecto, la principal diferencia entre el estudio de Milgram en 1967 y el de Watts en 2001 es este maravilloso y nuevo entorno que llamamos Internet. Y si hay un fenómeno característico de Internet ése es la desintermediación en todos los ámbitos (desde la distribución de contenidos a la de alimentos). Así, no es sorprendente que en los albores del siglo que vivimos y llevando su experimento a la web, Watts encontrara una red mucho menos centralizada que la que encontrara Milgram en el Brooklyn analógico de 1967.

No obstante, el hecho de que esa «Competición entre memes en un mundo de atención reducida» de Weng et al. perciba Twitter como un juego de suma cero nos recuerda que la promesa de Internet se ha hecho realidad pero a mucha menor escala de lo que creíamos. Internet prometía cambiar las cosas mediante la redistribución del poder y la adquisición de autonomía por parte de las personas, sin embargo tienen razón quienes afirman que las cosas han cambiado menos en estos últimos cinco años que lo que lo hicieron los cinco anteriores. El cambio radical hay que buscarlo en la disminución de la barrera de entrada para acceder a, crear y cuidar un público que oiga tu mensaje.

El empoderamiento condicionado por las herramientas

Debemos evitar concluir, en todo caso, que Internet fue un bluf. Más bien debemos observar bien los detalles sobre los que hablamos para darnos cuenta que Internet es mucho más que eso y que algunas de estas conclusiones podrían modificar sus enunciados si tomamos para nuestro estudio un sistema de composición diferente.

Tanto el estudio de Nature como el post de Kids en Blogoff versan sobre Twitter. La imagen que acompaña a este post está sacada de ese trabajo y representa la propagación del hashtag #gop (me parece irrelevante usar #syria o #egypt para expresar la topología de la protesta en esos países –y aunque quede claro que hacen otra cosa, es lo que sugiere intuitivamente la gráfica–, pues dudo que el idioma inglés fuera predominante en las protestas que el año pasado nos recordaron la existencia de un gran oriente medio).

Y es que ya sabemos que el diseño de la herramienta condiciona lo que podemos hacer con ella. Twitter está pensado para centralizar audiencias y es una de las caras más visibles de la tabletización aplicada a servicios web, motivo por el que es aclamada por los medios «tradicionales»: abre una vía para la migración acrítica (que no cuestiona el modelo tradicional) desde la lectura de los medios masivos en analógico a su lectura en digital, sin obligarnos (cómo si lo hacen otras herramientas en la Red) a preguntarnos si otra manera de comunicarnos es posible ni extender las nuevas formas de creación que Internet hace accesibles para todos. Por supuesto, aún es posible adquirir autonomía para personas y organizaciones, pero es un proceso de formación continua y consciente, no el fruto de la casualidad ni del devenir entrópico del universo.

Al tomar como modelo sistemas que desaprovechan (por sencilla desestimación, ni siquiera las tenemos en cuenta) las oportunidades que Internet ofrece en favor de un status quo del modelo anterior, estos estudios dejan abierta la puerta a una mirada que refine los resultados.

Conclusiones: de Watts a Weng al analista de redes

Pero si hay una idea clara en todo esto es que la labor del analista de redes es crucial. Hace años que hablamos de la periferia de la red como ese lugar donde habita el 50% de las personas y al que no se accede desde los nodos masivos, y así lo expreso cuando doy seminarios sobre el tema. Watts apunta a que un sistema que no ha sido previamente tamizado por una herramienta concreta, cuyo diseño sirve para recentralizar, podría estar mucho más disperso.

Por supuesto que aún vale la pena detectar los nombres influyentes, un 5% es más que un 0%, pero si algo se deduce de todos estos estudios es que la labor del analista de redes, conocedor de las dinámicas y los flujos de información en un medio concreto, son aún más valiosas de lo que habíamos supuesto en un principio. Los penalties existen, pero no podemos confiar el éxito de un proyecto a una carta única que pase por contar con el apoyo de una cierta personalidad o la aparición en una serie de medios de comunicación de masas: al final, parece que la clave del éxito era otra. Estudiar una red y su comportamiento nos abre más puertas que una serie de nombres, y ya sabemos que para eso no sirven (todavía) las máquinas.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad