La infraestructura de la red crece más que el tráfico

Una de las mentiras más repetidas por los proveedores de internet en su lucha para convencer a los gobiernos de que les permitan filtrar el tráfico, algo que ambicionan para convertirse en el dueño de la llave que abre el grifo del artificialmente lucrativo negocio de los contenidos, es que la red se saturará y se aplastará bajo su propio peso si seguimos usando el p2p y si seguimos viendo documentales en streaming u ojeando youtube de vez en cuando.

Por supuesto eso es una mentira. La realidad es que una vez que obtengan los favores legales de parte de los Estados, los proveedores harán todo lo posible por favorecer ese modelo de streaming que según ellos mismos «amenaza con bloquear la red». ¿Por qué? Porque en los modelos de streaming el usuario no tiene ningún poder y es el proveedor quien en todo momento decide si el archivo puede verse o no; así como decide que para verlo de nuevo tengas que volver a pagar, o volver a tener quince minutos de publicidad. Es el modelo de la Jukebox global y se rige por dos principios clave: control de los datos (para no permitir que los usuarios puedan reemitir la información al margen del proveedor) y vender suscripciones siempre que sea posible (ya que el usuario que deje de pagar la suscripción perderá todo acceso a los datos, y para evitar verse desprovisto de ellos continuará pagando la suscripción). Los ISP no quieren que tengas los datos almacenados en local, eso rompe el cántaro de la lechera del cuento que se han montado. No me extiendo más sobre esto, porque ya hemos tratado estos temas anteriormente.

Una parte de su estrategia para conseguir ese control artificial de los datos es conseguir que los Estados les permitan filtrar el tráfico para «evitar que internet se colapse», aunque eso destruya la neutralidad de la red, que es lo único que mantiene a la red libre. Por supuesto, algunos gobiernos estarán tentados de aceptar la muerte de la neutralidad de la red por el beneficio que le pueda traer al gobierno en sí (que no a la población en general, que no ganaría nada en absoluto pero sí que perdería mucho). Habrá que estar muy atentos para que eso no suceda y para que no nos vendan estos cambios como algo inevitable.

Afortunadamente, el problema para los ISP es que a esas mentiras mil veces repetidas les ha salido otro (más) pequeño escollo dificil de contradecir sin argumentos: Un reciente informe de Telegeography afirma que el último año el porcentaje de ocupación de la red (caudal de datos transmitidos dividido entre caudal máximo de datos que se pueden transmitir) fue menor que el anterior (Telegeography, también Uberbin lo comentó). Esto es que a pesar del incremento del tráfico (excusa esgrimida para acabar con las tarifas planas aunque estén ganando cada vez más dinero, por cierto), la infraestructura de la red creció a un ritmo mayor de forma que, por decirlo de alguna manera, internet está hoy menos saturada que ayer.

¿La CNMV como autoridad competente para cerrar webs?

La Ley para el Impulso de la Sociedad de la Información (LISI) comienza a dar frutos. Y como es una ley con muy mala baba, los frutos son difícilmente catalogables de apetecibles.

En los últimos días se ha sabido que la CNMV va a ser el primer órgano competente autorizado para cerrar páginas webs sin intervención judicial, según lo previsto en el articulado de la citada LISI. En concreto, estará autorizada a cerrar páginas webs que ofrezcan información sobre economía y de la cual se estime que puede tener una influencia sobre los precios. (Expansión vía EOL y Carlosues)

De ahora en adelante, toda opinión en internet que defienda una línea de pensamiento que contradiga a la verdad oficial del gobierno correrá el peligro de ser cerrada. Y dado que las leyes se hacen para hacerlas cumplir, podemos dar por sentado que si la web en cuestión adquiere cierta relevancia, seguro tendrá problemas. Citando a Manuel del Pozo en Expansión:

Porque si la CNMV controlase la información que se publica en EXPANSIÓN porque puede afectar al mercado, también el Gobierno tendría derecho, por ejemplo, a inspeccionar lo que publican los periódicos en época electoral. Se podría censurar la información que se ofrezca sobre ETA, sobre el accidente de Barajas o sobre cualquier otro tema que se pueda considerar información relevante.

Este el escenario que el gobierno (y todos los grupos parlamentarios; sí, el PP y sus «lamentables errores» tambien) buscaban con la LISI: tener la ocasión de cerrar la boca todo aquel que mantenga tesis contrarias a las oficiales y deseadas. Todo el que no esté de acuerdo con el optimismo enfermizo de nuestros dirigentes puede ir rezando todo lo que se sepa. Eso es la LISI: Internet bajo control de un gobierno que ya no nos representa a nosotros, a los que votamos y pagamos impuestos, sino a sí mismo y a las aspiraciones de perpetuarse que tiene la oligarquía política y económica.

Y esto es sólo el principio, el primer órgano de todos los que podrán venir. Europa se desmorona. La que fuera cuna del mundo libre y democrático que conocemos promueve la censura y desarrolla un autoritarismo rampante con intereses espurios, unas veces se escuda en los precios (¿acaso no es el IPC el indicador de precios más falseado de todos, precisamente por estar bajo control del principal interesado en manipularlo, que no es otro que el gobierno?). Otras veces los Estados europeos se escudan en la propiedad intelectual. Otras en las falsas medidas de seguridad.

Las excusas ya son lo de menos. Sarko instaurando la «policía del pensamiento» (aunque en unas semanas se recogieran decenas de miles de firmas en contra) y Berlusconi fichando a gitanos por… por nada, tan sólo por ser gitanos (criminalizar lo que se es y no lo que se hace en el mundo, puro fascismo). Y Zapatero, talantoso, sonriendo pero deportando inmigrantes (pena de amnésicos egoístas, una tierra de emigrantes como ésta). Sonriendo pero aprobando leyes que reducen nuestras libertades. Qué quieren que les diga, son la misma mierda. La versión bronca y la refinada hipócrita de una misma forma de hacer política: la que ignora los intereses generales de las personas para anteponer el interés particular de nosesabequiénes.

Me juego la mano buena (aunque no les diré cuál es, por si acaso) a que pronto hablaremos aquí de un segundo órgano competente (lo cual da miedo, porque si hay más de uno, puede haber un ciento, cada uno censurando su corral). Éste segundo órgano competente habilitado será, mucho me temo, la SGAE. No creo sorprender a nadie cuando digo eso, pero aún alguien pensará que ¿por qué no ha sido la SGAE el primer órgano competente? Sencillamente, porque se les habría visto demasiado el plumero. Y porque no sólo la SGAE gana con la LISI. La victoria del Estado (a quien, sin duda alguna, se la suda el intercambio de música en sí mismo) es poder controlar no el intercambio de música, sino el de información «sensible» a sus intereses.

Como siempre he defendido, «la lucha contra la piratería» para el estado tenía la gran ventaja de que las herramientas que te impiden copiar una canción te impedirán copiar cualquier otra cosa que tú quieras copiar y el poder establecido quiera controlar. Aún no han podido leerlo, pero el tema central de la sociedad de control, ese libro que pronto espero que puedan leer, gira en torno a este tipo de conjunciones estelares en que con una excusa tibia se logra introducir una medida con profundas implicaciones para el modo en que desarrollamos y desarrollaremos nuestra vida. Y vista la escasa reacción que mostramos a estos asuntos, parece que muchos no le dan gran importancia o que no la ven venir en absoluto, como ranas en un perol de cocina.

*** Actualización (2008-09-09 @ 14.00h): Carlos Alonso ha dejado un comentario que me invita a tomarme esta noticia con cierta cautela. A pesar de que en El Otro Lado hablan de la LISI (no es creación mía) como la herramienta que justificaría este apoderamiento de la CNMV. Y a pesar de que, tal y como lo veo, se dice que es la CNMV la que ha solicitado al gobierno esto, y por tanto podría no estar incluída en la orden ministerial en sí misma, sino ser un trabajo en proceso. En definitiva, que les invito a tomarse esto no como algo confirmado sino como un rumor bastante tangible, pero rumor al fin y al cabo. Gracias a Carlos, por el aporte :)

*** Actualización (2008-09-10): Jomra también comenta quitando hierro al asunto, así que definitivamente habrá que tomarse con prudencia lo relativo a este asunto y pensar que la CNMV no está tan cerca de tener estos poderes especiales.

El software libre según Google

Jomra, como buen abogado curioso, ha analizado los términos del acuerdo de uso de Google Chrome (lo que viene siendo la EULA) en un post que recomiendo leer. Se ha encontrado, entre otros, un párrafo que dice lo siguiente:

«Queda prohibido copiar, modificar, descompilar o intentar extraer el código fuente del Software total o parcialmente, o crear trabajos derivados o realizar ingeniería inversa de este, así como permitir que un tercero lo haga»

Después de leer eso sólo queda una pregunta: ¿Chrome es Software Libre? Sí, y mi abuelo pirotécnico.

Antes de coserme a comentarios, hagan el favor de leer el post de Jomra y aprender a discernir la delgada línea que separa a Google Chrome (el binario compilado y distribuido por Google) de Chromium, el código fuente depositado en la forja de Google.

Después de esto, del recule forzoso en la atribución de licencias de uso para todo el material que pases a través del navegador, y sabiendo todo lo que Firefox tiene que ofrecer, la elección está clara, ¿no?.

Bola extra: Si creen recordar haber visto unos términos de uso similares en algún otro «software libre», están en lo cierto. Google parece compartir la visión del software libre según Microsoft. ¿No les resultan todavía lo terriblemente parecidos el uno al otro?

Ubiquity en castellano, más cerca del lenguaje natural

UbiquityHace unas semanas se presentó Ubiquity, una nueva idea de Mozilla destinada a favorecer nuevas formas de interactuar con las webs que visitamos y usamos, para que sea aún más sencillo y cómodo.

Ubiquity se instala en forma de extensión para Firefox y según los propios desarrolladores pretende traer «el lenguaje natural» a la forma en que usamos el navegador. En la práctica, Ubiquity es una especie de Deskbar (en GNU/Linux) o QuickSilver (para maqueros) con menos esteroides pues no actúa sobre tu sistema operativo accediendo a toda tu computadora, sino sólo sobre lo que puedas estar haciendo desde el navegador (algunas personas no encontrarán diferencia, yo (que no hago todo en el navegador) (que diferencio un sistema operativo de una web).

Ubiquity es software libre, te dan la extensión y puedes ver el código. Sin embargo, Ubiquity tenía un problema: el lenguaje natural de un estadounidense angloparlante difiere y mucho del de una persona de Málaga. Mi lenguaje natural no es el inglés.

Así que gracias a Alx que me puso sobre la pista he perdido un rato modificando el archivo buildincmds.js de la extensión, que es donde se definen la mayoría de los comandos que podemos utilizar.

Tras pasar por mis manos le he cambiado algunos mensajes de error y diálogos (me faltan algunos por cambiar) y le he modificado los nombres de comandos para que sean más intuitivos (donde ellos ponían «gmail» he dejado «envía», donde ellos ponen «search» yo he puesto «busca», y así con los comandos que me han parecido útiles). Porque algunos son de páginas muy específicas de EEUU, como «yelp» (un 11870 yankee que no funciona fuera de allí, me importa bastante poco y al que he ignorado).

He añadido, además, un nuevo comando para buscar definiciones en la página de la RAE. La sintaxis es facilísima: «rae $PALABRA» abrirá la URL con la definición de esa palabra, si es que está en el diccionario y no os la habéis inventado.

Tareas pendientes

  • Una cosa me queda por hacer: una de las funciones más interesantes de Ubiquity es el «this», que automáticamente sustituye por lo que tengas seleccionado en el momento, y cosas así. A mí me habría molao poner «envía esto» pero me pareció que eso ya era más complicao y me iba a robar más tiempo del que tenía ahora mismo. Así que lo dejo como tarea pendiente. Aún así me parecía buena idea compartir el nuevo archivo con todos vosotros.
  • Traducir el resto de diálogos, cuando tenga tiempo; esto urge menos.

Si estáis interesados en probar esta versión en castellano (esto sí es lenguaje natural para mí), tenéis que machacar vuestro buildincmds.js con este nuevo archivo. La ubicación del mismo (que no está en todas partes, pese al chisposo nombre de la extensión) es

$RAIZ_FIREFOX/extensions/ubiquity@labs.mozilla.com/chrome/content/buildincmds.js

Para descargar el archivo sigue al conejo blanco: builtincmds.js (zipeado).

Por supuesto, cualquier comentario, sugerencia, o ayuda para acabar de poner todo en un idioma que nos venga más cómodo que el inglés, será agradecido.

OpenGoo, ofimática online y libre para parar a la nube

OpenGoo es un proyecto que pretende ofrecer una suite ofimática online completa y libre y que descubro gracias a Alma, que lo comenta en Webmaster libre.

OpenGoo está aún en desarrollo, la última versión es la 0.8, y no es una suite ofimática «completa», por cuanto sólo ofrece editor de textos, diapositiva y gestor de agenda y tareas. Nada de hojas de cálculo pero, como ya digo, es aún un proyecto muy joven.

La idea de disponer de una suite ofimática online libre me agrada sobremanera por cuanto es una de las deficiencias que he señalado en ocasiones que he tratado el tema de la migración desde el escritorio a la web, que algunos parecen comprar sin reservas. Hace casi tres años dí tres motivos para no migrar a la web prescindiendo de las herramientas de escritorio. Unos meses después hablé de cómo migrar a la web empleando herramientas libres, que es una condición imprescindible para migrar a la web pero que, de cumplirse, convierte la migración en una opción interesante. Además, en un tiempo en que Google y otras grandes empresas apuestan por moldear internet para que se ajuste enteramente a sus intereses y convirtiéndola en una especie de GoogleNet, contar con aplicaciones web online y libres que instalar en nuestros servidores fuera del alcance de las garras del Gigante es una necesidad urgente.

En realidad, OpenGoo es otro frente de batalla, a sumar al que abrimos cuando redescubrimos el webmail sin GMail gracias a Roundcube. Frente al software no libre de herramientas de ofimática online como Google Docs, OpenGoo nos devuelve la libertad del software libre.

Por eso OpenGoo, pese a las carencias propias de todo proyecto que está naciendo, y debido la buena impresión que me ha dado las partes del software que ya han desarrollado (demo en su propia página web), me parece interesante. En una internet ultraconcentrada en la que Google sube la apuesta por incrementar el tamaño de la infraestructura necesaria para competir contra él y por tanto, por excluir de la puja por la competencia a muchos que podrían hacerle sombra, recurrir a herramientas web propias y libres no es sólo una cuestión de control de nuestros datos, no es sólo una cuestión de privacidad. Es una posición revolucionaria. La revolucionaria idea de llevarle la contraria a la mayoría, cuando crees que la postura mayoritaria no es la más conveniente. La revolucionaria idea de tener tu propia aplicación web corriendo en un servidor propio, y no en la red de Google (o cualquier otro gigante de internet).

Cuando la red se concentra en torno a muy pocas manos, tomar tu trocito de red y distribuirlo al margen de esas manos es un acto importante y necesario. Lo mismo con OpenGoo, que cuando instalas tu blog con WordPress, o haces tu contextopedia al margen de los deseos caprichosos de los bibliotecarios de la Wikipedia. En internet, distribuir es ganar; en la sociedad digital, el software libre es necesario para la libertad. También cuando se ejecuta online.

Google Chrome, las extensiones de Firefox y los banners en internet

Google Chrome

He desenterrado mi Windows XP para perder unos minutos usando el nuevo navegador de Google. A pesar de que la empresa de Mountain View hace mucho que dejó de gustarme, no he resistido la tentación de ver qué tal es ese navegador tan cool que han promocionado usando toda la artillería usual de la red (libre, moderno, blebleble) pero han sacado sólo para Windows.

Dicho todo lo anterior voy a tratar de ser objetivo en la brevísima crítica. Y muy rápido.

He usado Chrome unos 10 minutos en el momento de escribir este post (posiblemente el único que escriba desde el navegador de Google). No lo aguanto más. En cuanto acabe las tareas que tengo abiertas lo chapo y me vuelvo a mi Ubuntu para no volver a salir en un montón de meses (eso espero).

¿Qué no me gusta de Chrome? Voy a ser muy breve, a buenos entendedores una sóla palabra se lo dirá todo (y me consta que la gente que lee este blog lo van a entender rápidamente): AdBlock.

Es increíble la cantidad de banners y publicidad diversa que tienen las páginas web que visito diariamente y que yo no percibo gracias a AdBlock. Es algo que no valoro porque hace ya muchísimo que uso Firefox + AdBlock pasando por el cuchillo todas las webs a las que llego. 10 minutos haciendo pruebas con algunas páginas a las que voy habitualmente y casi se me salen los ojos de las órbitas con tanto banner. Este blog tiene publicidad que considero tolerable (¿alguien que opine con mayor objetividad?), otros blogs como Error 500 tienen un banner discreto si escribes la URL directamente. Hagan lo mismo con Genbeta sin AdBlock y lloren de dolor.

¿El resto? Para que consiga probar el resto deben dejarme pasar de la puerta y Google no me deja; sin AdBlock me cuesta la vida navegar y el navegador de Google no permite extensiones como sí acepta Gecko (el motor en que se basa Firefox). No es sólo AdBlock, es que pierdes todas las extensiones habituales. Demasiado handicap.

¿Permitirá Google extensiones? Bueno, Google gana dinero con la publicidad en internet. Si bien el número de usuarios que quitamos la publicidad de la web somos una minoría del total, seguro que no están por la labor de que esta práctica se generalice, así que no estoy seguro de que a corto plazo abran mucho la mano.

De que hayan anunciado a bombo y platillo un navegador libre para licenciarlo bajo una BSD bastante débil (permite software derivado privativo), de que Google pretenda empujar sus productos a to meter y de que cada vez que escribes una URL te recomiende automáticamente las búsquedas relacionadas (y ello conlleva una llamada a Google y un registro de lo que escribes cada vez asociado a tu IP) hablaremos otro día. Desde luego me parecen tres puntos importantes pero no tengo ganas de escribir más. Cuanto antes acabe el post antes cierro este navegador.

Actualización (10 horas después): Ni 12 horas han tardado en encontrar el primer fallo de seguridad importante en Google Chrome. El motor de Webkit que está usando tiene un bug importante con el que es fácil engañar a los usuarios para que lancen ejecutables Java. Hace más de 2 meses que Apple solucionó ese bug y Google lanza su navegador con el agujero. ¿Dónde hemos visto ese tipo de cosas antes?

Programa piloto de Open Access en toda la Unión Europea

No suelo hablar mucho de ciencia en el blog, aunque a menudo podría contar alguna que otra cosa. Sin embargo hoy vamos a hablar de ciencia y, más exactamente, de la forma en que la ciencia se viene construyendo desde hace siglos: mediante la publicación de los resultados de investigación de forma revisada y autorizada por otros científicos que tengan un cierto bagaje investigador en el ámbito científico relacionado. En esencia, eso es el método científico: poner los resultados de investigación a disposición de otras personas para que puedan verlos, repetir el experimento si quieren y comprobar que dices la verdad (o descubrir si mientes). Vamos a hablar de cómo conseguir que estos resultados de investigación sean más accesibles para todos (al menos en los casos en que la misma ha sido sufragada con dinero público, que son una amplia mayoría de los mismos incluso en los sitios donde las leyendas urbanas afirman que está privatizada como EE.UU. y Suiza). ¿Cómo hacer que los resultados de investigaciones pagadas con dinero público sean más accesibles? Publicando los mismos en repositorios de acceso libre o en revistas Open Access.

A Open Access le dediqué un post bastante largo en diciembre de 2007, que sigue siendo plenamente vigente: Open Access y porqué los resultados de la investigación científica deben ser libres.

¿Qué ha cambiado desde que escribí ese post? Pues que la UE acaba de aprobar un programa piloto según el cual se obligará a que los resultados de investigación obtenidos con fondos europeos estén disponibles con acceso libre con mucho retraso a los 12 meses de su publicación (Europa.eu, via). Así, tras un periodo de entre 6 y 12 meses, las empresas e instituciones que se beneficien de fondos europeos para investigar, estarán forzadas a permitir el libre acceso a sus resultados de investigación. La UE sigue así los pasos de los Estados Unidos, que este mes de enero aprobaron una medida similar para investigaciones biomédicas, pero la superan por cuanto generalizan a todos los ámbitos.

Pero seamos críticos con la propuesta, porque siendo un innegable paso adelante, tiene puntos flacos que le quitan casi toda la fuerza.

¿Qué me gusta y qué no me gusta de este programa piloto?

  • Libre acceso. La primera consecuencia de esta medida es evidente: libre acceso para artículos de investigación con más de 1 año de antigüedad. Muchas universidades con pocos recursos agradecerán poder acceder a las revistas que compran habitualmente y a los números más viejos de esas que no se pueden permitir pagar. Es sin duda la mejor consecuencia del conocimiento libre y este programa (aún en pruebas) promete alcanzar algo que muchos pedimos hace tiempo. Al obligar a hacerlo de este modo, se permite que esto tenga lugar. De no ser así y tener que producir los investigadores el cambio por sí mismos, nunca tendría lugar pues están inmersos en una guerra de publicación cualificada en la cual publicar en un diario de acceso libre y poco conocido puede dar al traste con tu próxima financiación. La única forma de conseguir que Open Access avance es imponerlo de forma que los investigadores no vean peligrar su proyecto por publicar los datos en un repositorio de libre acceso. De verdad es necesario, ¿sabían que los trabajos que publicó Einstein y que comentamos el otro día aún no son de libre acceso? (aunque la red lo haga posible así casi sin querer…).
  • ¿Por qué 12 meses de plazo? Para contentar a los editores. El sector de las publicaciones científicas con peer-review está copado por muy pocas editoriales que controlan la mayoría de revistas. Obligar inmediatamente a publicar los resultados de investigación bajo condiciones de libre acceso aniquila su negocio. Los 12 meses de plazo están destinados a callar la boca de las editoriales.
  • El golpe sin fuerza. Pero al dar un plazo de 12 meses para acallar a las editoriales, la medida pierde una parte importante de su finalidad. Esta medida tiene como fin que el dinero público que ha pagado la investigación no se tenga que seguir gastando en acceder mil y una veces (tantas como centros de investigación) a estos resultados. Pero dar 12 meses de ventaja al editor permite que éste siga cobrando su suscripción, ya que en estas publicaciones se valora mucho tener acceso a los resultados más recientes. Más aún, si el editor decide que su negocio está ahora amenazado, subirá el precio de las mismas y comenzará a cobrar por el acceso al último año de resultados (los anteriores serán libres) el precio que antes cobraba por toda la colección. En un ecosistema abundante eso no sería posible (subir los precios de forma especulativa), en el pequeño oligopolio editorial científico (capaz de imponer condiciones draconianas de distribución a sus artículos), será una realidad antes de que tengamos tiempo para pestañear.
  • ¿Qué conclusión tenemos? Es un paso adelante, pero de momento es tibio porque el plazo de retención de 12 meses nos forzará a seguir pagando por algo que ya hemos pagado (la investigación se hace casi toda con dinero público, incluso la que supuestamente se hace vía fundaciones, pues éstas suelen depender enormemente de los fondos que les da el estado). Por tanto, el proyecto debía haber sido más ambicioso pues este tipo de información debería ser plenamente accesible por cualquiera. Además, no hay que olvidar que es sólo un programa piloto que no es definitivo (aunque confío en que se instalará de forma definitiva). Open Access está ahora un poco más cerca de hacerse realidad, como siempre debió ser: la investigación científica debería ser de dominio público.

    Enlaces:
    Nota de prensa.
    Toda la información sobre el programa piloto.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad