Cada vez que me prometen que, con la misma infraestructura, se conseguirá una internet mucho más rápida me echo a temblar. Pienso que un rediseño de la red podría dañar seriamente su carácter distribuido, libre y, en definitiva, lo que la hace grande. Con el p4p no fue una excepción, pero no me paré a buscar dónde podría estar la trampa. Antonio Ortiz nos lo explica: el p4p funciona optimizando conexiones entre usuarios geográficamente cercanos, si Telefónica puede priorizar sus conexiones toda la neutralidad de la red se va al carajo. ¿Cómo garantizamos que no bloquean otras conexiones por otros motivos? Con el p4p tendrían excusa legal.
¿Cuánto pagarías por la libertad?
«Google ofrece subsidiar nuestra infraestructura web aún más de lo que ya lo está haciendo con Gmail, Blogger and iGoogle gadgets. Así, si escogemos albergar nuestros propios servicios tenemos que pagar por la flexibilidad y el control que eso nos da, así como tendremos que tratar con los problemas de escalabilidad y seguridad que Google cuidaría por nosotros. En este contexto, ¿Cuánto pagarías por esa libertad?»
– Tim Anderson, Reg Developer
Más voces matizan los peligros subyacentes en el Google App Engine si Google consigue su propósito y una buena porción del mercado con su nuevo servicio. Me llama la atención que ponga el acento en el hecho de que Google se ofrece a ser el dueño y señor de toda la infraestructura de la red. En unos años, podría no ser tan increíble.
[Nota: las negritas en la cita son mías]
¿Cuánto vale tu privacidad? Las aseguradoras y el mercado para limones
¿Cuánto vale tu privacidad? Esta pregunta no es baladí. Mapfre ha puesto precio a la privacidad de sus asegurados: exactamente la valoran en (como máximo) el 60% del precio de la póliza del seguro del coche, a cambio de estar vigilados siempre que te metas en el coche (20minutos).
Por supuesto, el que se crea que aceptando estas condiciones va a ahorrar dinero es que no tiene ni idea de cómo funciona el mercado de las aseguradoras, un sistema de información asimétrica cuya descripción en 1970 le valió a George Akerlof años más tarde (en 2001) el premio Nobel de economía.
La teoría de George Akerlof se conoce también como la teoría del mercado para limones y funciona así: la compañía recopila sobre las personas tanta información como pueden, para poder catalogarlas acertadamente como casos de alto riesgo (limones) o de bajo riesgo (melocotones). Si resulta que eres un caso de alto riesgo lo tienes crudo, no te va a asegurar ni cristo.
La mejor situación para los asegurados es aquella en la que la aseguradora no puede determinar si eres de alto riesgo o de bajo riesgo (podrías ser de bajo riesgo para un seguro de coches, porque conduces reposadamente, pero de alto riesgo para un seguro médico, porque tienes asma desde que naciste; te conviene por tanto que la compañía no conozca ni tus virtudes ni tus defectos). Pues Mapfre quiere conocer mejor a sus clientes, para discriminarlos mejor, y sólo ofrece (y sólo a los buenos, porque a los otros no les renovarán cuando concluya la póliza) un máximo del 60% de la cuota. Y encima te vigilarán, mediante GPS, todas y cada una de las veces que te subas al coche.
¿Cuánto vale tu privacidad?
*** Bola extra: lo preocupante del mercado de limones es que los estados quieren aplicar este mismo criterio, cuando dicen que los obesos deben pagar más impuestos o que tal o cual perfil de ciudadano debe pagar más sanidad, están aplicando exactamente los mismos principios. Manda cojones que esos estados estén sostenidos con nuestros impuestos, ¿no creen?
Bocados de Actualidad (57º)
Con algo de retraso respecto a lo habitual aquí tenemos la quincuagésimo séptima ronda de los Bocados, a ritmo de Vetusta Morla.
- Acalpixca nos cuenta que para el jefe de seguridad de Google los datos son «absolutamente necesarios».
- Error 500 y la oposición del parlamento a las desconexiones de usuarios por incumplir derechos de autor.
- ¿Está el gobierno buscando una reforma legislativa que ataque a los profesionales de la justicia o a su propia independencia? En el sector de la justicia tienen la mosca tras la oreja, los detalles los da Ender.
- Javier Prenafeta comenta la sentencia del tribunal de Valencia sobre los chips de las consolas.
- Mercè Molist y el espionaje a seres cercanos y a su actividad en la red.
- Juan Lupión nos da sus razones para dejar Google.
- Pepe Cervera avisa sobre los peligros de «esa nueva internet tan rápida» que quieren vendernos. Lo comenté hace tiempo en El peligro de rediseñar internet.
- Alma celebra el 2º cumpleaños de Webmaster Libre. ¡Felicidades!
- Vallesin se preocupa por la captación de usuarios desde Linux a MacOSX. También nos recomienda algunos documentales interesantes.
Algunas lecturas interesantes para un lunes laboral.
Buenas noticias aeroportuarias
Los autores de El estado secreto y los ciudadanos transparentes podrían estar a punto de recibir una bofetada a su plan de estado de excepcion permanente, algo ya común en todos nuestros aeropuertos.
Lo leemos en El Periodico de Cataluña: los duros controles aeroportuarios están a un paso de su anulación.
Hace unos años, un pasajero al que obligaron a desembarcar por llevar dos poderosísimas raquetas de tenis (de esas que matan a miles de personas) inició un litigio que ahora toca a su resolución. Lo cuenta Arnau y son buenas noticias, aunque aún estén por confirmar y quepa la posibilidad de que quede en nada.
La abogada general del Tribunal de Justicia de la Comunidad Europea ha presentado sus conclusiones al respecto de este caso:
El conjunto de medidas de seguridad son jurídicamente inválidas y debido a su carácter secreto deberían ser declaradas inexistentes.
Según la abogada, el artículo 254 del Tratado de la CE dice que el deber de publicar los reglamentos es inequívoco y no admite excepciones, que un anexo es una parte integrante de un acto legislativo y que por tanto, se están eludiendo de forma persistente e intencionada los requisitos de publicación, con lo que los ciudadanos no podemos saber los efectos de dicho reglamento al no conocer el anexo.
Las negritas son mías. Por supuesto, podría darse el caso de que nada cambie, de que cambie temporalmente para que se vuelvan a introducir medidas similares. Pero, por favor, permítanme soñar. La respuesta habrá de esperar todavía en torno a un mes.
La red que se pierde entre la nube
La lógica de hardware distribuido sobre la que se construye la red está en peligro. La red tal y como la conocemos juega una batalla decisiva frente a aquellos que pretenden reducirla y someterla a su control, aquellos que ansían construir algo diferente a lo que siempre soñamos que debía ser la red. La neutralidad de la red se prepara para recibir, en los próximos años, una columna de ataques que podrían borrar su esencia para siempre.
La neutralidad de la red en tiempos de GoogleNet. La red perdida en la computación en nube.
Si algo ha posibilitado el cambio que en las últimas dos décadas ha sufrido el mundo en el que nos desenvolvemos diariamente ese algo es, sin lugar a dudas, internet. Las redes en general, englobadas de una u otra forma en la internet que todos conocemos hoy. Internet no es una red de computadoras cualquiera. Internet es una red de computadoras altamente distribuida en la que, bajo la lógica de la inexistencia del derecho a veto (neutralidad) han prosperado nuevas formas de desarrollar actividades, relaciones personales y negocios en los que con pocos recursos se conseguía plantar cara a las empresas más poderosas del mundo. Esta lógica, que ha configurado nuestra sociedad digital como hoy la conocemos, está en peligro.
Internet es, en principio, una red distribuida. Millones de nodos por los que la información puede pasar del mismo modo, con igual facilidad para entrar y salir del sistema sin que esto afecte al resto de la red. Todos recibiendo información, todos emitiendo. Evidentemente, hay nodos permanentes en la red dedicados a emitir información y garantizar que la información que contienen están siempre online, con independencia de que su dueño esté durmiendo, en el trabajo, en la playa, en el avión. El truco y el éxito de internet es que todos podemos tener uno de estos nodos iguales al resto bajo nuestro control, sin más que contar con la conexión a internet y dejar la máquina permanentemente encendida.
Sin embargo, internet está cada vez más centralizada. En parte es culpa de la paradoja de control de internet: con una red cada vez más grande, las infraestructuras necesarias para conectar dos nodos cualesquiera de la red en un tiempo récord son también mayores, el aumento de la barrera de entrada reduce el número de actores que disponen de esta capacidad. Esto se traduce en la reducción de la competencia hasta dejarla, en muchos ámbitos, reducida a un oligopolio o a un conjunto de monopolios (si todas deciden desarrollar un modelo ultracerrado «tipo Apple»). Con la progresiva fusión y las adquisiciones de unas grandes empresas por otras (Microsoft quiere comprar Yahoo!, que mientras tanto decide aliarse temporalmente con Google para extorsionar a la compañía de Gates mientras lo único seguro es que Yahoo! no mantendrá su independencia durante mucho más tiempo), el número de actores se reduce por momentos. La neutralidad de la red reposando peligrosamente sobre el filo de la navaja.
Este contexto modifica radicalmente la lógica con la que estaba diseñada la red. La red, tal y como fue inventada, representaba un sistema distribuido en el que cualquiera pudiera conectar directamente con otro nodo. Y toda esta maravilla está construida usando una lógica: la lógica del hardware distribuido. La misma lógica de hardware distribuido que está siendo atacada constantemente cuando se publicita sin rastro de crítica la bondad de la computación descentralizada o cloud computing (literalmente sería computación en nube, pero me parece un nombre poco objetivo, más dado a la semántica del vendedor que a la lógica matemática de la red).
Sucede que este tipo de computación repartida entre diferentes máquinas está lejos de ser distribuida (quizá lo sea desde un punto de vista técnico, pero no desde el punto de vista del control de la red), más aún representa un ejemplo de manual de un servicio centralizado completamente bajo control de un único nodo. Por más que el vendedor (en el último caso que hemos conocido, Google) se empeñe en convencernos de que ofrece «computación distribuida», lo que realmente está ofreciendo es computación centralizada; centralizada en sus infraestructuras. El Google App Engine corre en muchas máquinas, pero tienen una única salida a la red, que es la que permite que no se note todo eso. Y esa única salida pertenece todo el tiempo al mismo (en este caso Google).
Hace unos días me hizo gracia que alguien decía que el futuro es distribuido para acto seguido cantar las maravillas del «cloud computing» de Google y sus nuevos servicios en los que Google «distribuye» la computación entre sus servidores. El problema es de concepto: digamos que esa computación es distribuida de puertas adentro (pues Google reparte carga entre diferentes máquinas) pero es absolutamente descentralizada si la vemos desde fuera (que es como lo vamos a ver todos) pues pertenece únicamente a Google; y Google impondrá sus condiciones.
Cuando se enfatiza que con estas tecnologías, y sobre todo estos servicios, alguien puede competir de igual a igual frente a cualquier gigante en la red se obvia un dato importante: se compite en igualdad frente a todos excepto frente al dueño de la red. Mientras en la red nunca nadie gozó de tanta preeminencia (siquiera por desdén, ya que Microsoft -que podría haberlo intentado- rechazó ese papel) que le colocara fuera del alcance, por encima del bien y del mal. Si alguien duda de a dónde nos dirigimos, hay signos que parecen pequeños pero indican mucho. ¿Por qué Google pretende repetir el fiasco de Microsoft con Passport y convertirse en el identificador omnipresente en la red? ¿Acaso no sirve OpenID? No, no sirve precisamente porque representa la lógica que están combatiendo: la lógica de lo distribuido. Google quiere centralizar la red, al máximo. Y si hace unos años compró los archivos de USENET y los convirtió en Google Groups, no sería sorprendente que de aquí a 7-10 años tuviera bajo su infraestructura la práctica totalidad de la web, convirtiéndola en una GoogleNet bajo su control. Google ha comprado cables transocéanicos y entró en la subasta del espectro de frecuencias liberado en EE.UU. como consecuencia del apagón analógico (que finalmente rechazó comprar).
Y me preocupa que la semántica de combate de aquellos que pretenden monopolizar la red se empeñe en robarnos los atributos que hicieron a internet lo que es y que por eso son recibidos tan agradablemente por todos: resulta que ahora hay una «computación en nube» que es distribuida. Un uso brillante de la neolengua, pues hay que ser muy inocente para estar en contra de una organización distribuida. Sin embargo, hay un pequeño detalle pendiente: si la infraestructura pertenece a un único agente, la red pertenece a un único agente. Si el hardware está centralizado, el sistema no puede nunca ser distribuido. Pese a lo evidente que resulta esto, ahí está «la nube», la seducción de la simplicidad, encandilando a todos. La palabrería del vendedor sigue embaucando como hace siglos embaucaban los mercachifles que llegaban a la villa cargando su carro lleno de trastos inservibles.
La factura la paga la lógica del hardware distribuido que ha permitido a internet llegar a ser lo que es en la actualidad. Esta lógica se diluye, y se diluye porque nos la diluyen. Ahora que nuestro hardware es potente y barato y un pc pequeñito, portátil y ligero, puede hacer todo el trabajo de computación que puedas necesitar para la mayoría de cosas resulta que (oh milagros) hace falta que Google nos deje sus servidores y la gente ya especula en mantener blogs personales con CMS adaptados para estas plataformas. Parece haber una euforia en torno a «la nube», en torno al hecho de poner el software «en la nube» para delegar capacidad de computación en terceras partes.
Y en la nube estamos perdiendo la red, así tan ligeritos, tan descuidadamente. Porque en la nube habrá algo que quizá llamarán red, quizá incluso la seguirán llamando internet, pero no lo será: internet es un ente distribuido y la nube es un intento para recentralizar la red justo cuando menos falta nos hace porque tenemos más capacidad para hacernos cargo de lo nuestro.
¿No será, al revés, que Google necesita que sigamos usando sus servidores para hacer algo más de negocio? ¿Quieres Internet o quieres GoogleNet? Internet ha llegado hasta aquí siendo distribuida, y GoogleNet no será nunca distribuida aunque intentarán llamarla así. Cada vez es más urgente luchar por convertirse uno mismo en nodo y proveedor de los servicios que pueda. Si hace ya unos años tuvimos que saltar a la búsqueda de software libre para nuestros ordenadores, ahora ha llegado el momento de evitar que la red acabe subyugada a los deseos de un par de empresas. Hace años nos opusimos a Microsoft, ahora también hay que oponerse a Google.
Google – Google, GMail, Google Docs, Google WiFi, Google App Engine, Google Blogs
Google es la mayor empresa de internet del mundo. Fundada en 1998, en sólo dos años lograron modificar el modo en que se entendía la red gracias a su buscador y su revolucionario concepto de PageRank. En el año 2000, Google se convirtió en el buscador más utilizado, de ahí en adelante y gracias a la red de servicios integrados que ofrece, su influencia en internet y su valor en bolsa no han hecho más que subir como la espuma.
Sin embargo, el éxito tiene un precio y la que otrora fuera considerada compañía de moda en la red levanta cada vez más voces en su contra debido al poco respeto que muestra por la privacidad de las personas, a la ingente cantidad de información personal que acumula y a que su papel excesivamente importante sobre la red hagan peligrar la libertad de la red, así como su neutralidad.
Algunas de las anotaciones que desde este blog hemos dedicado a Google son:
- La red que se pierde en la nube: Cómo la progresiva acumulación de trafico y servicios hospedados y controlados por Google amenaza la neutralidad de la red.
- Google cede datos de usuarios para inculparlos ante la FOX: No dudó en alinearse con una compañía que quería demandar a dos usuarios, antes que lo ordenara el juez.
- Cómo Google te roba suscriptores para atarte a su servicio: Al estar tus suscriptores atados a su servicio de redirección y no al feed original, cualquier cambio futuro no será transparente a los mismos y, en el caso de un blog con muchos suscriptores, posiblemente determinará la no-migración del servicio.
- Google Video Store y el DRM: el cierre de la Google Video Store provocó que muchos usuarios que habían pagado por un contenido, dejaran de tenerlo. Las protestas obligaron a Google a rectificar, pero su primera intención fue cerrar sin más.
- Comparativa Microsoft Office, Open Office y Google Apps: Google Apps salió perdedora frente a OpenOffice.
- El monopolio de Google sobre las herramientas de análisis de tráfico web: El monopolio de Google sobre el mercado de análisis de tráfico web mediante Google Analytics desembocó en la subida de más de un 400% en el precio de la versión de pago de ese mismo software.
- Google no permite usar la licencia GPL v3 en los proyectos alojados en Google Code: Muchos desarrolladores se han visto obligados a hospedar sus proyectos en otra «forja» ya que Google no permite usar la GPL v3 alegando que está poco extendida.
- Google Health: Google Health es el servicio de almacenamiento de historiales médicos de Google, que ambiciona conocer cada vez más información personal de todos nosotros.
- Empresas de hosting subcontratando hosting a Google: Dreamhost, una de las más populares empresas de hosting, ofrece la posibilidad de configurar todos los servicios web para ser usados con Google Apps for your Domain.
- Google Chrome, el nuevo navegador de Google: Google Chrome es el nuevo navegador de Google con el que pretende amoldar la web, aún más, a sus intereses y darle otra patada a Microsoft. Lo probamos y no nos convenció, ese post es un resumen de nuestra experiencia.