Los drones como catalizadores de la privacidad

Existe un cierto pavor ante la amenaza que los drones representan para nuestra privacidad. En efecto, este tipo de aviones no tripulados están ya preparados para el mercado doméstico y masivo: en EE.UU. una nueva ley obliga a las aerolíneas a compartir el cielo con drones para uso comercial, para decepción del lobby que hacía campaña a la contra. No es sorprendente que los fabricantes tradicionales de aviones comiencen a mirar a estos drones con ojos de nuevo mercado.

Desde el punto de vista de la privacidad, lo interesante de los drones viene si nos acordamos de Barbra Streisand, convertida en meme cuando en 2003 intentó censurar unas fotografías aéreas de su casa en California.

En efecto, frente a la pasividad mostrada ante la erosión de nuestra privacidad en la Red (recuerden que lo divertido del gran gazpacho de datos que hará Google el próximo 1 de marzo no es que crucen sus bases de datos, sino que les diéramos los datos en primer término), los drones nos recuerdan las peores distopías que leímos y leeremos y dan algo de miedo. Por ese motivo hay quien opina que los drones tendrán un efecto diferente a la web y sí dispararán una defensa de la privacidad.

No lo tengo claro, y creo que si hay un catalizador en este ámbito es el móvil (de Carrier IQ a Path y el abuso de los datos del usuario, no hay mes que no haya un escándalo de dimensiones épicas), pero sí que creo que en los próximos tiempos veremos cómo en torno a los drones aparece una densa regulación en la que éstos serán equiparados al mal, en la línea en que se ha tratado desde su mismo nacimiento al p2p y otras tecnologías que han caído en manos de las personas antes de que puedan ser controladas por quienes aspiran a distorsionar a su favor la vida pública.

Instituciones, confianza y los proxies de Dunbar

En 1993, Robin Dunbar público uno de esos artículos que años después son reverenciados y citados. Dunbar realizó un estudio que relacionaba el tamaño del cerebro con el de la red social máxima que podemos establecer en una relación en la que mostramos verdadero afecto y tenemos verdadero conocimiento de las personas que nos rodean. En la actualidad, el ser humano estaría preparado para mantener este tipo de relación en confianza y cercanía con unas 150 personas, es lo que conocemos como Número de Dunbar.

El número de Dunbar está en todas partes, parece ser la regla que determina «la escala humana» de las cosas y algunos servicios web, como Path, parten de él como discurso sobre la confianza (lo cual hace de sus fiascos algo aún más irritante). Pese a lo atractivo del discurso, no es ninguna novedad que el estar online no modifica los límites del neocortex y que no siempre confiamos de la misma forma en las personas, de forma que en términos de confianza una relación no siempre tiene el mismo valor.

Ahora bien, si sólo pudiéramos confiar en 150 personas a las que conocemos perfectamente, ¿cómo se explica que vivamos tranquilamente en ciudades enormes, rodeados de personas a las que no hemos visto jamás pero de las que esperamos que no vayan a hacernos ningún mal?

Bruce Schneier en su último libro habla de proxies de confianza. Este rol lo desempeñan principalmente instituciones o marcas en las que confiamos. Si yo confío en McDonalds, entonces puedo no conocer a ninguno de los 20 trabajadores del McDonalds que encuentro en una ciudad a la que acabo de llegar, pero igualmente confío en que ahí puedo comer tranquilamente, que el trato será como lo espero y la comida también. Lo mismo con una pequeña empresa: si confío en la empresa, puedo no conocer a su nuevo empleado, pero me fiaré de ellos y de su proceso de selección, lo cual se trasladará a ese nuevo empleado. Y si no confío en ellos, ya pueden hacer piruetas y malabares, la confianza no aparecerá hacia nada que tenga su nombre.

La pregunta es: una pequeña empresa con 20 trabajadores, ¿ocupa uno o veinte de esos limitadísimos huecos de confianza que predice Dunbar? La confianza es instintivamente transitiva (por eso nos fiamos de personas cuando vienen recomendadas, por eso nos fiamos de los enlaces que nos pasan personas en las que confiamos para esa labor). Según lo anterior, estarían como poco a medio camino (posiblemente más cerca de ocupar uno que de ocupar veinte), ¿no estaríamos hablando, en ese caso, de proxies de Dunbar que permiten que escale la confianza por encima de los ciento cincuenta individuos de los que hablaba el bueno de Robin?

Linsanity, la tontería de la propiedad intelectual no tiene límites

No sigo demasiado la NBA, pero la temporada de Jeremy Lin con los Knicks parece ser asombrosa. O al menos es lo que se deriva de que al menos dos personas estén disputándose la propiedad de la marca registrada Linsanity (algo así como Lincreíble, por forzar un poco de juego de palabras), el término que los periodistas vienen usando para despertar el fervor en las masas. La situación es tan ridícula que ha levantado el escepticismo de la oficina de patentes (creo que esto es inaudito en un ámbito global desde que Einstein abandonara la oficina de Zürich). Mientras tanto, el señor Chang (primer solicitante) tiene el monopolio de vender merchandising con la mencionada marca, que ha solicitado para ofrecer «bienes y servicios», esto es… camisetas, gorras, globos y todo lo que se tercie. Desde aquí le ofrecemos el premio al monopolio inútil del día. Estoy de acuerdo en que hace falta una ley de antipropiedad intelectual con la que atizar a los que no tienen otra concepción vital que limitar lo que otras personas pueden hacer.

El ascenso de Webkit, el declive de Firefox y el futuro de los estándares web

¿Recuerdan los tiempos en que las páginas lucían botones orgullosos del tipo «se ve mejor en Netscape 800×600» o «diseñado para Internet Explorer 5.5»? El diseño específico para navegadores es una lacra que nos ha acompañado durante gran parte de la historia de la web. La peor situación se dio cuando Internet Explorer acumuló más del 90% de usuarios y tuvo la capacidad de ignorar deliberadamente los estándares. Es una situación aún presente: los navegadores de Microsoft siguen sin atender totalmente a estándares, de forma que elementos de CSS3 que se verán correctamente en otros navegadores, seguirán sin ser operativos en IE. De las viejas versiones mejor ni hablamos.

Acid3, el clásico test de compatibilidad

Aquella pesadilla tuvo su final con la llegada de Firefox, que conquistó el corazón de los amantes del software libre (que corrieron a instalárselo a sus amigos) y acabó con el monopolio de Internet Explorer.

¿Podría un declive de Firefox devolvernos a la situación anterior, con desarrollos no estándares? Comencemos por ver la evolución de cuota de usuarios de los navegadores más usados, que recojo de ExtremeTech:

Evolución share navegadores

Innegable: Firefox ha pasado en algo más de dos años de tener más del 30% a tener algo más del 20%. Y eso que Mozilla intenta mimetizar los ciclos de Chrome. Las cifras pueden variar para webs concretas. Para Versvs, los casi sesenta mil visitantes de los últimos 30 días llegaron con Internet Explorer (29.5%), Firefox (27.7%) y Chrome (26.8%), seguidos de navegadores móviles (Safari y Android, con un 7% cada uno). Es este último detalle (el de los navegadores móviles) el que representa un peligro para la web estándar que Firefox ayudó a impulsar.

Tanto Safari como el navegador de Android están basados en el mismo motor: webkit. Y con el gran dominio de los navegadores basados en Webkit, resurge la vieja polémica de adaptar la web al navegador, y no al revés.

Coincido con Alma Fernández en que es una situación que hay que evitar a toda costa. Como alternativa se propone, tanto en el blog de Alma como en el de Eric Meyer (uno de los referentes en estándares web), una agilización en el desarrollo de estándares por parte de la W3C.

Ahí es donde me temo que reside el problema: ¿es posible agilizar ese proceso? Hace años hablábamos de la «estandarización por corporativización». Esta situación podría ser aún más delicada: Google y Apple tienen una capacidad de avance con webkit tal que la W3C tendrá problemas para seguir el ritmo extendiendo el estándar a tiempo. En cierto modo, es algo parecido a lo que sucede con los SMS y los nuevos actores tipo WhatsApp: la burocracia de desarrollo del estándar es a la vez solución, pues permite generar un consenso fuerte, y causa del problema.

Y como en el caso de los SMS, no hay una solución sencilla. Firefox aún es un actor muy relevante en la web, pero no tiene control en la escena móvil, que es la arena donde el software libre se lo está jugando todo, y no se vislumbra un cambio en esa situación. De cara a los estándares, la única solución es que los desarrolladores sean fuertes y se ciñan al mismo a la hora de desarrollar, pero ¿será esa solución viable si las nuevas funciones implementadas por los navegadores webkit permiten virguerías mucho allá de lo que permite la W3C? Creo que una respuesta afirmativa a esa pregunta tiene más de wishful thinking que de realidad.

Bocados de Actualidad (144º)

Un domingo más aquí estamos con los Bocados, la ronda centésima cuadragésima cuarta viene cargadita y nos llega a ritmo de los suecos Sundown, una joya efímera del metal gótico de los últimos 90. Sin más distracciones, los enlaces:

  • Un grupo de científicos/techies decide que quieren reunir en un único lenguaje para programación científica todo lo que les gusta en los que hay disponibles. Un año y medio después nace Julia, un lenguaje libre que tiene muy buena pinta. Lo explican en su blog.
  • New School Security y una lección para VeriSign: la necesidad de transparencia. En Cartograf encontramos también un post sobre transparencia como prevención de crisis en corporativas.
  • IO Active remata la faena haciendo análisis de tráfico SSL sobre Google Maps.
  • Casa America comparte su gestor documental, construido sobre Drupal y ahora a disposición de todos.
  • Gonzalo Martín y experiencia de precio, experiencia de uso, sobre cómo la industria de los contenidos debe reenfocar su estrategia, que pasa por la financiación colectiva. Error500 comenta las cifras de Kickstarter.
  • Bianka Hajdu y análisis de discurso para el aprendizaje.

Recuerdo, además, que a lo largo de la semana vamos compartiendo enlaces en marcadores.

¿Quién puede subir tus fotos a Facebook?

Un post hace un par de días en Naked Security no llamó mi atención, pero hoy me ha llegado ya 3 veces y creo que procede hacer un comentario al respecto.

Preferencias de usuarios de Facebook sobre subir fotos de otros a Internet

Según el titular del artículo, el 90% de los usuarios está en contra de que otras personas suban sus fotos a Facebook. En el artículo especifican que ese 90% es de entre los usuarios encuestados, y que la encuesta la han hecho ellos. El titular obvia esa información y, además, extrapola el resultado de la encuesta al total de usuarios de Facebook. La encuesta cuenta con unos 800 participantes. Siendo 400 el número mínimo para que los resultados puedan ser tomados con seriedad, 800 se antojan ciertamente muy pocos para la millonada de usuarios que tiene ese servicio, distribuidos en diferentes regiones del mundo, edades y culturas, lo cual deja muy pocas muestras por cada segmento… ¿queremos ser rigurosos?

Por otra parte, y por más que el titular resulte sugerente a quien valore la privacidad, dudo de su validez y creo que a falta de saber cómo se ha realizado la encuesta el dato hay que ponerlo en cuarentena. ¿O ya no recuerdan la clásica campaña electoral en que según el medio online que haga la encuesta cambia el ganador de las elecciones? ¿Creen que si nos preguntan a los lectores de Versvs qué opinamos sobre que otras personas suban sus fotos a Facebook el resultado sería estadísticamente representativo del total? No digo que el estudio no sea riguroso, podría serlo, pero sin más información tiene todas las papeletas para que el dato extraído no esté avalado por la verdad (desgraciadamente, porque el dato resulta muy sugerente).

Compatibilidad y la paradoja de la desintermediación

Internet fomenta la desintermediación en todos los ámbitos. Esta desintermediación permite que en la arena haya muchos más actores ofreciendo servicios directamente y eso aumenta la competencia y acerca la existencia de un mercado meritocrático real, lo cual es una buena noticia.

La historia se tuerce cuando olvidamos que la compatibilidad es una especie de escudo que mantiene a los usuarios protegidos de quedar atados a un único proveedor (y los abusos derivados de esa situación). Como proveedores, lo normal es la búsqueda de la desintermediación total: deshacerse de todos los eslabones que antes eran necesarios para llevar un producto hasta el cliente. La aspiración es controlar desde la producción a la distribución final.

En el contexto de entornos no compatibles, esto desemboca en la paradoja de la desintermediación: en condiciones de desintermediación total y entornos no compatibles, existe competencia inicial y el usuario puede elegir un proveedor, pero en el momento en que elige, está prisionero de un sistema en el que todo lo que puede hacer/comprar está controlado y/o provisto por un único proveedor. Una vez compras no puedes cambiar con facilidad (la incompatibilidad se busca para forzar un lock-in sobre el consumidor) y, a todos los efectos, estás sometido a un monopolio que, aún siendo contestable (todavía puedes cambiar a otro proveedor), eleva considerablemente el coste de disidencia (tanto el coste monetario como el coste cognitivo de aprender a utilizar un sistema nuevo e incompatible con el que usaste hasta ahora). Y todo ello sin un beneficio real: el nuevo proveedor será igualmente un monopolio incompatible en cuanto migres a sus sistemas.

El software libre tiene soluciones, pero está perdiendo la batalla, y los efectos son palpables.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad