marzo 2009


 

varsavsky-11timar.

 1. tr. Quitar o hurtar con engaño.

2. tr. Engañar a alguien con promesas o esperanzas.

3. prnl. coloq. Dicho de los enamorados: Entenderse con la mirada, hacerse guiños.

 

http://www.perspicalia.com/post/el-fogonazo


 

Tras ser objeto de una cierta polémica durante la semana pasada, está ya finalmente disponible el texto del Open Cloud Manifesto, una iniciativa de varias empresas entre las que destacan IBM, Sun Microsystems, Cisco, Novell, Red Hat, EMC y varias más (entre otras la española Telefonica), para definir lo que serán las reglas de juego de las iniciativas de Cloud Computing que estamos ya viendo y que se generalizarán como el nuevo esquema computacional característico de los tiempos en que vivimos.

La polémica se desató la semana pasada a partir de una entrada de Steven Martin, de Microsoft, en las que atacaba la iniciativa y la tildaba de secretista y de oscura.  Steven afirmaba que lo que había que hacer era poner el documento en un wiki y discutirlo abiertamente, y que la cuestión de los estándares precisaba una discusión larga hasta que el proceso se solidificase. El recurso a este tipo de técnicas no es nuevo en la estrategia de Microsoft: reclamar el desarrollo de un proceso supuestamente abierto en el que poder intervenir, para poder llegar a posiciones de fijación de estándares ventajosas mediante la saturación del proceso con “votos amigos” y estandarizaciones de facto. En realidad, el Open Cloud Manifesto es un documento enormemente generalista y abierto, que pretende sentar definiciones y bases de funcionamiento de cara al futuro, y en ese sentido resulta de lo más recomendable revisar cada una de sus seis páginas.

Junto con ese reciente vídeo de Salesforce.com, el Open Cloud Manifesto es una manera interesante de visualizar los futuros escenarios en los que empresas y particulares desarrollaremos nuestra actividad en los próximos años, lejos ya de la visión ordenador-céntrica propia del siglo pasado. Sin perder de vista los peligros y limitaciones, pero con la mentalidad clara acerca de dónde vamos: un mundo caracterizado por la escalabilidad, el adelgazamiento del datacenter corporativo, la mejora de los procesos de negocio y la reducción de costes para las compañías que inician sus actividades. El documento define las seis principales barreras y desafíos a tener en cuenta de cara a la adopción: la seguridad, la interoperabilidad de datos y aplicaciones, la portabilidad basada en estándares, la gestión y gobernanza de las iniciativas, y la medición y monitorización de los sistemas. Los objetivos propuestos, por tanto, son la libertad de elección de proveedor y arquitectura, la flexibilidad basada en interoperabilidad, la velocidad y agilidad para el cambio y el redimensionamiento, y la disponibilidad de profesionales formados en un conjunto menor de tecnologías.

Para lograr los objetivos, los firmantes del Open Cloud Manifesto ratifican seis principios:

  1. Trabajar juntos para que los retos fundamentales en la adopción sean solucionados mediante colaboración abierta y el uso adecuado de los estándares
  2. No utilizar su posición de mercado para convertir a sus clientes en cautivos de una plataforma concreta  y limitar su libertad de elección
  3. Usar y adoptar los estándares existentes siempre que sea posible, para evitar así reinventarlos o duplicarlos
  4. Recurrir con prudencia a la creación de nuevos estándares, y cuando así sea por necesidad, hacerlo con pragmatismo, reduciendo el número de estándares necesarios, y asegurando que éstos promueven la innovación en lugar de inhibirla
  5. Llevar a cabo iniciativas en función de las necesidades del cliente, no de las necesidades técnicas de los proveedores
  6. Trabajo conjunto y coordinado de todos los actores implicados para evitar que sus iniciativas entren en conflicto o se solapen.

De cara a ver el establecimiento definitivo de esta serie de principios generales, falta por ver cuál es la posición que adoptan algunos de los actores principales al respecto: entre otros, faltan por definirse tres actores importantes y muy activos: Google, Amazon y Salesforce, con iniciativas muy importantes dentro del Cloud Computing a día de hoy. En cualquier caso, el desarrollo de este proceso normativo es importante, y a pesar de toda la parte política involucrada en el tema, parece intentar aprender claramente de los errores del pasado. Veremos como se sigue desarrollando.

 

cdigital09Segundo día en las 2es Jornades de la Catosfera, y sensaciones francamente agradables. Me invitaron a abrir las jornadas ayer, y dado mi escaso manejo del catalán, me limité a traducir los textos de mi presentación (en mi caso, eso significa traducir la primera y la última diapositiva, dado que el resto carecen de texto) y a una breve salutación inicial de esas típicas de “bon día a tothom, gràcies per la invitació i… hasta aquí llega todo mi catalán”.

El programa está conformado por una combinación de conferencias y mesas redondas mayoritariamente en catalán, pero con inclusión de algunos castellanoparlantes, y hecho con absoluta naturalidad, asumiendo dos realidades: una, que todo catalanoparlante entiende el castellano, y dos, que para cualquier castellanoparlante, resulta suficientemente sencillo entender y seguir una conferencia o conversación en catalán. Y efectivamente, así ha sido: no hemos tenido ningún problema para seguir las conferencias, y las situaciones podían ser, en ocasiones, de personas que preguntaban en catalán a un castellanoparlante que contestaba en castellano, o viceversa, de preguntas en castellano a catalanoparlantes que contestaban en catalán. Con total y absoluta naturalidad, con conciencia de que el espacio lingüístico de una persona está compuesto por todos aquellos idiomas que es capaz de entender, y que en muchas ocasiones resulta absurdo convertir en excluyente lo que no tiene ninguna necesidad de serlo. Mientras tanto, me lo paso la mar de bien practicando mi catalán en Twitter y en Facebook: no parlo català, m’agradaria però no m’atreveixo. El que passa és que en realitat, s’entén perfectament, i per escriure’l m’ajuda una miqueta el senyor Google 😉

google-beta

En nuestra cortísima trayectoria de apenas unas semanas, ya podemos desmontar otro mito que sirve a las empresas de la Web 2.0 para hacer dinero a costa de los paletos. Nos referimos al mito del posicionamiento SEO y SEM (Search Engine Optimization y demás gaitas). Como podeis comprobar por vosotros mismos, si introducís en google como término de búsqueda alguno de los títulos de las entradas del blog original de Enrique Dans (por ejemplo Experimentando con la participación ciudadana), comprobareis que nuestro blog clon ya comparte primera página con el clonado en el ranking de Google.

Por tanto…¿qué coño venden las empresas dedicadas al posicionamiento web? ¿Qué gilipollas invertiría las cantidades anuales que piden algunas empresas por el «trabajo» de posicionamiento? ¿No le estamos haciendo los webmaster el trabajo sucio a Google para que ellos ganen pelas a costa del trabajo de los demás?

Yo opino, que el SEO y el SEM, son un timo, puro y duro. Agarraos, que dentro de poco estallará la próxima burbuja.

 

doi1La archiconocida curva de difusión de la innovación de Everett Rogers(aquí, en su forma acumulativa) y el posterior, menos conocido pero más riguroso modelo de difusión de Bass son dos de los modelos que más utilizo habitualmente para intentar explicar los procesos de popularización de todo tipo de tecnologías: fácilmente modelizables, incluso cuando se truncan por fenómenos de sustitución (un elemento no recogido en el primero, pero claramente presente en el segundo), son seguramente una de las mejores guías que toda persona con capacidad de toma de decisiones en entornos tecnológicos debería manejar como manual de cabecera. En el modelo de Bass, los parámetros que definen de manera más clara la forma de la curva son p, el coeficiente de innovación; y q, el coeficiente de imitación (además de los evidentes: potencial de mercado, base instalada y tasa de cambio de la misma) y son perfectamente estimables con un nivel de información adecuado y reservándose el adecuado análisis de sensibilidad.

En un entorno como el de la tecnología, tener el acierto de apostar o de no hacerlo por la tecnología adecuada resulta fundamental. Pero cada día más, la palabra “apostar” pierde más su justificación, y se convierte en algo cada vez más científico: enmuchos casos, estimar cuando una innovación va a triunfar en el mercado o no va a hacerlo es algo que puede hacerse con un buen nivel de certeza si conocemos algunos de los parámetros de la curva de difusión. En otras ocasiones, las curvas de difusión sufren impactos derivados de, por ejemplo, el apoyo de un actor importante en el mercado, cuya adopción modifica los parámetros – no todos somos iguales ni ejercemos la misma influencia sobre los mercados, y el fenómeno, por ejemplo, de las redes sociales nos ha demostrado a todo color hasta qué punto importa obtener el apoyo de los actores adecuados en cada momento. En tecnología, saber escoger la tecnología adecuada y el momento de apostar por ella puede suponer ventajas competitivas importantes, o dar lugar a sonoros fracasos si, por ejemplo, nos adelantamos a la acogida del mercado sin tener el pulmón financiero suficiente como para aguantar hasta que ésta se produzca.

Algunos casos son de libro: Amazon, por ejemplo, es un jugador habitual de tecnologías tempranas. Toda su historia – la entrada en el comercio electrónico, la adopción de tecnologías de recomendación mediante filtrado colaborativo, la oferta de servicios en la nube, los lectores de libros electrónicos, etc. – son casos de estudio de la curva de difusión y de toma de una decisión de entrada muy temprana, apoyada tanto en el papel de “juez y parte” de la compañía por su valor de referencia, como en el hecho de poseer la capacidad financiera adecuada – no hay como salir al mercado en plena euforia puntocom – para esperar a que el mercado se desarrolle y beneficiarse del efecto pionero de quien prácticamente define la categoría.

Obviamente, nadie tiene la bola de cristal ni puede hacer predicciones con un cien por cien de seguridad. Pero estudiar estos modelos y aplicarlos a los casos recientes de difusión de fenómenos tecnológicos conocidos (blogs, redes sociales, microblogs, geolocalización, etc.) es algo que cada día aporta más valor a quien toma decisiones en el ámbito de la tecnología, sean éstas para decidir comprar un gadget determinado o para comprometer la inversión tecnológica de toda una compañía.

(Entrada inspirada por las discusiones en mi clase de ayer en el Advanced Management Program de Zaragoza. Que no sé qué tal estuvo, porque aún no tengo encuestas ni las tendré hasta que termine el próximo jueves, pero en la que yo, al menos, me lo pasé fenomenalmente bien. ¡Vaya grupo! 🙂

 

dansbyntonto, ta.

(De or. expr.).

 

1. adj. Falto o escaso de entendimiento o razón. U. t. c. s.

2. adj. Dicho de un hecho o de un dicho: Propio de un tonto.

3. adj. coloq. Que padece cierta deficiencia mental. U. t. c. s.

4. adj. coloq. Dicho de una persona: Pesada, molesta. Se pone muy tonto con la manía de los celos

5. adj. coloq. absurdo (contrario y opuesto a la razón). Después de la acalorada discusión le entró una risa tonta

6. m. Comediante que en ciertas representaciones hace el papel de tonto. El tonto del circo

7. m. Chile. boleadoras (instrumento compuesto por dos o tres bolas).

8. m. Col. y C. Rica. mona (juego de naipes).

a lo ~.

1. loc. adv. Con disimulo.

a tontas y a locas.

1. loc. adv. Desbaratadamente, sin orden ni concierto.

como tonto en vísperas.

1. loc. adv. coloq. U. para motejar o apodar a quien está suspenso fuera de propósito o sin tomar parte en la conversación.

hacer el ~.

1. loc. verb. coloq. tontear (hacer o decir tonterías).

hacerse alguien el ~.

1. loc. verb. coloq. Aparentar que no advierte algo de lo que no le conviene darse por enterado.

ponerse ~.

1. loc. verb. coloq. Mostrar petulancia, vanidad o terquedad.

ser alguien como ~ para algo.

1. loc. verb. coloq. Chile. Ser muy aficionado a algo.

 

 

 

openforquestionsComo un “Tengo una pregunta para usted“, pero a lo bestia: en lugar de cien ciudadanos escogidos por TNS-Demoscopia, la participación proviene en este caso de cualquiera que pueda acceder a Internet, registrarse, y apuntar con su navegador hacia Open for Questions, la página que el Gobierno de los Estados Unidos ha preparado para recoger de manera abierta las preguntas en una plataforma de filtrado colaborativo e el más genuino estilo de Digg, Reddit o Menéame. Por el momento – la página está abierta desde el pasado martes y se cierra este jueves – han participado más de sesenta y siete mil ciudadanos, que han formulado más de setenta y tres mil preguntas, y emitido más de dos millones setecientos mil votos. El jueves a las 11:30, el Presidente Obama dará un discurso en el que se espera que responda a muchas de las preguntas planteadas.

La página constituye un experimento de primera magnitud en la gestión de la participación ciudadana, a la que muchas instituciones o partidos políticos deberían prestar atención: la mejor traslación que he visto hasta el momento del ágora ateniense a nuestros días, y desarrollada además con un derroche de simplicidad. Las preguntas pueden enviarse en modo texto o vídeo, y son sometidas a la votación positiva o negativa de los participantes en el sitio, que pueden emitir un “like”, un “don’t like” o un “Flag as inappropriate”. La herramienta ha sido desarrollada por el equipo de Presidencia utilizando Google Moderator, una aplicación construida sobre App Engine y que se utiliza habitualmente en la empresa para desarrollar sesiones de preguntas y respuestas (Q&A) con los directivos e invitados. En esta ocasión, como comentan en el blog oficial de Google, la herramienta es puesta a prueba y escalada hasta el extremo.

Las páginas de filtrado colaborativo sufren problemas por todos conocidos: iniciativas más o menos coordinadas de grupos de interés que quieren promocionar sus preguntas, ataques de trolls, etc. y, por otro lado, como detalla un buen artículo de Wired al respecto, el Gobierno tampoco puede usar cualquier tipo de herramienta: no puede recopilar información sobre los participantes de una manera que pueda considerarse intrusiva, ni discriminar o eliminar determinadas preguntas sin correr el riesgo de ser acusados de censura. Por el momento, el primer grupo en organizarse para lograr hacerse oír en la página han sido los activistas pro-legalización de la marihuana, que han inundado el sitio con preguntas referentes al tema y se votan entre ellos para elevarlas a la categoría de las más votadas: todo ello, no lo olvidemos, en un debate sobre economía donde tal cuestión tiene entre poca y nula relevancia. Tales iniciativas, en cualquier caso, chocan con la voluntad de los ciudadanos interesados en un debate legítimo, que votan negativamente aquellas preguntas que consideran irrelevantes, al tiempo que promocionan aquellas que les parecen interesantes. Los mecanismos de dicha participación, acompañados por los criterios que el Presidente muestre a la hora de escoger las preguntas – no se ha revelado si escogerá sobre las más votadas aquellas que le parezcan más interesantes, si contestará en orden de relevancia o si simplemente responderá aquellas en las que tenga posibilidad de mencionar políticas que su administración haya avanzado.En cualquier caso, hablamos sin duda de un nuevo tipo de política, apoyada en herramientas tecnológicas, para pulsar la participación ciudadana y responder a la misma con eficiencia. Un gobierno con orejas, un experimento más que interesante – aparte del gustazo que es ver a una institución del calibre del Gobierno de los Estados Unidos experimentando con semejante tranquilidad – y una iniciativa que seguramente veremos muy pronto en muchos otros sitios.

 

mangas-verdesHipocresía.

1. f. Fingimiento de cualidades o sentimientos contrarios a los que verdaderamente se tienen o experimentan.

En su entrada más reciente, el Señor Mangas Verdes enlaza con un blog que le autopromociona, como siempre.

 Atentos a las declaraciones del hipócrita Judas Mangas Verdes, leer para creer:

¿Cree necesaria una regulación, fuera de lo que marca la propia ética de la profesión?

Ante esta «pregunta», el hipócrita de Mangas Verdes «responde»:

Creo que el periodismo ya está suficientemente regulado en la Constitución y en las leyes que rigen los derechos básicos del sector, además de por las leyes generales. Vivimos una ofensiva reaccionaria a escala global que busca controlarlo todo y regularlo todo como estrategia censora. Curiosamente suele verse a periodistas supuestamente progresistas abogar por esta vía. Algo, desde todo punto de vista, incomprensible.

Para los que no sepan de que va el tema, les remito a este mismo blog, unas entradas más abajo, en las que narramos como pillamos al Señor Almeida en braguitas.

https://clondans.wordpress.com/2009/03/17/a-mangas-verdes-se-le-ve-el-plumero/

https://clondans.wordpress.com/2009/03/19/mangas-verdes-se-pone-chulo/

Como dijo el Gran Maestro: «por sus hechos les conocereis».

Amén.

 

ipredatorSabíamos que iba a pasar, y quienes lo ha llevado a cabo han sido precisamente The Pirate Bay, en el ojo del huracán por su juicio ante las autoridades suecas: hasta el momento, una persona que quisiese esconder su identidad en Internet, evitar barreras geográficas, saltarse sistemas de censura o descargarse lo que quisiese sin temor a ningún tipo de represalias podía contratar un servicio de VPN (Virtual Private Network), que a cambio de una cantidad determinada al mes, cifraba su tráfico, lo redirigía a través de los servidores de la empresa, y le proporcionaba además una dirección IP que enmascaraba la suya. Sin embargo, existía todavía la posibilidad de que la empresa detrás de la VPN fuese requerida judicialmente por las autoridades para facilitar los nombres de sus usuarios y sus actuaciones.

Ahora, The Pirate Bay anuncia el lanzamiento en beta de IPREDATOR, una herramienta de anonimización que, además, no almacena logs de la navegación de sus usuarios, convirtiéndose por tanto en completamente opaca. A cambio de un pago de cinco euros al mes, IPREDATOR ofrece seguridad y enmascaramiento absolutos, y se convierte en la reacción ante la presión del lobby de la propiedad intelectual ante los gobiernos y los ISP: como decíamos ya hace tiempo, hay cosas que están embebidas en el mismísimo protocolo de Internet, y que no pueden ser evitadas de ninguna manera. Así tengamos que cifrar toda la red.

El servicio será presentado en beta cerrada – puedes apuntarte para la misma en esta página – y se irá abriendo a medida que pruebe su funcionamiento con cargas progresivas.

dansclonado1Se pilla antes a un mentiroso que a un cojo. Nadie puede mantener su propia mentira durante mucho tiempo, en el caso de Dans ha sido poco más de cinco años. Pero como también es de los que predican una cosa y hacen justo la contraria, se le ve el plumero que da gusto. Después de su bonita entrada de los ecos en la red, claramente motivada por este blog (será que empezamos a amenazar su chollo de cortar y pegar) el señor Dans se ha vuelto a poner en evidencia. Mandamos un comentario con un enlace a este blog, y por supuesto, lejos de publicarlo, predicando con el ejemplo (¿al fin y al cabo no es una «amplificación» o «eco» de su blog, de esas que tanto le benefician?) ha censurado nuestro comentario, como era de esperar para los que lo conocemos de verdad. Las mentiras de este imbécil no tienen límite, como pueden comprobar. Se ve que nos tiene miedo, y por eso no admite ningún link en su blog hacia este, dejando su teoría de los ecos y amplificaciones en Cancamusa pura, como siempre.

A continuación, para los interesados en el texto original (espero que pocos) reproducimos la entrada del Dansito:

 

 

echochamber-hughmacleodEl eco es, en su primera acepción de la RAE, la “repetición de un sonido reflejado por un cuerpo duro”, y en su acepción octava, que también podría resultar de aplicación, la “resonancia o repercusión de una noticia o suceso”.

En Internet, el eco se suele interpretar en forma de cita, de manera habitual y deseable provista de un enlace, aunque en muchas ocasiones sin él. El eco incrementa la visibilidad de un contenido en función del número adicional de personas a las que es capaz de hacerlo llegar: en muchos casos, el eco ha sido utilizado como medida de relevancia, como cálculo de la influencia que un medio determinado posee, tanto mayor cuantos más sitios “se hacen eco” del contenido que publica.

De manera habitual, el trackback recoge algunas de las citas que se hacen a una entrada, aunque no lo hace en todas las circunstancias. En mi caso, muchos trackbacks en una entrada son indicativos de relevancia, aunque para saber realmente el número de referencias que ha cosechado tendríamos que irnos a un motor de búsqueda como Technorati o BlogPulse, y en ocasiones ni eso funciona. Poniendo como ejemplo una entrada reciente como ésta, en la que podemos ver doce trackbacks al pie de la misma, podemos ver cómo Technorati nos devuelve únicamente seis resultados, mientras el Conversation Tracker de BlogPulse  nos ofrece resultados similares. Sin embargo, podemos hacer un ejercicio adicional utilizando Google: tomemos el título literal de la entrada, suponiendo que no sea una frase de uso común, entrecomillémoslo, y lancemos una búsqueda. El resultado es, si hiciésemos caso al número que proporciona el buscador (que hay que tomar con natural cautela), de unas 1430 apariciones. Tras recorrernos hasta el final, llegamos hasta un total de 292, que tras marcar “repeat the search with the omitted results included” se convierten en 832 comprobables recorriendo hasta la última página de resultados (aunque el buscador siga afirmando que existen 1430). En los últimos tiempos, este efecto resulta mucho más pronunciado: un examen de las últimas diez entradas del blog ofrece una media de alrededor de 650 resultados comprobables mediante este mecanismo.

Cualquiera que sea el resultado entre 292 y 1430, la evidencia es clara: el eco generado por una entrada en el blog es muy superior a lo recogido por los trackbacks o por los buscadores especializados. Muchos de dichos resultados adicionales son los llamados “blogs copy&paste“, que se limitan a generar una página a partir del feed de un tercero o terceros y, típicamente, suplementarlo con publicidad de relleno o con AdSense, esperando obtener algunos ingresos de visitantes despistados. Se trata de una práctica que va en aumento, que en ocasiones aparecen en los trackbacks, pero que habitualmente, al no aportar valor añadido de ningún tipo, son calificados como spam y consecuentemente eliminados. Otros resultados son generados automáticamente por herramientas de diversos tipos, o sirven como repositorios personales o para diversos colectivos. Y si tienes suerte, puede que incluso tengas algún anti-blog, resultado inequívoco de la popularidad, que recoja tus entradas con el fin de criticarlas, ridiculizarlas o de incluir supuestos comentarios censurados, intentando servir como punto de encuentro para pobres y patéticos resentidos en pos de una supuesta “justicia divina”. En su conjunto, unos y otros conforman “el eco del blog”, algo que juega un papel fundamental en el impacto del mismo: amplifica los resultados en las búsquedas, aproxima los contenidos a quienes de manera natural no los habrían visto, y colaboran a la hora de dotarlo de relevancia. En ocasiones, cuando en algunos de esos sitios, como es el caso de Menéame, se desarrolla una conversación que puede aportar algunos elementos interesantes, hasta se puede capturar para mostrarla dentro del propio blog si ellos resulta interesante, dotándola de los mismos mecanismos de control que el propio blog tiene.

De un tiempo a esta parte, el número de C&P blogs se ha disparado. Dada la naturaleza ilimitada y no espacial de la red, la cosa tiene entre poca y ninguna importancia: Internet no “se llena”, e incluso cuando explotan los contenidos de terceros mediante publicidad, el impacto en las cuentas de resultados de los blogs comerciales objeto de la copia es entre poco y nulo. Independientemente de la licencia que el blog original utilice para sus contenidos, la idea de perseguir semejante insignificancia mediante los correspondientes mensajes a Google, a las redes de publicidad, a quienes hospedan los contenidos o incluso a abogados especializados resultará seguramente en un conjunto de frustraciones poco recomendables, a cambio de una eficiencia más bien escasa. En mi caso, ni puedo hacer nada, ni mucho menos me interesa: la licencia de mis contenidos es un CC BY, por convicción y porque, siendo profesor de una escuela de negocios, tiene poco sentido intentar limitar los ingresos que otros puedan generar con mis contenidos (y más aún cuando el ruido generado me beneficia claramente). Los ingresos económicos directos vía publicidad no son ni mucho menos la razón de ser de esta página, e incluso suponiendo que dichos blogs me restasen ingresos de alguna manera (cosa más que dudosa), el papel amplificador que juegan compensa con mucho dicho efecto.

¿Tiene importancia esta creciente proliferación de C&P blogs? Desde mi punto de vista, ninguna. Ni creo que se deba hacer nada para evitarlos, ni que siquiera se pueda hacer. Mi preocupación vendría precisamente al contrario, si en el futuro, cuando haga búsquedas como las arriba descritas, obtengo páginas de resultados escasas o vacías en lugar de obtener varios cientos de impactos como ocurre hoy en día. La naturaleza de Internet requiere de un importante reajuste mental a la hora de considerar este tipo de temas. ¿Nos dirigimos a una web en la que determinados contenidos aparecen repetidos hasta la saciedad por todas partes? Pues sí, puede ser. ¿Y qué?

Página siguiente »