oldTVLa televisión ya no es la reina de la tarta publicitaria. Leo en The Guardian que el Reino Unido se ha convertido en la primera de las grandes economías mundiales en la que Internet supera a la televisión como canal publicitario. Tras un crecimiento anual del 4.6% medido entre el primer semestre de 2008 y el de 2009, la inversión publicitaria en Internet ha alcanzado los 1.750 millones de libras, un 23,5% del total de los presupuestos publicitarios. En el mismo período de tiempo, la televisión cayó un 17% para situarse en los 1.600 millones de libras, lo que supone un 21.9% de cuota de mercado. En Dinamarca, una economía más pequeña y con menor valor como referencia, la inversión publicitaria en Internet superó a la realizada en televisión por primera vez durante el segundo semestre del pasado 2008.

La televisión ha sido el soporte publicitario más importante durante los últimos cincuenta años. Internet la ha superado en poco más de una década, un momento que se calculaba que tendría lugar a finales de este año, pero que la crisis económica ha contribuido a adelantar en seis meses. Según los datos de la IAB, del total de 1.750 millones de libras invertidas en publicidad online, un 60% lo ha sido en publicidad en buscadores, hasta un total de 1.050 millones, lo que supone un crecimiento del 6.8%. Los clasificados en la red experimentaron un crecimiento del 10.6% hasta situarse en 385 millones de libras, un 22% del total de publicidad online, mientras que la publicidad de display descendió un 5.2% hasta los 316 millones y medio, un 18%, un porcentaje que veremos crecer mucho a medida que vayan apartándose vicios del pasado y evolucionemos hacia formatos con más valor añadido y adaptados al medio.

Una evolución de mercado que veremos paralelizarse progresivamente en otros mercados: la cuestión es tan sencilla como la elección entre un canal unidireccional y otro bidireccional. El que el segundo crezca más que el primero es simplemente una cuestión de penetración de uno frente al otro, y de madurez del mercado publicitario. A medida que el uso de Internet alcanza cada vez más segmentos demográficos en la población, los anunciantes van dándose cuenta de que un canal ofrece más posibilidades que el otro, y operan en consecuencia: la publicidad en la red permite segmentaciones infinitamente mejores, impactos de mucha mejor calidad, mediciones extremadamente más fieles y respuestas en muchos casos inmediatas, además de permitir la entrada de anunciantes de todo tipo, incluso los más pequeños: superar a una televisión cuyos formatos no han evolucionado prácticamente nada desde sus inicios y en la que tanto la cualificación de la audiencia como la medición de resultados se realizan mediante muestreos era, simplemente, una cuestión de tiempo y de lógica.

Nuestros gurulollas favoritos se esfuerzan día a día por mostrarnos la viabilidad de sus modelos de negocio, casi todos ellos basados en menor o mayor medida en el concepto de la publicidad on line, la publicidad en la web, en los blogs, en definitiva, la publicidad 2.0. Entrada tras entrada de sus blogs, intentan convencernos de las excelencias del nuevo modelo publicitario. Que si se adapta mejor al target, que si es una maravilla en cuanto a la segmentación, que si garantiza un mejor retorno de la inversión publicitaria, que si es la publicidad del futuro, que silos medios tradicionales no se enteran de nada, que si que cuando que se den cuenta las empresas del chollo que representa la publicidad en sus medios ya no contratará publicidad tradicional ni el tato, y un larguísimo etcétera que no me cansaré en reproducir. Pero…¿en que han quedado todas estas promesas de revolución en el mercado de la publicidad? Pues en mi opinión, hasta ahora, no en demasiado. O no en mucho más de lo que fueron en el principio. O no en más de lo que alguien con dos dedos de frente pudo imaginar que serían desde el principio. Porque, sin ánimo de ser exhaustivo, me gustaría enunciar los motivos por los cuales la publicidad en Internet no acaba de despegar, y ni mucho menos alcanzar los niveles que predicaron y predican los gurús de lo 2.0.

  • Los anunciantes no pueden confiar en una publicidad con la que ni siquiera tienen la garantía de si los usuarios van a acabar recibiendo el mensaje. Muchos navegadores bloquean los pop ups, los banner y los contenidos publicitarios sin precisar siquiera la intervención del usuario. ¿Como puede pagar una empresa por algo que ni siquiera está segura de si llegará a su target? Y no es cuestión de penetración, es cuestión de que en muchas ocasiones se paga por nada. Al menos la publicidad tradicional llega a la audiencia (los carteles publicitarios son vistos, la publicidad en la prensa también, a menos que al lector le de por arrancar páginas, en televisión lo mismo, salvo que se haga zapping, algo que han solucionado las cadenas de televisión pactando los cortes publicitarios para hacerlos coincidir en la mayoría de las cadenas a las mismas horas).
  • El usuario ha desarrollado una capacidad para filtar la información no relevante que se le ofrece. ¿Quien presta atención a la publicidad que aparece en los laterales de las webs? Y si esta publicidad aspira a no pasar desapercibida teniendo en cuenta este mecanismo de filtrado, tiene que pasar a colocarse en otro sitio (en medio de la información considerada como relevante por el usuario -intersticiales, pop ups- ). Pero entonces esta publicidad pasa a ser considerada molesta y no deseada por el usuario, es decir, intrusiva. Con lo cual se llega a un bucle sin salida, a una pescadilla que se muerde la cola: si la publicidad es discreta, pasa desapercibida, y si no pasa desapercibida, es intrusiva. Conclusión: el margen para llegar a una publicidad útil para el usuario es muy estrecho y muy difícil de conseguir. Imbéciles como Enrique Dans, se preguntan en entradas como esta por qué los anunciantes están volviendo a la era de la publicidad agresiva del principio de Internet. ¡Pues porque pasada la estupidez de la fiebre de lo gratis total las empresas necesitan un retorno de sus inversiones publicitarias, y que estas no acaben siendo un “pagar por no ser visto”! Sin embargo, muchos se niegan a ver esa evidencia, aunque como siempre no creo que Dans sea tan tonto como para no llegar a esa conclusión, solo que por intereses personales, no le conviene admitirla.
  • La promesa de la “publicidad inteligente y adaptada al target” todavía no es más que eso, una promesa. Para ello solo hace falta escribir una correo en gmail, y despollarse con la publicidad patrocinada de los laterales, que intenta interpretar nuestros intereses en función de las palabras que escribimos en el correo (aparte de que la sensación de ser “espiado” por google no es que sea muy agradable tampoco). Lo mismo cabe decir del los ad-sense de google. Da risa ver como por ejemplo, si intentamos buscar una casa rural en la provincia de León, seguramente google nos muestre publicidad del Seat León. Inteligente y adaptado al target, por los cojones.
  • La publicidad en Internet se ha ido ganando una mala fama en ocasiones merecida, a base de buscar el click fácil que en la mayoría de las ocasiones llevaba a sitios de dudosa procedencia, o que directamente engañaban al usuario, llevándolos a sites que no guardaban la mas mínima relación con el contenido del banner. Y esto van a tener que solucionarlo las agencias con juego limpio, ahora bien, eso no se conseguirá en dos días.
  • La publicidad insertada en la web 2.0 puede entrar en contradicción con el contenido generado por el usuario, irritando con razón a los anunciantes. Cuelgo mi publicidad en Xataka, por decir algo, y a 20 pixeles de mi banner hay un comentario de un usuario poniendo a parir mi producto, la mayoría de las ocasiones sin conocimiento de causa y por la mera afición de llevar la contraria a otros usuarios del blog. ¿Usted como empresa pagaría por eso?.
  • La excesiva segmentación, con el lógico agotamiento y desgaste de algunos soportes, va implicando que aunque se intente adaptar el mensaje y la publicidad al target, este target va a ser cada vez más pequeño. Una red de blog segmenta por temas, de acuerdo. Pero esa misma segmentación le va a hacer imposible llegar a más público “generalista”. Si segmento mucho es posible que mi mensaje llegue a un target más adecuado a mi perfil, pero a costa de que el total de audiencia del target objetivo disminuya constantemente. Las redes de blog, segmentan porque no les queda más remedio. Si quieren maquillar sus estadísticas para mostrar un gráfico creciente de usuarios únicos y páginas vistas, lo único que pueden hacer es añadir blogs temáticos a sus redes (les es muy difícil aumentar la audiencia en los blogs consolidados). Pero eso tiene un límite, que llegará cuando el crecimiento de Internet se estabilice, y ya no les sea posible segmentar más. Entonces llegará el declive de las redes de blog (ahora todavía estan llegando a su valle, en términos generales).
  • Un punto relacionado con el anterior, es que en los datos de audiencia que ofrecen las redes de blogs (por ejemplo Weblogs SL o actualidad blog) se usa el truco de la segmentación infinita para maquillar las estadísticas y mostrar una gráfica “siempre o casi siempre creciente” de audiencias. ¿Cómo se puede comparar el tráfico de por ejemplo, El Mundo, con el de Weblogs SL?. Weblogs es una red de blogs, con blogs de las temáticas más dispares posibles. Es una falacia presentar sus datos de tráfico como un total sumado de la red de blogs. Es hacer un uso interesado de la segmentación. Segmentan para llegar a su target, pero luego suman las audiencias segmentadas. ¿Pero eso cómo se come? Sería como que en los estudios de medios se sumaran las tiradas de Muy Interesante, Hola, Pronto y Más Allá, para concluir que la tirada y audiencia totales de un grupo ficticio que las aglutinara, es la simple suma de las tiradas de las citadas revistas tomadas individualmente.

Por todo ello, cuando reflexiono sobre la publicidad en Internet, llego a la conclusión de que tiene los mismos problemas que la publicidad tradicional de toda la vida: se va a convertir en una lucha por las audiencias, más despiadada si cabe que en los medios tradicionales, debido a la avalancha de información que se genera en Internet, y a la ausencia de barreras de entrada. Por eso, se me viene a la cabeza una frase del ricachón de la burbuja inmobiliaria conocido como “el Pocero”. Una vez este personaje dijo en una entrevista a Carlos Herrera que los periodistas ya no eran periodistas, que se habían convertido en “vendedores de periódicos”. Y tristemente llevaba razón. En el momento en que la publicidad en Internet arranque de verdad (cosa que tarde o temprano hará), Internet ya no estará poblada de bloggers, sino de vendedores de blogs, ni de webmasters, sino de vendedores de webs. Es decir, habrá perdido su independencia para convertirse en un mercado, que servirá a los intereses de los de siempre.

Esa será la revolución 3.0, que nos intentarán vender como siempre, como otra cosa.

eee_pc_android
Lo comentábamos hace unos meses
: el hack de Matthaus Krzykowski y Daniel Hartmann instalando fácilmente Android en un Asus Eee presagiaba una rápida extensión. Ahora, el WSJ($), revela en un artículo titulado In Challenge to Microsoft, PC Makers Test Laptops Running Google Software que varias empresas de hardware, entre otras HP, Dell y Asus, están haciendo pruebas en este sentido, y que ello abre paso a la irrupción real de Google en el mercado de los sistemas operativos precisamente en el segmento que más crece, el de los ultraportátiles o netbooks.

Varios factores contribuyen al interés del movimiento: por un lado, Android precisa, como cualquier versión de Linux, una colaboración del fabricante a la hora de plantearse como sistema operativo para usuarios del segmento no avanzado, que chocan con el diferente funcionamiento del sistema a la hora de instalar nuevos programas o configurar opciones. Por otro, Google no cobra por la licencia del sistema operativo, permitiendo bajadas de precio que, a la escala de precio final de los netbooks, pueden ser a en ocasiones interesantes. Y finalmente, el recurso a Android podría posibilitar la entrada en el segmento de arquitecturas ARMpara competir con modelos basados en Intel Atom, lo que daría al sector un dinamismo interesante. Los procesadores ARM, pensados originalmente para teléfonos móviles, pueden tener características de consumo muy interesantes para los netbooks, donde la mayor parte de las mejoras por el momento no se han dado en el lado del procesador, sino en el de las baterías. Además, algunos de los licenciatarios de tecnología ARM, como Qualcomm, son socios de Google en el consorcio Android, lo cual dota al movimiento de un interesante sentido estratégico.

Veremos como sigue evolucionando la cosa.

 

Tras ser objeto de una cierta polémica durante la semana pasada, está ya finalmente disponible el texto del Open Cloud Manifesto, una iniciativa de varias empresas entre las que destacan IBM, Sun Microsystems, Cisco, Novell, Red Hat, EMC y varias más (entre otras la española Telefonica), para definir lo que serán las reglas de juego de las iniciativas de Cloud Computing que estamos ya viendo y que se generalizarán como el nuevo esquema computacional característico de los tiempos en que vivimos.

La polémica se desató la semana pasada a partir de una entrada de Steven Martin, de Microsoft, en las que atacaba la iniciativa y la tildaba de secretista y de oscura.  Steven afirmaba que lo que había que hacer era poner el documento en un wiki y discutirlo abiertamente, y que la cuestión de los estándares precisaba una discusión larga hasta que el proceso se solidificase. El recurso a este tipo de técnicas no es nuevo en la estrategia de Microsoft: reclamar el desarrollo de un proceso supuestamente abierto en el que poder intervenir, para poder llegar a posiciones de fijación de estándares ventajosas mediante la saturación del proceso con “votos amigos” y estandarizaciones de facto. En realidad, el Open Cloud Manifesto es un documento enormemente generalista y abierto, que pretende sentar definiciones y bases de funcionamiento de cara al futuro, y en ese sentido resulta de lo más recomendable revisar cada una de sus seis páginas.

Junto con ese reciente vídeo de Salesforce.com, el Open Cloud Manifesto es una manera interesante de visualizar los futuros escenarios en los que empresas y particulares desarrollaremos nuestra actividad en los próximos años, lejos ya de la visión ordenador-céntrica propia del siglo pasado. Sin perder de vista los peligros y limitaciones, pero con la mentalidad clara acerca de dónde vamos: un mundo caracterizado por la escalabilidad, el adelgazamiento del datacenter corporativo, la mejora de los procesos de negocio y la reducción de costes para las compañías que inician sus actividades. El documento define las seis principales barreras y desafíos a tener en cuenta de cara a la adopción: la seguridad, la interoperabilidad de datos y aplicaciones, la portabilidad basada en estándares, la gestión y gobernanza de las iniciativas, y la medición y monitorización de los sistemas. Los objetivos propuestos, por tanto, son la libertad de elección de proveedor y arquitectura, la flexibilidad basada en interoperabilidad, la velocidad y agilidad para el cambio y el redimensionamiento, y la disponibilidad de profesionales formados en un conjunto menor de tecnologías.

Para lograr los objetivos, los firmantes del Open Cloud Manifesto ratifican seis principios:

  1. Trabajar juntos para que los retos fundamentales en la adopción sean solucionados mediante colaboración abierta y el uso adecuado de los estándares
  2. No utilizar su posición de mercado para convertir a sus clientes en cautivos de una plataforma concreta  y limitar su libertad de elección
  3. Usar y adoptar los estándares existentes siempre que sea posible, para evitar así reinventarlos o duplicarlos
  4. Recurrir con prudencia a la creación de nuevos estándares, y cuando así sea por necesidad, hacerlo con pragmatismo, reduciendo el número de estándares necesarios, y asegurando que éstos promueven la innovación en lugar de inhibirla
  5. Llevar a cabo iniciativas en función de las necesidades del cliente, no de las necesidades técnicas de los proveedores
  6. Trabajo conjunto y coordinado de todos los actores implicados para evitar que sus iniciativas entren en conflicto o se solapen.

De cara a ver el establecimiento definitivo de esta serie de principios generales, falta por ver cuál es la posición que adoptan algunos de los actores principales al respecto: entre otros, faltan por definirse tres actores importantes y muy activos: Google, Amazon y Salesforce, con iniciativas muy importantes dentro del Cloud Computing a día de hoy. En cualquier caso, el desarrollo de este proceso normativo es importante, y a pesar de toda la parte política involucrada en el tema, parece intentar aprender claramente de los errores del pasado. Veremos como se sigue desarrollando.