En el pasado vivíamos en un mundo en el que los datos eran escasos. La mayoría de las compañías se establecieron asumiendo que las decisiones humanas se basaban en información que era en su naturaleza pequeña, exacta y causal.
No era una tarea sencilla la obtención de los datos. Obtener datos era costoso, tratarlos, recogerlos, guardarlos y explotarlos desde un formato adecuado ha sido el gran objetivo del Business Intelligence en los últimos años.
Hoy la realidad es muy diferente. Hemos pasado del byte al gigabyte. Del gigabyte al megabyte. Del megabyte al petabyte. Del petabyte al exabyte… En el año 2002 se produjo un quiebro histórico al existir más información en soporte digital que en formato analógico. Así mismo en el año 2007 el 95% de la información del planeta se encontraba codificada digitalmente.
Actualmente existen 2,5 trillones de datos de los cuales el 90% se han generado en los dos últimos años. El volumen de datos que se genera cada minuto es increíble. En el mundo se producen 10.000 transacciones con tarjetas de crédito cada segundo. Se generan 340 millones de tweets al día, lo que equivale a 4.000 tweets por segundo. En Google se generan 25 petabytes de datos al día. En 48 horas se produce y almacena el equivalente a todos los libros que 5 se han escrito en la humanidad. YouTube genera una hora de vídeo por segundo. Y así podríamos seguir mostrando un montón de ejemplos.
Sabemos cómo el entorno actual está configurando nuevos modelos de relación que además de impactar en las personas están impactando en los negocios, instituciones e industrias. Esta explosión de datos corrobora la necesidad de saber cómo tratarlos y cómo podemos hablar ya de un nuevo tipo de cliente. Un cliente que decimos que es digital, social, colaborativo y móvil.
Si se supiera cómo tratar esa información, cómo “sacarle el jugo”, nos proporcionaría un conocimiento valiosísimo a la hora de plantear estrategias en cualquier negocio. Pero, ¿cómo “atacamos” esos datos? Y, sobre todo, ¿cuáles son las dificultades que se presentan?”.
Entre dichas dificultades, nos encontramos con lo que se conoce como las 5 V’s: volumen, velocidad, variedad, veracidad y valor.
En cuanto al volumen es importante resaltar que el tamaño (de los datos) sí importa: las capacidades de los sistemas tradicionales de almacenamiento y procesamiento se ven sobrepasados por la cantidad de datos a tratar. El Big Data nos enfrenta a límites de espacio de almacenamiento externo e interno.
En cuanto a la velocidad hay que indicar que parte o toda la información la recibimos en tiempo real, sin poder identificar un patrón en el ritmo de recepción de la misma. El Big Data nos enfrenta a límites de tiempo, porque las conclusiones de esa información son útiles si la información es actual.
En cuanto a la variedad hay que notar que la información se recibe en distintos formatos, de distintas fuentes y en muchas ocasiones serán cadenas de texto a investigar. El Big Data nos enfrenta a información cuyo formato y estructura se desconoce hasta el momento de su tratamiento.
La información solo es valiosa en la medida en la que sirva para mejorar el negocio. De no ser así, no se obtendrá la mejora de conocimiento que lleve a mejorar el proceso de toma de decisiones en la organización, siendo los recursos dedicados al Big Data carentes de valor.
De esta manera las empresas y las organizaciones que puedan hacer las preguntas adecuadas (en el momento preciso) incrementarán su ventaja competitiva.
Entonces ahora que podemos dimensionar qué es, definamos formalmente el término Big Data. Big Data consiste en la recolección, el almacenamiento, la gestión, la visualización, la vinculación y el aprovechamiento de grandes volúmenes de datos. También es preciso incluir en el Big Data los sistemas y herramientas de software que se utilizan para analizar el valor de la información.
De esta manera, cuando hablamos de empresas que dicen estar centradas en los clientes (“Customer Centric”) nos referimos a empresas que han sabido definir su estrategia, sus procesos y orientar la organización de acuerdo a las necesidades de los clientes. No se debe olvidar en ningún momento que es igual de importante para poder llevarlo a cabo el establecimiento de los medios tecnológicos que facilitarán a las personas de la organización el cumplimento de esa estrategia y el desarrollo de los procesos de negocio.
De esta manera el gran reto de las empresas es mantener interacciones con sus clientes con alto valor añadido. Este valor vendrá dado por la capacidad de …
… ser capaz de seguir los procedimientos que se establezcan
… poner foco en la recomendación de nuevos productos y servicios
… relacionarse con mensajes relevantes en tiempo real
… mostrar facilidad de adaptación en la escucha online del cliente
En definitiva, tenemos que ser capaces de ayudar a las empresas a aunar el cumplimiento de los objetivos de negocio con la satisfacción de las necesidades de sus clientes. En este camino el conocimiento y tratamiento adecuado de lo que denominamos Big Data va a resultar crítico.
Había mucho en juego. Nada menos que elegir a la persona que va de liderar para los próximos cuatro años al país con más influencia en el mundo. Y para conquistar ese puesto, los dos grandes partidos políticos y sus respectivos equipos de campaña han poniendo todo su empeño.
Más allá de cámaras, luces y debates televisivos, la gran batalla por las elecciones estadounidenses ha acontecido en Facebook. Al igual que en la Guerra Fría, la verdadera lucha se libra en el campo de la inteligencia: Facebook es quien informa al político sobre sus votantes y no al revés, como pudieraparecer.
Republicanos y demócratas emplean los datos que los ciudadanos ceden a la red social de Mark Zuckerberg de forma voluntaria, y a menudo de forma totalmente inconsciente, para luego utilizarlos en su favor. Conocen quienes son, dónde están, quienes son sus amigos, sus preocupaciones, sus intereses y su nivel de influencia en sus círculos sociales.
Sin duda la clave radica en entender cuáles son los puntos críticos para ganar unas elecciones presidenciales en EEUU. En gran parte de los Estados, el voto está completamente fidelizado hacia uno y otro bando y son unos pocos millones, o incluso miles de personas, en zonas muy concretas de la 8 geografía estadounidense, los que deciden si será un republicano o un demócrata quien sentará sus posaderas en el sillón de la Casa Blanca.
En 2008, el Big Data empezaba a introducirse de forma aún poco significativa en la campaña presidencial pero aún no se conocía todo su potencial. Sin embargo, por aquel entonces, el potencial como medio de comunicación de masas de Facebook y Twitter con un uso político empezaba a dejarse ver y Barack Obama fue capaz de aprovechar la brecha de forma pionera. Desde ese momento, las elecciones presidenciales en EEUU se mueven por la siguiente máxima: no puedes ganar elecciones sólo en Facebook pero sin Facebook has perdido las elecciones.
El equipo del presidente Obama también optó por volcar los esfuerzos y recursos típicos de un campaña offline (discursos, carteles, noticias, mensajes…) a la realidad virtual. Tenían un jefe de campaña en Second Life –el videojuego online más popular en la época que permitía a la gente vivir una vida paralela a través de internet- porque la gente joven no reparaba en los anuncios tradicionales.
Cuatro años más tarde, en 2012, el uso de Facebook y Twitter se convirtió en una estrategia recurrente entre los partidos políticos. Sin embargo, lo que realmente marcó la diferencia en esta campaña de Obama fue la capacidad de saber utilizar los datos de los usuarios en las redes sociales.
Analizaron datos de Facebook y vieron quien era un influencer entre la audiencia e intentaron persuadir a esos influencers. Unos influencers que las empresas, los expertos en marketing digital, utilizan para promocionar sus productos a través de las redes sociales. Como si de unas deportivas o un champú se tratase, el marketing político estadounidense ha buscado las personas capaces de ejercer presión en su entorno a favor del candidato.
Para ello, la campaña de Obama recurrió al empleo del Big Data con el fin de hacer llegar los mensajes adecuados a las personas con peso en determinados círculos. La gran innovación de Obama fue pasar del social data al Big Data. Para ello, Obama contrató matemáticos, astrofísicos, genetistas e informáticos que debían trabajar con esos datos.
En 2012 el periodista Sasha Issenberg, que siguió la campaña electoral de Obama, publicó un interesante libro, The Victory Lab: the Secret Science of Winning Campaigns (Crown-Random House), sobre la nueva y “secreta” ciencia para ganar elecciones. El diario online Politico.com calificó el libro de Issenberg como “Moneyball for politics”.
Gracias al análisis y al cruce del big data, los partidos políticos y los gobiernos podrán conocer de manera muy exhaustiva al ciudadano, sus características, preferencias, necesidades y deseos. Esto les permitirá acercarse mucho mejor a determinados segmentos de población optando por la micro segmentación y la geolocalización para aplicar estrategias muy personalizadas y diferenciadas, presentar propuestas, estrategias de comunicación a medida. La segmentación se usa en las campañas electorales de todo el mundo para adaptar los mensajes del candidato a cada colectivo determinado, con el fin de conseguir una aproximación más efectiva.
El objetivo es que el electorado se sienta escuchado y próximo a un partido. La relevancia de la segmentación es crear mensajes dirigidos directamente a estos grupos, para así reclutar votantes que, de otra forma, no se hubieran identificado nunca con el candidato o para activar a aquellos que están de acuerdo en una temática concreta pero no tanto con el resto de temas.
La política 2.0 se juega hoy con algoritmos, investigación, testeo y predicciones matemáticas. Informáticos tomados prestados de Silicon Valley, genios estadísticos, expertos en redes sociales y en marketing, encuestadores, sociólogos, geeks, hackers retirados y hasta jugadores de póquer forman parte de los sofisticados equipos de los candidatos presidenciales en EEUU a cargo de analizar grandes volúmenes de información para predecir con margen matemático quiénes son los votantes clave: dónde están, cómo persuadirlos, cuáles son sus gustos y si, pulsando la tecla correcta, estarán dispuestos a donar dinero.
Los datos son información, y la información es poder para discernir mediante qué mensaje un partido o un candidato puede acercarse más a un simpatizante o votante, sea para activarle o para que vaya a votar. Enviar el mensaje oportuno a la persona oportuna, de eso se trata. Dianas más pequeñas, impactos más certeros. De la sobreexposición publicitaria del mass media a la precisión de la personalización del Social Media. A través de los datos que obtenemos, podemos conseguir impactar más con nuestros mensajes. Con ellos, la política tiene la posibilidad de conocer de manera muy exhaustiva al ciudadano, sus características, preferencias, necesidades y deseos.
En resumen, vivimos en un mar de datos. El Big Data nos empequeñece, abruma y nos convierte en cifras medibles y cuantificables, mientras crece más allá de nuestra comprensión. Pero estos datos, que aumentan de forma desenfrenada y que nos podrían resultar básicos en una campaña electoral, o para comunicar desde un gobierno, a menudo no son bien aprovechados, sino ignorados o sobreestimados.
Ya afirmó Aristóteles, en su Política, que el demagogo siempre conquista el poder gracias al halago y la seducción de las clases populares, a las que manipula diciéndoles lo que quieren escuchar y aquí el Big Data puede ser una pieza clave.
John Bury ya nos intentó acercar en los años 20 del siglo pasado a la idea de progreso(1). Este era un elemento clave para dirigir el impulso de la civilización occidental. Han transcurrido muchos años, pero es evidente que el progreso sigue estando presente en nuestros días y parece no tener límite. Buena parte de este progreso y de esta evolución se debe al talento, como factor clave que el hombre utiliza para mejorar. Cuando hablamos de talento, nos estamos refiriendo a “la capacidad que tiene una persona para aprender cosas y desarrollarlas con facilidad en una actividad”. Esto queda patente en el mundo empresarial en lo que Klaus Schawb, fundador y presidente ejecutivo del Foro Económico Mundial ha apuntado:
“El Talento, no el capital, será el factor clave que aglutine la innovación, la competitividad y el crecimiento económico en el siglo XXI. (…) El empresariado, en particular, debe reconsiderar su papel como consumidor de capital humano prefabricado para proactivamente buscar, participar y desarrollar el potencial de las personas”.
Esta idea nos acerca a una realidad evidente: la importancia del talento como motor de la evolución de cualquier estructura social y empresarial. Esto nos lleva a determinar que el capital más importante que tiene cualquier empresa son las propias personas. Vemos así que las herramientas de trabajo deben estar al servicio del ser humano y no al revés. Y otra cosa no menos importante: es el talento el que ha creado esas herramientas que nos hacen más fácil la vida.
Además, debemos tener en cuenta que el talento es el que aporta las ideas, el que se sitúa en primera línea de la innovación, y que esto es lo que supone un input de mejora, de competitividad y productividad a las empresas. Por tanto, un elemento clave dentro de las mismas debe ser la capacidad para potenciar este talento, es decir, aportar formación e incentivos a los trabajadores que ayuden a desarrollar sus cualidades. Ello repercutirá en una mejora en su trabajo y en la motivación para el mismo. También es fundamental que esto impregne a los líderes, como elementos clave para una buena organización y funcionamiento de la empresa. Podemos determinar, por tanto, que el capital humano y su talento son los motores de cualquier actividad empresarial. Esto no debe alejarnos de otro aspecto a considerar, como es el “talante” de los mismos, su sistema de interrelaciones, sus habilidades comunicativas, su personalidad…
Por tanto, si somos capaces de aglutinar talento y talante, el funcionamiento de cualquier estructura, tanto social como empresarial, obtendrá su máximo rendimiento, ya que tendremos personas capaces de adaptarse a cada momento, a cada situación, a los cambios, siendo capaces de reinventarse y aportar soluciones e ideas que le ayuden a progresar y mejorar. En todo este proceso no podemos olvidar un nuevo elemento que sirve para trabajar, estimular y potenciar mejor el talento: las nuevas tecnologías. Esto se debe a que las nuevas generaciones están acostumbradas a trabajar y vivir en un mundo tecnológico. Por tanto buscan empresas que inviertan en herramientas tecnológicas, que les ayuden a desarrollar mejor su trabajo y donde se valore la motivación de sus empleados.
Así, la ecuación talento + talante + nuevas tecnologías se ha convertido en un paradigma del que las empresas actuales no deben olvidarse, un carro al que deben subirse, ya que la interacción de los tres es la que mejor puede llevarles al éxito empresarial y al progreso en un mundo tan competitivo como el nuestro.
La tecnología ha avanzado a un ritmo vertiginoso en las últimas décadas. Sirva como reflexión lo siguiente: el iPhone que llevamos en el bolsillo tiene mayor capacidad de cómputo que los ordenadores que permitieron llevar al hombre a la Luna. Lo que hace unos años era ciencia ficción, hoy en día es la realidad y la sociedad lo ve con normalidad.
Hay dos palabras mágicas que aparecen repetidas hasta la extenuación: Big Data. El desarrollo de la tecnología ha llevado a que todo aquello que pueda ser medido de alguna forma sea almacenado para intentar extraer información relevante que pueda aprovecharse para un mejor funcionamiento de la vida, en general, y de las empresas en particular. La tecnología se ha adaptado para poder almacenar esta información y poder tratarla de forma eficiente. Pero el Big Data es solo eso, Grandes Datos. Los grandes volúmenes de datos no tienen valor alguno en sí mismos si no sabemos cómo extraer información valiosa de ellos. Un posicionamiento actual frente al Big Data es el de guardar esa cantidad ingente de información por si acaso. Pero mucho más importante que saber cómo y dónde almacenar la información es la forma de extraer y generar conocimiento a partir de los datos. El perfil del Data Science (del que se ha llegado a decir que es el trabajo más sexy del Siglo XXI) ha experimentado una demanda creciente en los últimos años por el avance de la tecnología y, en concreto, por la necesidad de profesionales que sepan extraer esa información valiosa de la heterogeneidad y el caos que puede suponer el Big Data.
Es cierto que al Big Data, en el sentido más estricto del término, solo tienen acceso aquellas empresas con unas infraestructuras tecnológicas grandes (bancos, Twitter, Facebook…) y, aunque el Big Data comienza a abaratarse y a democratizarse, las empresas con un volumen de datos modesto deberían ser conscientes de los beneficios y las ventajas competitivas que podrían tener si pusiesen sus datos en manos de un equipo de Data Scientists. Cualquier PYME podría beneficiarse de alguien que supiese extraer información valiosa de sus datos y el retorno de la inversión será, seguramente, alto. Una de las habilidades que debe tener un data scientist es la de saber cómo transmitir sus análisis de una forma clara, didáctica y que alguien sin conocimientos teóricos sea capaz de entender y sacar sus propias conclusiones que aporten valor a la empresa. Los data scientists hemos aprendido que debemos ser exhaustivos y meticulosos en la aplicación de los métodos que más convengan en virtud de los datos analizados, pero explicar nuestros análisis de una forma llana es tanto o más importante. No sirve de nada tener unos conocimientos teóricos profundos sin la capacidad de hacerlos entendibles a los no expertos y debemos ser conscientes de que nuestro cliente no tiene porqué saber qué es un algoritmo o ser capaz escribir una línea de código. Ese es precisamente el mayor reto al que nos enfrentamos, ser capaces de comunicar de forma eficiente nuestras conclusiones.
Además, la aparición de nuevos softwares libres (R, Python, …) ha posibilitado el abaratamiento de la tecnología necesaria para el trabajo del Data Scientist haciéndolo accesible a cualquier empresa y han plantado cara a softwares que tradicionalmente se han repartido el mercado del análisis de datos y que hacían difícil su utilización por parte de la pequeña y mediana empresa. Se está produciendo una pequeña revolución en la forma en la que nos enfrentamos a la toma de las decisiones ya que se está dejando de lado las razones puramente emocionales y, aunque la experiencia de negocio seguirá siendo algo determinante, las decisiones apoyadas por análisis basados en datos objetivos hará mejorar el funcionamiento de cualquier empresa que esté decidida a seguir esta revolución.
Hay que desterrar la idea de que el Big Data es casi ciencia ficción y que se puede saber casi cualquier cosa a través de él. Si para algo ha servido el Big Data es para enfrentarnos a retos aún mayores y tener que adaptar nuestras técnicas a esa cantidad ingente de datos que necesita ser convertida en información. Sirva este artículo para desmitificar la idea del Big Data en sí mismo si no va acompañado de la tecnología y el conocimiento necesario para hacerlo útil. De nada sirve saber dónde hay un diamante sin las herramientas necesarias para extraerlo de la roca.
La tecnología seguirá avanzando y en nuestras manos está la decisión de subirnos al carro para mejorar las decisiones que tomemos en nuestro negocio o dejar que sean otros quienes lo hagan y correr el riesgo de quedarnos atrás.
En el año 2000 la tendencia en el mundo del Marketing B2B estaba en torno a la compra de grandes ficheros de clientes potenciales para realizar acciones de captación de clientes. En Informa teníamos grandes clientes cuya principal preocupación era: “más madera”. La compra de información siempre ha sido la parte más económica de la prospección y por eso la principal preocupación era que el principio del embudo fuera lo más ancho posible.
En 2000 cuantos más registros para poder prospectar vía mailing y/o telemarketing mejor. Con la saturación de la oferta y la reducción de los presupuestos de Marketing aumentó la preocupación por la segmentación. En el Marketing online ya se hablaba del Marketing one to one y en el Marketing offline la preocupación se centraba en la segmentación adecuada para aumentar el ROI.
Poco a poco, en la primera década del 2000 se observó una lenta, pero clara evolución desde la inversión en compra de información B2B desde la captación a la fidelización. Las grandes compañías empezaron a focalizarse en mejorar la relación con sus clientes y a aprovechar su base de clientes para poder clasificar a los clientes, hacer upselling y crosselling, además de controlar y prevenir la fuga de clientes.
Era lógico aprovechar al máximo lo que se tenía en casa, antes de embarcarse en la captación de nuevos clientes. Además, todos éramos más conscientes de que los mejores clientes potenciales eran aquellos que se parecían más a tus mejores clientes actuales, por lo que nada mejor que conocer a fondo a tus mejores clientes, para así poder afinar al máximo las campañas de captación.
Todos sabíamos que era mucho más caro captar un nuevo cliente que vender a un ya cliente y también nos dábamos cuenta que había que hacer los mismos esfuerzos para captar a un buen cliente que a un mal cliente, por eso el uso de la información era la clave para centrar los objetivos y mejorar los resultados.
Con la gran crisis, de 2009 a 2012 hubo un gran parón de los grandes proyectos de uso de información B2B y la tendencia que observamos en Informa fue que, fruto de las reducciones en inversiones en Marketing, la compra de información para Marketing había caído mucho. Ya casi no había proyectos de “grandes bases de datos”, sino que había muchos pequeños proyectos y con mucho más foco en la limitación del gasto que en la consecución de grandes objetivos.
Sin embargo, todo esto ha ido cambiando poco a poco con la irrupción del Big Data.Los grandes proyectos de Big Data lo están cambiando todo. El nuevo concepto de moda es el de “lago de datos”. Los big players en el mundo del marketing se están embarcando en proyectos de creación de un gran lago de datos en el que volcar y mezclar la información propia de todos los departamentos y la de proveedores externos para enriquecerla.
Esta revolución silenciosa en el mundo de la información de empresas está provocando varios efectos en las relaciones de los departamentos de las empresas:
– Por un lado, se están eliminando los “silos de información” y ahora la información es común para todos los departamentos. Antes era común la distinción de información para departamentos financieros, comerciales, marketing, compras, etc. y ahora las compras de información son de “business information”. Es decir, información útil para todos los departamentos.
– Por otro lado, la gestión de la información es más “multi departamental” que nunca. Ahora, los departamentos de Marketing necesitan de la ayuda de los departamentos de Tecnología y Financieros para la compra y gestión de la información.
Esta mezcla de tipos de información y de departamentos implicados en la gestión, análisis y aprovechamiento de la misma están produciendo la creación de nuevos departamentos dentro de las empresas y de nuevas profesiones más allá de las tradicionales relacionadas con la investigación de mercados.
Sin embargo, algo que nadie puede olvidar es que aunque se hable de Big Data y de grandes proyectos, para poder triunfar con el “Big Data”, primero hay que tener claro todo lo relacionado con la “Small Data” de la organización. Lo importante no es almacenar cuanta más información mejor, sino manejar adecuadamente el “right data”, es decir, seleccionar la información necesaria de verdad y que las personas que utilicen la información puedan tomar las mejores decisiones posibles.
El almacenamiento de datos no tiene ningún sentido; lo importante es tener clara la información necesaria y analizarla para aplicar sus resultados al negocio.
Todos los días tomamos decisiones basándonos en los datos, de pequeñas a grandes decisiones. De decisiones sencillas a decisiones que pueden cambiar el rumbo de nuestras compañías a corto, medio y/o largo plazo. Hoy en día en todos los sectores, las organizaciones están definiendo sus acercamientos y desarrollando competencias asociadas a la explotación de datos.
Si te encuentras entre una de esas organizaciones o estás pensando en afrontarlo, en este asunto como en la mayoría, es importante pensar y empezar a construir desde los cimientos.
Cinco ideas básicas que pueden ayudar a afrontar la (re-)formulación de la explotación de datos
Centrarse en la toma de decisión te va a permitir orientar el modelo de gestión y explotación de datos hacia la toma de decisión a lo largo de tu cadena de valor.
Comienza por los esenciales, preguntarte cinco veces ‘qué’ y cinco veces ‘para qué’. Define cuáles son los principales activos de información centrados en las decisiones que se toman y/o necesitan ser tomadas en la organización.
Cada toma de decisión te puede requerir un enfoque y utilización de técnicas diferentes. Es importante aplicar las más sofisticadas y complejas allí donde se necesitan y cuidarnos de ‘no utilizar cañones para atrapar moscas”.
Dedica los esfuerzos necesarios para definir bien los problemas o retos que tienen que ser resueltos.
Simplifica los procesos y flujos de información asociados. Tensiona los procesos hacia su sentido de existencia: producir lo que tienen que producir y aligéralos de todas aquellas actividades que nos consumen tantos esfuerzos y recursos sin una clara aportación al propósito.
Define cuáles son los procesos básicos a llevar a cabo, en mi experiencia, se ven reducidos a tres: captura, almacenamiento y distribución. Quienes son los productores y consumidores de esta información y orienta el modelo de procesos junto con sus flujos de información a/desde su consumo.
Experimenta ideas, perspectivas desde las que afrontar los problemas, metodologías y técnicas de resolución, aplicación de logaritmos o tecnologías en forma de pilotos en los que puedas obtener una retroalimentación rápida.
Prueba en lo pequeño y gestionable para que a la luz de los resultados y oportunidades que ofrece, puedas definir su extensión y ámbito de aplicación.
Haz preguntas, preguntas sencillas, complejas, difíciles de contestar, y deja que vengan a ser resueltas de una forma diferente en sus acercamientos y técnicas utilizadas.
Define casos de uso en los que probar. Recuerda que todos tenemos que pasar por su insorteable curva de aprendizaje pero, si ya está bien definido el objetivo/s, su orientación será más eficaz y eficiente. Pierde los miedos a errar, son la base del aprendizaje.
Digitaliza la organización aprovechando las oportunidades que el desarrollo, innovación y cambios tecnológicos nos están poniendo a nuestra disposición. Define e implementa fuentes únicas de información, convirtiéndolas en lo se viene a llamar ‘sources of truth’.
Desde su visualización, piensa en la integración de las diferentes fuentes de datos, configurándolo como una entidad sistémica donde tienen sentidos sus partes y el todo que configuran conjuntamente.
Incorpora nuevas herramientas que te permitan aplicar técnicas más avanzadas de explotación de datos, pero sin obviar soluciones sencillas y caminos eficientes que funcionan. El resultado está siempre orientado a hacer más, más rápido y mejor. Resulta de enorme importancia hacer cosas diferentes.
Digitalizar no es sinónimo de automatizar. Te sugiero que tengas en mente que el cómo es una palanca y tienes que mantener el suficiente margen de maniobra para que puedas adecuar o cambiar los sentidos y objetivos sin necesidad de tener que tirar todo lo desarrollado.
Decía Russell Ackoff que la peor de las situaciones en la que se puede encontrar una organización para poder cambiarla o cambiarse es “tener un cómo muy sofisticado con un qué equivocado”.
Re-definición basada en los datos- decisiones basadas en la información. El poder que contiene el binomio datos-decisión es enorme. Andreas Weigend, ex Chief Scientist de Amazon y experto en Big Data, ha llegado a definir a los datos como el nuevo petróleo del siglo XXI.
Los datos contienen un gran poder transformador para las organizaciones y nos pueden llevar a tomar rumbos muy diferentes de los actuales, promoviendo una recreación o re-orientación completa; que de otra manera nos hubiera costado mucho siquiera visualizar o imaginar.
Hay un gran océano de oportunidades para nuestras organizaciones basándonos en los datos, pero éstos necesitan ser refinados y convertidos en información para la toma de decisión. De otra manera su valor es 0 y el coste ha podido ser muy alto.
Si bien ya estamos viendo resultados en diferentes sectores, los próximos años nos van a alumbrar con cambios y re-orientaciones cuyas decisiones están basadas en una mejor explotación de los datos.
Invierte el paradigma ‘ver para creer’, si queremos estar presentes en lo que esta por venir, hay que participar en su construcción y ‘creer para ver’.
Las inversiones en publicidad siguen creciendo año tras año. Continúan siendo una partida muy importante para los anunciantes, alcanzando niveles de inversión muy altos. Es, por lo tanto, fundamental para ellos conseguir los objetivos que se pretendan, para no sentir que “se ha tirado el dinero a la basura”. Conocer cuánto ha aportado cada medio y cada canal es lo que se conoce como Atribución.
La necesidad de cuantificar el retorno de cada medio existe desde siempre. Hace 20 años, cuando toda la publicidad se invertía en medios tradicionales tipo TV, radio, exterior, etc., se utilizaban diferentes técnicas estadísticas que aproximaban comportamientos de grupos de individuos. No se podía llegar a más detalle y, por tanto, todos nos conformábamos.
Sin embargo, hoy en día tenemos acceso a datos mucho más desagregados, que llegan hasta la persona individual. Ya no nos conformamos con decisiones basadas en grupos. ¿Dónde está el problema? En la complejidad de medirlo TODO y BIEN MEDIDO.
El enfoque que llevaría a una solución adecuada es similar al arte de la guerra. Se necesita manejar la batalla desde tres puntos de vista diferentes:
• Punto de vista estratégico: conocer el campo de batalla, distribuir los escuadrones por zonas amplias y decidir cómo van a avanzar, analizar la climatología etc.
• Punto de vista táctico: para cada batallón, ver exactamente por dónde van a pasar, cómo se van a colocar, a qué ritmo van a moverse, etc.
• Punto de vista micro-táctico: cada soldado, qué va a hacer exactamente, qué arma va a llevar, etc.
Que se traduciría de la siguiente manera:
• Punto de vista estratégico: conocer cómo afectan todas las variables de marketing a las ventas de una Compañía y, en particular, ver qué sucede a grandes rasgos con cada medio.
• Punto de vista táctico: ya nos centramos solos en los medios y analizamos cómo funcionan los diferentes soportes y canales.
• Punto de vista micro-táctico: allá donde podamos y sepamos todo de las personas, podremos anticiparnos a saber qué contenido publicitario necesita esa persona que le mostremos.
La clave para ganar la batalla es organizarlo todo bien. No valdría de nada si un soldado hace lo que el de al lado le recomienda. O si un batallón se basa solo en lo que ellos ven.
Para ganar las batallas hay que cuadrar los tres enfoques y trabajarlos de manera conjunta. Tiene que haber un comandante que organice todo para que las diferentes partes trabajen para el bien común. Lo mismo tendría que pasar en el mundo de la atribución.
De nada le vale a un anunciante si una empresa le dice una cosa, otra le dice otra y una tercera otra totalmente distinta. Las empresas de consultoría estratégica tienen que trabajar de la mano con las de tecnología, juntar el conocimiento de cada parte, y dar un resultado global al anunciante.
No podemos trabajar el on por un lado y el off por otro, puesto que el consumidor no vive en esos dos mundos separados. Hay que utilizar algoritmos para establecer relaciones entre ambos mundos. Se puede. No será tan exacto como el on por sí solo, pero a mí me resulta más creíble.
Resumiendo: para ganar la batalla de la atribución on y off, necesitaremos un enfoque múltiple, que cubra la estrategia, la táctica y la micro-táctica. Y para poder trabajarlos los tres a la vez, tendremos que aprender a ponernos de acuerdo varias empresas (incluso empresas competidoras), con un único fin: que el anunciante sepa, con la mayor de las certezas, cuál es el retorno de sus diferentes inversiones publicitarias.
La amplia sala tenía una intensa luz artificial blanca, era fría y olía a cloroformo. Tener que pasar por la morgue el fin de semana no era el mejor de los planes para el oficial de policía encargado del caso, pero asumió su suerte y se dirigió al corrillo alrededor de la mesa donde un voluminoso cuerpo estaba tapado con una sábana. Conocía al forense, pero no a las otras tres personas que lo acompañaban.
– Buenas noches, soy el oficial encargado del caso. – Se presentó mientras abría su libreta para repasar sus notas –. Me han informado que el occiso es un proyecto de Big Data, la muerte fue reportada como natural, pero nos hallamos aquí a pedido del fiscal pues tiene sospechas de que no ha sido así. – Buenas noches, oficial. Soy el líder usuario y máximo responsable del proyecto fenecido. Me
acompaña el jefe del proyecto que pertenece a nuestra área de IT y el consultor que contratamos para ayudarnos en el proyecto.
– Buenas noches, Henry, dime que has encontrado – el oficial se dirigió al forense.
El forense retiró la sábana y el resto de los presentes dio un respingo, ya que el cuerpo estaba bastante descompuesto.
– Bueno. – dijo Henry –. Hace tiempo que no veo el cadáver de un proyecto en tan mal estado. Lo primero a destacar y una de las probables causas de la muerte, salta a simple vista, podríamos estar hablando de un típico caso de muerte por ‘data obesity’.
– Amplía – le pidió el policía.
– Es el típico caso de un proyecto que traga y traga cantidades ingentes de datos que luego no procesa.
– Estoy de acuerdo con eso. – Apuntó el jefe del proyecto –. Metíamos datos sin preguntar por qué y para qué. Me opuse a ello desde el principio.
– Perdonen. – intervino el consultor –. Pero los sistemas de Big Data son sistemas preparados para procesar altos volúmenes de información. Acuérdense de las 3 V’s.
– Sí. Yo vi en una presentación que el 99,5% de los datos generados en 2012 nunca se analizaron, ni se usaron – complementó el líder usuario.
– Ese argumento más que contradecir la tesis, la apoya – espetó el forense.
– Tengo entendido que estamos en la era de la información y que hoy día las empresas son intensivas en el uso de información. ¿Por qué no se usaba la de este proyecto? – preguntó el policía.
– Estamos investigándolo aún – respondió el líder usuario.
– Yo sé la razón – intervino el jefe del proyecto.
– Lo escuchamos – dijo el policía.
– Los proyectos como estos posibilitan acumular grandes cantidades de información, como se dijo, que nos permiten tener todas las respuestas que uno se pueda imaginar, pero el problema radica en que no tenemos las preguntas.
– ¿Y eso?
– Se lo voy a resumir, agente. Tenemos un capital humano excelentemente formado para hacer las preguntas de la vieja economía, pero que son absolutos analfabetos informacionales, no tienen la capacidad para comprender la nueva economía y por ende jamás podrán hacer las preguntas correctas.
– No acepto lo que dices. – Se indignó el líder usuario –. Nadie hacía preguntas porque desconfiaban de los datos, nunca cuadraban. Acuérdate que no cuadraba siquiera el número de clientes.
– He visto algunas de trazas de eso en los análisis – agregó el forense al policía.
– Eso es más fácil de responder – comentó el consultor –. El problema fue una pobre definición conceptual de los indicadores. Desde nuestro lado lo manifestamos como riesgo desde el principio y lo ignoraron.
«…el 99,5% de los datos generados en 2012 nunca se analizaron, ni se usaron…»
– Deme más información – lo conminó el policía.
– Mire, el problema no es que el número de clientes no cuadre en el sistema, lo que pasa es que los directivos de la empresa no tienen la misma idea de lo que es un cliente. Por ejemplo, para el director comercial un cliente es cualquier persona que esté en la base de datos; mientras que para el director financiero, un cliente además de estar en la base de datos tiene que tener un producto activo, y para el director de marketing ni siquiera eso, porque él suma las personas que están en la base de datos de clientes con las de la base de datos de prospectos.
– Estos problemas provocan una crisis de credibilidad que termina necrosando los sistemas de entrega de información – sentenció el forense –. No es la causa de la muerte, pero la acelera.
– Veo cardenales por todo el cuerpo, sospecho que tienen que ver con que indicases al inicio que el ‘data obesity’ era solo una causa probable – inquirió el policía al forense.
– No se te escapa una. Tienes razón, la obesidad salta a la vista, pero estos moretones nos revelan que el proyecto estuvo sometido a presiones por todos lados, como si se tratara de una camisa de hierro que impedía que se expandiera. Esto le generó muchos problemas que disminuyeron su capacidad de supervivencia.
– Ese ha sido un problema de gestión del proyecto– dijo el líder usuario.
– Lo reconozco – intervino el jefe del proyecto –. Partimos de unas premisas de alcance, tiempo y presupuesto cómodas, pero después el alcance empezó a engordar y a engordar, y cuando pedía más presupuesto o más tiempo no me lo daban.
– Era tu deber haber detenido el proyecto – intervino el consultor.
– Si, pero no tuve la entereza para hacerlo, significaba decirle no a gente muy poderosa.
– Más poderosa es la realidad – dijo el policía y cambió de tema –. Veo los labios con una coloración verdosa que no parece normal.
– Es otro punto que te quería comentar, ese color es una manifestación de una intoxicación seria.
– ¿Alguien de fuera ha envenenado el proyecto? – preguntó alarmado el líder usuario.
– Para ser precisos tenemos que hablar de un auto envenenamiento.
– ¿Cómo puede ser eso? – intervino el jefe del proyecto.
– Seguí las trazas de los agentes tóxicos y pude llegar aquí, al Data Lake – indicó el forense a la vez que señalaba el hinchado estómago de la víctima.
– Imposible – dijo el consultor –. Nosotros recomendamos el uso de un Data Lake porque es la más moderna tecnología, permite el tratamiento de los datos en grandes volúmenes y con gran variabilidad con mucha velocidad, es tecnología de punta.
– Necesito que me expliquen esto despacio – intervino el policía.
– Es fácil – le dijo el forense –. Para que los datos se traten tan rápido, ahora se obvian las lentas operaciones de limpieza e integración de hace algunos años, simplemente se toman los datos y en bruto, SIN LIMPIAR – el forense enfatizó esto último – se vuelcan al famoso Data Lake.
– Eso es cierto – intervino el jefe del proyecto –. Pero luego en el momento de su utilización se limpian e integran para que sean buenos.
– Eso es cierto cuando los que consumen los datos son gente experta – precisó el forense –. Pero queda claro que en este proyecto hubo usuarios inexpertos que accedieron al Data Lake y utilizaron datos que no estaban limpios y generaron la intoxicación. No fueron pocos.
– Claro que no fueron pocos – dijo el líder usuario y se giró hacia el consultor –. Ustedes nos recomendaron que abriéramos los datos a todos los empleados, que democratizáramos el acceso a la información.
– Pensamos que todos los empleados eran data scientist – dijo a manera de disculpa el consultor.
El policía terminó de anotar en su libreta y señaló un extraño bulto que tenía el cuerpo.
– ¿Y esto?
– Ah – dijo el forense –. Ese es un tumor causado por data externa. No era necesariamente mortal, más era una incomodidad que un peligro.
– ¿Por qué se formó? – pregunto el agente.
– Yo puedo contestar a ello – se adelantó el jefe del proyecto –. Una de las mayores bondades del Big Data es la posibilidad de tener información externa ya sea de redes sociales, redes de microblogging, blogs, etc. Esta información es valiosísima, así es que una parte importante de este proyecto comprendía escuchar la voz de nuestros clientes en lo que llamamos la websphere. Básicamente rastreamos en internet todo lo que se decía sobre nuestra empresa y almacenamos la información.
– ¿Pero por qué se volvió un cuerpo extraño, aislado? ¿Por qué no se integró? – preguntó el policía.
– Cuando intentamos relacionar esta información con la de nuestros sistemas internos, nunca encontramos una clave, un dato, que nos pudiera servir de vínculo, así es que al final esa información se quedó aislada.
– ¿Algo más? – preguntó el policía al forense.
– Creo que eso es todo.
– ¿Ustedes tienen algo más que agregar?
– Nada más – habló por los restantes el líder usuario.
– Bueno creo que ya tengo una idea clara de lo que ha sucedido. De momento no levantaré cargos contra nadie, pero los tres deben estar localizables.
– De acuerdo – dijo el líder usuario.
– Una pregunta antes de concluir: ¿tienen más proyectos de Big Data?
– Si.
– Les voy a pedir que los detengan inmediatamente y no los reinicien hasta haberle hecho una auditoría en profundidad.
– Eso mismo pensaba – dijo el líder usuario. El policía cerró su libreta y empezó a redactar mentalmente la conclusión de su informe: la víctima estaba condenada a muerte irremediablemente.
Este no era su primer caso de un proyecto de Big Data fallido… y sabía que tampoco sería el último.
Cada vez son más las compañías que tratan de hacer frente al fraude, un problema que adopta continuamente nuevas formas y que cada vez adquiere proporciones más relevantes con impacto directo en la cuenta de resultados de las empresas. Se estima que el fraude le cuesta a las organizaciones el 5% de los ingresos anuales en todo el mundo.
Y es que en momentos de crisis y escasez, estas actividades delictivas se multiplican, lo que hace que igualmente se haga más crítica la necesidad de prevenirlo y combatirlo. Muchas entidades han convivido con el fraude en etapas de bonanza, pero el impacto económico asociado que ha conllevado grandes pérdidas en los últimos años, ha disparados las alarmas ante el hecho de tener escasa o nula visibilidad sobre la cuantía real de dichas pérdidas y por no disponer de medidas suficientes que permita amortiguar el impacto de este fenómeno.
Se trata de un problema que no entiende de geografías ni de sectores y que afecta a muchos negocios de forma indistinta. El fenómeno afecta a empresas de todas las envergaduras relacionadas con tarjetas de crédito, empresas aseguradoras, minoristas, fabricantes, proveedores de material o incluso servicios.
Podemos tender de salida a relacionar la lucha contra el fraude con campos como la cyberseguridad… y es cierto, pero la tecnología nos brinda en la actualidad alternativas complementarias que nos permiten ser mucho más proactivos y prolijos en la técnica y el detalle para combatir el problema.
Entre ellas se encuentra Analytics con el uso de técnicas predictivas o data science como nuevo paradigma del Business Intelligence. Técnicas que van mucho más allá y que permiten no solo conocer el estado actual o pasado de la organización, sino diseñar nuevos escenarios posibles a partir de los datos y las informaciones que se consideren más relevantes.
Para abordar un proyecto Analytics para detectar el fraude es necesario que se tengan en cuenta una serie de factores que son clave y que pueden hacer de la iniciativa un éxito o por el contrario, pueden provocar que el resultado no sea el esperado.
Un aspecto fundamental es tener claro el caso de uso que se quiere abordar. Ya se ha comentado que el fraude no entiende de sectores ni de negocios y la realidad es que a cierta escala, el business case siempre sale favorable y es una inversión por parte de la empresa que asegura el retorno con creces.
Existen ya muchos ejemplos de aplicación que lo corroboran: enganches ilegales en el ámbito de la electricidad y agua, infraestructuras no declaradas, fraude en tributos y seguridad social, fraude en la contratación de seguros y créditos, transacciones financieras fraudulentas, robo de identidad, reclamaciones falsas de seguros, fraude en medios de pago y tarjetas de fidelización, fraude laboral, … Los ejemplos son innumerables.
La implementación de un proyecto de lucha contra el fraude requerirá de una esponsorización al más alto nivel dentro de la organización, ya que en muchos casos precisará de prácticas y cambios dentro del funcionamiento normal de la compañía.
En alguna situación será incluso necesario derribar barreras interdepartamentales donde se puedan generar conflictos entre unidades independientes dedicadas a diferentes tipos de fraudes y donde cada una quiera dominar al ser por ejemplo “propietaria de los datos” objeto del análisis. Una aproximación centrada en el cliente que se aleje de la línea de negocio será la mejor forma para identificar fraudes relacionados.
En el caso que nos ocupa de Analytics sobre el fraude, la metodología de actuación se fundamenta en el análisis predictivo que agrupa una variedad de técnicas “data science” estadísticas de modelización, aprendizaje automático “machine learning” y minería de datos que analiza los datos actuales e históricos reales para extraer patrones de comportamiento y hacer predicciones sobre el riesgo o probabilidad de que algo acontezca. Esto permite tomar decisiones más precisas y optimizar los esfuerzos, tiempos y recursos para combatir el fraude.
Es importante reseñar que la fiabilidad y usabilidad de los resultados dependerán mucho del nivel de análisis del dato y la calidad de las hipótesis e información de partida disponible. Recopilar aquellos datos que «resulten lógicos» y que permitan ejecutar reglas es un primer paso, pero será necesario recorrer la distancia adicional hasta obtener otros «datos relacionados».
Independientemente de la información que pueda tener la propia compañía, existe información complementaria que hoy en día hace que estas técnicas avanzadas de predicción sean mucho más precisas: enriquecimiento de variables socio demográficas y socio económicas, imágenes aéreas y satelitales, redes sociales, … en algunos casos previa adquisición y compra de los datos, en otros a partir de fuentes open data e información pública.
Finalmente, referencia obligada a la tecnología. En la actualidad existe una cantidad creciente de herramientas disponibles de exploración y simulación que permiten ejecutar estas técnicas de análisis predictivo, herramientas más enfocadas a perfiles consumidores de información, usuarios analistas de negocio sin conocimientos informáticos o matemáticos que demandan que ellos mismos puedan utilizarlas con total autonomía.
Estas herramientas se pueden ordenar por el nivel de sofisticación desde aquellas sencillas a nivel de usuario de negocio hasta aquellas que están diseñadas para expertos y estadistas. También se pueden clasificar por el nivel de personalización y el rendimiento que ofrecen, entrando en juego toda la tecnología Big Data hoy en día disponible para el tratamiento masivo de grandes volúmenes de información, con tiempos de procesamiento muy rápidos y ágiles, y variedad en la naturaleza de los datos (estructurados y no estructurados), aspectos todos ellos que no quedan cubiertos por planteamientos tecnológicos más tradicionales.
Analytics es, sin duda, una de las opciones a seguir. Hay que confiar en Analytics para detectar el fraude y considerar claramente que el análisis de datos es una gran ayuda para sacar a la luz fraudes que escaparían al ojo humano debido a la enorme cantidad de transacciones y datos que se pueden procesar y analizar, a la velocidad con la que tenemos que dar respuesta y a la complejidad de las prácticas que hay detrás del fraude que requieren de técnicas avanzadas para combatirlo.
Pero el trabajo con los datos es complejo y no puede considerarse como algo accesorio o complementario. Es preciso considerar Analytics como algo esencial dentro de la organización, de la misma manera que se hace con otros procesos del core de cada negocio o dentro de ámbitos corporativos (logística, RRHH, marketing, …). Es necesario que el Analytics sea utilizado en los procesos de toma decisiones y quede totalmente integrado en los procesos de las organizaciones.
Según la prestigiosa consultora especialista en IT, Gartner, el mercado de business intelligence (BI) y Analytics alcanzará 16.900 millones de dólares en 2016. Es destacable señalar que dicha cantidad supone un aumento de +5.2% respecto a 2015.
Por otro lado la consultora IDC, especializa en el área de tecnología, habla que los ingresos globales de Big Data y Business Analytics subirán desde 122.000 millones de dólares en 2015 a más de 187.000 millones de dólares en 2019, lo cual supone un incremento de más del 50% en la predicción a 5 años.
Finalmente, la comunidad de profesionales del mundo de la tecnología y Analytics, Wikibond, habla de que el mercado global de Big Data crecerá desde 18.300 millones de dólares en 2014 a 92.200 millones de dólares en 2026, lo cual representa un crecimiento anual medido por CAGR del 14.4%.
Dicho esto, existen algunas reflexiones que me gustaría plantear sobre qué suponen estos datos de cara al estatus actual y sus posibles implicaciones a futuro.
El 40% de las personas que responde a la encuesta 2015 MIT Sloan Management Review dice que tienen dificultad en contratar talento de tipo analítico. Es lógico pensar que esta expansión de mercado en el mundo relacionado con los datos va a producir un GAP de talento evidente en los grandes proveedores de educación como las universidades, ya que la necesidad de expertise y conocimiento que necesitan las empresas es superior a la capacidad que estas instituciones pueden aprovisionar de profesionales a la industria.
El Business Intelligence y Analytics es accesible a todo tipo de empresa independientemente de su tamaño y un ejemplo claro son las startups, las cuales suponen una fuente natural de atracción de talento con un objetivo claro de ser serios competidores de las grandes empresas. Aquí se ve muy claro el conocido ‘disruptor dilemma’ que ese puede encontrar en el libro de Clayton M. Christensen donde plantea este framework de gran aplicación hoy e incluso más relevante en el sentido que la startup tiene cierta ventaja relacionadas con una estructura operativa más flexible.
En cuanto a las empresas de mayor tamaño y que tienen un importante legado en cuanto a sistemas de información, se observa que su transformación de sus sistemas hacia el mundo del Big Data genera un desafío. El conocido paradigma de las 4 V’s del Velocity, Veracity,Volume and Variety, hace que su escalabilidad sea impensable con sistemas de distribución tradicionales y su dimensionamiento obliga a replantear un modelo híbrido donde por una parte la empresa retenga in-house su core expertise y por otro pueda externalizar parte la infraestructura con proveedores de bajo coste.
Finalmente el Big Data y el conjunto del Analytics introduce una mayor especialización en la cadena de valor en el sentido que ya no se puede pensar que un analista en un laboratorio de datos es dueño de todo el contexto, sino que gracias al entorno más colaborativo y social en los sistemas, la capacidad de actualización y curvas de aprendizaje en el analytics son muy cortas y es por tanto necesario que distintos grupos puedan colaborar entre sí.
La conclusión por tanto es que dentro del entorno del Big Data y Analytics se van a producir importantes oportunidades en el futuro. El rol de “data scientist” va a tener que ampliar su definición y expandirse en diferentes ámbitos que englobarán diferentes campos de Big Data y donde el ritmo de cambio será mayor. En este sentido la expansión y especialización de nuevas capacidades analíticas será un factor permanente e intrínseco a las organizaciones del futuro por lo que desde la formación de valor es un será factor clave para diferenciar con éxito a los nuevos profesionales del sector.
Pensar desde el punto de vista de la experiencia de usuario (UX) es una aproximación excelente si buscamos que los usuarios de un Cuadro de Mando (CdM) lo consideren una herramienta útil y agradable de usar.
Conoce a las personas que van a utilizar el cuadro de mando.Personas, no usuarios. Las técnicas más habituales de análisis y diseño de sistemas de gestión tienden a despersonalizar al usuario. Los términos “responsables comerciales”, “gestores regionales”, o “directores de producto” por poner algunos ejemplos, dicen muy poco de las personas que desempeñan estos roles. Una de las técnicas clave de UX consiste en diseñar “personas”, arquetipos de los usuarios del sistema, descritos con atributos que nos permitan empatizar con ellos cuando diseñamos. ¿Por qué es importante empatizar con los usuarios? Porque poniéndonos en su piel, no solamente identificaremos requisitos funcionales sino que diseñaremos teniendo en cuenta otros aspectos como la ergonomía o las emociones. Los Cuadros de Mando son sistemas que hacen pública información sobre el rendimiento de un grupo de personas, que lógicamente influye en su reconocimiento y probablemente también en su retribución y su carrera. Si para todos los sistemas es conveniente empatizar con sus usuarios, en este caso es aún más importante. ¿Cuánto sabemos sobre sus habilidades en el uso de las tecnologías? ¿Cuántos años tiene? ¿Qué ha estudiado? ¿Le resultan familiares conceptos estadísticos? ¿Qué sabemos de cómo transcurre su jornada laboral? ¿Puede dedicarle tiempo a analizar los datos? ¿Le gusta acceder desde el despacho con una pantalla de 27 pulgadas o aprovecha la espera en el aeropuerto para ver sus resultados con un iPad mini? Hacernos estas preguntas es un primer paso para identificar los tipos de “personas” y diseñar para cada uno de ellos una experiencia que se adapte a sus intereses, preferencias y a su contexto de trabajo
Entiende cómo las personas procesan visualmente la información Los cuadros de mando en particular y los sistemas analíticos en general son altamente visuales. Para realizar un buen diseño, hay que tener conocimientos básicos de cómo las personas procesamos visualmente la información.
El uso de colores debe de estudiarse cuidadosamente, cuando lo habitual suele limitarse a buscar una imagen agradable y una armonía con los colores corporativos. Hay que considerar por ejemplo que un 8% de los hombres y un 0.5% de las mujeres tiene problemas en la percepción de colores.
Los colores influyen mucho en la percepción y hacen que establezcamos relaciones automáticas, con lo que si por ejemplo utilizamos un color para una región en un gráfico, debemos mantenerlo en el resto, o confundiremos al usuario. Hay aspectos más avanzados como la relación entre colores y emociones que también conviene conocer.
Un uso excesivo de colores fuertes o elementos que parpadeen pueden generar rechazo.
Los criterios para elegir gráficos en función de los datos son normalmente conocidos. No obstante, también hay que tener presentes las limitaciones de la memoria. Sabiendo que no es fácil recordar en varios segundos más de 7 pares color-leyenda no tienen sentido los gráficos que utilizan un número mayor.
La distribución de la información en pantalla debe responder a cómo las personas fijamos la atención. Por ejemplo, la esquina superior izquierda es la primera a la que suele mirar una persona, con lo que es conveniente situar en esta área la navegación, los resúmenes generales, etc.
También es importante ser consciente de que los usuarios en un primer vistazo se fijan sólo en lo que les interesa e ignoran el resto, con lo que pasarán por alto datos que no les parezcan relevantes. Una pantalla para todos no es una buena solución.
Piensa en las interacciones y diseña la experiencia. Hay que ir más allá de la funcionalidad y entender los objetivos que tiene cada “persona” con el Cuadro de Mando y cómo es posible que lo resuelva interactuando con el sistema. Hay preguntas características de las “personas” de un CdM, que deberían incorporarse a la reflexión sobre su diseño. ¿Con quién consulta los datos si le parecen incorrectos? ¿Comparte la información con alguien? ¿Qué sucede cuando hay “alarmas”? ¿Elabora algún informe para explicar los datos en un comité?
Otro aspecto fundamental en el diseño de interacciones en CdM es garantizar que el flujo del análisis es continuo, que no se interrumpe con scrolling o navegaciones entre páginas. Esto nos
lleva a un diseño que evite la fragmentación y condense en una única pantalla toda la información relevante para un análisis específico. La economía del espacio de la pantalla es consecuentemente un requisito básico de diseño, y un buen indicador para medir su cumplimiento es el “ratio de tinta útil” (data-ink ratio), que se calcula dividiendo los pixels que varían cuando los datos cambian, por el total de puntos de la pantalla. De esta forma, los rótulos, los fondos, las rayas, los logos, y otros elementos fijos hay que reducirlos a la mínima expresión evitando un uso superfluo de elementos que no contribuyen ni a la claridad ni a los mensajes informativos.
La posibilidad de “bucear” en la información también evita la fragmentación y genera una experiencia de análisis continua que encanta a los usuarios.
Un punto en el que normalmente no se incide suficientemente es la personalización. Cuando una persona coloca ella misma en la pantalla los componentes a su gusto, no sólo está adaptando la información a sus preferencias y mejorando de esta forma su valoración de calidad del sistema, sino que está aumentando su capacidad de recordar la información, con lo que el uso del sistema le parecerá más sencillo.
Deberíamos “obligar” a los usuarios a personalizar pantallas.
Empatizar conocer a fondo el proceso visual, y diseñar pensando en las interacciones son buenas prácticas que se utilizan habitualmente en la informática de consumo y que tienen un potencial extraordinario en los sistemas analíticos de futuro.
Toma decisiones estratégicas en base al conocimiento de tus clientes y las nuevas exigencias del mercado. Conoce más sobre nuestro programa internacional Innovación y Transformación Digital aquí