Tenía pendiente de comentar una entrada del Blog de Ricardo Galli, donde cuenta que Google va a liberar una enorme cantidad de datos sobre secuencias de palabras en sus archivos de búsquedas. Ricardo se plantea desde el punto de vista de su profesión, si en las Universidades españolas estamos preparados para formar especialistas en estos temas y también apunta como el tratamiento de un volumen de datos tan grandes puede suponer un cambio de paradigma en la informática, que pasaría de ser precisa y simplifacadora a lo contrario (imagino que imprecisa y compleja).
Parece que las máquinas estarían preparadas para enfrentarse a tales volúmenes de datos, los profesionales de la informática, no lo tengo claro, pero los usuarios finales si que no están preparados para eso. Yo llevo una temporada lidiando con grandes volúmenes de datos y es curioso como mucha gente no termina de entender qué es lo que tienes en tu PC, tienes toda la información de la empresa sobre un determinado punto. Y así hay un montón de información que ni se trata ni se tratará, porque no se es consciente de que está ahí esa información. Solo pongo un ejemplo tonto, podemos obtener la información de operaciones que hacen los clientes en cada sucursal, intrdozcase en un sistema geográfico (vamos, trasládese a un mapa) y veamos las rutas que hacen los clientes para usar distintos servicios: vuelven en el mismo día a la misma oficina para realizar la misma gestión?, van a otra al lado?, podemos encontrar ubicaciones para las Oficinas más cómodas, es decir en lugares de paso de los clientes, para ahorrarles desplazamientos.
Cuesta hacer entender a los usuarios el concepto de tendencia, (algunos deberían leer La Fundación de Asimov, a ver si se hacen un símil con la Psicohistoria) y se empeñan en usar sistemas de Datawarehouse para pedir información sobre clientes muy concretos, en lugar de usar las líneas gruesas, buscan el puntito concreto.
Luego sobre el tema de la precisión, cuando manejas datos en grandes cantidades es divertido ver como aquello que creías preciso, se revela como impreciso, vamos que un algoritmo que no debía de fallar nunca, al final cuando lo enfrentas a millones de operaciones en muchos sitios y con muchísimos clientes diferentes, al final falla.
Y al final hace falta el traductor, alguien que sea capaz de entender la complejidad de los datos, la manera en que se introdujeron en el sistema y su verdadera relevancia.
Así que en la mayoría de empresas tradicionales no se está preparado hoy en día para tratar grandes cantidades de información, así que las Universidades…