THOMAS H. DAVENPORT

Hace diez años, Jeanne Harris y yo publicamos el libro “Competing on Analytics”, y lo actualizamos para una nueva publicación en septiembre del 2017. Una de las principales razones para actualizarlo fue que la tecnología analítica ha cambiado dramáticamente a lo largo de estos últimos años; las secciones que escribimos sobre estos temas quedaron terriblemente desactualizadas. Por lo tanto, revisar nuestro libro nos brindó la oportunidad de estudiar 10 años de cambio en el análisis.

En la última década, por supuesto, fue la era de los datos masivos. Nuevas fuentes de información, como los flujos de clicks en línea, requirieron una variedad de nuevas ofertas de hardware que principalmente involucraban equipamiento de cómputo o de información especializada.

Invitación al canal de WhatsApp de La Nación PY

Dichas máquinas suelen analizar la información “en memoria”, lo que puede acelerar dramáticamente el tiempo de respuesta. El análisis basado en la nube hizo posible que las organizaciones adquirieran enormes cantidades de poder de cómputo durante cortos períodos y a bajo costo.

Junto con los avances en hardware, la necesidad de almacenar y procesar los datos masivos de nuevas maneras llevó a toda una nueva constelación de software de código abierto, como Hadoop y lenguajes de código. Hadoop se utiliza para almacenar y hacer procesamiento básico de datos masivos, y es típicamente mucho más barato que un almacén de datos para un volumen similar de información.

Otro cambio clave en el panorama de la tecnología analítica involucra el análisis autónomo, una forma de inteligencia artificial o tecnología cognitiva.

En el pasado el análisis se creaba para tomadores de decisiones humanos, que utilizaban los resultados como insumo y definían las decisiones finales. Sin embargo, las tecnologías de aprendizaje de las máquinas pueden dar el siguiente paso y decidir llevar a cabo la acción recomendada. En su núcleo, la mayoría de las tecnologías cognitivas están basadas en estadísticas, y pueden mejorar dramáticamente la productividad y efectividad del análisis de datos.

Por supuesto, como suele ser el caso con las tecnologías de la información, las tecnologías analíticas previas no se han ido, después de todo, las computadoras centrales siguen trabajando dentro de muchas compañías.

Las firmas siguen utilizando paquetes estadísticos, hojas de cálculo, almacenes de datos, análisis visuales y herramientas de inteligencia empresarial. La mayoría de las grandes organizaciones están comenzando a explorar el software de código abierto, pero también siguen empleando un número sustancial de herramientas de análisis patentadas.

HERRAMIENTAS MÁS COMPLEJAS

El cambio en las tecnologías de análisis ha sido veloz y amplio. No hay duda de que la actual diversidad de tecnologías analíticas es más poderosa y menos costosa que la generación previa. Le permite a las compañías almacenar y analizar muchos más datos y de muy diversas clases.

Sin embargo, estas nuevas herramientas también son más complejas y en muchos casos requieren mayores niveles de pericia para trabajar con ellas.

Usar tecnologías analíticas de primer nivel es un prerrequisito para el éxito, pero su amplia disponibilidad pone una ventaja cada vez mayor en factores no técnicos, como el liderazgo, la cultura y la estrategia analítica.

(Thomas H. Davenport es profesor de administración y tecnologías de la información en el Babson College y consejero senior en Deloitte Analytics).

Etiquetas: #análisis

Dejanos tu comentario