Participa del Call for Code Global Challenge | Tienes tiempo hasta el 31 de Julio! Responde el llamado

¿Qué es la Analítica predictiva?

Acerca de esta serie

Esta es la Parte 1 de una serie de cuatro partes sobre analítica predictiva. La Parte 1 da una visión general de la analítica predictiva. La Parte 2 se enfocará en técnicas de modelado predictivo, que son algoritmos matemáticos que conforman el núcleo de la analítica predictiva. La Parte 3 después pondrá estas técnicas en uso y describirá la conformación de una solución predictiva. Finalmente, la Parte 4 se enfocará en la implementación de analítica predictiva, esto es, el proceso de poner a trabajar las soluciones predictivas.

Introducción a la analítica

Actualmente vivimos en un mar de datos en constante expansión. Para navegarlos con seguridad, utilizamos la analítica. Sin analítica, simplemente nos ahogaríamos, sin saber realmente qué fue lo que pasó o qué pasará después. En este artículo, nos enfocamos en el conocimiento obtenido de la analítica, el cual podemos clasificar como descriptivo o predictivo. Mientras la analítica descriptiva nos permite saber qué sucedió en el pasado, la analítica predictiva se enfoca en lo que pasará después.

Nuestra necesidad de entender eventos pasados nos ha llevado a una disciplina que ahora llamamos inteligencia empresarial. Nos permite tomar decisiones con base en estadísticas obtenidas a partir de datos históricos. Por ejemplo:

  1. ¿Cuántos clientes han desertado debido al desgaste en las últimas seis semanas?
  2. ¿Cuánto dinero se perdió debido a fraudes en los últimos seis meses?
  3. ¿Con qué frecuencia son creados los tiquets de soporte?
  4. ¿Dónde se ubican los clientes (tal vez mostrados utilizando los mapas de Google?

La analítica descriptiva hace un largo recorrido para permitir decisiones empresariales sólidas basadas en hechos, no en sensaciones. Sin embargo, la analítica descriptiva simplemente no es suficiente. En la sociedad en que vivimos actualmente, es imperativo que las decisiones sean altamente precisas y repetibles. Para esto, las compañías están utilizando analítica predictiva para literalmente aprovechar el futuro y, al hacerlo, definir decisiones y procesos empresariales sólidos.

Como disciplina, la Analítica Predictiva ha existido durante muchas décadas. Siendo un tema candente en la academia durante años, su relevancia en la industria se incrementó junto con la cantidad de datos que se capturaban de las personas (por ejemplo, de transacciones online y redes sociales) y sensores (por ejemplo, de dispositivos GPS móviles) así como la disponibilidad de poder de procesamiento costeable, ya sea basado en la Nube o en Hadoop.

Impulsado por datos versus conocimiento experto

Es fascinante pensar en el conocimiento y cómo lo transferimos y lo utilizamos. Tradicionalmente, contamos con los expertos del dominio para ayudarnos a obtener el máximo de nuestros procesos particulares. El conocimiento experto se basa en la experiencia y es utilizado todos los días por todas las compañías para influenciar las operaciones del día a día. Dada la forma en que podemos traducir el conocimiento experto en un conjunto de normas empresariales, hemos compilado sistemas basados en decisiones para aplicar automáticamente el conocimiento generado por expertos humanos. IBM ILOG es un buen ejemplo de un sistema que traduce conocimiento experto en un conjunto de sentencias IF-THEN que podemos poner a trabajar inmediatamente.

Por otra parte, el conocimiento impulsado por datos, como su nombre sugiere, se basa en los datos; normalmente, en muchos datos. Hace algunas décadas, una serie de técnicas estadísticas surgieron con la intención de descubrir patrones de datos típicamente ocultos para el ojo humano. Dado que actualmente capturamos datos en un volumen cada vez mayor, estas técnicas se han comprobado como indispensables para extraer valores a partir de datos y hacer los procesos repetibles y precisos.

La película Moneyball ejemplifica eso bastante bien. En la película, un grupo de agentes de reclutamiento experimentados ofrecen su conocimiento de primera mano y su instinto sobre quiénes deberían ser perseguidos para que formaran parte del equipo. Esto está en contraste con un enfoque impulsado por los datos, en el cual el conocimiento es extraído de datos que ya están disponibles sobre cada persona, y un equipo es armado a partir de esos datos. Aunque Moneyball elige un tipo de conocimiento sobre otro, en la mayoría de los casos debemos (y así lo hacemos) utilizar juntos el conocimiento experto y el conocimiento impulsado por datos.

La analítica puede producir estadísticas de sonido, predicciones y puntuaciones. Sin embargo, depende de un sistema basado en normas el decidir lo que hay que hacer con todo ese conocimiento impulsado por datos. Por ejemplo, podemos utilizar una serie de normas para desencadenar decisiones empresariales dependiendo de la salida obtenida por un modelo predictivo. Por ejemplo, si un modelo existe para predecir el riesgo de deserción de un cliente, podemos poner normas conocidas para mitigar la deserción para definir decisiones empresariales específicas de acuerdo con distintos niveles de riesgo. Por lo tanto, si el riesgo es alto, podemos dar al cliente un 20% de descuento en su siguiente compra, pero si el riesgo es muy alto, podemos dar un 50% de descuento en su lugar.

¿Qué es un modelo predictivo?

Un modelo predictivo es simplemente una función matemática que puede aprender el correlación entre un conjunto de variables de datos de entrada, normalmente empaquetadas en un registro, y una variable de respuesta o de destino.

Nos referimos a este aprendizaje como supervisado, ya que, durante la capacitación, los datos son presentados a un modelo predictivo con los datos de entrada y la salida o el resultado deseado. La capacitación se repite hasta que el modelo aprende la función de correlación entre las entradas dadas y las salidas deseadas. Ejemplos de modelos predictivos utilizando aprendizaje supervisado incluyen redes neurales de retropropagación, máquinas de vector de soporte y árboles de decisión. Un modelo predictivo también puede utilizar aprendizaje no supervisado. En este caso, solo se presentan los datos de entrada. Su tarea es entonces descubrir cómo se relacionan los distintos registros de datos de entrada unos con otros. La agrupación en clúster es el tipo de modelos predictivos más comúnmente utilizado, el cual utiliza aprendizaje no supervisado.

Entonces, como un ejemplo, imagine que desea crear un modelo predictivo que pueda saber quién de entre sus clientes tiene más probabilidades de desertar (¿descuentos del 20% o del 50%?). Primero revisa sus datos históricos para buscar dispositivos que pueda utilizar para compilar un modelo para hacerlo. Al observar su base de datos, puede compilar una lista de dispositivos relacionados con la deserción para los clientes existentes y pasados que desertaron. Puede incluir el número de quejas en los últimos 6 meses, el número de tiquets de soporte abiertos en las últimas 4 semanas, con qué frecuencia y cuánto dinero gastó el cliente comprando mercancía o servicios (online o en la tienda) e información genérica como la edad, el género y datos demográficos. Dos clientes y sus dispositivos de entrada. muestra dos de estos clientes juntos con los dispositivos obtenidos para cada uno de ellos. El cliente 1 es un cliente existente y parece estar satisfecho. Sin embargo, el cliente 2 ha desertado.

Dos clientes y sus dispositivos de entrada.

Gráfico de dos clientes diferentes se muestran las características del perfil de cada uno. El cliente 1 es un cliente existente, el cliente 2 ya ha desertado

En un tipo de escenario de aprendizaje supervisado, como se muestra en Datos de cliente que comprenden dispositivos de entrada y la salida es presentada a un modelo predictivo durante la capacitación, usted presenta todos sus datos de cliente a una técnica predictiva durante la capacitación. En este caso, la entrada se comprende de todos los dispositivos que obtuvo (relacionados con la satisfacción, datos demográficos, etc.) para cada cliente así como el resultado asociado. El resultado le dice al modelo predictivo si el registro de datos representa a un cliente que desertó o que no desertó. El razonamiento aquí es que el modelo puede aprender las diferencias, o los patrones, entre dos grupos: los clientes satisfechos existentes y los clientes que han desertado.

Datos de cliente que comprenden dispositivos de entrada y la salida es presentada a un modelo predictivo durante la capacitación

Gráfico mostrando el flujo de ingreso de los datos del cliente que comprenden las características de entrada y el resultado se presenta a un modelo predictivo durante la capacitación

Después de que compilamos un modelo predictivo, necesitamos validarlo. La validación que la pregunta intenta responder es doble: «¿funciona?» y, de ser así, «¿qué tan precisa es?». Si la respuesta a la primer pregunta es un contundente y la respuesta a la segunda pregunta es altamente preciso, entonces sabe que su modelo funciona y que puede generalizar bien. Todo lo que necesita ahora es hacerlo disponible para la ejecución. Para eso, necesita ser desplegado operacionalmente. Por suerte, existe un estándar llamado PMML (Predictive Model Markup Language) que permite que los modelos predictivos se muevan fácilmente entre distintos sistemas. Con PMML, podemos utilizar una aplicación como IBM SPSS Statistics para compilar y validar un modelo predictivo que podamos después salvar como un archivo de PMML. Por lo tanto, podemos subirlo directamente en un motor de puntuación como el motor Zementis ADAPA cuando esté listo para utilizarse en tiempo real. Para obtener más información sobre PMML y las tecnologías aquí descritas, vea Temas relacionados.

Después de la implementación, podemos utilizar el modelo de deserción para supervisar toda la actividad de clientes existentes. Un buen modelo predictivo puede generalizar su conocimiento para calcular el riesgo de deserción aún para clientes que nunca ha conocido antes. Cuando es desplegado operacionalmente, el modelo de deserción recién creado es utilizado para puntuar clientes nuevos y existentes para calcular una puntuación de riesgo de deserción para cada cliente. Si se detecta un alto riesgo de deserción, se pueden establecer procedimientos para mitigarlo. muestra los datos para uno de estos clientes, identificado como cliente 3, siendo presentado a nuestro modelo de deserción. Si el modelo percibe que un patrón de deserción está surgiendo para un cliente particular, incrementará su riesgo o salida en consecuencia hasta que exista una decisión empresarial de su parte para atenderlo. Cuando ese cliente particular se encuentre de nuevo satisfecho con sus productos y servicios, el riesgo disminuirá, ya que el patrón de deserción ya no es detectado.

Cuando es desplegado operacionalmente, el modelo de deserción recién creado es utilizado para puntuar clientes nuevos y existentes para calcular una puntuación de riesgo de deserción para cada cliente. Si se detecta un alto riesgo de deserción, se pueden establecer procedimientos para mitigarlo.

Gráfico que muestra el flujo de un nuevo, sus datos en el modelo predictivo y el resultado final es el análisis del riesgo de abandono.

La importancia de los buenos datos

Mi primer impulso para nombrar esta sección fue llamarla «La importancia de los datos», ya que sin datos no hay analítica y, por lo tanto, tampoco analítica predictiva. En mi carrera como científico de minería de datos, he visto muchas personas bien intencionadas en la búsqueda de una solución de analítica predictiva para su compañía. Aunque saben que la analítica predictiva puede ayudarles a obtener el resultado final, tienen datos insuficientes. Es decir, que no tienen datos suficientes para un científico de datos para realmente capacitar un modelo que tenga sentido. En una era de Datos Grandes, tal vez se sorprenda al ver con qué frecuencia sucede eso realmente. Para que ciertos modelos predictivos puedan aprender y generalizar, se requieren miles y miles de registros. En línea con nuestro ejemplo anterior, algunos cientos de registros que contengan datos de clientes que desertaron en el pasado pueden no ser suficientes. Si no se utilizan suficientes datos para la capacitación, un modelo tal vez no pueda aprender o, peor aún, puede sobreajustarse. Eso significa que aprende todo sobre los datos dados durante la capacitación, pero es incapaz de generalizar ese conocimiento cuando se le presentan nuevos datos. Simplemente no es capaz de predecir.

Si hay suficientes datos disponibles, entonces es cuestión de qué tan buenos son. Esto es porque la calidad de los datos reflejará directamente la calidad del modelo. Para decirlo suavemente: ¡basura adentro, basura afuera!

Hace años, mi equipo y yo tuvimos la tarea de compilar un modelo para predecir si un determinado proceso de fabricación iba a resultar en un fracaso o en un éxito. La fabricación requirió aproximadamente ocho horas para completarse y consumió una gran cantidad de recursos. Solo después de la finalización los ingenieros de control de calidad de la compañía pudieron determinar si algo salió mal durante la fabricación. De ser así, todo el lote tenía que ser desechado y se empezaba con uno nuevo desde cero. La idea aquí era que pudiéramos observar datos obtenidos en el pasado para todas las etapas del proceso para los lotes que salieron bien y mal. Después, pudimos capacitar un modelo para detectar a tiempo en el proceso cuando las cosas comenzaran a verse mal. Aunque fue emocionante, nunca pudimos compilar realmente ningún modelo. Durante el análisis de datos, encontramos que los datos estaban corruptos o, peor aún, faltaban para algunas de las fases clave de fabricación. Y lo más importante, no pudimos encontrar la salida o la información que nos permitiera separar los lotes buenos de los malos. Eso significa que no pudimos utilizar una técnica de aprendizaje supervisada. Y la falta de partes importantes de los datos de entrada puso en riesgo el uso de una técnica no supervisada.

Los datos por sí mismos no se traducen en valores predictivos. Los buenos datos sí lo hacen.

Aplicaciones de analítica predictiva

Cuando comencé a aprender sobre analítica predictiva, recibí un libro de Duda, Hart y Stock titulado Pattern Classification (vea Temas relacionados). Este libro es ahora considerado una referencia clásica en el campo. En él, los autores compilan un sistema de clasificación de patrones alrededor de una planta procesadora de pescado. En esta planta, utilizan una solución predictiva para clasificar el pescado entrante en salmón o lubina, dependiendo de dispositivos de entrada como la longitud y la intensidad de las escamas. En 2010, tuve una presentación en Rules Fest Conference en San José sobre analítica predictiva. En la presentación, titulada «Follow your Rules, but listen to your Data» (vea Temas relacionados), utilicé el mismo ejemplo para mostrar a la audiencia enfocada en normas no solo cómo podemos solucionar un problema como este utilizando analítica predictiva, sino también cómo la analítica predictiva puede trabajar junto con las normas empresariales para mejorar la toma de decisiones. La idea obviamente era utilizar el ejemplo en una forma similar a la de Duda, Hart y Stock. Es decir, como un ejemplo genérico de cómo compilar y aplicar una solución predictiva y permitir que las audiencias la generalicen en otras aplicaciones. En este artículo, utilicé la deserción de clientes en su lugar. En cualquier caso, de forma que usted generalice el conocimiento que ha obtenido hasta ahora en nuevas aplicaciones, describiré a continuación más formas en las cuales la analítica predictiva está transformando nuestro mundo en un lugar más inteligente.

Una aplicación de analítica predictiva que ha sido extremadamente exitosa durante muchos años es la detección de fraudes. Cada vez que desliza su tarjeta de crédito o la usa online, hay probabilidades de que su transacción sea analizada en tiempo real para verificar la probabilidad de que sea fraudulenta. Dependiendo del riesgo percibido, la mayoría de las instrucciones implementan un conjunto de normas empresariales que pueden incluso declinar una transacción de alto riesgo. Esta es la meta final de la analítica predictiva en su lucha contra el crimen, es decir, evitar que suceda en primer lugar.

En un artículo escrito anteriormente para IBM Developer, primero enumero algunas aplicaciones importantes de analítica predictiva para el cuidado de la salud. El fraude en el cuidado médico está definitivamente en lo alto de la lista, pero también el uso de analítica predictiva para implementar un cuidado preventivo efectivo. Al saber qué pacientes están en un riesgo más alto de desarrollar una enfermedad específica, podemos aplicar medidas preventivas para mitigar el riesgo y así salvar vidas. Últimamente, la analítica predictiva ha sido el centro de atención en un concurso altamente publicitado en el cual los datos de reclamaciones históricas son utilizados para reducir el número de readmisiones hospitalarias (vea Temas relacionados).

Adicionalmente, las compañías utilizan analítica predictiva para recomendar productos y servicios. Actualmente, ya hemos crecido para generar recomendaciones para películas, libros y canciones de nuestras tiendas y comerciantes favoritos. Por el mismo token, también estamos experimentando campañas de marketing que se ajustan cada vez más y más a nuestros gustos y preferencias con base en, por ejemplo, el contenido de nuestros e-mails, publicaciones online y búsquedas.

Otras aplicaciones se enfocan en los datos obtenidos a partir de sensores. Por ejemplo, podemos utilizar datos de un dispositivo móvil de GPS para predecir el tráfico. A medida que estos sistemas se vuelven cada vez más precisos, seremos capaces de utilizarlos para alterar nuestras propias opciones de transporte. Por ejemplo, podemos tomar el tren un día si se espera que la carretera esté muy congestionada.

Más aún, la disponibilidad de sensores pequeños y costeables que informen el estado actual de estructuras – como puentes y edificios, maquinaria del tipo de los transformadores de energía, bombas de agua y de aire, puertas y válvulas – han habilitado el uso de analítica predictiva para mantener o hacer cambios a materiales o procesos antes de que ocurran las fallas o accidentes. Al habilitar la compilación de modelos de mantenimiento predictivos, el uso de datos a partir de sensores es una forma clara para ayudar a garantizar la seguridad. El desastre del derramamiento de petróleo en el Golfo de México en 2010 y el colapso del puente del Río de Misissippi I-35W en 2007 son solo dos ejemplos de accidentes importantes que pudieron ser prevenidos si se hubieran implementado sensores y modelos de mantenimiento predictivo.

Conclusión

En un mar de datos en expansión constante, recolectados a partir de personas y sensores, la analítica predictiva proporciona herramientas de navegación esenciales para compañías e individuos para que alcancen exitosamente su destino. Lo hace al pronosticar lo que está por suceder, de forma que uno pueda responder apropiadamente para mantenerse en el curso más preciso, seguro, repetible, rentable y eficiente.

El uso de analítica predictiva ya está revolucionando la forma en que interactuamos con nuestro entorno. A medida que la cantidad de datos se incrementa y la calidad se mejora, con la ayuda de la disponibilidad de energía de procesamiento costeable, la analítica predictiva está destinada a ser aún más penetrante de lo que es ahora. Si ya ha identificado algunos problemas que planea atender con analítica predictiva, estará de acuerdo con que esta no fue una predicción difícil de hacer.

Aviso

El contenido aquí presentado fue traducido de la página IBM Developer US. Puede revisar el contenido original en este link.