Ir a…

The PPP Economy

People Planet Profit Economy - Spanish Ed

RSS Feed
Cotizacin Ibex 35

Wednesday, September 22, 2021

‘Small data’, cuando la calidad y la relevancia se imponen a la cantidad


Se dice que el diablo está en los detalles, y la expresión también se podría aplicar al uso de los datos, el proclamado petróleo de la competitividad en la era digital. La duda es si las empresas españolas están siendo capaces de atender al detalle en esta revolución, es decir, de hacer un uso eficaz de los datos que manejan, con independencia de su volumen. Algo imprescindible frente a un cliente cada vez más exigente. Porque si el dato no retiene la silueta del usuario a través de una mayor personalización y un mejor servicio, entonces los esfuerzos se reducen a una cámara de eco de errores traducida en posibilidades de negocio

perdidas.

El experto en marcas Andy Stalman, tiene claro que el aprovechamiento de los datos es el ser o no ser de las organizaciones: «Casi todas las grandes compañías, también las medianas y pequeñas se preguntan cuál es el coste de implementar una política de datos, que implica una recogida y análisis, transformando esta operación en calidad y estrategia. Pero la pregunta es cuál es el coste de no hacerlo, de no aprovechar la oportunidad de generar un valor compartido para la empresa y los clientes. Las cuestiones que hay a nivel de desafío son muy grandes, pero a nivel de oportunidades lo son más».

Valor diferencial

Sobre este tema Steve Almirall, profesor del departamento de Operaciones, Innovación y Data Sciences de Esade, dice que en España tenemos empresas nativas digitales o empresas que han realizado la transformación digital que hacen un uso eficiente de sus datos. Sin embargo, también detalla que tenemos un gran número de pequeñas empresas que aún no han realizado esta transformación. Señala que no usan herramientas de Inteligencia Artificial ni Cloud y aún recogen y usan mayoritariamente datos transaccionales para sus sistemas ERP (Planificación de Recursos Empresariales), sin capturar, ni analizar los datos de sus interacciones con los clientes, que son los que les pueden aportar más valor. Este es un problema común de las pequeñas y medianas empresas, que compiten poco a nivel global y se circunscriben a su mercado local. Pero también es una oportunidad de crecimiento.

«El `big data´ no es tan `big´ ni hace falta que sea tan `big´, llega un momento en que ya tienes suficiente información, tener más no te va a aportar nada», precisa Almirall. Por ejemplo, Tesla lleva años con vehículos autoconducidos, sus algoritmos ya saben conducir en autopistas en condiciones normales. Lo que Tesla busca ahora es saber conducir en condiciones especiales y sobre las que no se tienen tantos datos. Cada día en IA se sabe más de cómo hacer modelos con menos datos, esto es una preocupación importante porque lógicamente los datos cuestan dinero, porque hay que trabajar y limpiarlos. Por eso interesa el `small data´, porque permite ajustar los grandes conjuntos de datos al caso personal y específico.En esa dirección, según la compañía francesa MyDataModels, los microdatos representan el 85% de los datos que recopila una empresa.

‘Big data’ son las grandes cantidades de datos variados que se reciben a mucha velocidad y se están procesando continuamente. Mientras que ‘small data’ es el término que se usa para referirse a los datos personales, que identifican a cada consumidor de manera unívoca. Otros lo definen como un pequeño volumen de datos. Pero lo importante para las empresas es cambiar el chip, lo esencial es conocer al cliente. Y el ‘small data’ es la clave en este objetivo.

Con el `big data´ uno es capaz de identificar las grandes características de grupo, pero lo que se demanda es personalizar, ajustando la identificación. Unido a esto hay temas de privacidad. El profesor Almirall pone como ejemplo el que Google esté proponiendo cambiar los algoritmos de recomendación de los anuncios, en vez de usar los algoritmos con las `cookies´ que nos siguen a partir de lo que hacemos. Se trata de usar algoritmos para identificar grupos de interés a los que pertenecemos, esquivando así el tema de la privacidad.

Poca gente trabaja con `big data´, la mayoría de datos con los que  funcionan las Pymes son transaccionales, lo esencial para las empresas es cambiar el chip, lo importante es conocer al cliente. «Si uno tiene un supermercado local frente a lo que hace Amazon el valor diferencial puede ser que Amazon no tiene su web en euskera o en gallego, en cambio una pequeña empresa puede tener una mejor relación con las personas que quieren comprar en esas lenguas. Ajustarse a grupos pequeños es más complicado para Amazon que para esa pyme porque Amazon se dirige a un público más general». No obstante, hoy en día cualquiera de las grandes compañías digitales son maestras en trabajar con `big´ y `small data´, Netflix, Airbnb. Estamos en una carrera y la extrema personalización

es el futuro.

A esta tendencia se une que en términos de digitales los modelos que existen hoy en día son bastante centralizados, los modelos distribuidos tratan de aunar privacidad y personalización, cosas que parecen imposibles a priori. Pero cómo se puede personalizar sin que la empresa tenga los datos concretos de ese cliente, una forma de resolverlo es con algoritmos distribuidos. El algoritmo intenta aprender, no intenta recoger todas sus interacciones, sino intenta clasificar sus interacciones en una de las comunidades que existen. Eso se hace desde el ordenador o el móvil y lo que pasa a Google es a qué comunidad perteneces sin pasar los datos personales.

Para Almirall: «El futuro en países occidentales irá en esa dirección, la forma en que Europa resuelva este problema, que de paso es la única que lo está abordando puede marcar el camino de cómo se resuelve en el mundo. Estaría bien que la legislación se alinease más con lo que es la tecnología actual, sin pensar en esquemas tecnológicamente antiguos».

Macarena Estévez, socia del área de Analytics de la consultora Deloitte, hace hincapié en que la ventaja del `small data´ es la capacidad de ser manejado sin necesidad de grandes inversiones en tecnología ni algoritmos complejos, y por tanto eso se traduce en mayor rentabilidad. «Las startups con base tecnológica, si le dan importancia a un uso inteligente de los datos. Pero una pyme siempre está “apagando fuegos” y suele carecer de recursos que vayan más allá de lo necesario para superar el día a día. Desgraciadamente, los datos no suelen estar entre sus prioridades», explica Estévez.

También añade que si bien el big data son millones de datos, de cualquier tipo y en tiempo real. La combinación con small data puede convenir para sumar inteligencia humana a la ecuación empresarial.

La geografía humana a golpe de dato

La importancia de entender al consumidor es algo que conoce bien Andy Stalman, reconocido como el gurú en el estudio de las marcas, remarca la trascendencia que están teniendo los datos en esta nueva era, ya no solamente en el ámbito empresarial, sino en todas las áreas. Casi todo el mundo está prestando atención al concepto de `big data´. Se dice que cada dos días se generan más datos que en toda la historia de la humanidad. «El `big data´ es más territorio de las máquinas, de las supercomputadoras y la IA, mientras que el `small dat´a es lo suficientemente pequeño para el análisis y la comprensión humana. El matiz importante es qué hacemos con esa data, cómo lo hacemos y por qué lo hacemos».

Las grandes marcas se apoyan en los pequeños detalles para crecer. Stalman comenta que ya sea `big´ o `small data´ sin detalles es bad data, esto es como si tienes una idea brillante, pero no se lleva a cabo o la ejecutas mal. Una buena idea mal implementada es una mala idea. La clave para él es acceder a los datos, ponerlos en valor y seguir evolucionando para que todo este ciclo sea positivo.

Hacia finales del siglo XX el fundador y ex CEO de Amazon, Jeff Bezos, dijo que su visión es que en el futuro cada cliente de su marca tenga una tienda a su medida, es como si se tuvieran cien millones de clientes con cien millones de modalidades de la tienda Amazon. En otras palabras, Bezos estaba hablando de la era de la personalización. En la competencia pesará quien mima más al consumidor, es un proceso de fidelización. «Con el `big data´ se es un número, con el `small dat´a se es una persona», asegura Stalman. Además matiza que es mucho más caro conseguir un cliente nuevo que mantener un cliente fiel.

«Demasiado análisis a la data deriva en parálisis, hay que transformar rápidamente esa data en decisiones, planes, y acciones. En el mundo del `small dat´a vale más un gramo de hacer que un kilo de decir», comenta.Si fuéramos al mundo del lujo la ultrapersonalización tiene mucho que ver con la calidad del dato. Stalman afirma que esto no es ciencia ficción, hoy ya es una realidad. En este proceso establece que si le hubieses preguntado a Steve Jobs sobre esto, él hubiese respondido que los clientes no saben lo que quieren hasta que tú se lo presentas y se lo muestras, pero lo cierto es que los clientes del siglo XXI saben más de los productos porque navegan más.

«Es sumamente importante entender como empresa qué tipo de marca somos, cuál es la cultura de empresa o de qué manera estamos comprometidos con la generación de valor. Lo único que va seguir trascendiendo, aunque los tiempos cambien, es que los clientes quieren ser bien tratados y entendidos. Sin olvidar que la data es un medio no un fin, y hoy hay empresas que están confundiendo fin con medio y medio con fin», concluye Stalman.

Afinar el dato

En este escenario Carlos Rebate, informático, filósofo y profesor de Inteligencia Artificial en la Universidad Nebrija, señala que en los últimos años se ha puesto mucha atención en decir que los datos son el nuevo petróleo y en que se han de atesorar las cantidades ingentes de datos. Pero recuerda que para algunos tipos de problemas resulta interesante usar cantidades ingentes de datos, pero luego los datos hay otro escalón de la realidad, donde se pueden establecer relaciones de causa-efecto.

La dificultad está en ser capaces de extraer modelos simplificados de esa maraña de datos y enseñar a una AI a rellenar vacíos, igual que hace el ser humano a la hora de hacer razonamientos. El big data solo resuelve un conjunto limitado de problemas. La respuesta no siempre pasa por apostar por lo macro. Rebate indica: «En ocasiones para entender algo no es necesario tanto dato, lo que ocurre es eso que se dice si la única herramienta que se dispone es un martillo, todo lo demás lo problemas nos parecen clavos. Pero, a veces, lo que necesitas es un destornillador».

Cuando menos es más

Ricardo Baeza Yates, director de investigación del Instituto para IA Experiencial de Northeastern University, clarifica que los datos del móvil también son `small data´, pues sólo cuando no cabe en un ordenador podríamos empezar a hablar de datos masivos. El `big data´ tiene las 5 V: velocidad, variedad, volumen, veracidad y valor. Y en la mayoría de los datos no hay velocidad, es decir, no se están generando todo el tiempo como Internet. Por otro lado, en muchos problemas se necesitan pocos casos para resolverlos. Indica que «lo verdaderamente importante es preguntarse cuáles son los datos que realmente necesito y no usar los que tengo, pues por la Ley de Murphy son probablemente los que no necesito».

Establece que la mayor parte de las empresas del mundo nunca van a tener datos masivos porque no los pueden generar, y en algunos escenarios, aunque existiera el caso de que pudieran tener acceso a ellos, hay factores externos que limitan su recogida, relacionados con la protección de datos, temas de coste o temas biológicos, como los pocos datos que hay sobre enfermedades raras. «En estos casos se pueden usar otras opciones, pero por un sesgo que tienen los informáticos esas metodologías no se han ido mejorando. Un objetivo prioritario debería ser encontrar técnicas que cada vez usen menos datos».

Los datos pequeños describen a cada persona en cada contexto, pueden ser interpretados y comprendidos por personas, y la mayor parte de las innovaciones se generan por pocos datos. Baeza que ha escrito sobre ello afirma, citando al autor del libro `Small data´ Martin Lindstromm, dice

: “Las pequeñas pistas descubren tendencias gigantes”.

En términos generales, como la mayoría de las empresas no son muy complejas, no tienen problemas complejos. Baeza dice que la gente piensa que tienen que usar muchos datos cuando no es necesario, pero pocos saben y muchos no saben cómo hacerlo, y eso afecta especialmente a las Pymes porque tienen menos recursos.

A ello se une que en el caso del entrenamiento de la IA se habla de recabar cantidades pequeñas de datos, en lugar de macrodatos como alternativa para controlar los sesgos de la información, ya que permiten un mejor control del etiquetado. Y en el proceso, este profesor como miembro del Consejo Asesor de inteligencia artificial del Gobierno pone especial atención en la necesidad de que los datos sean adquiridos de forma ética.

Las diversas alternativas

En el universo de los datos la atención la acapara el ‘big data’, pero el glosario del dato es diverso y hay momentos en los que tenemos un número limitado de datos. Por eso Francisco Herrera Triguero, catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada, señala que hay un término intermedio que es el ‘smart data’, que si bien se podría traducir como ‘dato inteligente’, hace referencia en realidad a datos eficaces o de calidad. Lo más importante para resolver un problema es tener datos que representen e identifiquen perfectamente las necesidades de la empresa.

En el ‘big data’ se puede tener redundancia o ruido con datos inútiles, por eso hay que aplicar técnicas denominadas de preprocesamiento de datos, algo que ha analizado de cerca en dos de sus libros. En informática se usa la expresión «basura entra, basura sale», y al hablar del ‘big data’, necesitas datos y modelos de calidad, que eliminen inconsistencias.

Por eso crece la tendencia a trabajar con pequeños volúmenes de datos. En el `Deep Learning´ de la IA se usa una tipología de algoritmos llamados `Few Shot Learning´, es decir una línea de IA que intenta trabajar con pocos datos que sean de calidad. Y luego, en otro ámbito se habla de algoritmos verdes, son los datos que se procesan con eficiencia energética, pero conservando su calidad.

En el ámbito médico Herrera comenta que se suele hablar de pocos volúmenes de datos porque esos datos no están en abierto, no se pueden mover a la nube y no se pueden fusionar por la ley de protección de datos. «Actualmente hay una línea de trabajo que es el Aprendizaje Federado que lo que hace es puedo tener pequeños volúmenes de datos de distintos orígenes. Con ello tengo modelos parciales de distintos hospitales que envío a un nodo central, se integran modelos creando un modelo global que es reflejo de los modelos parciales, todo ello sin romper la privacidad».

Un ejemplo de esto es la empresa española Sherpa.ai cuyo CEO es Xabi Uribe-Etxebarria, y cuenta con sede en Bilbao y Silicon Valley. Es la compañía líder en servicios de Inteligencia Artificial. Acaba de recibir un premio a nivel internacional por ser una plataforma de calidad en la privacidad de datos. Esta empresa tiene una versión en abierto para investigadores que permite integrar los modelos. Entre sus servicios la plataforma de IA aplicada a la privacidad incluye tecnologías predictivas, de recomendación y de procesamiento de lenguaje natural. Todo ello para ayudar a las empresas a mejorar sus resultados.

En cuanto la pregunta de cuántos datos son suficientes para mantener la calidad, la respuesta de Herrera es que depende del contexto. En ese sentido también nos encontramos con el `Transfer Learning´ o aprendizaje transferido, supone partir de modelos de aprendizaje profundo de multitud de datos, pero cuando trabajo con un problema pequeño readapto el modelo a la cuestión concreta, no empiezo de cero. Así en el caso de una pyme se pueden readaptar los modelos a sus necesidades específicas.

Para este profesor el futuro pasa por la sostenibilidad, porque mayor coste energético conlleva problemas de rentabilidad. De ahí que estableca:«La tendencia al `small data´ y a los algoritmos verdes va a ser continua. Tenemos que aspirar a ello ser capaz de tener modelos de calidad con pocos datos y si partimos de esa base reducida ser capaces de mejorar su calidad».

El `small data´ te hace grande

BeeDigital es una compañía española que aporta soluciones tecnológicas de digitalización a Pymes y autónomos y eso supone trabajar con el `small data´. Tiene trescientos empleados y cincuenta mil clientes. Javier Castro, CEO de BeeDigital, aclara que cualquier empresa, pequeña o mediana, a veces con un Excel y veinte variables, puede extraer un información muy rica, predecir las ventas, el comportamiento de los clientes y clasificarlos. «Cuando hablamos de big data parece algo inaccesible, pero cualquier empresa pequeña maneja una cantidad de datos suficientes para sacarles valor. Se puede usar decenas de miles de variables en un PC. Con eso es suficiente para el 90% de las aplicaciones de negocio de cualquier empresa», defiende este experto.

BeeDIGITAL tiene algoritmos que predicen las ventas del mes, calculan la probabilidad de compra del cliente y la afinidad de venta de un producto por parte de un vendedor o cómo debe ser el discurso del vendedor y cuando debe darlo para conseguir atraer al cliente. Castro remarca: «Una empresa que usa small data es una empresa con inteligencia aumentada, si coges dos empresas iguales, la empresa que consigue usar y accionar los datos tiene una inteligencia superior, sus procesos están más optimizados, tiene más ventas y gasta menos».

Para el CEO de la empresa el próximo reto no es tecnológico, sino cultural. El desafío es que las empresas tengan la cultura del dato, tomen las decisiones basadas en los datos, con menos opinión y cuenten con perfiles que sepan sobre ese tema. El otro reto es que en el futuro todo esto se democratice. Al principio todo empieza con gente que hace cosas diferentes, pero cuando se democratice se creará un sistema abierto en el que pequeñas empresas puedan inyectar sus datos a la nube y esperar resultados contando con algoritmos ya predefinidos que no tengan que elaborar previamente. Al final se trata de hacer más humana la información que aporta el dato.

Castro defiende que trabajar con el `small data´ es como adquirir superpoderes, porque conduce a las empresas a otras dimensiones: «Lleva a convertirte en una compañía magnética que da una mejor experiencia, donde al final los clientes no tienes que ir a buscarlos, sino que vienen porque eres el mejor usando el dato».

Source: Noticias

Etiquetas:

About admin

GrupoUnetcom