Skip to content
Puede usar nuestro buscador para encontrar información sobre los productos y soluciones de InterSystems, las oportunidades de desarrollo profesional, los casos de uso, novedades y mucho más.

Data Fabric mitiga el riesgo en tiempos de incertidumbre

Para las empresas, actualmente, es prioritario agilizar la gestión de sus datos. El concepto Data Fabric utiliza mejor las arquitecturas de datos, sin necesidad de reconstruir las aplicaciones y los data lakes, y facilita que las organizaciones se adapten a los mercados cuando es necesario.

smart data fabric

El aumento del volumen de datos en todos los sectores está siendo espectacular y no va a reducir su velocidad. Según el estudio de Seagate e IDC, Rethink Data, las previsiones apuntan a que la recopilación de datos aumentará a una tasa de crecimiento anual del 42,2 por ciento. Se trata de un crecimiento sin precedentes que impacta profundamente en la gestión que las empresas hacen de su información. Además, no es solo el volumen de datos lo que dificulta su gestión, sino también su formato y su origen, lo que implica que la mayoría de las organizaciones no los aprovechan.

Este panorama nos muestra que es necesario que la próxima generación de innovación y automatización debe construirse sobre bases de datos sólidas. Las tecnologías que se están extendiendo entre las empresas, como la Inteligencia Artificial o Machine Learning, necesitan grandes volúmenes de datos limpios y precisos para poder operar.

Sin embargo, el acceso a esos múltiples orígenes, característicos de las empresas globales, es muy complejo si no se dispone de una capa de datos en tiempo real que sea consistente y segura, y entregue la información necesaria a los usuarios y a las aplicaciones cuando es necesario.

Cambio en las empresas

Muchos de los retos que supone gestionar y aprovechar grandes volúmenes de datos se han intentado resolver a través de los lagos de datos, o data lakes, que, desafortunadamente, se han convertido en una especie de almacén desorganizado de datos a los que es complicado acceder y que son difíciles de explotar.

Actualmente, para las empresas es prioritario agilizar la gestión de los datos, especialmente para las que operan en entornos muy diversos, distribuidos y complejos. De ahí que se esté extendiendo el concepto Data Fabric, que facilita utilizar mejor las arquitecturas de datos con que ya cuenta la organización, sin tener que reconstruir las aplicaciones o los almacenes. Data Fabric hace posible el acceso a información valiosa en tiempo real facilitando que la organización se adapte a la evolución del mercado cuando es necesario y no después. Esto es beneficioso para la gestión del capital y la liquidez, especialmente ahora que se ha comprobado que la volatilidad de los mercados puede ser muy intensa en momentos críticos.

El sector financiero ha sido el que ha sufrido más directamente las consecuencias de dicha volatilidad. Tras años de acudir a alternativas tecnológicas que simplificaran la gestión de los datos, desde simples bases de datos relacionales que almacenan datos estructurados hasta almacenes de datos y, recientemente, data lakes capaces de contener todo tipo de información, ahora se plantea que, tal vez, Data Fabric puede ser en enfoque indicado.

Según el último estudio realizado por la firma experta en servicios financieros Celent, las instituciones financieras líderes, como Bank of America, Citi, Goldman Sachs, JP Morgan y RBC, entre otras, se están interesando por Data Fabric.

Un Data Fabric combina varias tecnologías, incluida la gestión de bases de datos, integración de los datos, su transformación y canalización o gestión de API, entre otras. En realidad, dota a la empresa de la capacidad de descubrir, transformar, analizar, utilizar y almacenar activos de datos de forma más rápida y menos compleja que los enfoques anteriores, como es el caso de los lagos de datos.

Además, es posible llevar Data Fabric más allá con Smart Data Fabric, que incorpora una amplia gama de capacidades de análisis, incluida la exploración de los datos, la inteligencia empresarial, el procesamiento de lenguaje y machine learning, lo que permite que se obtengan nuevos conocimientos del negocio, tendencias y mercados, y, además, se puedan crear aplicaciones y servicios prescriptivos inteligentes.

Data Fabric se vuelve ‘inteligente’ cuando es compatible con el análisis avanzado de datos y cuando su objetivo es contar con una gestión preparada para el futuro.

La necesidad de Data Fabric

Durante la pandemia hemos asistido a una volatilidad en los mercados que ha supuesto un aumento importante del volumen de operaciones, especialmente en el sector financiero, añadiendo presión a los equipos de front, middle y back-office para mantener el ritmo. El financiero no es un mercado ajeno a la volatilidad, pero las circunstancias más recientes demuestran que siempre puede ser más intensa.

Esta situación ha supuesto que muchas organizaciones hayan registrado más dificultades de lo habitual a la hora de evaluar el riesgo, porque los mercados se mueven rápidamente en cuestión de minutos y los competidores más ágiles están aventajando a los líderes.

Los tres puntos débiles principales detectados incluyen la falta de visibilidad en tiempo real, la dependencia de procesos manuales y poco eficientes, que implican retrasos en la conexión de nuevos servicios, y la incapacidad de acceder a los datos con rapidez para adaptarse a cambios no previstos en el mercado, mediante el machine learning y análisis predictivo.

Esto es especialmente crítico en las organizaciones que han retrasado su inversión en mejorar sus arquitecturas de datos y no pueden acceder a la información en todos sus sistemas. Ahora se enfrentan a la incompatibilidad entre las plataformas de última generación y sus tecnologías heredadas. De ahí la relevancia de Data Fabric, que permite que puedan seguir ejecutándose los sistemas heredados y unir los datos distribuidos de toda la empresa, dotando a la gestión de capacidades analíticas y dando acceso a los datos en tiempo real.

Evitar errores en la implementación

El aumento de información en los silos de datos, tanto organizativos como técnicos, puede suponer que la complejidad de implementar Data Fabric sea mayor de lo esperado. Integrar y aprovechar las aplicaciones internas y externas, a medida que crece el volumen de datos y se tiene que lidiar con cientos, incluso miles, de aplicaciones, es un desafío.

Por eso la interoperabilidad es un factor esencial en esta implementación. Los sistemas dispares dan formato a los datos de manera diferente y si no se cuenta con interoperabilidad nativa el proceso será más complejo. Gracias a la interoperabilidad los sistemas pueden operar entre sí sin limitaciones, trabajando coordinadamente y, además, con capacidad para discernir la información que reciben desde todos los puntos de la red. No solo intercambian información, también comparten conocimiento.

Por lo tanto, es fundamental abordar, primero, los aspectos técnicos y organizativos. Contar con un director de datos, Chief Data Officer, impulsa la gobernanza de los datos desde arriba hacia abajo y su equipo constituye el apoyo organizativo necesario para planificar una estrategia de datos cohesiva dentro de la organización.

Desde el punto de vista de la arquitectura, algunas empresas intentan aplicar soluciones concretas independientes, pero la estrategia para crear Data Fabric añade complejidad, retrasa el plazo para generar valor y aumenta el coste total de la propiedad. Contar con una plataforma de datos moderna supone disponer de un amplio rango de funcionalidades que abarcan la integración, la administración de bases de datos, análisis y administración de API que simplifica la arquitectura, reduce el coste y acelera la obtención del valor de la información.

Es muy importante empezar poco a poco y no pretender realizarlo todo al mismo tiempo. Planificar cada paso midiendo los beneficios y saber ser flexible es una parte importante del proceso. Por supuesto, como venimos diciendo desde hace años, es imprescindible la implicación de la dirección de la empresa y contar con un equipo dedicado, experto en datos, que organice y cohesione el proyecto.

RELATED TOPICS