Treo Blog

En este espacio puedes explorar las últimas tendencias y noticias en tecnología, seguridad informática e infraestructura TI.

  • Jonathan Rodriguez Paipa

Por qué la gravedad de los datos no detendrá el cambio a multinube

Por Brent Compton



Crédito: Pexels

Probablemente haya oído hablar de la "gravedad de los datos" y cómo puede inhibir una estrategia híbrida. La idea es que, a medida que acumula y almacena datos en una nube en particular, este conjunto de datos ejerce una atracción gravitacional sobre las aplicaciones y servicios que orbitan a su alrededor, lo que hace imposible que luego mueva esos datos a otra nube. Pero la gravedad de los datos no tiene por qué impedir que una organización adopte una estrategia de nubes múltiples o híbridas . De hecho, lo opuesto es verdad.


En la analogía que se usa a menudo, si la infraestructura informática es la maquinaria del mundo actual, entonces los datos son el petróleo, lo que significa que la infraestructura no es productiva sin ellos. No tiene sentido que las aplicaciones y los servicios se ejecuten donde no tienen un acceso rápido y fácil a los datos, razón por la cual los datos ejercen una atracción tan gravitacional sobre ellos. Cuando los servicios y las aplicaciones están más cerca de los datos que necesitan, los usuarios experimentan una latencia más baja y las aplicaciones experimentan un mayor rendimiento, lo que genera aplicaciones más útiles y confiables.


De manera simplista, uno podría tener la tentación de ubicar todos los datos y las aplicaciones dentro de su órbita, en una sola ubicación. Pero las preocupaciones regulatorias y de latencia son dos razones por las que esto no es realista para la mayoría de las empresas globales.


Una sola nube pública es un sueño imposible


imposible que ninguna organización puede hacer funcionar de manera realista (ni querría). Claro, en teoría puede parecer más fácil trabajar con un solo proveedor, con una sola factura que pagar y la misma infraestructura subyacente para todas sus aplicaciones. Pero entre la demanda de computación de punta, la necesidad de cumplir con las regulaciones de soberanía de datos y la necesidad general de ser ágil y flexible, una nube para todos sus datos simplemente no es práctica para que una empresa compita en el mercado actual.


Es cierto que parte del procesamiento se realiza mejor en una ubicación central global: el entrenamiento de modelos para aplicaciones de inteligencia artificial y aprendizaje automático (AI / ML), por ejemplo, prospera al tener cantidades masivas de datos para analizar porque aumenta la precisión del modelo. Sin embargo, la inferencia de aplicaciones de IA / ML con frecuencia no se puede realizar en el núcleo y, en su lugar, debe estar en el borde. Por ejemplo, un fabricante en Tailandia que se basa en datos generados a partir de sensores de calor en la fábrica necesita poder analizar esos datos en tiempo real para que tengan valor. Esa toma de decisiones debe realizarse cerca de donde se generan los datos para cumplir con los requisitos comerciales y tener un impacto en las operaciones.


Los desafíos de la gravedad de los datos


Uno de los desafíos más obvios de la gravedad de los datos es la dependencia del proveedor. A medida que acumula más datos en una ubicación y más aplicaciones y servicios dependen de esos datos, se vuelve cada vez más difícil, por no mencionar costoso, mudarse de esa ubicación original.


En nuestro ejemplo de borde de fábrica tailandés, algunas aplicaciones deben trasladarse al lugar donde se generan los datos para cumplir con los requisitos de latencia. La latencia es esencialmente el presupuesto de tiempo que tiene disponible para procesar los datos para que tengan un impacto o sean necesarios para el usuario final. La ubicación de los datos debe estar dentro del presupuesto de latencia para que sean útiles. Cuando las aplicaciones y los datos están separados por un presupuesto de tiempo de latencia demasiado grande, la reducción correspondiente en la capacidad de respuesta puede obstaculizar enormemente su organización.


Tomemos, por ejemplo, una aplicación de ciudades inteligentes como el reconocimiento de matrículas para el control de fronteras. Una vez que se escanea una matrícula, algunas aplicaciones deben producir una respuesta casi en tiempo real para ajustarse al presupuesto de tiempo de latencia (alertas ámbar, vehículos robados, etc.). Si la latencia para este análisis excede el presupuesto de tiempo de latencia, los datos son mucho menos significativos. Si los datos y las aplicaciones están demasiado lejos unos de otros, el escaneo se vuelve inútil.


Más allá de los requisitos comerciales y las expectativas de tiempos de respuesta rápidos, las leyes de soberanía de datos también regulan dónde se pueden almacenar los datos y si pueden traspasar los límites jurisdiccionales. En muchos países, es ilegal exportar ciertos tipos de datos más allá de las fronteras del país. La empresa Global 2000 promedio opera en 13 países. Si esa es la realidad para su organización, no puede mover datos fácilmente si cumple con esas leyes. Si intenta tomarse el tiempo para anonimizar esos datos para cumplir con los requisitos de soberanía, su presupuesto de latencia se irá por la ventana, lo que la convierte en una situación sin salida.


Aborde la gravedad de los datos con la nube híbrida


Inevitablemente, dondequiera que almacene datos, atraerá aplicaciones y servicios. Pero los presupuestos de soberanía de datos y tiempo de latencia para aplicaciones de borde casi garantizan que las empresas multinacionales no puedan operar con una estrategia simple de nube única.


Con una infraestructura de nube híbrida, las organizaciones pueden distribuir aplicaciones y servicios donde están sus datos, para estar más cerca de donde los necesitan, abordando cualquier problema de latencia y requisitos de soberanía de datos. La clave para que esto funcione es utilizar un entorno operativo común en estas diversas nubes y ubicaciones de centros de datos, como una plataforma Kubernetes. Si su organización mantiene aplicaciones para muchos entornos operativos diferentes, la complejidad y los costos asociados pueden acabar con su competitividad.


Las organizaciones pueden usar una combinación de AWS, Azure, Google Cloud Platform, VMware, en las instalaciones y más, pero debe haber una forma de hacer que las aplicaciones y los servicios sean portátiles entre ellos. Con un sistema operativo común, puede escribir aplicaciones una vez, ejecutarlas donde tenga sentido y administrar todo su entorno desde una consola.


Preparándose para el éxito ahora


En los próximos años, los conjuntos de datos seguirán creciendo (exponencialmente), especialmente a medida que las organizaciones dependen cada vez más de la IA y las aplicaciones de aprendizaje automático. Según IDC, la creación de datos en todo el mundo crecerá a la enorme cantidad de 163 zettabytes para 2025. Eso es diez veces la cantidad de datos producidos en 2017.


Eso significa que cualquier desafío provocado por la atracción gravitacional de los datos que usa solo se agravará si no se prepara para el éxito ahora. Con una infraestructura de nube híbrida, puede configurar una constelación de masas de datos para cumplir con las crecientes leyes de soberanía de datos globales y procesar y analizar datos en ubicaciones de borde que tengan sentido para la empresa y los usuarios finales.


Fuente: Blog Venturebeat



4 vistas0 comentarios

Un Servidor en Quien Confiar

CONTACTO

contactodirecto@datayservice.com

PBX + 57 6 8812277

Calle 54 # 26-60

ZIP 170004

Manizales, Colombia

REDES

logo-facebook.png
linkedin_circle-512.webp
logo-instagram-1.png
D&S colores.png

 © Data&Service, todos los derechos reservados.