La nueva integración de SQream Blue con Snowflake duplica la eficiencia en proyectos de datos y machine learning Las innovaciones en analítica en la nube buscan superar los altos costos y otros desafíos de los proyectos de big data.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
Con el creciente uso de la inteligencia artificial (IA) y el volumen masivo de datos a procesar, el análisis y procesamiento de big data puede resultar extremadamente costoso. Aún quedan importantes desafíos por superar para que más empresas puedan desbloquear todo el potencial de sus datos.
Tras varias etapas de evolución, la industria ha llegado a un punto en el que el big data, el machine learning, la IA y la nube son herramientas fundamentales para el desarrollo de diversos sectores.
En su informe State of Big Data Analytics, publicado en junio de 2024, SQream reveló que el 92% de las empresas encuestadas están buscando activamente reducir sus costos en analítica en la nube. Además, el 71% reporta experimentar frecuentemente "facturas exorbitantes" y el 41% señala los altos costos como el principal desafío del big data.
A pesar de lo complejo que puede parecer este panorama, especialmente cuando muchos proyectos involucran grandes volúmenes de datos, SQream Blue ha demostrado su capacidad para superar estos retos. Durante el análisis TPCx-BB, la solución de SQream procesó 30 TB de datos a una velocidad superior, equivalente a leer 25.000 copias del Oxford English Dictionary en menos de una hora.
El TPCx-BB, referencia en la industria de analítica de datos en la nube o Big Data Analytics System (BDAS), desarrollado por el Transaction Processing Performance Council (TPC), demostró que SQream Blue superó ampliamente a Snowflake y su solución X-Large Virtual Warehouse, procesando 30 TB de datos el doble de rápido y a la mitad del costo, con algunas tareas logrando un rendimiento hasta cinco veces superior.
Reducción de costos en proyectos de big data
Ahora, SQream anuncia el lanzamiento de su conector nativo que integra SQream Blue con Snowflake. Esto permitirá a los usuarios de Snowflake beneficiarse de la tecnología de paralelización en GPU de SQream, que ha demostrado ser el doble de rápida y la mitad de costosa, con una integración perfecta en los flujos de trabajo de datos existentes.
Este lanzamiento representa un alivio para las empresas que enfrentan dificultades en proyectos de machine learning, IA y big data.
El nuevo conector Snowflake de SQream permite a los usuarios reducir significativamente los costos y mejorar el rendimiento al descargar grandes cargas de datos hacia SQream Blue sin necesidad de exportar ni migrar información desde los flujos de trabajo actuales de Snowflake.
Este conector emplea una extensa biblioteca de Snowflake para establecer una conexión directa y optimizada con SQream Blue. Esto elimina la necesidad de transferencias intermedias o procesos ETL complejos, mejorando el rendimiento de las consultas y reduciendo la carga operativa.
"El costo-rendimiento es la métrica clave en el análisis de big data en 2024, y la tecnología de SQream Blue basada en GPU ha demostrado que es posible procesar y analizar grandes volúmenes de datos no estructurados a alta velocidad, reduciendo el presupuesto", afirmó Matan Libis, vicepresidente de producto en SQream.
Una de las principales ventajas de esta integración es su simplicidad, eliminando la necesidad de exportar datos y permitiendo una mayor eficiencia y reducción de costos.
Esta solución, validada en el mercado como una de las más innovadoras en analítica en la nube, ya está disponible en AWS y GCP Marketplace como una solución SaaS nativa. "Ahora, los usuarios empresariales pueden aprovechar las capacidades del almacén de datos de Snowflake y complementarlas con el poder de procesamiento en GPU gracias al conector nativo de Snowflake", agregó Libis.
Esto subraya cómo SQream Blue aborda los desafíos de costo-rendimiento en la analítica de datos moderna, complementando otras soluciones de big data para maximizar el ROI a largo plazo, ayudando a las empresas a aprovechar sus datos de manera eficiente y rentable.