Delta Lake es una capa de almacenamiento de código abierto diseñada para ejecutarse sobre un Data Lake existente y mejorar su confiabilidad, seguridad y rendimiento. Admite transacciones ACID, metadatos escalables, […]
Apache Parquet
Apache parquet
Apache Parquet es un formato de almacenamiento en columnas disponible en todos los proyectos que pertenecen al ecosistema Hadoop, independientemente del modelo de procesamiento, marco o lenguaje utilizado. A diferencia […]
¿Por qué deberías de usar Parquet?
En el manejo de Big Data sabemos la importancia y el peso que tiene la eficiencia en múltiples aspectos de las soluciones y arquitecturas de datos. Hablamos de eficiencia en […]