#Apache_Parquet

2025-04-23

Методы расширения атрибутивного состава таблиц БД

Представим себе картину из идеального мира данных, в котором всё стабильно, изменений нет и на горизонте не предвидятся. Аналитик полностью согласовал с заказчиком требования к витрине, спроектировал решение и передал в разработку. Разработчики внедрили витрину в продуктивный контур, пользователи счастливы, всё работает корректно — сопровождение разработчиков и аналитиков не требуется. Представили? Но, как мы знаем, «IT» и «изменения» — синонимы, поэтому в идеальном мире, как гром среди ясного неба, появляются новые требования: разработать инструмент для регулярного добавления в витрину данных новых атрибутов, на текущий момент в неизвестном количестве. Сразу отмечу, что решения и оценки, о которых пойдёт речь, подбирались для работы с большими данными на стеке технологий Apache Hadoop, где для обработки данных использовали фреймворк Apache Spark, СУБД — Apache Hive для анализа данных, оркестратор — Airflow, данные хранятся в колоночном формате Parquet.

habr.com/ru/companies/T1Holdin

#hadoop #spark #airflow #hive #HDFS #Apache_Parquet #ddl #sql #eav #json

DatabricksのUnity Catalogを利用してS3のデータを外部テーブルとして読み込んでみた
dev.classmethod.jp/articles/da

#dev_classmethod #Databricks #Amazon_S3 #Apache_Parquet #Hive #AWS

Cloud Storage 上の Parquet ファイルのスキーマ情報をメタデータのみで取得する
dev.classmethod.jp/articles/gc

#dev_classmethod #Google_Cloud_GCP #Google_Cloud_Storage #Apache_Parquet #Python

2024-12-08

ZIP-бомба в формате Apache Parquet

Давние хаброжители помнят, как в 2015 году ZIP-бомба в формате PNG ненадолго вывела из строя Habrastorage. С тех пор появились новые разновидности этого «оружия»: например, разработаны нерекурсивные и компиляторные бомбы (29 байт кода → 16 ГБ .exe). Подобного рода экспоиты можно встроить не только в формат ZIP или PNG, но и в других форматы файлов, которые поддерживают сжатие. Например, в формате Apache Parquet .

habr.com/ru/companies/globalsi

#ZIPбомба #Apache_Parquet #DoSатака #Thrift

S3にあるparquetファイルのメタデータのみにアクセスしてスキーマ情報を取得する
dev.classmethod.jp/articles/s3

#dev_classmethod #Python #Amazon_S3 #Apache_Parquet #Boto3

2024-01-02

[Перевод] Выборочное удаление столбцов для повышения эффективности хранения в озерах данных

По мере роста Uber объем обрабатываемых данных и количество обращений к ним многократно возросли. Такое быстрое увеличение объема привело к росту затрат на хранение и вычислительные ресурсы. В результате мы столкнулись с различными проблемами, такими как повышенные требования к железу, увеличившееся потребление ресурсов, а также проблемами с производительностью из-за ошибок наподобие OOM (out-of-memory) и длительных пауз на сборку мусора. Для решения проблем было реализовано несколько инициатив, такие как: внедрение TTL (Time to Live) политик для партиций, внедрение многослойного хранилища с стратегиями для перераспределения данных из “hot”/”warm” до “cold” уровней хранения, а также оптимизации форматов хранения данных. В данной статье фокус будет на последней оптимизации - как сократить размер данных в рамках формата Apache Parquet™ за счет удаления не использующихся колонок большого размера.

habr.com/ru/articles/784372/

#apache_parquet #data_lake #data_processing #storage

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst