#datalake

Carlos Mendible :verified:cmendibl3@hachyderm.io
2025-10-12

📢📢📢 The wait is almost over! Vaulted Backup for Azure Data Lake Storage is now Public Preview. #backup #datalake #Azure azure.microsoft.com/en-us/upda

2025-09-17

Spark Connect. А нужны ли перемены?

Привет, Хабр! Я Станислав Габдулгазиев, архитектор департамента поддержки продаж Arenadata. Apache Spark давно и прочно занял место одного из ключевых инструментов в арсенале инженеров и дата-сайентистов, работающих с большими данными. Его способность быстро обрабатывать огромные объёмы информации, гибкость за счёт поддержки множества языков (Python, Scala, Java, SQL) и возможность решать самые разнообразные задачи — от сложных ETL до машинного обучения и стриминга — делают его незаменимым инструментом в мире анализа данных.

habr.com/ru/companies/arenadat

#spark_connect #apache #datalake #lakehouse #платформа_данных #bigdata #dataframe #интеграция_сервисов #apache_arrow #spark

2025-08-28

Spark 4.0 на горизонте: Готовимся к апгрейду или остаёмся на проверенном 3.0?

Привет, Хабр! Я Станислав Габдулгазиев, архитектор департамента поддержки продаж Arenadata. Кажется, ещё вчера мы радовались возможностям Apache Spark 3.0 , разбирались с Adaptive Query Execution и наслаждались улучшениями Pandas API . Но мир больших данных не стоит на месте, и вот уже на подходе Apache Spark 4.0 . Новый мажорный релиз — это всегда событие: он обещает новые фичи, прирост производительности и, конечно же, новые вызовы при миграции. Apache Spark де-факто стал стандартом для распределённой обработки данных. От классических ETL-пайплайнов и SQL-аналитики до сложного машинного обучения и стриминга — Spark так или иначе задействован во многих современных data-платформах. Поэтому каждый новый релиз вызывает живой интерес у комьюнити: что там под капотом? Какие проблемы решены? Не сломается ли то, что работало годами?

habr.com/ru/companies/arenadat

#spark #data_science #data_engineering #bigdata #sql #lakehouse #datalake #хранение_данных #hadoop #производительность

2025-08-28

📺 #Netflix has introduced a new engineering specialization: Media ML Data Engineering - powered by a Media Data Lake designed to handle video, audio, text, and image assets at scale.

The impact so far:
✅ Richer ML models trained on standardized media
✅ Faster evaluation cycles
✅ Deeper insights into creative workflows

🔗 Learn more: bit.ly/4oWM3T3

#InfoQ #DataLake #AI

2025-08-26

Проблема маленьких файлов. Оценка замедления S3 и проблем HDFS и Greenplum при работе ними

Не так давно в блоге компании Arenadata был опубликован материал тестирования поведения различных распределенных файловых систем при работе с маленькими файлами (~2 Мб). Краткий вывод: по результатам проверки оказалось, что лучше всего с задачей маленьких файлов справляется старый-добрый HDFS, деградируя в 1.5 раза, S3 на базе minIO не тянет, замедляясь в 8 раз, S3 API над Ozone деградирует в 4 раза, а наиболее предпочтительной системой в при работе с мелкими файлами, по утверждению коллег, является Greenplum, в том числе для компаний «экзабайтного клуба». Коллеги также выполнили огромную работу по поиску «Теоретических подтверждений неожиданных показателей». Результаты тестирования в части S3 minIO показались нашей команде неубедительными, и мы предположили, что они могут быть связаны с: -недостаточным практическим опытом эксплуатации SQL compute over S3 и S3 в целом; -отсутствием опыта работы с кластерами minIO. В частности в высоконагруженном продуктивном окружении на 200+ Тб сжатых колоночных данных Iceberg/parquet, особенно в сценариях, где проблема маленьких файлов быстро становится актуальной. -особенностями сборок дистрибутивов; Мы благодарны коллегам за идею и вдохновение провести аналогичное тестирование. Давайте разбираться.

habr.com/ru/companies/datasapi

#s3 #minio #hdfs #greenplum #bigdata #lakehouse #datalake #dwh

2025-08-16

WAP паттерн в data-engineering

Несмотря на бурное развитие дата инжиниринга, WAP паттерн долгое время незаслуженно обходят стороной. Кто-то слышал о нем, но не применяет. Кто-то применяет, но интуитивно. В этой статье хочу на примере детально описать паттерн работы с данными, которому уже почти 8 лет, но за это время ни одна статья не была написана с принципом работы.

habr.com/ru/articles/937738/

#data_engineering #bigdata #big_data #data_warehouse #data_quality #warehouse #datalake #etl

Corootcoroot
2025-08-15

We’re excited to partner with Greptime to teach you how to set up a fully observability stack — complete with a Prometheus Group compatible and real-time incident insights! t.ly/JNmvQ

2025-08-13

📊 Your customer journeys are telling you something.
Are you listening or just watching clicks and opens?

Microsoft Fabric just changed the game for Customer Insights – Journeys users.
Now, every journey interaction, every click, every goal hit lives in OneLake, ready for real-time analysis.

👉 Curious, how are you analyzing journey drop-offs today?

mytrial365.com/2025/08/14/cust

Brad L. :verified:reyjrar@hachyderm.io
2025-08-02

There's a lot talk about "ZeroDisk" infrastructure backed by S3. The pitch is "move your data from locally attached NVMe storage to S3 and your applications will scale easier and be more performant!"

Maybe I'm getting too old for this shit, but I swear to dog this is the 4th such cycle in my career:

1. NFS
2. iSCSI / Fibrechannel
3. Hadoop / HDFS
4. ZeroDisk with S3

Am I the only one that's like: "wait, move TBs of data to S3 from NVMe to increase performance? Are you high?"

It doesn't work, so you scale up. Now you're back to local NVMe "cache disks" running instances as expensive as the locally attached NVMe instances when you add those costs to your S3 bill. The performance is worse because of course it is.

It always comes back to the two hard problems in computer science: naming things, cache invalidation, and off-by-one errors. 😂

#zerodisk #s3 #hadoop #cache #datalake #GetOffMyLawn

2025-07-25

It is not possible to eliminate the risk of failures, but it is possible to mitigate them by making failures explainable, detectable, and manageable. hackernoon.com/diving-deep-int #datalake

Python Job Supportpythonjobsupport
2025-07-17

Simplified definition with the Data Catalog Schema Wizard

Data Fabric Cheat Sheet: . source

quadexcel.com/wp/simplified-me

2025-07-16

⬆️ Data volumes continue to rise. In fact, within industries like #engineering and #finance, the volume and volatility of log data have even outpaced the capacity of traditional #SIEM and analytics tools. 😰 What this means is... with orgs facing high costs and fatigue, the ones that thrive will be the ones that treat storage and retrieval as distinct functions. 🤔

This is where selective retrieval comes in—the ability to triage, park, and later selectively ingest high-volume data from a centralized repository for forensic or compliance-driven investigation. 🙌

Read this excellent article by #Graylog's Adam Abernethy in BigDATAwire to learn about:
🌏 Selective retrieval examples in the real world
⚠️ Risk coverage without always-on cost
🔒 Flexibility without architectural lock-in
💻 The technological shifts that are converging to make selective retrieval possible and necessary
↔️ How selective retrieval bridges the gap between data engineering complexity and #security usability
💼 The business case for selective retrieval, especially for mid-size IT teams
🛂 Regaining control over data sprawl
➕ More

bigdatawire.com/2025/07/14/ret #datalake #logdata #datamanagement @bigabe @bigdatawirenews

Sebastian Lauwersteotwaki@mastodon.online
2025-07-01

New project alert! Comparqter, a tool that compacts Parquet files and optimises file sizes.

codeberg.org/unticks/comparqter

#rust #parquet #s3 #datalake

Salar Rahmanian :verified: :scala: :swift: :nix:softinio@social.softinio.com
2025-06-24

🎉 Huge thanks to the LanceDB CEO / cofounder Chang She for delivering an incredible talk on "Search, Retrieval, Training, and Analytics with Modern AI Data Lake" at #DataAndAIEngineering #SanFrancisco #meetup !

📹 Great news - the recording is now available! Check it out if you missed it or want to revisit the key concepts. 👇

https://watch.softinio.com/w/mVkLgtcQw8Qv5vA4v8SDHB

#DataEngineering #AIEngineering #SanFrancisco #LanceDB #DataLake #MachineLearning #VectorDB #Database #AI #ArtificialIntelligence

2025-06-10

"Centralize Your Data Lake: Apache Polaris Supports Apache Iceberg and Now Delta Lake"

BTW 'Polaris' used to be the name of the UK nuclear deterrent pre 1996. 😬

snowflake.com/en/engineering-b

#ApacheIceberg #ApachePolaris #DataLake

2025-06-06

First I thought I'd found the Loch Ness Monster...turns out to be Nessie instead. 🦕

Project Nessie: Transactional Catalog for Data Lakes with Git-like semantics
"Nessie is to Data Lakes what Git is to source code repositories..."

projectnessie.org/

#ProjectNessie #LochNessMonster #DataEngineering #DataLake

N-gated Hacker Newsngate
2025-06-01

Ah, the $10/month Lakehouses: because who wouldn't want a bargain-basement data lake with all the charm of a timeshare in purgatory? 🤔💸 Just add a sprinkle of buzzwords like "DuckLake" and "time travel" and voilà, you've got a tech article that feels like a 2-hour for something you'll never use. 📈🔮
tobilg.com/the-age-of-10-dolla

Python Job Supportpythonjobsupport
2025-05-22

Apache Iceberg Deep Dive | Part 1 | Crash Course

Lakehouse ... source

quadexcel.com/wp/apache-iceber

2025-05-09

#TBT... to an entire week ago at #RSAC where Seth Goldhammer had the chance to demo Graylog's data telemetry pipeline management! 🖥️ ⭐

Join Seth as he talks about data lakes, data lake previews, getting your data back when you need it, and more.

Wanna learn more about this topic? Here you go: graylog.org/post/security-data #RSA #RSAC2025 #datalake #datamanagement #datapipeline

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst