#Hetzner

Tom :damnified:thomas@metalhead.club
2025-06-19

Seit einigen Tagen werden Medien meiner Mastodon-Instanz metalhead.club global verteilt über ein eigenes CDN ausgeliefert. :goose_hacker:

Das verringert die Latenzen für Benutzer aus nicht-EU Ländern und sorgt für weniger Frust bei den Ladezeiten.

Was ein CDN ist, welche Implementierungsmethoden es gibt und wie ich mein kleines CDN umgesetzt habe, erfahrt ihr in meinem neuen Blogpost:

"Ein eigenes kleines CDN für meine Mastodon-Instanz metalhead.club" - thomas-leister.de/mastodon-med

#metalheadclub #cdn #media #mastodon #instance #mastoadmin #hosting #selfhosting #nginx #scaleway #dns #geoip #geodns #hetzner

Eine Weltkarte zeigt die Zugriffslatenzen auf den Metalhead.club Medienspeicher.
Jakke LehtonenJagster@www.eksis.one
2025-06-19

CDN ja podcast-linkit

eksis.one/palvelimet/cdn-ja-po

Käytin aiemmin sivustolla katiska.eu Amazonin AWS:n CDN:ää. Sivuston cdn-osoite viittasi CloudFrontiin, joka oli kytketty hakemaan tiedostot S3-bucketista. Normikauraa siis.

Alussa sinne meni aivan kaikki staattiset tiedostot. JS, css, kuvat, audio jne. Sitten tuli hassu olo, että joka sivulatauksessa haettavat JavaScriptit ja tyylimuotoilut itseasiassa aiheuttivat latenssia, hidastelua, kun ne haettiin CDN:stä. Mutta suurin hidaste oli cacheaminen, koska minulla oli silloin Varnish käytössä. Joten ne palasivat takaisin kotiin. Kuvat ja audiot jäivät AWS:n hoiviin.

Sitten oivalsin yhden asian. Minä en tee CDN:llä yhtään mitään. En varsinkaan tilanteessa, jossa edge-CDN ei palvele mitään eikä ketään.

Globaali vastaan paikallinen

Olin tehnyt asioita kuin superisot sivustot. Mutta minä ja sivustoni emme ole muuta kuin ikkiriikkisiä. Olin syyllistynyt perussyntiini, tekemiseen tekemisen vuoksi.

CDN sellaisenaan tarjoaa yhden asian, sen edgen. Edge-CDN tarkoittaa sitä, että se on maailmanlaajuinen tai muuten iso verkosto servereitä, jotka tarjoavat cachestaan sivun tiedostot lähempää kävijää.

Kun otin Amazonin myymän systeemin käyttöön, niin sivustojeni sisältö — oikeammin niihin liittyvä oheismateriaali, kuten juurikin ulkonäköä säätelevät CSS:t, laitteissa toiminnallisuutta tarjoavat JS:t, kuvat jne. — tarjottiin lähempää pyytäjää kuin missä aito serveri sijaitsee.

Maailma on suuri ja vaikka internet, valokuitu ja satelliitit kattavat pallon hyvin ja ovat nopeita, niin silti viivettä on.

Edge tarkoittaa sitä, että kävijän pyyntö sivujen tiedostoista menee jonnekin muualle kuin alkuperäiselle palvelimelle. Eräällä tavalla annetaan ymmärtää, että varsinainen datakeskus on keskiössä ja sen ympärille rakennetaan verkosto tai ympyrä, ja kävijää palvellaankin sen reunoilta, lähempää aitoa kävijää.

Koska minulla oli silloin sivustot Saksassa, niin AWS ja CloudFront pystyivät tarjoamaan eräällä tavalla paikallisesti, tai ainakin lähempää, eri mantereilla sivustojeni tiedostot.

Ongelma on siinä, että minulla ei ole kävijöitä noissa maissa. Niistä tulevat (haitalliset) botit sen sijaan saivat tiedostot hieman nopeammin. Minun kävijäni ovat suomalaisia ja muutamaa ulkosuomalaista lukuunottamatta… Suomessa — ja siellä/täällä ei ole edge-serveriä.

Siihen aikaan lähin oli Saksassa. Kotiserverinikin oli Saksassa. Sitten Amazon hieman laajensi ja Tukholmaan tuli datakeskus. Joten logiikka sitten yritti päätellä, että annetaanko suomalaisille tiedostot Saksasta, jossa kaikki siis alunperinkin oli, vai Ruotisista.

Ei mitään merkitystä millekään muulle paitsi sille, että maksoin joka kuukausi tuosta ilosta. Paitsi että se toi iloa vain Amazonin liikevaihdolle.

Toiminnan järkeistäminen

Minä en saanut CloudFrontin kanssa minkäänlaista nopeusetua, koska se ei lyhentänyt tiedonsiirron matkaa. Se itseasiassa pidensi. Toki voidaan olettaa, että Amazonin serverit ovat yhteyksiltään nopeampia kuin käyttämäni palvelin, mutta kyse oli teoreettisesta edusta. Ei näkyvästä.

Toinen ongelma oli se, jonka ratkaisin Varnishilla. Eivät kuvat ja sivujen pikkutiedostot, vaikka niitä paljon määrällisesti onkin, ole se pullonkaula. Käyttämäni WordPress on.

Sivujen rakentaminen PHP:n ja tietokannan yhteistyöllä vei enemmän aikaa kuin sisällön siirtäminen kävijälle. Edes siinä vaiheessa kun aloin tarjoamaan Varnishin avulla cachetettua sisältöä, suoraan tarjoiltavat oheistiedostot — joita on yleensä turha viedä välimuistiin — eivät tuoneet lataukseen nopeutta CDN:ää käytettäessä.

Joten purin CloudFrontin ja lakkasin tuolta osin rahoittamasta Jeff Bezoksen elämää.

CDN (oikeammin sen tarjoama järjestelmä, mutta oion mutkia) tarjoaa yhden asian, jota tavallinen serverisivusto ei tarjoa. Se on isojen mediatiedostojen striimaus.

Striimaus tarkoittaa sitä, että esimerkiksi videon tai audion sisältöä aletaan toistamaan heti. Ei odoteta, että koko megatiedosto on ladattu puhelimeen tai tietokoneelle. Tuttua esimerkiksi Netflixistä tai Spotifystä — toki niiden tekniikka on hieman erilainen, mutta periaate on sama.

Minulla on audiotiedostoja, podcasteja. Niiden toistossa olisi mukavaa, jos ne alkaisivat jutella nyt, ei vasta minuutin kuluttua. Mutta minulla on kaksi järjestelmää, joka hoitavat tuon: podcastit tarjoava plugin sekä Varnish.

Sitten on sekin, että niitä kuunnellaan paljon podcastejä tarjoavien palveluiden kautta, kuten Spotifystä, Applesta jne. En pidä tuosta tilanteesta, koska silloin ihmiset maksavat noille kuunnellessaan minun sisältöäni. Minä en saa muuta iloa kuin maksaa serverimaksuja. Tuolle tilanteelle ei voi mitään, joten sen kanssa on vain elettävä.

Joten en saanut striimauksenkaan etua Amazonin palveluista

Tiedostokokojen tuska

Kun purin CDN:n oheistiedostojen suhteen, niin tilan käytössä omalla serverillä ei muuttunut mikään. Ne on pakko olla paikallisesti ja siirretään maailmalle kävijöiden takia.

Kuvat ovat siinä rajoilla. Niitä tuppaa kertymään ja ne vievät tilaa ilman, että niitä käytetään pyydetyn sivun rakentamiseen. Ne ovat osa sen sivun sisältöä. Mutta päätin, että tilan kulutus kuvien takia ei ollut merkityksellistä.

Audiot olivat hieman toinen juttu. Eivät nekään videoiden kokoluokkaa ole, mutta yksi podcast-jakso syö levytilaa 30 – 50 kuvan verran. Joten tein kompromissin. Jätin audiot CDN:n haltuun. En voittaakseni nopeudessa, vaan säästääkseni oman serverin tilaa. Sen laajentaminen maksaa aina.

Aloin kuitenkin lopulta lähestyä hetkeä, että oma serveri olisi päivitettävä suurempaan. Samalla lompakko sanoi, että minulla menee nyt rahaa liikaa joka suuntaan.

Sama ongelma kuin kotitalouksilla striimauspalveluiden kanssa. Ei se yksi tai kaksi kympin kuussa maksava palvelu normaalitaloudessa maailmaa kaada. Mutta kun niitä kympin palveluita on kymmenen, ja suurinta osaa ei edes käytä, niin se satanen kuussa ja 1200 euroa vuodessa alkaa sattumaan.

Minulla meni liikaa rahaa Amazonille. Serverin laajennus maksaisi lisää. Aloin ynnäilemään noita ja havaitsin, että kun otan audiot pois Amazonilta, sekä muutaman muun backup-tyyppisen tiedostosäilön, niin itseasiassa serverin kallistuminen ei nostaisi kulujani. Toki ne pitäisi siirtää jonnekin muualla, mutta silti kokonaiskulut olisivat samat kuin ennen serverin päivitystä.

Elämässä on valintoja

Tässä oli taustalla muutakin, nimittäin nykyisen maailmanpolitiikan tila. Minä en halua enää rahoittaa amerikkalaisia megakorporaatioita yhtään sen enempää kuin on pakko.

Olen luopunut vahvasti Facebookista ja siirtynyt federoituun ja algoritmivapaaseen someen, joka ei rahoita Mark Zuckerbergin vakoilua, sisällön varastamista ja vittuilua. Joten olen Mastodonissa. Samaten lopetin Instagramin ja siirryin Pixelfediin.

Sivustoni olivat ennen DigitalOceanilla. Sitten päätin, että en halua rahoittaa venäläisomisteisen amerikkalaisen suuryhtiön, joka vuotaa servereiden tiedot mm. tiedustelupalvelulle, yhtään enempää. Joten vaihdoin saksalaiselle Hetznerille.

Ehkä täytyy olla hieman rehellisempi. Päätöstä helpotti DigitalOceanin melkoisen isot hinnankorotukset.

Jeff Bezos on yrittäjänä täysi hirviö. Amazonin yritys- ja henkilöpolitiikka on sellaista, jota täällä ei edes ymmärretä. Mutta Amazonin AWS:n palvelujen korvaaminen on vaikeaa. Korvaan kuitenkin sen minkä pystyn. Ja CDN-tyyppinen tiedostojen välitys on sellainen.

S3 tiedostosäilö Suomessa

Sivustojani hostaava Hetzner pitää niitä datakeskuksessa lähellä Helsinkiä. Porvoossako se aidosti sijaitsee? Joten sivustoni muuttivat takaisin Suomeen, ja siihen paloikin sitten CDN:n hyöty lopullisesti.

Hetzner tarjoaa aidon CDN:n lisäksi myös S3-tyyppisen pilvipalvelun. Inhoan pilvi-nimitystä, koska eivät tiedostot missään pilven reunalla ohuessa ilmassa leiju. Ne ovat ihan tismalleen samassa datakeskuksessa syömässä sähköä ja tuottamassa lämpöä.

S3 on tapa, jolla Amazon rakensi tiedostosäilöt. Muut adoptoivat/kopioivat tekniikan, ja siitä tule de facto standardi. Se kuitenkin tarkoittaa sitä, että ne toimivat samalla tavalla ja niitä pystyy komentoriviltä käyttämään samalla tavalla.

Niiden ero on enemmän UX-tyyppinen. AWS:n S3 antaa suoraan aidot linkit tiedostoihin. Hetznerin S3 antaa polun tiedostoon. Sitten täytyy erikseen kopioida endpoint. Sitten täytyy lisätä endpointin alkuun bucketin nimi. Ja lopuksi liimata nuo yhteen. Vähintäänkin ärsyttävää ja epämukavaa. Ehkä he kehittävät tuota jossain vaiheessa.

Joten otin Hetznerin S3:n käyttöön. Koska ne käyttävät samaa kieltä ja rakennetta, niin yksinkertaisella bash-scriptillä tiedostojen siirto AWS:stä Hetzneriin on kohtuullisen vaivatonta asw cli avulla.

Nyt podcastini tulevat Hetznerin tiedostosäilöstä AWS:n S3 sijaan.

Rumat domainit

Podcastin aito url näkyy aniharvoin kenellekään. Mutta silti url malliin https://podcastit.hel1.your-objectstorage.com/kaffepaussi/podcast-149.mp3 saa amalgaamit kirkumaan tuskasta ja silmät vuotamaan verta. Se täytyy muuttaa joksikin inhimillisemmäksi.

Aidon CDN:n käyttö tekisi sen, koska silloin käytetään omaa domainia. Mutta kun en halua maksaa CDN:stä, koska se ei tuo mitään etua.

Tuohon on olemassa kiertotie. Tehdään Nginxillä proxy ja kierrätetään sitä kautta pyynnöt Hetznerin S3:een. Se mahdollistaa myös suunnitelmien muuttumisen tulevaisuudessa. Jos yhtä äkkiä päätänkin käyttää jonkun muun myymää S3-säilöä, niin muutan vain Nginxin proxyn kohdetta.

Mikä parasta, niin tuo ei maksa mitään. Toki S3:n verran, mutta senhän joutuu kuitenkin maksamaan aivan riippumatta minkä näköinen url on.

Hetzner S3 domainin muuttaminen

Tämä onnistunee Apachellakin, mutta en tiedä miten siellä nämä tehdään. Minä käytän reverse proxyna Nginxiä.

Kaikessa seuraavassa minä toimin aina rootin ominaisuudessa. Olen serverini ainoa käyttäjä ja jos SSH murretaan, niin silloin murtuu rootinkin tili, eikä sudon käyttö pelasta miltään. Mutta kun kuitenkin olet normaalina käyttäjänä liikkeellä, niin muista sudo oikeisiin paikkoihin.

Ensiksi täytyy lisätä DNS-tietoihin haluttu domain. Minä käytän podcast.katiska.eu. Voisi se olla myös cdn, mutta olen kyllästynyt siihen, eikä tuo ole määritelmällisesti eikä toiminnallisesti content delivery network, sisällönjakoverkko.

Nginxille tarvitaan host. Muista, että esimerkki on live, joten muokkaa se kohdalleen. Ja ei, vaikka yrittäisit käyttää tuota päästäksesi buckettiini, niin se ei nyt vaan toimi niin (ystävällinen vinkki, koska joku yritti sitä).

server {    listen 443 ssl;    http2 on;    server_name podcast.katiska.eu;    # Let’s Encryptin sertit    ssl_certificate /etc/nginx/dummy-certs/dummy.crt;    ssl_certificate_key /etc/nginx/dummy-certs/dummy.key;    ssl_protocols TLSv1.2 TLSv1.3;    ssl_prefer_server_ciphers on;    ssl_ciphers HIGH:!aNULL:!MD5;    # CORS-headereita jos audiosoitin tarvitsee niitä    add_header Access-Control-Allow-Origin *;    add_header Access-Control-Allow-Methods "GET, HEAD" always;    # Proxy S3-tiedostoille Hetzneriltä    location /kaffepaussi/ {        proxy_pass https://podcastit.hel1.your-objectstorage.com/kaffepaussi/;        proxy_set_header Host podcastit.hel1.your-objectstorage.com;        # Poistetaan mahdollinen Varnish cache-bypass-otsikko        proxy_set_header X-Bypass-Cache "";        # Sallitaan puskurointi        proxy_buffering on;        proxy_request_buffering off;        # Estetään gzip (S3 palauttaa jo valmiiksi sopivasti)        proxy_set_header Accept-Encoding "";        # Poistetaan virheellinen SSL-verifikaatio, jos ongelmia        proxy_ssl_verify off;    }}server {    listen 80;    server_name podcast.katiska.eu;    # Pakotetaan HTTPS    return 301 https://$host$request_uri;}
  • Jos et tiedä miten dummy SSL-sertikaatti tehdään, niin googleta. Se on siellä vain siksi, että saan lennosta conffin kuntoon ennen Let’s Encryptiä. Voit toki tehdä saman perinteistä tietä laittamalla ensin vain serveriblokin 80, hakemalla SSL:n ja sitten muokkaamalla 443 kuntoon.

Tarvitaan SSL-sertifikaatti.

certbot --nginx -d podcast.katiska.eu

Ja perään tietysti:

nginx -t && systemctl reload nginx

Se oli siinä. Nyt urlit ovat paljon kauniimpia.

Entä ne WordPressin linkit?

Yleensä jotain tällaista tehdään siinä vaiheessa, kun on jo jotain käytössä (tämähän toki toimii muullekin kuin vain podcast-audiolle). Joten pelkästään se, että on kopioinut tiedostot S3:een, ei riitä. WordPressin sisällössä täytyy linkit myös muuttaa.

Käsin moinen homma on kurjaa ja SQL:n suora tökkiminen on riskialtista. Käytä WP CLI:tä, kuten jokaisem WordPress-adminin kuuluisi tehdä.

Ihan ensimmäiseksi turvaa selustasi ja tee tietokannasta varmuuskopio.

wp --allow-root db export tietokanta.sql
  • kyllä, edelleenkin olen root; tuo kannattaa laittaa aliakseksi malliin wp='wp --allow-root'

Sitten tehdään haku ja korvaus, search & replace. Ja tässäkin, muokkaa itsellesi sopivaksi.

wp --allow-root search-replace \  'https://podcastit.hel1.your-objectstorage.com/kaffepaussi/' \  'https://podcast.katiska.eu/kaffepaussi/' \  --skip-columns=guid --precise --all-tables

Tuo ei tosin toimi minulla, koska podcasteissä käyttämäni Seriously Simple Podcast ei tallenna audion polkua itse artikkeliin vaan metatietoihin kentällä audio_file. Joten joudun menemään hieman toista reittiä.

Ensin kannattaa kokeilla, että saa jollain aidolla artikkeli-ID:llä sen urlin mitä on muuttamassa.

wp post meta get 158851 audio_file

Tuo antoi vastaukseksi

https://podcastit.hel1.your-objectstorage.com/kaffepaussi/podcast-149.mp3

Sitten tehdään vähän luuppikierroksia. Tämä toimii komentoriviltä, mutta on hieman tarkka sisennyksistä, kauttaviivoista ja sellaisista. Joten se voi laittaa scriptiksikin.

Huomio. Jos käyttää wp --allow-root aliasta, niin se toimii komentorivillä ensimmäisessä. Mutta jos on scripti, niin se täytyy lisätä sinne. Samaten jos on on pipe, niin alias toimii vain ensimmäisessä, muihin --allow-root täytyy lisätä.

#!/bin/bashecho "id,old_url,new_url" > podcast-url-replacements.csvpost_ids=$(wp --allow-root post list --post_type=post --post_status=publish --format=ids)for id in $post_ids; do  current_url=$(wp --allow-root post meta get "$id" audio_file 2>/dev/null)  if [[ "$current_url" == https://podcastit.hel1.your-objectstorage.com/kaffepaussi/* ]]; then    new_url="${current_url/podcastit.hel1.your-objectstorage.com/podcast.katiska.eu}"    echo "🔁 $id: $current_url → $new_url"    wp --allow-root post meta update "$id" audio_file "$new_url" >/dev/null    echo "$id,$current_url,$new_url" >> podcast-url-replacements.csv  fidone

Sitten kannattaa tarkistaa, että urlit ovat tosiaan muuttunneet.

#cdn #hetzner #nginx #podcast #wordpress

2025-06-19

Jemand Erfahrung mit #Hetzner #Sharedstorage? Also der Nextcloud bei Hezner? Hab gestern nen Backup zurück gespielt, bzw das zurück spielen gestartet. Ist aber auch nach 8 Stunden nicht abgeschlossen. ist das normal?

𝘄𝗲𝘀𝘁𝘀𝗶𝗯𝗲westsibe@infosec.exchange
2025-06-19

Radio Silence негодует:

  1. Нахрена Охра продержал #Jabberru на #Hetzner до тех пор, пока количество баб там не снизилось в 2 раза? Он что, всё это время на Луне жил?
  2. Кто их теперь должен возвращать назад?
uvok cheetahuvok@woof.tech
2025-06-18

Ich hab mal auf Google Maps geschaut, wo das #Hetzner Rechenzentrum in Falkenstein steht,

Mitten im Grünen :o

Kevin Karhan :verified:kkarhan@infosec.space
2025-06-18

@fuchsiii @puniko espechally according to #Hetzner!

2025-06-16

Tiens, quelqu'un sait comment connaître son IP local sur un serveur Hetzner ? (un truc du genre 10.0.x.y)

> hostname --all-ip-address

ne me donne que l'IPv4 et l'IPv6

dans hosts y a 127.0.0.1 certes.

#yunohost #hetzner

2025-06-15

I've been migrating from Big/US Tech due to #privacy reasons for a while. I use #Proton since 2021, #Mastodon since 2022, etc.

One of the things I was reluctant to change was my off-site #backup solution: #Backblaze B2.

Reason? Price. It costs me ~$2.50/month to store ~500GB.

I already knew what to switch to: #Hetzner Box.

But it costs €3.87/month flat for 1TB. So I was waiting for my "stuff" (mostly photos) to grow enough to be worth it.

Today I decided to put my money where my mouth is!

Quale hosting green scegliere?

Vi state domandando quale hosting green scegliere per il vostro sito web? Ecco la nostra lista di hosting italiani ed europei!

https://www.lealternative.net/2021/06/14/quale-hosting-green-scegliere/

Hosting green, quale scegliere?
Gauff 🇪🇺gaufff@piaille.fr
2025-06-15

#askfedi what are your favourite #VPS these days? I'm new to it, will run very basic services on it (#pihole , #deltachat , ...) so I need a cheap one, based in #europe .

I seem to hear good stuff about #hetzner and they seem cheaper than #commbell or #ovh .

Thank you!

2025-06-14

Just ordered another box at #Hetzner, located in #Helsinki
Will be putting up a #PixelFed instance there for those around me to begin with. We will see how the experiment goes.

I for one want to #Sqhare images of my life with the ones closest to me but I have no interest in using #Instagram more than I need to for my side hustles..

#Fediverse #Freedom #SelfHosting

2025-06-14

If I would get a VPS with only an IPv6, could I just hide that behind a DNS / a url and have no problems for any reasonable visitors? #hosting #hetzner #dns #techsupport

2025-06-13

I'm thinking about a VPS for heavy modded #minecraft at #hetzner . Specifically either the CCX13 or CCX23? I'm wondering if the first one would be suitable.

The previous one for this modpack was a DediMC AMD Ryzen 9 7950 with 16GB RAM, but 10 should be enough. so maybe 8 is too? Current filesize is 33GB and growing, so I think 80 GB should be fine. We keep an eye on it. It should handle 16 players smoothly.

Any advice thoughts comments remarks and followup questions are very much appreciated.

Screenshot of https://www.hetzner.com/cloud#pricing

All Relevant text in this image:
4 Options are
Shared vCPU Intel®
Shared vCPU AMD
Shared vCPU Ampere®
Dedicated vCPU
I selected Dedicated vCPU

Optimize your workload with AMD Milan EPYC™ 7003 and AMD Genoa EPYC™ 9654 processors
Location
FSN1 NBG1
save € 0.50 by using IPv6 only
VCPU
RAM
NVMe SSD
Traffic incl.
IPv4
Hourly
Monthly
CCX13
2
8 GB
80 GB
20 TB
€ 0.0192
€ 11.99 max.
CCX23
4
16 GB
160 GB
20 TB
€ 0.0384
€ 23.99 max.

Prices are without VAT so about 20% extra for me as an indivdual consumer.
2025-06-13

It’s always a good day to build a production-grade, highly available Kubernetes cluster with Talos Linux and Hetzner Cloud. 🔅

dev.to/vesnante/setup-kubernet
#Kubernetes #Hetzner

2025-06-13

@hetzner Habe gerade noch mal getestet und das Problem besteht weiterhin. Microsoft hat wohl inzwischen ein alternatives Update rausgebracht, das wird aber noch nicht automatisch ausgerollt. Wenn man eine komplette Neuinstallation eines Windows 2025 Servers bei Hetzner in der Cloud macht und automatische Updates installiert, ist dieser immer noch tot. Enttäuschend, dass Microsoft das Update immer noch ausspielen!

#microsoft #hetzner #HetznerCloud #updates

2025-06-12

Achtung an alle mit Windows 2025 Server in der Hetzner Cloud‼️

Microsoft bringt mit dem Juni Patches ein Update mit einem CVSS 8.8 raus und die Hetzner Cloud Instanzen mit Windows 2025 Server booten danach nicht mehr, weil danach die CPU als nicht supported eingestuft wird.

Man sollte das Juni Update also erst mal nicht einspielen die Sicherheitslücke auf einer anderen Ebene absichern.

#hetzner #HetznerCloud #microsoft #update #patchday @hetzner

Friedjoffriedjof
2025-06-11

Viele Grüße @lnp aus ! Höre gerade beim – starke Folge.
Zur & : Dank (, , ) ist Datenschutz möglich.
Aber: Eine -Strategie & lokale Anbieter wie wären klüger – weniger Abhängigkeit, mehr .

Rot beleuchtete Allianz Arena mit Erdbeermond auf Südost. Ein seltenes bayerisches Windrad ist zwischen der Arena und dem Mond zu erahnen. Es betont leicht den technologischen Fortschritt und widerlegt das Voruteil in Bayern gäbe es keine Windkraft…
All Europeans 🇪🇺ueeu@vivaldi.net
2025-06-11

Good tutorial in French explaining the features and benefits of Hetzner's Storage Share service, a cloud storage solution that integrates with Nextcloud, a popular open-source file management platform.

From just €4.29 per month, you can get your own Nextcloud instance as an alternative to Google, Microsoft, etc. It comes with 1 TB of storage, unlimited users and is hosted in Europe.

It's not free, but neither are the US competitors — it's actually cheaper than Google One (10€) or Microsoft 365 (13€).

You don't need any IT skills to install it; just create an account, pay and start using it. 🙂

You can do it only for yourself or offer storage to family, friends and your community too.

Article: next.ink/4687/on-a-teste-stora

Hetzner Storage Share website: hetzner.com/storage/storage-sh

#nextcloud #hetzner #cloud #EuropeanAlternatives #BuyEuropean

2025-06-10

@tux Interessant! Vorta habe ich mir auch gerade angesehen. Ist ganz angenehm um die Borgbackup-Repos anzusehen und sieht auch echt nett aus um Backups zu konfigurieren!

Die wichtigsten Backups laufen auf headless Debians, daher bin ich irgendwie direkt auf borgbackup + bisschen bash-skript gegangen. 🤷

Meine "ersten" remote-Backups liegen tatsächlich auch bei Hetzner. Borgbase habe ich nun einfach mit der identischen Konfiguration nochmals konfiguriert. Bisher sehr rudimentär das Skript dupliziert und den Endpoint angepasst. Hier will ich noch etwas optimieren, dass ich die Konfiguration nur an einer Stelle habe.

(Zu) Unregelmäßig mach ich noch Backups auf zwei externen HDDs, die ich abwechselnd anstecke und dann in einen etwas entferntem Keller gelagert habe. Eine liegt immer hier als Erinnerung, die andere im Keller.

#Hetzner #Vorta #BorgBase #Backup

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst