Kudos to the Norwegians... To the point
Linux Software Developer @ https://proxmox.com
Photographer in my free time, mostly when travelling
Kudos to the Norwegians... To the point
@finner depends. Unfortunately the naming scheme by systemd, which is used, can result in different names if the enumeration of the NIC changes. E.g. different PCI id.
New installs get the network name pinned automatically to avoid that. With the upgrade from PVE 8 to 9 there is now a tool that makes the process a lot easier and I recommend that you lin the NIC names if you haven't done so already
https://pve.proxmox.com/pve-docs/pve-admin-guide.html#network_override_device_names
Switching the glossy display of my #framework 13 to the matte variant was a joy. Well explained guide. Just a few screws. No hidden plastic snappers that are just way too easy to break.
All done in under 10 minutes.
Ordered a usb-c to edp board to have options on what to do with the old still functioning screen
Now if memory prices wouldn't be through the roof I could even consider upgrading the motherboard to something more recent.
@dragonarchitect WIFI on a hypervisor is usually a bad idea:
> Wi-Fi adapters can only be used as Linux bridge interface through workarounds, as most Access Points (APs) will reject frames that have a source address that didn’t authenticate with the AP.
#WaterwayMapOrg goes global!
(I upgraded #MapLibre, and I turned on Globe View)
https://waterwaymap.org/
@mauri Proxmox Dev hier.
Die Memory Usage Anzeige aus Gast Sicht basiert auf den Infos die Proxmox VE vom Gast zurück bekommt. Und das geht über das Ballooning Device.
Die BSDs liefern hier leider keine Details zurück. Entsprechend kann man dann leider wenig machen. Siehe auch zB die Known Issues im Proxmox VE 8→9 Guide wo kurz erläutert wird was dafür nötig ist.
https://pve.proxmox.com/wiki/Upgrade_from_8_to_9#VM_Memory_Consumption_Shown_is_Higher
@thoralf das ist doch spürbar kurzer :) cool
Proxmox Datacenter Manager 1.0 (stable) is out
@thoralf Setz in den Advanced Settings des Backup Jobs die Change Detection auf Metadata und vergleich hier dann aufeinanderfolgende Backups von CTs
https://pve.proxmox.com/pve-docs/chapter-vzdump.html#_ct_change_detection_mode
🚨 Denmark is attempting to force #ChatControl 2.0 through the back door TODAY!
Take action now!
@tehstu what kind of drive? An nvme? That most likely changed the order in which devices are enumerated by the BIOS. For the nics, check the network config section in the documentation. The new `pve-network-interface-pinning` tool makes it a lot easier to pin NIC names to MAC addresses to avoid such changes in the future. You might want to use this opportunity to give your NICs more useful names that reflect what they are used for.
behold the "HTML bomb"
it's a defensive counterattack on AI web-scrapers that persistently scrape and rescrape your web site, even when you tell them not to
the bomb file *looks* like a tiny HTML page, but when scraped -- or even requested by a regular browser ...
... it unpacks into a huge-ass 10-gig HTML page ...
... which quickly crashes any browser or scraper
Item #6 in my latest "Linkfest" newsletter, free to read and subscribe to here: https://buttondown.com/clivethompson/archive/linkfest-37-wind-theft-an-html-bomb-and-the-rice/
@Doppellhelix Jain ;-) Da ist viel drin, aber bei nicht alles. Die Netzwerkconfig, welche auch passen muss (zumindest die bridges welche die Gäste verwenden), liegt wie für Debian basierte Distros in `/etc/network/interfaces`.
Und wenn die Platten nur ein Datengrab sind, welche in der PVE config nirgends auftauchen, sollte das wahrscheinlich mit einem `zpool import {pool}` gemacht sein.
@Doppellhelix sollte grundsätzlich gehen. wenn aber drauf VMs oder CTs sind, musst du auch die configs dieser sichern (`/etc/pve/qemu-server` bzw `/etc/pve/lxc`). Die Storage config sollte danach auch so sein, dass das passende Storage zu diesem ZFS pool wieder genau den gleichen Namen hat. Im Zweifelsfall die Gäste über Backup & Restore in die neue Installation bringen. Da muss du nicht selbst darauf achten, dass alles wieder so passt wie zuvor.
@thoralf Aktuell geht das am besten über die HA Gruppen und die "restricted" option. 2 Gruppen mit jeweils anderen Nodes ausgewählt. Minimum 2 Nodes pro Gruppe l. Und jeweils die restricted Checkbox aktivieren. Dann kann HA die Gäste recovern wenn eine Node ausfällt und die Gäste landen nicht auf den gleichen Nodes.