#VXLAN

2025-12-03

I do love #mikrotik and #vxlan running over #wireguard! Rock solid! ❤️

Michiel Piscaermpiscaer@sapiolab.nl
2025-11-15

Building my ARM-Based Homelab

Summary: I’m building a low-power ARM homelab running Kubernetes on an IPv6-only routed network. I’ll experiment with Open-Xchange, OpenStack, VXLAN, and AI frameworks like PyTorch and TensorFlow. [...]

sapiolab.nl/building-my-arm-ba

2025-10-22

Apparently I'm bored or something? Having to actively fight off the urge to buy a Banana Pi R4 with a tri-band Wifi7 adapter and use it as a 2x10G SFP+ AP with #VxLAN/#EVPN directly to the AP.

The core of my home network is 2x Arista 7050 L3 switches, and I want important infrastructure attached to both of them, ideally via 2x10G (or 40G) fiber. I try to avoid L2 links between infrastructure devices as much as possible and use EVPN to layer my L2 WiFi network, etc over the top of L3. This lets me completely avoid spanning tree and all of the performance/scalability issues that come with it. It works amazingly well. It was a pain to set up, but adding new EVPN devices (Linux, Juniper, or Arista) is fairly trivial, and it simplifies a lot of management issues.

Unfortunately, there really aren't any APs the fit this model today. I *think* Arista's top-tier models come close, but they're in the "don't ask" tier of pricing, with per-year, per-AP support costs that are probably more than I'm willing to pay in total for an AP.

The #BPI_R4 (and especially the new #BPI_R4_Pro) seems to be able to run Linux as a WiFi 7 AP, and it's big enough to run FRR (for OSPF, BGP, and EVPN) and probably be fast enough to make WiFi itself the performance bottleneck, not the CPU or wired network.

Big issues:

- It's a dumb idea. I have working WiFi. Leave it alone.
- The BPI R4 is supposed to work with OpenWRT out of the box, except OpenWRT is sort of the antithesis of what I want in a network device. Too much all-in-one, too much GUI, not enough CLI. Also, it doesn't really support OSPF or BGP, much less EVPN.
- It probably *would* be possible with VyOS, except (a) it likely doesn't have the right driver compiled in (b) their hostapd config generator doesn't seem to support multiple SSIDs or WiFi 7 and (c) I doubt they have a build that will boot on the hardware, so I'd probably end up needing an ARM build system just for this.
- Only 1 of my 4 APs today is really in a place where redundant fiber would be easy. 2 more would be fine, except I don't have 2 free strands to either location, so I'd need to pull another 12-strand MTP trunk to each. The final location would just need to be copper.
- I *really* don't need yet another project.

2025-09-24

Как настроить EVPN/VXLAN на коммутаторе: разбираемся на примере KORNFELD

Привет, Хабр! Меня зовут Алексей Августинович, я принимаю участие в разработке операционной системы для линейки коммутаторов KORNFELD. В этом материале расскажу о возможностях нашей сетевой операционной системы, а именно — о поддержке функциональности L2 VXLAN. Настройка EVPN/VXLAN в сетях дата-центров — задача не из простых. Поэтому в материале я поделюсь шаблонами конфигураций, которые вы можете адаптировать под свои задачи, так как логика настройки и синтаксис у KORNFELD схожи с популярными вендорами.

habr.com/ru/companies/yadro/ar

#evpn #evpnvxlan #vxlan

2025-09-23

Как мы отказались от транспондеров: практический переход на 400G ZR+

В самом начале всё выглядело достойно: надёжные Arista DCS-7170-64C-F с 64 портами по 100G, проверенные временем, отвечающие всем актуальным на тот момент требованиям. Мы развернули их по всем дата-центрам и чувствовали себя уверенно. Это выглядело оптимальным решением для текущего объёма задач. Но инфраструктура не стоит на месте, особенно когда бизнес растёт. Количество клиентов росло, вместе с ними — сложность и требования к сети. Понадобилось больше гибкости, изоляции, междатацентровой связности. Мы начали смотреть в сторону VXLAN — и тут выяснилось: профиль Q-in-Q в Arista сильно (реально сильно) ограничивает количество MAC-адресов. Не баг, не фейл — просто особенности архитектуры, которая не была рассчитана на те масштабы, в которые мы стремительно ворвались. Вывод был очевиден: пора готовиться к следующему этапу. VXLAN: модно, стильно, масштабируемо Когда требования ясны, становится проще принимать решения. Мы выбрали Huawei CloudEngine CE9855-32DQ — 1U-коммутаторы с поддержкой 400G. Они обеспечивали всё, что было нужно: производительность, надёжность, поддержку актуальных протоколов, включая поддержку VXLAN без ограничений. Именно на них мы реализовали полноценную VXLAN-инфраструктуру между дата-центрами. Всё поднялось без лишнего шума. Быстро, чисто, масштабируемо. Было приятно видеть, как идея превращается в работающий механизм, да ещё и с запасом на будущее (спойлер: как оказалось не очень-то и далекое). Апгрейд транспорта: от 200G DWDM к 400G ZR+ Параллельно с задачей внедрения VXLAN мы понимали, что физическая транспортная сеть требует апгрейда. До этого мы использовали Huawei транспондеры и мукспондеры на базе 200G и 400G DWDM (что, кстати, видно на первой фотографии).

habr.com/ru/articles/949758/

#dwdm #vxlan #qinq #network #network_engineer #huawei #arista_networks #zr_zr+ #power #cooling

2025-09-18

Поднимаем BGP в облаке: как мы запустили «матрешку» тоннелей и ушли от L2-ограничений в новой локации Рег.облака

Привет, Хабр! На связи Евгений Мартынов, CIO Рег.облака. Сегодня мы подключили вторую зону доступности облака в Москве на базе дата-центра «Медведково-2» . И вместе с новым запуском провели значительный апгрейд технологический базы: пересобрали сетевую архитектуру, ушли от большого L2, навели порядок в изоляции трафика и перевели API на BGP-анонсы. В статье расскажу про конкретные решения — как и что мы пробовали, какие процессы отложили и к каким выводам пришли.

habr.com/ru/companies/runity/a

#датацентр #датацентры #облако #сетевая_инфраструктура #api #bgp #тоннели #трафик #vxlan #ovn

2025-09-09

Trying out #vxlan(4) in a separate #FreeBSD fib… but that doesn’t work at all: I’m seeing ARP requests but they’re all stay unanswered... Does that mean the address used for vxlanlocal also needs to be in that fib? Trying to segregate my jail traffic using its own gateway

2025-08-23

It looks like WiFi (802.11) has a MTU 2304 bytes vs 1500 bytes for normal Ethernet.

So does this mean that if I want to forward a bunch of VLANs between 2 hosts over WiFi using VxLAN (bridge the ethernet device on the source host to the VxLAN interface).

Can I get the 1500 byte Ethernet MTU payload transported over WiFi if both hosts are connected to the same AP or using point to point WiFi

#WiFi #Ethernet #vxlan #networking

Jorge Schrauwensjorge@hachyderm.io
2025-07-01

I've made a bit of progress (tripped config export) gist.github.com/sjorge/accc087

However it's not yet working.

My VM with a VNIC with vlan-id 500 is able to reach 10.24.50.1 with icmp.

I was also able to create a VXLAN interface on it, however no traffic seems to end up bridge1. If I use torch I can see the vxlan udp encapsulated traffic hitting the 'vxlans' interface on the bridge (so I know the traffic is reaching the switches IP), I can also see the un-encapsulated traffic with torsh on the vxlan100 interface.

It's just never hitting bridge1 again it seems.

#mikrotik #freebsd #vxlan

2025-06-29

Any #network engineers out there looking for a job? I'm looking for one or two good engineers to help me build a global network to make our company #selfhosted. Currently have PoPs in 7 countries with plans to expand.

Need to know #bgp, #mpls, #ospf and #vxlan. #linux and #automation skills are useful too.

The position is #fullyremote with occasional travel for hardware installs and maintenance.

Send me your CV or just DM me if you're interested.

#getfedihired #fedihire #fedijobs

Just spent a whole day setting up a #VXLAN on my #ProxMox cluster, just to figure out that not only would it not save any physical hops between VMs but it would actually add about a 3% overhead.

:pepe_g:

2025-05-18

#VXLAN depends heavily on a multicast-enabled underlay network to handle broadcast/unicast/multicast Ethernet protocols. (I use the term "underlay network" to describe the physical devices that pass Ethernet frames and IP packets.) What's not well understood is that IP multicast is complex and risky to operate.

Each VXLAN-enabled device is known as a VXLAN Tunnel End Point (VTEP). When the VTEP is configured with VXLANs, it will be configured to join an IP multicast group. Joining the multicast tree is the method for VTEPs to discover the MAC of each host in the VXLAN in a self-configuring and autonomous method. Direct server-to-server data flows are transported through the VXLAN overlay in unicast packets.

IP multicast also provides an efficient way to broadcast Ethernet frames to all servers as is required--for example, for unknown MAC address flooding and IP ARP Requests.
networkcomputing.com/data-cent

2025-05-07

Виртуальные сети в VMmanager: подробно о работе с VxLAN

VMmanager — это платформа для управления виртуальной инфраструктурой, которая позволяет не просто разворачивать отдельные виртуальные серверы, но и создавать целые пулы виртуальных машин и контейнеров с полной изоляцией от физического оборудования. Платформа решает ключевые задачи виртуализации --- быстрое создание, масштабирование и миграция ВМ, создание отказоустойчивой виртуальной инфраструктуры и обеспечение непрерывной работы развернутых сервисов и приложений, предоставление изолированных сред, выдача IaaS и SaaS. Безусловно, сценариев использования VMmanager намного больше , однако сегодня речь пойдет о виртуальных сетях на базе VxLAN — технологии, которая обеспечивает создание виртуальных сред, изолированных друг от друга и физического оборудования. В этой статье мы разберем, какие задачи и сценарии помогает решать VxLAN, как работают виртуальные сети в VMmanager, и подробно расскажем об особенностях настройки.

habr.com/ru/companies/ispsyste

#vxlan #виртуальные_сети #vmmanager #ispsystem

2025-03-26

so… 6h of “free time” after 8h shift was spent on #kubeadm deploy + #calico+#vxlan. did it work? yes. would i put it in production? hell no.

less than zero ideas how to handle this fight for iptables between kube-proxy (which should be disabled, but cluster and calico just dead without it) and calico components :/

2025-01-16

Экстремально отказоустойчивые сети для офиса на базе фабрики BGP EVPN VXLAN: решение, которым гордился бы Скайнет

К миллиону продолжений «Терминатора» есть много вопросиков. Мой личный топ кринж — в «Терминатор. Генезис», когда Скайнет теряет ядро сети (там реально звучит слово «ядро») и все боты вырубаются . Между тем, отказоустойчивые сетевые конфигурации начали строить ещё мы, кожаные мешки, в первой половине 21 века. В кампусных сетях отказоустойчивость ядра мы чаще всего реализуем за счёт объединения коммутаторов ядра в стек. Это защищает ядро от сбоев и выхода из строя оборудования. В ЦОДах же отказоустойчивость сети реализуется на основе MLAG либо же за счёт развертывания сети в виде фабрики BGP EVPN VXLAN — набора из коммутаторов уровня spine и leaf. Такие конфигурации защищены не только от сбоев оборудования, но и от ошибок в коде и конфигурациях ПО. Я уверен, что инфраструктура сети Скайнет реализована как минимум в одной из этих конфигураций, причём с геораспределением. Так что показанное в кино — бред (впрочем, как и многое другое). А вот для обычных кампусных сетей такая архитектура — оверкил, её используют очень редко и в специфических обстоятельствах. Сегодня именно о таких кейсах из своей практики я расскажу в этой статье: как архитектура BGP EVPN VXLAN защищает от ошибок на уровне ПО и позволяет реализовать геораспределённую катастрофоустойчивость, какие с ней связаны подводные камни и в каких случаях компании считают такое решение целесообразным.

habr.com/ru/companies/k2tech/a

#сетевая_фабрика #отказоустойчивость_сетей #кампусные_сети #mlag #vxlan #сетевая_архитектура

Thomas Liskeliske@ibh.social
2025-01-06

#ifstate 1.13.2 was released:
codeberg.org/liske/ifstate/rel

(available in @alpinelinux edge + 3.21 3.20 + 3.19 and in @m4rc3l's Nix flake codeberg.org/m4rc3l/ifstate.ni)

This maintenance release includes fixes for configuring FDB entries.

The configuration of VXLAN with non-default UDP ports, unicast and static flooding now works correctly: ifstate.net/examples/vxlan.htm

#linuxnetworking #ipv6 #vxlan

Freifunk Stuttgartffs@chaos.social
2024-10-18

Neues aus dem Maschinenraum: wir haben unsere beiden Proxmox-Cluster miteinander vernetzt. Wir verwenden dazu #vxlan. Als Underlay dienen #wireguard Tunnel mit #babel als Routingprotokoll. Ziel ist unsere gesamte Infrastruktur in #stuttgart zu hosten, aber immer noch die Möglichkeit zu haben auf einen anderen Standort auszuweichen. #ffs #hostlocally

Ein Diagramm, das die logische Struktur eines Netzwerkes zeigt. Es gibt zwei Standorte pvez10a und pvehetzner. Am Standort pvez10a befinden sich die Server ffs13 und ffs08. Am Standort pvehetzner die Server ffs05 und ffs11. Die Server sind in einer Ring-Topologie miteinander verbunden.
Mike Lossmannpacketdefender
2024-10-08

It's the long-awaited part two of the EVPN Series! Next is a quick overview of What is VxLAN! bit.ly/480p41F

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst