Control Plane Policing (CoPP)
Control Plane Policing ограничивает трафик, направленный к самому устройству.
Типичный симптом: линк up, маршруты есть, но SSH лагает, BGP рвётся, SNMP не отвечает. Причина - CPU занят обработкой control-plane трафика.
CoPP позволяет явно задать, какой трафик и с каким rate допустим для CPU.
Классификация control-plane трафика:
Политика с rate-limit:
Применение политики к control plane:
Проверка состояния и нагрузки:
CoPP не влияет на throughput, но защищает control plane и делает поведение устройства стабильным при перегрузках и аномальном трафике.
N.A.
Control Plane Policing ограничивает трафик, направленный к самому устройству.
Data plane может быть в порядке, но перегруженный control plane приводит к флапу протоколов и потере управления.
Типичный симптом: линк up, маршруты есть, но SSH лагает, BGP рвётся, SNMP не отвечает. Причина - CPU занят обработкой control-plane трафика.
CoPP позволяет явно задать, какой трафик и с каким rate допустим для CPU.
Классификация control-plane трафика:
class-map match-any CP-CRITICAL
match protocol bgp
match protocol ospf
match protocol ssh
class-map match-any CP-MGMT
match protocol snmp
match protocol icmp
Политика с rate-limit:
policy-map CP-POLICY
class CP-CRITICAL
police 1000000 conform-action transmit exceed-action drop
class CP-MGMT
police 500000 conform-action transmit exceed-action drop
class class-default
police 200000 conform-action transmit exceed-action drop
Применение политики к control plane:
control-plane
service-policy input CP-POLICY
Проверка состояния и нагрузки:
show policy-map control-plane
show processes cpu sorted
CoPP не влияет на throughput, но защищает control plane и делает поведение устройства стабильным при перегрузках и аномальном трафике.
N.A.
👍14
DHCP Snooping + IP Source Guard
DHCP Snooping позволяет коммутатору понять, какие IP-адреса легитимны, а какие нет.
Без этого любой хост может поднять rogue DHCP или подменить IP и начать MITM внутри VLAN.
⏺ Типичный симптом: сеть «работает», но клиенты периодически получают странные шлюзы, пропадает доступ или трафик уходит не туда.
DHCP Snooping строит binding-таблицу IP–MAC–VLAN–port и делает её источником правды для других механизмов защиты.
Включение DHCP Snooping глобально и для VLAN:
ip dhcp snooping
ip dhcp snooping vlan 10,20
Настройка trusted-портов (uplink к DHCP-серверу или L3):
interface Gi0/24
ip dhcp snooping trust
Ограничение скорости DHCP-запросов на access-портах:
interface Gi0/3
ip dhcp snooping limit rate 15
Проверка binding-таблицы:
show ip dhcp snooping binding
IP Source Guard использует эту таблицу и блокирует трафик с поддельным IP.
Включение на access-порте:
interface Gi0/3
ip verify source
Проверка статуса:
show ip verify source
Связка DHCP Snooping + IP Source Guard предотвращает IP spoofing и rogue DHCP на уровне L2, без участия firewall или L3-логики.
N.A.
DHCP Snooping позволяет коммутатору понять, какие IP-адреса легитимны, а какие нет.
Без этого любой хост может поднять rogue DHCP или подменить IP и начать MITM внутри VLAN.
DHCP Snooping строит binding-таблицу IP–MAC–VLAN–port и делает её источником правды для других механизмов защиты.
Включение DHCP Snooping глобально и для VLAN:
ip dhcp snooping
ip dhcp snooping vlan 10,20
Настройка trusted-портов (uplink к DHCP-серверу или L3):
interface Gi0/24
ip dhcp snooping trust
Ограничение скорости DHCP-запросов на access-портах:
interface Gi0/3
ip dhcp snooping limit rate 15
Проверка binding-таблицы:
show ip dhcp snooping binding
IP Source Guard использует эту таблицу и блокирует трафик с поддельным IP.
Включение на access-порте:
interface Gi0/3
ip verify source
Проверка статуса:
show ip verify source
Связка DHCP Snooping + IP Source Guard предотвращает IP spoofing и rogue DHCP на уровне L2, без участия firewall или L3-логики.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👀8👍3🔥3❤1
Route leaking между VRF
VRF создают иллюзию жёсткой изоляции: разные таблицы маршрутизации, разные интерфейсы, всё аккуратно разложено.
Основная причина - import/export Route Target. RT это просто метка. Если один VRF экспортирует маршрут с RT, а другой его импортирует, маршрут появится, даже если сегменты логически не должны видеть друг друга.
Частый сценарий тут:
есть VRF PROD и MGMT. Для «временного доступа» или теста добавляют общий RT. Потом про него забывают. В итоге management-сеть внезапно получает маршруты в production или наоборот.
Пример некорректной конфигурации.
VRF PROD экспортирует маршруты:
VRF MGMT импортирует тот же RT:
Результат: все маршруты из PROD с RT 65000:99 появляются в MGMT. Никаких ACL, никаких предупреждений - маршруты валидны с точки зрения control plane.
Снаружи это выглядит странно: пакеты доходят до «чужих» подсетей, traceroute внезапно проходит, firewall «ничего не блокирует», потому что трафик уже оказался не там, где ожидали.
⏺ Как это обычно обнаруживается:
— неожиданные маршруты в show ip route vrf
— асимметричный трафик между VRF
— утечки через shared-services VRF
— доступ туда, где его быть не должно, без явного L3-соединения
Проверка RT:
Особенно опасны shared RT вроде 65000:100, которые используются «для удобства». Один лишний import — и изоляция превращается в условность.
N.A.
VRF создают иллюзию жёсткой изоляции: разные таблицы маршрутизации, разные интерфейсы, всё аккуратно разложено.
Проблемы начинаются, когда маршруты из одного VRF внезапно появляются в другом - без явного intent.
Основная причина - import/export Route Target. RT это просто метка. Если один VRF экспортирует маршрут с RT, а другой его импортирует, маршрут появится, даже если сегменты логически не должны видеть друг друга.
Частый сценарий тут:
есть VRF PROD и MGMT. Для «временного доступа» или теста добавляют общий RT. Потом про него забывают. В итоге management-сеть внезапно получает маршруты в production или наоборот.
Пример некорректной конфигурации.
VRF PROD экспортирует маршруты:
vrf definition PROD
rd 65000:10
route-target export 65000:10
route-target export 65000:99
VRF MGMT импортирует тот же RT:
vrf definition MGMT
rd 65000:99
route-target import 65000:99
Результат: все маршруты из PROD с RT 65000:99 появляются в MGMT. Никаких ACL, никаких предупреждений - маршруты валидны с точки зрения control plane.
Снаружи это выглядит странно: пакеты доходят до «чужих» подсетей, traceroute внезапно проходит, firewall «ничего не блокирует», потому что трафик уже оказался не там, где ожидали.
— неожиданные маршруты в show ip route vrf
— асимметричный трафик между VRF
— утечки через shared-services VRF
— доступ туда, где его быть не должно, без явного L3-соединения
Проверка RT:
show vrf detail
show bgp vpnv4 unicast all
show ip route vrf PROD
show ip route vrf MGMT
Особенно опасны shared RT вроде 65000:100, которые используются «для удобства». Один лишний import — и изоляция превращается в условность.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
TTL Security / GTSM для BGP
TTL Security (или GTSM - Generalized TTL Security Mechanism) ограничивает BGP-сессии так, чтобы соседний роутер мог «достучаться» только с ожидаемого количества хопов.
⏺ Часто понять отсутствие GTSM можно так: BGP-сессии рвутся при случайных ICMP или сканировании, или сосед получает пакеты с «чужим TTL», что создаёт flapping.
Настройка на Cisco:
Проверка состояния BGP-сессии с GTSM:
N.A.
TTL Security (или GTSM - Generalized TTL Security Mechanism) ограничивает BGP-сессии так, чтобы соседний роутер мог «достучаться» только с ожидаемого количества хопов.
Любой пакет с меньшим TTL считается подозрительным и отбрасывается. Это защищает control-plane от spoofed BGP-пакетов и DoS через подмену source IP.
Настройка на Cisco:
router bgp 65001
neighbor 10.0.0.2 remote-as 65002
neighbor 10.0.0.2 ttl-security hops 2
Проверка состояния BGP-сессии с GTSM:
show bgp neighbors 10.0.0.2
show bgp summary
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
UDLD aggressive mode
UDLD (Unidirectional Link Detection) помогает обнаруживать односторонние линки, когда физически интерфейс up, но трафик идёт только в одну сторону.
Aggressive mode не просто логирует проблему - он переводит интерфейс в err-disable, чтобы остановить распространение проблем по сети до того, как STP или другие протоколы успеют «поймать» ошибку.
Включение глобально:
На интерфейсе с агрессивным режимом:
Для оптики и аплинков:
Проверка состояния UDLD:
Если порт ушёл в err-disable:
N.A.
UDLD (Unidirectional Link Detection) помогает обнаруживать односторонние линки, когда физически интерфейс up, но трафик идёт только в одну сторону.
На L2 это особенно опасно: STP видит линк как рабочий, петли не детектятся, трафик теряется или ходит по странным путям.
Aggressive mode не просто логирует проблему - он переводит интерфейс в err-disable, чтобы остановить распространение проблем по сети до того, как STP или другие протоколы успеют «поймать» ошибку.
Включение глобально:
udld enable
На интерфейсе с агрессивным режимом:
interface Gi0/1
udld port aggressive
Для оптики и аплинков:
interface TenGigabitEthernet1/1
udld port aggressive
Проверка состояния UDLD:
show udld interface
show udld neighbors
Если порт ушёл в err-disable:
show errdisable recovery
errdisable recovery cause udld
errdisable recovery interval 300
N.A.
👍6❤2
Jumbo Frames и MTU mismatch
Jumbo Frames позволяют передавать большие пакеты (обычно до 9000 байт) и ускоряют трафик для storage, VM migration и high-throughput приложений.
Проблема возникает, если на пути хотя бы один интерфейс с меньшим MTU: пакеты падают silently или фрагментируются, что приводит к замедлению и нестабильности приложений.
Признаки проблемы:
⏺ TCP-сессии медленно открываются или «висят» без packet loss по ping обычного размера
⏺ VM migration или storage replication тормозят
⏺ traceroute показывает неожиданное поведение или «packet too big» ICMP
Примеры команд на Cisco:
Настройка MTU на интерфейсе:
Проверка MTU по пути:
На Linux для проверки MTU и отправки jumbo-пакетов:
N.A.
Jumbo Frames позволяют передавать большие пакеты (обычно до 9000 байт) и ускоряют трафик для storage, VM migration и high-throughput приложений.
Проблема возникает, если на пути хотя бы один интерфейс с меньшим MTU: пакеты падают silently или фрагментируются, что приводит к замедлению и нестабильности приложений.
Признаки проблемы:
Примеры команд на Cisco:
Настройка MTU на интерфейсе:
interface Gi0/1
mtu 9216
Проверка MTU по пути:
ping 10.0.0.2 size 9000 df-bit
show interfaces Gi0/1
На Linux для проверки MTU и отправки jumbo-пакетов:
ip link set dev eth0 mtu 9000
ping -M do -s 8972 10.0.0.2
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
ECMP pitfalls
На бумаге ECMP - мечта: несколько равных путей, балансировка, более высокая пропускная способность.
VPN рвётся, firewall теряет сессии, TCP-флоу скачут.
5 типичных проблем с ECMP:
1️⃣ Stateful NAT или firewall - сессии рвутся из-за разных путей.
2️⃣ Короткие TCP-флоу - хеш распределяет трафик неравномерно, часть линков простаивает.
3️⃣ Асимметричный маршрут - входящие и исходящие пакеты идут по разным линкам.
4️⃣ Динамическое добавление или удаление линков - внезапное перераспределение трафика вызывает jitter и packet loss.
5️⃣ VPN-туннели - пакеты разбросаны, туннель становится нестабильным.
Как проверить:
N.A.
На бумаге ECMP - мечта: несколько равных путей, балансировка, более высокая пропускная способность.
На деле же для stateful трафика это как «разбросанные дорожки»: пакеты одного соединения идут разными путями, и соединение начинает вести себя странно.
VPN рвётся, firewall теряет сессии, TCP-флоу скачут.
5 типичных проблем с ECMP:
Как проверить:
show ip route
show ip cef summary
ping 10.0.0.2 repeat 100
traceroute 10.0.0.2
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🥴2
ARP / ND cache exhaustion
Это создаёт «невидимые» проблемы: линк вроде работает, а трафик теряется или идёт нестабильно, и обычные ping/traceroute иногда ничего не покажут.
Симптомы переполнения ARP/ND:
⏺ Периодическая недоступность отдельных хостов даже при рабочем линке.
⏺ Нестабильная маршрутизация L3: соседние коммутаторы видят один и тот же MAC на разных портах.
⏺ Err-disable порты из-за excessive ARP/ND traffic (особенно на access-коммутаторах).
⏺ CPU spike на коммутаторе при попытках обработать множество ARP/ND записей.
⏺ Flapping sessions на stateful devices (firewall, NAT), когда таблица маршрутов перестаёт корректно обновляться.
Продвинутая диагностика:
Углублённая проверка паттернов:
И да, важно, что даже если линк физически up, проблемы ARP/ND могут разлагать L3-связь и stateful приложения. Это особенно критично для сегментов с VMs, IoT или high-density access.
N.A.
В больших сетях таблицы ARP (IPv4) и Neighbor Discovery (IPv6) могут переполняться.
Это создаёт «невидимые» проблемы: линк вроде работает, а трафик теряется или идёт нестабильно, и обычные ping/traceroute иногда ничего не покажут.
Симптомы переполнения ARP/ND:
Продвинутая диагностика:
show arp detail vrf MGMT
show ip arp | include incomplete
show ipv6 neighbors detail
show mac address-table dynamic | include <MAC>
show processes cpu sorted | include ARP
show platform tcam utilization
show logging | include ARP
Углублённая проверка паттернов:
debug arp
debug ipv6 nd
show interface Gi0/1 counters errors
show ip route vrf MGMT
И да, важно, что даже если линк физически up, проблемы ARP/ND могут разлагать L3-связь и stateful приложения. Это особенно критично для сегментов с VMs, IoT или high-density access.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍3
Зачем явно задавать root bridge в STP
Если root bridge не назначен вручную, роль root получает коммутатор с наименьшим BID.
В результате появляются неожиданные задержки в L2-сети, flapping портов, частые перестройки STP, а пользователи жалуются на «скачки» сети и потерю соединений.
Иногда трафик может попасть в suboptimal path, а диагностировать причину сложнее, чем кажется на первый взгляд.
Команды для проверки и диагностики на Cisco:
Настройка явного root bridge:
N.A.
Если root bridge не назначен вручную, роль root получает коммутатор с наименьшим BID.
После перезагрузки, добавления нового коммутатора или замены железа root может неожиданно переехать, и трафик пойдёт по другим путям.
В результате появляются неожиданные задержки в L2-сети, flapping портов, частые перестройки STP, а пользователи жалуются на «скачки» сети и потерю соединений.
Иногда трафик может попасть в suboptimal path, а диагностировать причину сложнее, чем кажется на первый взгляд.
Команды для проверки и диагностики на Cisco:
show spanning-tree
show spanning-tree vlan 1 detail
show spanning-tree vlan 10 detail
show spanning-tree root
show spanning-tree summary
show spanning-tree interface Gi0/1 detail
show log | include STP
debug spanning-tree events
Настройка явного root bridge:
spanning-tree vlan 1 root primary
spanning-tree vlan 10 root secondary
spanning-tree vlan 1 priority 24576
spanning-tree vlan 10 priority 28672
N.A.
👍11
5 команд для продвинутой диагностики QoS на L3 интерфейсе
Интерфейс зелёный, линк up, а приложения всё равно жалуются на задержки или потерю пакетов? Скорее всего, виноват QoS.
Даже небольшие ошибки в политике могут создавать узкие места, особенно для критичных сервисов. Вот как это проверить.
1️⃣ Какая политика висит на интерфейсе:
Видно, какая политика output/input применена, какие классы трафика и сколько байт прошло через каждый.
2️⃣ Статистика конкретного класса трафика:
Сразу видно, сколько пакетов получили приоритет, сколько queued и сколько дропнуто.
3️⃣ Очереди и шейпинг:
Глубина очередей, dropped packets, tail-drop и backlog - всё, что может создавать jitter и задержки.
4️⃣ Состояние интерфейса и счётчики:
Ошибки, CRC, collisions, overruns - иногда именно они маскируются под проблемы QoS.
5️⃣ Детальная статистика по всей политике:
Смотрим dropped packets, conform/exceed rates по каждому классу - удобно для fine-tuning под high-load.
N.A.
Интерфейс зелёный, линк up, а приложения всё равно жалуются на задержки или потерю пакетов? Скорее всего, виноват QoS.
Даже небольшие ошибки в политике могут создавать узкие места, особенно для критичных сервисов. Вот как это проверить.
show policy-map interface GigabitEthernet1/0/1
Видно, какая политика output/input применена, какие классы трафика и сколько байт прошло через каждый.
show policy-map interface GigabitEthernet1/0/1 class CRITICAL
Сразу видно, сколько пакетов получили приоритет, сколько queued и сколько дропнуто.
show queueing interface GigabitEthernet1/0/1
Глубина очередей, dropped packets, tail-drop и backlog - всё, что может создавать jitter и задержки.
show interfaces GigabitEthernet1/0/1 counters
Ошибки, CRC, collisions, overruns - иногда именно они маскируются под проблемы QoS.
show policy-map interface GigabitEthernet1/0/1 statistics
Смотрим dropped packets, conform/exceed rates по каждому классу - удобно для fine-tuning под high-load.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤5
Как проверить и исправить скорость и дуплекс на коммутаторах и серверах
Даже если линк выглядит «зелёным», многие проблемы с TCP, VoIP и storage на самом деле происходят из-за mismatch speed/duplex между коммутатором и сервером.
Правильная настройка ускоряет трафик и устраняет нестабильность.
⏺ Симптомы бывает такие:
Если скорость или дуплекс не совпадают на двух сторонах линка, вы увидите случайные packet loss, CRC errors, TCP-сессии, которые тормозят или зависают, а голосовой и видео трафик начинает «скакать» с jitter.
Часто throughput ниже ожидаемого, особенно на storage или VM трафике, и все это может происходить при видимо «зелёном» интерфейсе.
⏺ Как проверить на коммутаторе Cisco:
⏺ Как исправить mismatch:
1️⃣ Вручную задать скорость и дуплекс на коммутаторе:
2️⃣ На серверах - настроить NIC на фиксированную скорость и full duplex или включить auto-negotiation, если коммутатор тоже auto.
Проверка после исправления:
Если CRC и collisions исчезли, TCP стабилен, jitter пропал - линк настроен корректно.
N.A.
Даже если линк выглядит «зелёным», многие проблемы с TCP, VoIP и storage на самом деле происходят из-за mismatch speed/duplex между коммутатором и сервером.
Правильная настройка ускоряет трафик и устраняет нестабильность.
Если скорость или дуплекс не совпадают на двух сторонах линка, вы увидите случайные packet loss, CRC errors, TCP-сессии, которые тормозят или зависают, а голосовой и видео трафик начинает «скакать» с jitter.
Часто throughput ниже ожидаемого, особенно на storage или VM трафике, и все это может происходить при видимо «зелёном» интерфейсе.
show interfaces Gi0/1 status
! Показывает статус, скорость и дуплекс порта
show interfaces Gi0/1
! Детальная информация: errors, duplex, speed, auto-negotiation
show interfaces counters errors
! Подсчёт CRC, collisions, overruns
show interfaces status | include Gi0/1
! Быстрая проверка состояния конкретного порта
interface Gi0/1
speed 1000
duplex full
no shutdownПроверка после исправления:
show interfaces Gi0/1 status
show interfaces Gi0/1
ping <сервер-IP> repeat 100
Если CRC и collisions исчезли, TCP стабилен, jitter пропал - линк настроен корректно.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Как разделить management и пользовательский трафик
Смешивание management и пользовательского трафика кажется удобным «пока всё работает», но при перегрузке сети вы можете потерять доступ к оборудованию именно тогда, когда оно нужно для исправления проблем.
⏺ Симптомы смешанного трафика: Когда management трафик идёт по тем же линкам, что и пользовательский, перегрузка, storm или широковещательные пакеты могут блокировать управление.
В такой ситуации коммутатор или сервер могут быть видны по IP, но команды не проходят, а ping и telnet/SSH зависают.
⏺ Как настроить отдельный VLAN для управления на Cisco:
Привязка access-портов для управления:
Транковые порты - только с нужными VLAN:
Дополнительно: изоляция через VRF:
Проверка и диагностика:
N.A.
Смешивание management и пользовательского трафика кажется удобным «пока всё работает», но при перегрузке сети вы можете потерять доступ к оборудованию именно тогда, когда оно нужно для исправления проблем.
Отдельный management VLAN или VRF обеспечивает изоляцию и предсказуемость управления.
В такой ситуации коммутатор или сервер могут быть видны по IP, но команды не проходят, а ping и telnet/SSH зависают.
vlan 99
name MANAGEMENT
interface Vlan99
ip address 10.99.0.10 255.255.255.0
no shutdownПривязка access-портов для управления:
interface GigabitEthernet1/0/1
switchport mode access
switchport access vlan 99Транковые порты - только с нужными VLAN:
interface GigabitEthernet1/0/24
switchport mode trunk
switchport trunk allowed vlan 10,20,99Дополнительно: изоляция через VRF:
vrf definition MGMT
rd 65000:99
interface Vlan99
vrf forwarding MGMT
ip address 10.99.0.10 255.255.255.0Проверка и диагностика:
show vlan brief
show ip route vrf MGMT
ping vrf MGMT 10.99.0.10N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍13
Статические и динамические маршруты: проверка и исправление
Даже когда сеть работает «в целом», неправильные или нестабильные маршруты могут вызывать flapping, асимметрию путей и проблемы с ECMP.
⏺ Симптомы проблем с маршрутами: Static routes не обновляются при изменениях сети, что может приводить к недоступным сегментам.
Dynamic routes могут flapping’ать, вызывать асимметричные пути, повышенную нагрузку на CPU и нестабильность ECMP.
Проверка статических маршрутов:
Проверка динамических маршрутов (OSPF/BGP):
Диагностика проблем ECMP:
Исправление:
1️⃣ Static routes: убедиться, что gateway корректный, добавить или изменить при необходимости:
2️⃣ Dynamic routes: проверка соседей, фильтров и redistribute, исправление flapping:
N.A.
Даже когда сеть работает «в целом», неправильные или нестабильные маршруты могут вызывать flapping, асимметрию путей и проблемы с ECMP.
Правильная проверка и настройка маршрутов помогает поддерживать стабильность и предсказуемость сети.
Dynamic routes могут flapping’ать, вызывать асимметричные пути, повышенную нагрузку на CPU и нестабильность ECMP.
Проверка статических маршрутов:
show ip route static
show ip route <network>
ping <destination>
traceroute <destination>
Проверка динамических маршрутов (OSPF/BGP):
show ip route ospf
show ip route bgp
show ip bgp summary
show ip route
Диагностика проблем ECMP:
show ip cef summary
show ip cef <prefix> detail
traceroute <prefix>
ping <prefix> repeat 10
Исправление:
ip route 10.0.0.0 255.255.255.0 192.168.1.1
ip route 0.0.0.0 0.0.0.0 192.168.1.254
router ospf 1
network 10.0.0.0 0.0.0.255 area 0
router bgp 65001
neighbor 192.168.1.2 remote-as 65002
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2
Понимание и использование протокола DNSSEC
DNS — основа Интернета, но он подвержен атакам, таким как Man-in-the-Middle и Cache Poisoning, где злоумышленники могут подменить DNS-ответы.
DNSSEC (Domain Name System Security Extensions) решает эту проблему, обеспечивая защиту целостности и подлинности DNS-запросов с помощью криптографических методов.
Как работает DNSSEC?
⏺ Цифровая подпись: Ответы DNS подписываются приватным ключом, а получатель может проверить их подлинность с помощью публичного ключа.
⏺ Цепочка доверия: Публичные ключи проверяются через цепочку доверия, начиная с корневого DNS-сервера.
Почему это важно:
DNSSEC предотвращает:
• Man-in-the-Middle атаки — защита от подделки DNS-ответов.
• Cache Poisoning — защита от подмены данных в кэше DNS-сервера.
• Подделку ответов — гарантия, что данные не были изменены.
Как настроить DNSSEC?
1️⃣ Генерация ключей: Создайте пару ключей (приватный и публичный) для домена.
2️⃣ Подпись записей: Подпишите DNS-записи приватным ключом.
3️⃣ Добавление записей на сервер: Обновите DNS-записи, добавив RRSIG и DNSKEY.
4️⃣ Проверка: Убедитесь, что все записи правильно подписаны и работают.
N.A.
DNS — основа Интернета, но он подвержен атакам, таким как Man-in-the-Middle и Cache Poisoning, где злоумышленники могут подменить DNS-ответы.
DNSSEC (Domain Name System Security Extensions) решает эту проблему, обеспечивая защиту целостности и подлинности DNS-запросов с помощью криптографических методов.
Как работает DNSSEC?
Почему это важно:
DNSSEC предотвращает:
• Man-in-the-Middle атаки — защита от подделки DNS-ответов.
• Cache Poisoning — защита от подмены данных в кэше DNS-сервера.
• Подделку ответов — гарантия, что данные не были изменены.
Как настроить DNSSEC?
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11👎3❤1
Проверка интерфейсов на ошибки и flapping
Даже когда интерфейс «зелёный», стоит регулярно проверять логи и статистику, чтобы убедиться в стабильности линка и отсутствии скрытых проблем.
Команды для диагностики на Cisco
Просмотр системных логов, включая события интерфейсов.
Статус, скорость, дуплекс, ошибки и flapping.
CRC, collisions, input/output errors.
Быстрый обзор состояния конкретного порта.
Фильтрация логов по порту для поиска ошибок и flapping.
N.A.
Даже когда интерфейс «зелёный», стоит регулярно проверять логи и статистику, чтобы убедиться в стабильности линка и отсутствии скрытых проблем.
Команды для диагностики на Cisco
show logging
Просмотр системных логов, включая события интерфейсов.
show interfaces Gi0/1
Статус, скорость, дуплекс, ошибки и flapping.
show interfaces Gi0/1 counters errors
CRC, collisions, input/output errors.
show interfaces status | include Gi0/1
Быстрый обзор состояния конкретного порта.
show log | include Gi0/1
Фильтрация логов по порту для поиска ошибок и flapping.
N.A.
👍9
Проверка интерфейсов на ошибки и flapping. Часть 2
Когда базовые счётчики «чистые», а проблемы всё равно всплывают, имеет смысл копать глубже - в тайминги, hardware-события и влияние интерфейса на control/data plane.
Команды расширенной диагностики на Cisco
Текущая входящая и исходящая скорость. Помогает заметить микроспады и нетипичную загрузку.
Output drops и queue drops, которые не всегда бросаются в глаза в counters errors.
Детальная информация от PHY: ошибки на уровне чипа, проблемы с автосогласованием, кабелем или оптикой.
Low-level hardware логи интерфейса. Часто именно здесь видно причину sporadic flapping.
Как интерфейс участвует в switching/forwarding, наличие punt’ов в CPU.
Аппаратные счётчики, которые не попадают в стандартный show interfaces.
Если используется EEM — можно увидеть автоматические реакции на события интерфейса.
Проверка, не вызывает ли интерфейс topology change и STP-события.
N.A.
Когда базовые счётчики «чистые», а проблемы всё равно всплывают, имеет смысл копать глубже - в тайминги, hardware-события и влияние интерфейса на control/data plane.
Команды расширенной диагностики на Cisco
show interfaces Gi0/1 | include rate
Текущая входящая и исходящая скорость. Помогает заметить микроспады и нетипичную загрузку.
show interfaces Gi0/1 | include drops
Output drops и queue drops, которые не всегда бросаются в глаза в counters errors.
show controllers ethernet-controller Gi0/1
Детальная информация от PHY: ошибки на уровне чипа, проблемы с автосогласованием, кабелем или оптикой.
show logging onboard ethernet Gi0/1
Low-level hardware логи интерфейса. Часто именно здесь видно причину sporadic flapping.
show interfaces Gi0/1 switching
Как интерфейс участвует в switching/forwarding, наличие punt’ов в CPU.
show platform hardware interface Gi0/1 statistics
Аппаратные счётчики, которые не попадают в стандартный show interfaces.
show event manager history events | include Gi0/1
Если используется EEM — можно увидеть автоматические реакции на события интерфейса.
show spanning-tree interface Gi0/1 detail
Проверка, не вызывает ли интерфейс topology change и STP-события.
N.A.
👍11❤3
Диагностика VLAN leakage
VLAN leakage - ситуация, когда трафик из одного VLAN неожиданно появляется в другом. Обычно это не «баг», а следствие ошибок в trunk-настройках, native VLAN или некорректного tagging’а.
⏺ Основные источники VLAN leakage
Чаще всего проблема возникает из-за несовпадения native VLAN на транке, когда untagged трафик интерпретируется по-разному на соседних устройствах.
Второй частый сценарий - trunk mismatch: VLAN разрешён с одной стороны, но не с другой. Третья причина - устройства или гипервизоры, которые отправляют трафик без тегов там, где ожидается tagged frame.
⏺ Проверка trunk-интерфейсов
Можно увидеть:
• какие интерфейсы реально работают в trunk
• native VLAN
• список allowed VLAN
Проверка, явно ли задан switchport trunk native vlan и allowed vlan.
⏺ Проверка native VLAN consistency
Отображает operational native VLAN. Именно она важна, а не только конфигурация.
Иногда leakage проявляется через неожиданные STP-события в «чужом» VLAN.
⏺ Поиск VLAN mismatch и неожиданных MAC
Если в VLAN появляются MAC-адреса, которые физически должны быть в другом сегменте — это прямой индикатор leakage.
Помогает понять, какие VLAN реально приходят по конкретному транку.
⏺ Проверка tagging ошибок и untagged трафика
Ошибки encapsulation и drops иногда указывают на некорректный tagging.
Позволяет проверить, не используется ли native VLAN как рабочий пользовательский VLAN, что сильно повышает риск leakage.
N.A.
VLAN leakage - ситуация, когда трафик из одного VLAN неожиданно появляется в другом. Обычно это не «баг», а следствие ошибок в trunk-настройках, native VLAN или некорректного tagging’а.
Чаще всего проблема возникает из-за несовпадения native VLAN на транке, когда untagged трафик интерпретируется по-разному на соседних устройствах.
Второй частый сценарий - trunk mismatch: VLAN разрешён с одной стороны, но не с другой. Третья причина - устройства или гипервизоры, которые отправляют трафик без тегов там, где ожидается tagged frame.
show interfaces trunk
Можно увидеть:
• какие интерфейсы реально работают в trunk
• native VLAN
• список allowed VLAN
show running-config interface Gi0/24
Проверка, явно ли задан switchport trunk native vlan и allowed vlan.
show interfaces Gi0/24 switchport
Отображает operational native VLAN. Именно она важна, а не только конфигурация.
show spanning-tree vlan <VLAN_ID>
Иногда leakage проявляется через неожиданные STP-события в «чужом» VLAN.
show mac address-table vlan <VLAN_ID>
Если в VLAN появляются MAC-адреса, которые физически должны быть в другом сегменте — это прямой индикатор leakage.
show mac address-table interface Gi0/24
Помогает понять, какие VLAN реально приходят по конкретному транку.
show interfaces Gi0/24 counters errors
Ошибки encapsulation и drops иногда указывают на некорректный tagging.
show vlan brief
Позволяет проверить, не используется ли native VLAN как рабочий пользовательский VLAN, что сильно повышает риск leakage.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤1
MSS clamping в туннелях и WAN-линках
MSS clamping используется, чтобы TCP-сессии корректно работали поверх туннелей и каналов с уменьшенным MTU.
Такая ситуация часто встречается при использовании VPN, GRE, IPsec или PPPoE, где инкапсуляция уменьшает доступный размер полезной нагрузки.
TCP пытается отправлять сегменты больше допустимого MTU, и пакеты либо фрагментируются, либо silently дропаются, особенно при установленном DF-bit.
Как работает MSS clamping
Во время TCP-handshake устройство изменяет значение MSS в SYN-пакетах, чтобы хосты изначально использовали безопасный размер сегмента. Это предотвращает фрагментацию и снижает количество retransmissions.
Пример настройки на Cisco
Clamping MSS на входе интерфейса с туннелем:
Для PPPoE-интерфейса:
Через policy-map (гибче и масштабируемее):
N.A.
MSS clamping используется, чтобы TCP-сессии корректно работали поверх туннелей и каналов с уменьшенным MTU.
Без него соединение может устанавливаться нормально, но передача данных становится медленной, нестабильной или прерывается.
Такая ситуация часто встречается при использовании VPN, GRE, IPsec или PPPoE, где инкапсуляция уменьшает доступный размер полезной нагрузки.
TCP пытается отправлять сегменты больше допустимого MTU, и пакеты либо фрагментируются, либо silently дропаются, особенно при установленном DF-bit.
Как работает MSS clamping
Во время TCP-handshake устройство изменяет значение MSS в SYN-пакетах, чтобы хосты изначально использовали безопасный размер сегмента. Это предотвращает фрагментацию и снижает количество retransmissions.
Пример настройки на Cisco
Clamping MSS на входе интерфейса с туннелем:
interface Tunnel0
ip tcp adjust-mss 1360
Для PPPoE-интерфейса:
interface Dialer1
ip tcp adjust-mss 1452
Через policy-map (гибче и масштабируемее):
policy-map MSS-CLAMP
class class-default
set tcp-mss 1360
interface Tunnel0
service-policy input MSS-CLAMP
N.A.
👍14❤1
MAC learning suppression
MAC learning suppression - состояние, при котором коммутатор перестаёт обучаться MAC-адресам.
Линк остаётся up, VLAN корректный, но трафик начинает фладиться, доступ к узлам становится нестабильным, а поведение сети выглядит «рандомным».
Чаще всего причина в port-security, лимитах MAC-адресов или security-фичах, которые блокируют обучение при превышении порогов или несоответствии политик.
Основные источники проблемы
Port-security с жёсткими лимитами, глобальные ограничения MAC-таблицы, storm-control, а также связка DHCP snooping и Dynamic ARP Inspection.
Команды для анализа на Cisco
Просмотр MAC-таблицы и её состояния:
Проверка конкретного интерфейса:
Если используется port-security, важно смотреть violation и текущие лимиты.
Проверка глобальных лимитов MAC:
Анализ логов на предмет блокировок:
Проверка storm-control и related features:
N.A.
MAC learning suppression - состояние, при котором коммутатор перестаёт обучаться MAC-адресам.
Линк остаётся up, VLAN корректный, но трафик начинает фладиться, доступ к узлам становится нестабильным, а поведение сети выглядит «рандомным».
Чаще всего причина в port-security, лимитах MAC-адресов или security-фичах, которые блокируют обучение при превышении порогов или несоответствии политик.
Основные источники проблемы
Port-security с жёсткими лимитами, глобальные ограничения MAC-таблицы, storm-control, а также связка DHCP snooping и Dynamic ARP Inspection.
Команды для анализа на Cisco
Просмотр MAC-таблицы и её состояния:
show mac address-table
show mac address-table dynamic
show mac address-table count
Проверка конкретного интерфейса:
show mac address-table interface Gi0/10
show port-security interface Gi0/10
Если используется port-security, важно смотреть violation и текущие лимиты.
show running-config interface Gi0/10
Проверка глобальных лимитов MAC:
show mac address-table limit
show platform hardware capacity mac
Анализ логов на предмет блокировок:
show logging | include MAC
show logging | include SECURITY
Проверка storm-control и related features:
show storm-control interface Gi0/10
show ip dhcp snooping
show ip arp inspection
N.A.
👍14❤2
5 команд для проверки ARP-таблицы
ARP - ключевой механизм для L2 ↔ L3 связи. Неправильные или устаревшие записи приводят к недоступности хостов, конфликтам IP и «рандомным» потерям пакетов.
Полный список IP ↔ MAC записей, их age и тип (dynamic/static).
Фильтрация по конкретному IP для быстрого поиска конфликтов или недоступных хостов.
Позволяет найти, где в сети используется конкретный MAC.
Очистка ARP на интерфейсе или устройстве, чтобы динамические записи обновились.
Принудительно создаёт ARP-запросы, помогает проверить, корректно ли обновляется ARP-таблица.
N.A.
ARP - ключевой механизм для L2 ↔ L3 связи. Неправильные или устаревшие записи приводят к недоступности хостов, конфликтам IP и «рандомным» потерям пакетов.
show arp
Полный список IP ↔ MAC записей, их age и тип (dynamic/static).
show ip arp | include <IP_ADDRESS>
Фильтрация по конкретному IP для быстрого поиска конфликтов или недоступных хостов.
show ip arp | include <MAC_ADDRESS>
Позволяет найти, где в сети используется конкретный MAC.
clear arp-cache
Очистка ARP на интерфейсе или устройстве, чтобы динамические записи обновились.
ping <IP_ADDRESS> repeat 5
Принудительно создаёт ARP-запросы, помогает проверить, корректно ли обновляется ARP-таблица.
N.A.
👍11❤3
Что происходит при конфликте IP-адресов
IP-конфликт - это ситуация, когда два устройства в одной подсети считают один и тот же адрес «своим».
Когда кто-то в сети спрашивает: «Кто владелец IP 192.168.1.10?», отвечают оба устройства. В ARP-кэше сохраняется MAC того, кто ответил последним. Через некоторое время ответит второй, и запись перепишется. Трафик начнёт уходить уже к нему.
⏺ Именно поэтому поведение нестабильное:
пинг проходит через раз, веб-интерфейс то открывается, то нет, SSH обрывается, пользователи говорят «само чинится и снова ломается».
Что в этот момент происходит в сети
ARP-таблицы на разных устройствах начинают «мигать»: один и тот же IP связан с разными MAC-адресами.
Если конфликт затрагивает gateway или сервер - последствия становятся заметными сразу: сессии рвутся, NAT ломается, сервисы становятся непредсказуемыми.
Почему это выглядит случайно
Потому что всё зависит от того, чья ARP-ответная гонка победила в конкретный момент. Пока в кэше «правильный» MAC - всё работает. Как только запись обновилась, трафик уходит к другому устройству.
N.A.
IP-конфликт - это ситуация, когда два устройства в одной подсети считают один и тот же адрес «своим».
На бумаге всё выглядит корректно: маска правильная, gateway задан, линк зелёный. Но на уровне ARP начинается борьба за право отвечать на запросы.
Когда кто-то в сети спрашивает: «Кто владелец IP 192.168.1.10?», отвечают оба устройства. В ARP-кэше сохраняется MAC того, кто ответил последним. Через некоторое время ответит второй, и запись перепишется. Трафик начнёт уходить уже к нему.
пинг проходит через раз, веб-интерфейс то открывается, то нет, SSH обрывается, пользователи говорят «само чинится и снова ломается».
Что в этот момент происходит в сети
ARP-таблицы на разных устройствах начинают «мигать»: один и тот же IP связан с разными MAC-адресами.
На коммутаторе можно увидеть, что трафик для этого IP приходит то с одного порта, то с другого.
Если конфликт затрагивает gateway или сервер - последствия становятся заметными сразу: сессии рвутся, NAT ломается, сервисы становятся непредсказуемыми.
Почему это выглядит случайно
Потому что всё зависит от того, чья ARP-ответная гонка победила в конкретный момент. Пока в кэше «правильный» MAC - всё работает. Как только запись обновилась, трафик уходит к другому устройству.
N.A.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍9❤4