1. Что это такое
Linux использует систему прав доступа, чтобы контролировать, кто может читать, изменять или выполнять файлы и директории.
Права задаются для трех категорий: user, group, others.
Linux permissions - основа безопасности: три набора прав, специальные биты и точный контроль доступа через chmod, chown, chgrp и ACL.
2. Категории прав
- User (владелец)
- Group (группа)
- Others (остальные)
Посмотреть права:
ls -l
Пример:
-rwxr-xr--
3. Типы прав
r (read)
- Файл: читать
- Директория: смотреть список
w (write)
- Файл: изменять или удалять
- Директория: добавлять и удалять файлы
x (execute)
- Файл: запускать
- Директория: переходить внутрь (cd)
4. Структура строки прав
10 символов:
[тип][user][group][others]
Пример:
drwxr-x---
d — директория
rwx — владелец
r-x — группа
--- — остальные
5. Изменение прав (chmod)
Символьный формат:
chmod u+x file
chmod g-w file
chmod o+r file
Числовой формат (r=4, w=2, x=1):
chmod 755 file
chmod 644 file
chmod 700 file
6. Смена владельца (chown)
sudo chown user file
sudo chown user:group file
7. Смена группы (chgrp)
sudo chgrp groupname file
8. Специальные биты: SUID, SGID, Sticky Bit
SUID
chmod u+s file
Пример: passwd
SGID
chmod g+s dir
Sticky Bit
chmod +t dir
Используется в /tmp
9. umask — права по умолчанию
Проверить: umask
Пример: umask 022 → новые файлы получат 644.
10. ACL — расширенные права
setfacl -m u:user:rwx file
getfacl file
11. Основные команды
chmod — менять права
chown — менять владельца
chgrp — менять группу
umask — настройки по умолчанию
setfacl — расширенные ACL
ls -l — просмотр прав
12. Лучшие практики
Не давать write для others
Использовать sticky bit в общих директориях
Настроить безопасный umask
Использовать ACL, когда прав недостаточно
Периодически проверять права
Please open Telegram to view this post
VIEW IN TELEGRAM
❤25🔥16🥰2
Forwarded from Linux Books
💡 Продвинутый и редко используемый Linux совет - работа с PID-неймспейсами прямо из терминала
Если нужно отлаживать процессы в полностью изолированном пространстве процессов (почти как в контейнере), можно запустить команду в отдельном PID-namespace. Это позволяет:
- видеть процессы только внутри пространства
- запускать init-процесс PID 1
- безопасно тестировать сервисы, сигналы, демонизацию
- воспроизводить поведение контейнеров без Docker
Команда:
Что происходит:
Теперь внутри вы увидите:
и получите полностью изолированное дерево процессов.
Это идеальный инструмент, если нужно отлаживать демоны, изучать сигналы, тестировать systemd-поведение или понимать, как контейнеры управляют процессами под капотом.
@linux_read
Если нужно отлаживать процессы в полностью изолированном пространстве процессов (почти как в контейнере), можно запустить команду в отдельном PID-namespace. Это позволяет:
- видеть процессы только внутри пространства
- запускать init-процесс PID 1
- безопасно тестировать сервисы, сигналы, демонизацию
- воспроизводить поведение контейнеров без Docker
Команда:
sudo unshare --pid --fork --mount-proc bash
Что происходит:
- `--pid` создаёт новый PID-namespace
- `--fork` запускает новый процесс как PID 1 внутри пространства
- `--mount-proc` подменяет `/proc`, чтобы видеть только локальные процессы
Теперь внутри вы увидите:
ps aux
и получите полностью изолированное дерево процессов.
Это идеальный инструмент, если нужно отлаживать демоны, изучать сигналы, тестировать systemd-поведение или понимать, как контейнеры управляют процессами под капотом.
@linux_read
👍9❤5🔥3
OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.
OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14😁6❤3🤯2👏1
Linux: Не мучайте `КОТИКОВ` без необходимости 😼
Многие используют cat там, где он вообще не нужен. Это создаёт лишние процессы и делает команду медленнее. Большинство утилит умеют работать с файлами напрямую. Подписывайся, больше фишек каждый день !
Вот несколько полезных примеров, когда cat стоит заменить, а когда он реально нужен:
Берегите котиков 🐈⬛
Многие используют cat там, где он вообще не нужен. Это создаёт лишние процессы и делает команду медленнее. Большинство утилит умеют работать с файлами напрямую. Подписывайся, больше фишек каждый день !
Вот несколько полезных примеров, когда cat стоит заменить, а когда он реально нужен:
# ❌ ПЛОХО: лишний cat
cat file.txt | grep "error"
# ✅ ХОРОШО: grep сам читает файл
grep "error" file.txt
# ❌ ПЛОХО: cat | wc (wc сам читает файлы)
cat data.log | wc -l
# ✅ ХОРОШО
wc -l data.log
# ❌ ПЛОХО: cat | awk (awk умеет читать файлы напрямую)
cat users.txt | awk '{print $1}'
# ✅ ХОРОШО
awk '{print $1}' users.txt
# ✔️ Когда cat действительно нужен: склеить файлы
cat part1.txt part2.txt > full.txt
Берегите котиков 🐈⬛
❤52👍31😁13🔥5🤩1
🕵️♂️ Spyder: OSINT Research Tool
Spyder - это универсальный инструмент для открытой разведки (OSINT), который позволяет выполнять поиск информации по крупным глобальным базам данных. Он предоставляет доступ к данным о номерах телефонов, IP-адресах, социальных сетях и многом другом.
🚀Основные моменты:
- Поиск информации о номерах телефонов и IP-адресах
- Доступ к данным социальных сетей (Facebook, Instagram и др.)
- Поиск по именам и физическим адресам
- Проверка доменов и номерных знаков
- Утилита для бомбардировки электронной почты
📌 GitHub: https://github.com/portrret/spyder-osint
#python
Spyder - это универсальный инструмент для открытой разведки (OSINT), который позволяет выполнять поиск информации по крупным глобальным базам данных. Он предоставляет доступ к данным о номерах телефонов, IP-адресах, социальных сетях и многом другом.
🚀Основные моменты:
- Поиск информации о номерах телефонов и IP-адресах
- Доступ к данным социальных сетей (Facebook, Instagram и др.)
- Поиск по именам и физическим адресам
- Проверка доменов и номерных знаков
- Утилита для бомбардировки электронной почты
📌 GitHub: https://github.com/portrret/spyder-osint
#python
🔥19👍15❤8🥰2🤬2
🔥 Server Survival: Стройте облачную инфраструктуру!
Играйте в интерактивную 3D-симуляцию, где вы - облачный архитектор. Стройте и масштабируйте облачную инфраструктуру, защищаясь от DDoS-атак и управляя бюджетом. Цель — выжить как можно дольше, обрабатывая легитимный трафик и избегая потерь репутации.
🚀Основные моменты:
- Управление бюджетом и репутацией.
- Разные типы трафика: веб, API и мошеннический.
- Режимы игры: выживание и песочница для экспериментов.
- Улучшение сервисов для повышения производительности.
- Интуитивное управление и визуальная обратная связь.
📌 GitHub: https://github.com/pshenok/server-survival
Играйте в интерактивную 3D-симуляцию, где вы - облачный архитектор. Стройте и масштабируйте облачную инфраструктуру, защищаясь от DDoS-атак и управляя бюджетом. Цель — выжить как можно дольше, обрабатывая легитимный трафик и избегая потерь репутации.
🚀Основные моменты:
- Управление бюджетом и репутацией.
- Разные типы трафика: веб, API и мошеннический.
- Режимы игры: выживание и песочница для экспериментов.
- Улучшение сервисов для повышения производительности.
- Интуитивное управление и визуальная обратная связь.
📌 GitHub: https://github.com/pshenok/server-survival
❤14👍8🤔5🥰1
⚡️ Bash Parameter Expansion - мощный, но недооценённый инструмент, который позволяет делать мини-обработку строк прямо в шелле без sed, awk и внешних утилит.
Что можно делать встроенными конструкциями:
• удалять суффиксы и префиксы
• заменять подстроки
• извлекать срезы строки (substring)
• безопасно работать с переменными по умолчанию
• получать длину строки
• вытаскивать базовые имена файлов и расширения
• преобразовывать регистр
Примеры на картинке показывают:
- замену паттернов в строках
- базовые операции с путями (basename / dirpath)
- срезы строк с начала и конца
- манипуляции с регистром
- работу с массивами
Это быстрый способ делать текстовые трансформации прямо в bash-скриптах, снижая зависимость от внешних инструментов и ускоряя выполнение.
Что можно делать встроенными конструкциями:
• удалять суффиксы и префиксы
• заменять подстроки
• извлекать срезы строки (substring)
• безопасно работать с переменными по умолчанию
• получать длину строки
• вытаскивать базовые имена файлов и расширения
• преобразовывать регистр
Примеры на картинке показывают:
- замену паттернов в строках
- базовые операции с путями (basename / dirpath)
- срезы строк с начала и конца
- манипуляции с регистром
- работу с массивами
Это быстрый способ делать текстовые трансформации прямо в bash-скриптах, снижая зависимость от внешних инструментов и ускоряя выполнение.
👍15🔥6❤5🥰1
В часовом видео Линус Торвальдс вместе с Линусом Себастьяном собрали «идеальную машину» под Linux и обсудили нюансы разработки ядра. Получился редкий взгляд на то, каким железом пользуется создатель Linux.
Выбор комплектующих:
- AMD Ryzen Threadripper 9960X
- Intel Arc B580
- материнская плата GIGABYTE TRX50 AERO D
- SSD Samsung 9100 PRO 2 TB
- кулер Noctua NH-U14S TR5-SP6
- монитор Asus ProArt PA32QCV (31.5", 6K HDR)
Из дистрибутивов Торвальдс по-прежнему отдаёт предпочтение Fedora.
Видео получилось живым и информативным — отличный вариант для просмотра вечером.
https://www.youtube.com/watch?v=mfv0V1SxbNA
Please open Telegram to view this post
VIEW IN TELEGRAM
❤41🤔11👍8🔥5👎2
🔥 Вся историю Unix - от первых 2.5 тысяч строк на PDP-7 до 30 миллионов строк современного FreeBSD.
По сути, это Git-машина времени, восстановленная вручную из 24 исторических снапшотов.
Что внутри:
- Полвека разработки сведены в непрерывную линию: 1970 → 2018, без пропавших релизов и дыр в истории.
- Почти 500 000 коммитов, более 2000 мерджей и около 1000 авторов — самых первых нашли через архивные документы и письма.
- Полная эволюция Unix: PDP-7, версии V1–V7, Unix/32V, все ветки BSD, SCCS-история, 386BSD, вся линейка FreeBSD от 1.0 до текущего дерева.
- Восстановление сделано с максимальной точностью — код собрали по крупицам из разных систем.
- Репозиторий только для чтения: он не принимает пуши, а регулярно пересобирается с нуля, чтобы история оставалась чистой и неизменной.
Это, пожалуй, самый аккуратный и полный архив развития Unix, который можно открыть прямо в GitHub:
https://github.com/dspinellis/unix-history-repo
По сути, это Git-машина времени, восстановленная вручную из 24 исторических снапшотов.
Что внутри:
- Полвека разработки сведены в непрерывную линию: 1970 → 2018, без пропавших релизов и дыр в истории.
- Почти 500 000 коммитов, более 2000 мерджей и около 1000 авторов — самых первых нашли через архивные документы и письма.
- Полная эволюция Unix: PDP-7, версии V1–V7, Unix/32V, все ветки BSD, SCCS-история, 386BSD, вся линейка FreeBSD от 1.0 до текущего дерева.
- Восстановление сделано с максимальной точностью — код собрали по крупицам из разных систем.
- Репозиторий только для чтения: он не принимает пуши, а регулярно пересобирается с нуля, чтобы история оставалась чистой и неизменной.
Это, пожалуй, самый аккуратный и полный архив развития Unix, который можно открыть прямо в GitHub:
https://github.com/dspinellis/unix-history-repo
👍27❤13🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Полезный совет по Linux
Команда rm сама по себе достаточно рискованна, а с подстановкой * становится ещё опаснее.
В некоторых случаях можно заранее посмотреть, во что именно превратится команда после расширения shell’ом.
Пример:
Вместо выполнения удаления команда выведет на экран итоговую строку после расширения. Такой «сухой прогон» помогает убедиться, что вы не удалите лишнее.
Команда rm сама по себе достаточно рискованна, а с подстановкой * становится ещё опаснее.
В некоторых случаях можно заранее посмотреть, во что именно превратится команда после расширения shell’ом.
Пример:
echo rm -rf /*Вместо выполнения удаления команда выведет на экран итоговую строку после расширения. Такой «сухой прогон» помогает убедиться, что вы не удалите лишнее.
👍34❤7🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 LINUX: ХВАТИТ ТРАТИТЬ ВРЕМЯ НА ПОИСК ФАЙЛОВ #linux #unix #ubuntu
Совет: в Linux можно быстро найти все исполняемые файлы в каталоге.
Вместо ручного поиска просто используй find с флагом executable.
Команда учитывает реальные права доступа и покажет только те файлы, которые ты действительно можешь запускать.
Совет: в Linux можно быстро найти все исполняемые файлы в каталоге.
Вместо ручного поиска просто используй find с флагом executable.
Команда учитывает реальные права доступа и покажет только те файлы, которые ты действительно можешь запускать.
найти исполняемые файлы в текущем каталоге
find . -type f -executable
поиск в другом пути
find /usr/local/bin -type f -executable
комбинированный фильтр: исполняемые и принадлежащие пользователю
find /opt -type f -executable -user $USER
👍21❤9🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Linux совет дня💡
В Bash можно быстро получить аргумент из предыдущей команды, не вводя его заново.
Для этого используется конструкция
Пример:
Запустили команду:
Если нужно снова использовать второй аргумент (`agatha_complete.txt`), просто напишите:
Удобно, когда длинные пути или имена файлов не хочется печатать вручную.
В Bash можно быстро получить аргумент из предыдущей команды, не вводя его заново.
Для этого используется конструкция
!:n, где n — номер аргумента.Пример:
Запустили команду:
ls -l agatha.txt agatha_complete.txt
Если нужно снова использовать второй аргумент (`agatha_complete.txt`), просто напишите:
!:2
Удобно, когда длинные пути или имена файлов не хочется печатать вручную.
👍28❤17
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Быстрый совет Linux: Как экономить время! #linux
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Создание вложенной структуры директорий
mkdir -p ~/scripts/{site-01,site-02}/{backup,monitoring,network}
Быстрая проверка созданных папок
ls -R ~/scripts
Добавление ещё одной группы директорий
mkdir -p ~/scripts/{site-03,site-04}/{logs,temp,reports}
👍27🔥10❤1😱1🤬1
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
🔥11❤7👍3
🚨 Stanford показал, что AI уже превосходит профессиональных хакеров в реальном мире. И масштаб этого события многие пока не осознают.
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через
Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через
curl -k Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
😁31👍15❤6🤔5👎4🔥4🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Полезный DevOps-совет по Linux: когда сервер «тормозит», а top показывает, что всё нормально - проблема почти всегда скрывается в I/O или в отдельных процессах.
Установи пакет sysstat и используй pidstat, iostat и sar - они дают историю нагрузки и точные метрики, которые показывают, что реально жрёт систему.
install sysstat
sudo apt install sysstat
мониторинг CPU по времени
sar -u 1 5
анализ дисковых задержек
iostat -x 1
кто грузит систему: CPU / RAM / IO
pidstat -dru 1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39🔥5❤3😁3👎2
⚡️ IPv6 исполнилось 30 лет
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv4: 8.8.8.8
IPv6: 2001:0db8:85a3:0000:0000:8a2e:0370:7334
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
👍41❤18😁9🔥5🎉4🥰1