Wayback Machine — это громадный архив веб‑страниц, содержащий более 330 миллиардов сохраненных копий, и все они проиндексированы для удобного поиска
Проект сохраняет исторические версии, благодаря чему вы можете вернуться на много лет назад и посмотреть, как выглядит интересующий вас сайт
Чем это может быть полезно для охотника за багами? Например, бывает любопытно заглянуть в старые файлы robots.txt.
В нем указываются эндпоинты, которые не должны индексировать поисковики, и со временем этот список меняется
1. Waybackrobots: это удобный и очень простой скрипт, который автоматизирует процесс получения старых версий robots.txt. Обязательный параметр у него всего один: -d, он указывает домен, под который нужно копать
2. gdorklinks.sh: простой скрипт, который генерирует ссылки поиска по GitHub с дорками. В качестве параметра необходимо указать имя или сайт компании. На выходе получаем готовые ссылки, которые просто необходимо вставить в браузер и изучить полученную информацию
3. GitDorker: не просто генерирует ссылки, а сразу ищет информацию, используя GitHub Search API и обширный список дорков, которых на данный момент 513. Этот инструмент можно назвать более продвинутым вариантом предыдущего скрипта
#Tools #Wayback #Search |
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤9
Уязвимости в загрузки файлов интересны для поиска, они по своей природе имеют большое влияние и в некоторых случаях могут даже привести к удаленному выполнению кода
В рамках сегодняшней статьи рассмотрим:
— Что такое уязвимости загрузки файлов?
— Выявление уязвимостей при загрузке файлов
— Эксплуатация простых уязвимостей загрузки файлов
— Продвинутая эксплуатация уязвимостей при загрузке файлов
#Vulnerability #File |
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥5🤯1