OSINT-инструменты для анализа корпоративных сайтов.
Информационная разведка в открытых источниках (OSINT) давно перестала быть уделом любопытных энтузиастов — сегодня это неотъемлемая часть любого аудита безопасности, конкурентного анализа или подготовки к баг‑баунти‑тестированию. В этой статье мы не будем уходить в пентест‑джунгли, а разберём пять практических направлений сбора сведений о корпоративном веб‑ресурсе и — что особенно важно — покажем на живых примерах, какие инструменты помогают автоматизировать каждую задачу.
Сразу оговоримся: сканируйте только те сайты, на которые у вас есть законное право. Все приёмы приводятся исключительно в образовательных целях.
Прежде чем запускать скрипты, определите цель и договоритесь о правилах с владельцем ресурса. Без явного разрешения компании даже безобидный поиск поддоменов может трактоваться как попытка несанкционированного доступа.
Поддомены дают представление о реальной инфраструктуре компании: где расположен тестовый стенд, какой движок используется для API, есть ли забытый Jenkins в углу. Чем больше вы найдёте, тем выше шанс обнаружить уязвимые сервисы.
subfinder -d example.com -o subdomains.txt
Лайфхак: объедините результаты разных источников, удалите дубли (sort -u) — финальный список удивит объёмом.
Компания может владеть десятками доменов, которые на первый взгляд никак не связаны с брендом. Факт, что они обслуживаются теми же почтовыми или именными серверами, легко выдаёт единую инфраструктуру.
http.body:"UA-23870775"
Все найденные домены имеет смысл сразу прогнать теми же Subfinder и Nuclei — цепочка открытий часто работает по принципу матрёшки.
Даже если страница не предполагает скачивание, в HTML‑коде могут прятаться email‑адреса, телефоны, ключи API и прочие «подарки» атакующему. Забрать их можно, не скачивая каждую страницу вручную.
nuclei -list subdomains.txt -t juicyinfo/ -o juicy_hits.txt
На выходе получаем отчёт, где в каждой строке: URL, тип находки и её «сочный» фрагмент. Дальше уже дело техники — подтвердить и закрыть утечку.
Полный список внутренних URL — это дорожная карта тестирования: блинд‑сканеры, устаревшие API‑эндпоинты, приватные панели. Ведь URL, скрытый из навигации, ещё не значит недоступный для сервера.
katana -u https://example.com -depth 3 -o urls.txt
Склейте результаты, удалите GET‑параметры (cut -d'?' -f1) и вновь уберите дубли. Карта готова к следующему этапу.
Когда известны все пути, время собрать документы целиком — от старых релизов до PDF‑инструкций, которые авторы забыли спрятать.
cat urls.txt | grep -E '\.(pdf|docx?|xlsx?)$' | while read u; do curl -s -O "$u"; done
Файлов стало много? Используйте grep/rg/ag‑подобные утилиты:
grep -Rni --color "Confidential" ./downloads
Так обнаружите случайно залитый NDA или лог‑файл с паролями.
В каждом DOCX, JPEG или PDF хранятся строки о программах, авторах, координатах съёмки — не вытащить их — значит упустить лишний фрагмент пазла.
exiftool -r -json downloads/ > metadata.json
Полученные JSON‑ы легко фильтровать — например, найти все документы, созданные на личном ноутбуке разработчика USER-PC.
PDF‑документы — кладезь заметок, штампов и цифровых подписей. Проблема в том, что часто они представлены изображениями без текста. Здесь пригодятся:
ocrmypdf input.pdf output_ocr.pdf
Чтобы не потеряться, держите шпаргалку под рукой:
Задача | Инструменты |
---|---|
Поддомены | Netlas, Pentest‑Tools, nmmapper, Subfinder, Sublist3r |
Связанные сайты | Netlas (WHOIS, MX, NS, GA‑ID, Favicon) |
Карта URL | Katana, Waybackurls, Waymore, GoBuster |
«Сочная» инфа | Nuclei + Juicy‑Info templates |
Скачивание файлов | Curl, Wayback Machine Downloader |
Поиск по файлам | grep / ripgrep |
Метаданные | MetaDetective, ExifTool |
PDF‑анализ | Ocrmypdf, Pdfgrep, Pdftotext, Pdfimages |
Сбор информации — это всегда комбинация технических приёмов и здорового любопытства. Составьте план, автоматизируйте рутину, но проверяйте вывод руками: никакой скрипт не знает контекста бизнеса лучше вас. И, конечно, помните о мандатах и политике безопасности — разведка без разрешения превращается в нарушение.
Надеюсь, эта статья поможет безопасникам, исследователям и просто пытливым читателям выстроить собственную цепочку OSINT‑инструментов и заглянуть чуть глубже под обложку любого веб‑сайта.
Успехов в поиске полезной информации и — ни багов вам, ни утечек!