Kali-Linux 子域名 Sublist3r
Kali Linux 子域名 Sublist3r
注意本资料只适用学习研究,禁止进行非授权活动。请熟读网络安全法条规
Lali Linux 系列第四篇信息收集第三章 子域名 Sublist3r
从几个维度来收集子域名,使用软件进行目录扫描
子域名收集的作用
- 扩大渗透测试范围
- 找到目标站点突破口
- 业务边界安全
当然泛解析域名是没有利用价值的
常见子域盲区
子域名打开就是404页面、403页面怎么做
案例:我们如何发现 ucweb.com 的两个 XSS
示例:链接
收集子域名的方法
- 在线收集子域名
- 谷歌语法
通过特定站点的范围查询子域:site:baidu.com
- 在线爆破
在线枚举爆破:在线枚举爆破链接
- 证书搜索
基于 SSL 证书查询子域:基于 SSL 证书查询链接
- DNS 搜索(比较精准)
基于 DNS 记录查询子域:基于 DNS 记录查询子域链接
- Fuzzdomain 工具
使用 GitHub 下载相应的子域发现工具(根据文档记得安装依赖)
git clone https://github.com/aboul3la/Sublist3r |
- 用户事件
- 历史漏洞
乌云镜像:乌云镜像链接
- 使用手册、通知
学院通知:示例链接
使用御剑扫描敏感目录
御剑是一款很好用的网站后台扫描工具,图形化页面,使用起来简单上手
字典查询
弱口令100
Web目录字典 - 域名字典
robots.txt 文件的作用
Robits协议
(也叫爬虫协议、机器人协议等)全称是 “ 网络爬虫排除标准 ” (Robots Exclusion Protocol),网站通过 Robots 协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
Robots.txt 文件的重要性
Robots.txt 是搜索引擎蜘蛛访问网站时要查看的第一个文件,并且会根据 Robots.txt 文件的内容来爬行网站。在某种意义上说,它的一个任务就是指导蜘蛛爬行,减少搜索引擎蜘蛛的工作量。
Robots.txt 文件的存放位置
网站根目录下,通过 “ 域名/robots.txt0 ” 能正常访问即可,如:http://域名/robots.txt
Robots写法:链接
此文章版權歸Arvin所有,如有轉載,請註明來自原作者
評論