Uscrapper:一款功能强大的网络资源爬取工具

2024-03-22 986 0

关于Uscrapper

Uscrapper是一款功能强大的网络资源爬取工具,该工具可以帮助广大研究人员从各种网络资源中轻松高效地提取出有价值的数据,并且提供了稳定、友好且易于使用的UI界面,是安全研究人员和网络分析人员的强有力工具。

Uscrapper最大程度地释放了开源情报资源的力量,该工具能够深入挖掘广阔互联网中的各类资源,并解锁了新级别的数据提取能力,能够探索互联网中的未知领域,支持使用关键字提取模型精确发现隐藏的数据。

除此之外,Uscrapper还支持通过超链接或非超链接的形式获取丰富的目标用户数据,并利用多线程和先进的功能模块完成复杂的反数据爬取绕过,最终生成全面的数据报告来对提取到的数据进行组织和分析,将原始数据转换为可直接利用的有价值信息。

支持提取的数据

当前版本的Uscrapper支持从目标站点中提取出下列信息:

1、电子邮件地址:显示目标站点中发现的电子邮件地址;

2、社交媒体链接:显示从目标站点发现的各类社交媒体平台链接;

3、作者名称:显示跟目标站点相关的作者名称;

4、地理位置信息:显示跟目标站点相关的地理位置信息;

5、非超链接详情:显示在目标站点上找到的非超链接详细信息,包括电子邮件地址、电话号码和用户名;

6、基于关键字提取:通过指定属于或关键字列表提取和显示相关数据;

7、深网支持:支持处理.onion站点并提取关键信息;

工具安装-Unix/Linux

由于该工具基于Python开发,因此我们首先需要在本地设备上安装并配置好Python环境。

接下来,广大研究人员可以直接使用下列命令将该项目源码克隆至本地:

git clone https://github.com/z0m31en7/Uscrapper.git

然后切换到项目目录中,给工具安装脚本提供可执行权限,并执行安装脚本:

cd Uscrapper/install/

chmod +x ./install.sh && ./install.sh      

工具使用

我们可以按照下列命令格式运行Uscrapper:

python Uscrapper-vanta.py [-h] [-u URL] [-O] [-ns] [-c CRAWL] [-t THREADS] [-k KEYWORDS [KEYWORDS ...]] [-f FILE]

命令参数

-u URL, --url URL:目标站点的URL地址;

-O, --generate-report:生成报告;

-ns, --nonstrict:显示非严格的用户名(可能结果会不准确);

-c CRAWL, --crawl:指定在同一范围内爬网和抓取的最大链接数;

-t THREADS, --threads THREADS:要使用的爬取线程数量,默认为4;

-k KEYWORDS [KEYWORDS ...], --keywords KEYWORDS [KEYWORDS ...]:要查询的关键字(空格间隔参数);

-f FILE, --file FILE:包含关键字的文本文件路径;

工具运行截图

许可证协议

本项目的开发与发布遵循MIT开源许可证协议。

项目地址

Uscrapper:【GitHub传送门


4A评测 - 免责申明

本站提供的一切软件、教程和内容信息仅限用于学习和研究目的。

不得将上述内容用于商业或者非法用途,否则一切后果请用户自负。

本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。

如果您喜欢该程序,请支持正版,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。敬请谅解!

程序来源网络,不确保不包含木马病毒等危险内容,请在确保安全的情况下或使用虚拟机使用。

侵权违规投诉邮箱:4ablog168#gmail.com(#换成@)

相关文章

苹果试图保护你的隐私,OpenAI可能做不到
Shuffle:一款完全自动化的安全栈增强平台
如何使用CODASM编码Payload并降低熵值
SessionExec:一款针对会话安全的安全命令测试工具
Arkime:一款大规模数据包捕获和索引数据库系统
从蓝队流量角度分析Shiro-550反序列化漏洞

发布评论