写一个批量检查url状态码和最终落地页的shell脚本url由urlstxt读取并将最终结果导出为csv文件保存
以下是一个使用shell脚本批量检查URL状态码和最终落地页的示例:
#!/bin/bash
# 输入文件路径
input_file="urls.txt"
# 输出文件路径
output_file="results.csv"
# 创建CSV文件并写入标题行
echo "URL,Status Code,Final URL" > "$output_file"
# 逐行读取输入文件中的URL
while IFS= read -r url
do
# 发送HEAD请求获取状态码和最终URL
response=$(curl -s -L -I -o /dev/null -w "%{http_code},%{url_effective}" "$url")
# 将结果按逗号分隔解析为数组
IFS=',' read -ra fields <<< "$response"
# 将结果写入CSV文件
echo "${fields[1]},${fields[0]},${fields[2]}" >> "$output_file"
done < "$input_file"
echo "检查完成,结果已保存到 $output_file"
使用方法:
- 将上述脚本保存为
check_urls.sh文件。 - 在与脚本文件相同目录下创建名为
urls.txt的文件,并将要检查的URL逐行写入该文件。 - 打开终端,进入脚本文件所在的目录。
- 运行命令
chmod +x check_urls.sh,为脚本文件添加执行权限。 - 运行命令
./check_urls.sh,开始批量检查URL状态码和最终落地页。 - 检查完成后,结果将保存在与脚本文件相同目录下的
results.csv文件中。
注意:脚本使用curl命令发送HEAD请求获取URL的状态码和最终URL。请确保系统已安装curl命令
原文地址: https://www.cveoy.top/t/topic/ifbG 著作权归作者所有。请勿转载和采集!