写一个批量检查url状态码和最终落地页的shell脚本url由urlstxt读取并将最终结果导出为txt文件保存
以下是一个批量检查URL状态码和最终落地页的shell脚本示例:
#!/bin/bash
# 定义输入和输出文件
input_file="urls.txt"
output_file="results.txt"
# 检查输入文件是否存在
if [ ! -f "$input_file" ]; then
echo "输入文件 $input_file 不存在"
exit 1
fi
# 清空输出文件
> "$output_file"
# 逐行读取URL并检查状态码和最终落地页
while IFS= read -r url; do
# 检查URL状态码
status_code=$(curl -s -o /dev/null -w "%{http_code}" "$url")
# 检查最终落地页
final_url=$(curl -s -L -o /dev/null -w "%{url_effective}" "$url")
# 将结果写入输出文件
echo "URL: $url" >> "$output_file"
echo "状态码: $status_code" >> "$output_file"
echo "最终落地页: $final_url" >> "$output_file"
echo "" >> "$output_file"
done < "$input_file"
echo "检查完成,结果已保存到 $output_file"
要使用这个脚本,您需要将要检查的URL逐行写入名为urls.txt的输入文件中。然后,运行脚本,它将检查每个URL的状态码和最终落地页,并将结果写入名为results.txt的输出文件中。
请注意,此脚本依赖于curl命令来执行HTTP请求并获取状态码和最终落地页。如果您的系统上没有curl,请先安装它
原文地址: https://www.cveoy.top/t/topic/ifbw 著作权归作者所有。请勿转载和采集!