以下是一个批量检查URL状态码和最终落地页的shell脚本示例:

#!/bin/bash

# 定义输入和输出文件
input_file="urls.txt"
output_file="results.txt"

# 检查输入文件是否存在
if [ ! -f "$input_file" ]; then
  echo "输入文件 $input_file 不存在"
  exit 1
fi

# 清空输出文件
> "$output_file"

# 逐行读取URL并检查状态码和最终落地页
while IFS= read -r url; do
  # 检查URL状态码
  status_code=$(curl -s -o /dev/null -w "%{http_code}" "$url")
  
  # 检查最终落地页
  final_url=$(curl -s -L -o /dev/null -w "%{url_effective}" "$url")

  # 将结果写入输出文件
  echo "URL: $url" >> "$output_file"
  echo "状态码: $status_code" >> "$output_file"
  echo "最终落地页: $final_url" >> "$output_file"
  echo "" >> "$output_file"
done < "$input_file"

echo "检查完成,结果已保存到 $output_file"

要使用这个脚本,您需要将要检查的URL逐行写入名为urls.txt的输入文件中。然后,运行脚本,它将检查每个URL的状态码和最终落地页,并将结果写入名为results.txt的输出文件中。

请注意,此脚本依赖于curl命令来执行HTTP请求并获取状态码和最终落地页。如果您的系统上没有curl,请先安装它

写一个批量检查url状态码和最终落地页的shell脚本url由urlstxt读取并将最终结果导出为txt文件保存

原文地址: https://www.cveoy.top/t/topic/ifbw 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录