以下是一个使用shell脚本批量检查URL状态码和最终落地页的示例:

#!/bin/bash

# 输入文件路径
input_file="urls.txt"
# 输出文件路径
output_file="results.csv"

# 创建CSV文件并写入标题行
echo "URL,Status Code,Final URL" > "$output_file"

# 逐行读取输入文件中的URL
while IFS= read -r url
do
  # 发送HEAD请求获取状态码和最终URL
  response=$(curl -s -L -I -o /dev/null -w "%{http_code},%{url_effective}" "$url")
  # 将结果按逗号分隔解析为数组
  IFS=',' read -ra fields <<< "$response"
  
  # 将结果写入CSV文件
  echo "${fields[1]},${fields[0]},${fields[2]}" >> "$output_file"
done < "$input_file"

echo "检查完成,结果已保存到 $output_file"

使用方法:

  1. 将上述脚本保存为check_urls.sh文件。
  2. 在与脚本文件相同目录下创建名为urls.txt的文件,并将要检查的URL逐行写入该文件。
  3. 打开终端,进入脚本文件所在的目录。
  4. 运行命令chmod +x check_urls.sh,为脚本文件添加执行权限。
  5. 运行命令./check_urls.sh,开始批量检查URL状态码和最终落地页。
  6. 检查完成后,结果将保存在与脚本文件相同目录下的results.csv文件中。

注意:脚本使用curl命令发送HEAD请求获取URL的状态码和最终URL。请确保系统已安装curl命令

写一个批量检查url状态码和最终落地页的shell脚本url由urlstxt读取并将最终结果导出为csv文件保存

原文地址: https://www.cveoy.top/t/topic/ifbG 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录