写一个python爬虫 将这个网站 httpswwwcraftdosE8S0PiAPUp9kHbbBD432236-0758-45EB-8FD6-6E338776806C4-E3808AE9808FE6988EE78987E3808BE5AFBCE8AFBB2 里的图片全都下载下来并且按标题和出现顺序进行命名
以下是一个简单的 Python 爬虫代码,可以将给定网站中的所有图片下载并保存到本地:
import requests
import os
from bs4 import BeautifulSoup
# 定义要爬取的网站 URL
url = 'https://www.craft.do/s/E8S0PiAPUp9kHb/b/BD432236-0758-45EB-8FD6-6E338776806C/4.-%E3%80%8A%E9%80%8F%E6%98%8E%E7%89%87%E3%80%8B%E5%AF%BC%E8%AF%BB2'
# 发送 GET 请求并获取页面 HTML 内容
response = requests.get(url)
html = response.text
# 使用 BeautifulSoup 解析 HTML 内容
soup = BeautifulSoup(html, 'html.parser')
# 找到所有的图片标签
img_tags = soup.find_all('img')
# 遍历所有图片标签
for i, img_tag in enumerate(img_tags):
# 获取图片 URL
img_url = img_tag['src']
# 发送 GET 请求并获取图片二进制数据
img_data = requests.get(img_url).content
# 获取图片标题
img_title = img_tag['alt']
# 将标题和顺序作为文件名
filename = f"{i+1}. {img_title}.jpg"
# 将图片保存到本地
with open(filename, 'wb') as f:
f.write(img_data)
print(f"Downloaded {filename}")
在运行上述代码之前,需要先安装 requests 和 beautifulsoup4 库。可以使用以下命令进行安装:
pip install requests beautifulsoup4
运行上述代码后,将会在当前目录下保存所有图片,并以标题和顺序作为文件名
原文地址: https://www.cveoy.top/t/topic/crpr 著作权归作者所有。请勿转载和采集!