以下是一个简单的 Python 爬虫代码,可以将给定网站中的所有图片下载并保存到本地:

import requests
import os
from bs4 import BeautifulSoup

# 定义要爬取的网站 URL
url = 'https://www.craft.do/s/E8S0PiAPUp9kHb/b/BD432236-0758-45EB-8FD6-6E338776806C/4.-%E3%80%8A%E9%80%8F%E6%98%8E%E7%89%87%E3%80%8B%E5%AF%BC%E8%AF%BB2'

# 发送 GET 请求并获取页面 HTML 内容
response = requests.get(url)
html = response.text

# 使用 BeautifulSoup 解析 HTML 内容
soup = BeautifulSoup(html, 'html.parser')

# 找到所有的图片标签
img_tags = soup.find_all('img')

# 遍历所有图片标签
for i, img_tag in enumerate(img_tags):
    # 获取图片 URL
    img_url = img_tag['src']
    
    # 发送 GET 请求并获取图片二进制数据
    img_data = requests.get(img_url).content
    
    # 获取图片标题
    img_title = img_tag['alt']
    
    # 将标题和顺序作为文件名
    filename = f"{i+1}. {img_title}.jpg"
    
    # 将图片保存到本地
    with open(filename, 'wb') as f:
        f.write(img_data)
        
        print(f"Downloaded {filename}")

在运行上述代码之前,需要先安装 requestsbeautifulsoup4 库。可以使用以下命令进行安装:

pip install requests beautifulsoup4

运行上述代码后,将会在当前目录下保存所有图片,并以标题和顺序作为文件名

写一个python爬虫 将这个网站 httpswwwcraftdosE8S0PiAPUp9kHbbBD432236-0758-45EB-8FD6-6E338776806C4-E3808AE9808FE6988EE78987E3808BE5AFBCE8AFBB2 里的图片全都下载下来并且按标题和出现顺序进行命名

原文地址: https://www.cveoy.top/t/topic/crpr 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录