Python提取图片中的训练精度和损失值 - 使用PIL和OCR
要提取'E:\2023.09.22实验\cnn-gmlp\gmlp\epoch0-49(最高94.8)\49精-损.png'图片中的train的accuracy和loss值,可以使用Python中的图像处理库和OCR库来实现。下面是一种可能的实现方法:
- 使用Python的PIL库(Pillow)加载图片:
from PIL import Image
image_path = r'E:\2023.09.22实验\cnn-gmlp\gmlp\epoch0-49(最高94.8)\49精-损.png'
image = Image.open(image_path)
- 使用PIL库的crop函数裁剪出accuracy和loss值所在的区域。根据图片的具体情况,你需要确定裁剪的位置和大小。
accuracy_box = (x1, y1, x2, y2) # 根据具体情况填写坐标
accuracy_image = image.crop(accuracy_box)
loss_box = (x3, y3, x4, y4) # 根据具体情况填写坐标
loss_image = image.crop(loss_box)
- 使用OCR库来提取裁剪后的图片中的文本信息。这里可以使用Python的pytesseract库,但你需要先安装Tesseract OCR引擎。
import pytesseract
accuracy_text = pytesseract.image_to_string(accuracy_image)
loss_text = pytesseract.image_to_string(loss_image)
print('Accuracy:', accuracy_text)
print('Loss:', loss_text)
请注意,由于图片的质量、字体、大小等因素的影响,OCR的准确性可能会有所下降。你可能需要根据具体情况进行调整和优化。
原文地址: https://www.cveoy.top/t/topic/fs8R 著作权归作者所有。请勿转载和采集!