百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Python除了做爬虫抓数据还能做什么?其实还能监视和衡量网站性能

liuian 2025-05-02 11:47 44 浏览

  借助这份对初学者友好的指南,您可以构建自己的自定义Python脚本来自动测量网站的关键速度和性能指标。


  在过去的一个月中,Google宣布了许多通过关键速度和性能指标来衡量用户体验的方法。

  巧合的是,我一直在努力编写一个Python脚本,该脚本使用Google PageSpeed Insights(PSI)API一次收集多个页面的指标,而无需为每个单独的URL运行测试。

  收到Google的公告后,我认为现在是共享它的绝佳时机,并解释了如何创建对初学者友好的Python脚本。

  关于脚本的最好的事情是,一旦建立了基础,就可以提取许多不同的指标,这些指标可以在页面速度测试以及Lighthouse分析中找到。

网络重要指标简介

  5月初,Google推出了Core Web Vitals,它是其关键Web Vitals指标的一部分。

  这些指标用于提供有关网站上用户体验质量的指导。

  Google将其描述为“帮助量化您的网站体验并确定改进机会”的一种方式,进一步强调了它们向关注用户体验的转变。

  核心网络生命力是真实的,以用户为中心的指标,用于衡量用户体验的关键方面。加载时间,互动性和稳定性。

  除此之外,Google 上周宣布,他们将引入一个新的搜索排名信号,它将这些指标与现有页面体验信号(例如移动设备友好性和HTTPS安全性)结合在一起,以确保它们继续为高质量网站提供服务给用户。

监控性能指标

  预计此更新将于2021年推出,Google已确认不需要立即采取行动。

  但是,为了帮助我们为这些更改做准备,他们更新了用于测量页面速度的工具,包括PSI,Google Lighthouse和Google Search Console Speed Report。

Pagespeed Insights API从何入手?

  Google的PageSpeed Insights是查看网页效果摘要的有用工具,它使用现场数据和实验室数据来生成结果。

  这是获得少数URL概述的好方法,因为它是逐页使用的。

  但是,如果您在大型站点上工作,并且希望获得大规模的见解,那么该API可以有利于一次分析多个页面,而无需单独插入URL。

用于衡量性能的Python脚本

  我创建了以下Python脚本来大规模度量关键性能指标,以节省手动测试每个URL所花费的时间。

  该脚本使用Python将请求发送到Google PSI API,以收集和提取在PSI和Lighthouse中显示的指标。

  我决定在Google Colab中编写此脚本,因为这是开始编写Python并允许轻松共享的好方法,因此本文将使用Google Colab贯穿整个安装过程。

  但是,它也可以在本地运行,对数据的上传和下载进行一些调整。

  请务必注意,某些步骤可能需要一些时间才能完成,尤其是当每个URL通过API运行时,为了不使请求过载。

  因此,您可以在后台运行脚本,并在完成步骤后返回到脚本。

  让我们逐步介绍启动和运行此脚本所需的步骤。

步骤1:安装所需的软件包

  在开始编写任何代码之前,我们需要安装一些Python程序包,然后才能使用该脚本。这些使用导入功能很容易安装。

我们需要的软件包是:

  • urllib:用于处理,打开,阅读和解析URL。
  • json:允许您将JSON文件转换为Python或将Python文件转换为JSON。
  • request:一个HTTP库,用于发送各种HTTP请求。
  • pandas:主要用于数据分析和处理,我们正在使用它来创建DataFrames。
  • time:一个用于处理时间的模块,我们正在使用它在请求之间提供时间间隔。
  • 文件:通过Google Colab,您可以上传和下载文件。
  • io:用于访问文件的默认接口。
# Import required packages 
import json
import requests
import pandas as pd
import urllib
import time
from google.colab import files
import io 

第2步:设置API请求

  下一步是设置API请求。完整的说明可以在这里找到,但是从本质上讲,该命令将如下所示:

https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={yourURL}/&strategy=mobile/&key={yourAPIKey}

  这将允许您附加URL,策略(台式机或移动设备)和API密钥。

  要在Python中使用它,我们将使用urllib请求库urllib.request.urlopen并将其添加到名为result的变量中,以便我们可以存储结果并在脚本中再次使用它们。

# Define URL  
url = 'https://www.example.co.uk'

# API request url
result = urllib.request.urlopen('https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={}/&strategy=mobile'\
.format(url)).read().decode('UTF-8')

print(result)

步骤3:测试API

  为了测试API的正确设置以及对测试过程中生成的内容的理解,我使用简单的urllib.request方法通过API运行了一个URL。

  完成此操作后,我将结果转换为json文件并下载了它,以便查看结果。

# Convert to json format
result_json = json.loads(result)

print(result_json)

with open('result.json', 'w') as outfile:
  json.dump(result_json, outfile)

files.download('result.json')

(请注意,此方法用于在Google Colab中转换和下载JSON文件。)

步骤4:读取JSON档案

  JSON文件显示字段数据(存储在loadingExperience下)和实验室数据(可以在lighthouseResult下找到)。

  为了提取所需的指标,我们可以利用JSON文件的格式,因为我们能够看到每个部分下面的指标。

第5步:上传CSV并存储为Pandas数据框

  下一步是上传我们要通过PSI API运行的URL的CSV文件。您可以通过抓取工具(例如DeepCrawl)生成站点URL的列表。

  当我们使用API时,建议您在此处使用较小的URL示例集,尤其是在您拥有大型站点的情况下。

  例如,您可以使用访问量最高的页面或产生最大收入的页面。另外,如果您的站点有模板,则非常适合测试其中的模板。

  您还可以在此处添加column-header变量,我们将在遍历列表时使用该变量。确保此名称与您上传的CSV文件中的列标题名称匹配:

uploaded = files.upload()
#if your column header is something other than 'url' please define it here 
column_header='url'

(请注意,此方法用于在Google Colab中上传CSV文件。)

  将其上传后,我们将使用Pandas库将CSV转换为DataFrame,我们可以在以下步骤中进行迭代。

# Get the filename from the upload so we can read it into a CSV.
for key in uploaded.keys():
  filename = key
# Read the selected file into a Pandas Dataframe
df = pd.read_csv(io.BytesIO(uploaded[filename]))

df.head()

  DataFrame看起来像这样,从零索引开始。

步骤6:将结果保存到响应对象

  下一步涉及使用for循环来迭代刚刚通过PSI API创建的URL的DataFrame。

  for循环使我们可以遍历上载的列表并为每个项目执行命令。然后,我们可以将结果保存到响应对象中,并将其转换为JSON文件。

response_object = {}

# Iterate through the df
for x in range(0, len(df)):

        # Define request parameter
        url = df.iloc[x][column_header]

        # Make request
        pagespeed_results = urllib.request.urlopen('https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={}&strategy=mobile'.format(url)).read().decode('UTF-8')

        # Convert to json format
        pagespeed_results_json = json.loads(pagespeed_results)

        # Insert returned json response into response_object
        response_object[url] = pagespeed_results_json
        time.sleep(30)
        
        print(response_object[url])

  我们将在此处使用范围内的x,它表示循环中正在运行的URL,以及(0,len)允许循环遍历DataFrame中的所有URL,无论包含多少个URL 。

  该响应对象防止通过重写相互循环,你的网址,使我们能够保存数据以备将来使用。

  这也是在将其转换为JSON文件之前,将使用列标题变量定义URL请求参数的地方。

  我还将此处的睡眠时间设置为30秒,以减少连续进行的API调用次数。

  另外,如果您希望更快地提出请求,则可以在URL命令的末尾附加一个API密钥。

  缩进在这里也很重要,因为每个步骤都是for循环的一部分,因此必须在命令中缩进它们。

步骤7:创建一个数据框来存储响应

  我们还需要创建一个DataFrame来存储我们要从响应对象中提取的指标。

  DataFrame是类似于表的数据结构,具有存储数据的列和行。我们只需要为每个指标添加一列并适当地命名它,如下所示:

# Create dataframe to store responses
df_pagespeed_results = pd.DataFrame(columns=
          ['url',
          'Overall_Category',
          'Largest_Contentful_Paint',
          'First_Input_Delay',
          'Cumulative_Layout_Shift',
          'First_Contentful_Paint',
          'Time_to_Interactive',
          'Total_Blocking_Time',
          'Speed_Index'])  

print(df_pagespeed_results)

  出于此脚本的目的,我使用了Core Web Vital指标以及当前Lighthouse版本中使用的其他负载和交互性指标。

  这些指标各自具有不同的权重,然后将它们用于总体绩效得分:

  • LCP
  • FID
  • CLS
  • FCP
  • TTI
  • TBT

  您可以在上方链接的各个目标网页上找到有关每个指标的更多信息以及如何解释分数的信息。

  我还选择包括速度指数和整体类别,这些类别将提供慢速,平均或快速得分。

步骤8:从响应对象中提取指标

  保存响应对象后,我们现在可以对其进行过滤并仅提取所需的指标。

  在这里,我们将再次使用for循环遍历响应对象文件,并设置一系列列表索引以仅返回特定指标。

  为此,我们将从DataFrame中定义列名称,以及为每个URL从中提取每个指标的响应对象的特定类别。

for (url, x) in zip(
    response_object.keys(),
    range(0, len(response_object))
):

        # URLs
        df_pagespeed_results.loc[x, 'url'] =\
            response_object[url]['lighthouseResult']['finalUrl']

        # Overall Category
        df_pagespeed_results.loc[x, 'Overall_Category'] =\
            response_object[url]['loadingExperience']['overall_category']   

        # Core Web Vitals     

        # Largest Contentful Paint    
        df_pagespeed_results.loc[x, 'Largest_Contentful_Paint'] =\
        response_object[url]['lighthouseResult']['audits']['largest-contentful-paint']['displayValue']

        # First Input Delay 
        fid = response_object[url]['loadingExperience']['metrics']['FIRST_INPUT_DELAY_MS']
        df_pagespeed_results.loc[x, 'First_Input_Delay'] = fid['percentile']

        # Cumulative Layout Shift    
        df_pagespeed_results.loc[x, 'Cumulative_Layout_Shift'] =\
        response_object[url]['lighthouseResult']['audits']['cumulative-layout-shift']['displayValue']

        # Additional Loading Metrics 

        # First Contentful Paint 
        df_pagespeed_results.loc[x, 'First_Contentful_Paint'] =\
        response_object[url]['lighthouseResult']['audits']['first-contentful-paint']['displayValue']

        # Additional Interactivity Metrics 

        # Time to Interactive  
        df_pagespeed_results.loc[x, 'Time_to_Interactive'] =\
        response_object[url]['lighthouseResult']['audits']['interactive']['displayValue']

        # Total Blocking Time   
        df_pagespeed_results.loc[x, 'Total_Blocking_Time'] =\
        response_object[url]['lighthouseResult']['audits']['total-blocking-time']['displayValue']

        # Speed Index
        df_pagespeed_results.loc[x, 'Speed_Index'] =\
        response_object[url]['lighthouseResult']['audits']['speed-index']['displayValue']

  我已将此脚本设置为提取上面提到的关键指标,因此您可以立即使用它来收集此数据。

  但是,可以提取在PSI测试以及Lighthouse分析中都可以找到的许多其他有用指标。

  在此JSON文件可用于查看每个指标在列表中的位置。

  例如,在从Lighthouse审核中提取指标(例如“互动时间”的显示值)时,将使用以下内容:

df_pagespeed_results.loc[x, 'Time_to_Interactive'] =\
response_object[url]['lighthouseResult']['audits']['interactive']['displayValue']

  再一次,重要的是要确保每一个都位于循环中,否则它们将不会包含在迭代中,并且只会为一个URL生成一个结果。

步骤9:将DataFrame转换为CSV文件

  最后一步是创建一个摘要文件以收集所有结果,因此我们可以将其转换为易于分析的格式,例如CSV文件。

summary = df_pagespeed_results

df_pagespeed_results.head()

#Download csv file 
summary.to_csv('pagespeed_results.csv')
files.download('pagespeed_results.csv')

(请注意,此方法用于在Google Colab中转换和下载CSV文件。)

进一步探索数据

  目前,我们导出的所有指标都存储为字符串,这是用于文本和字符的Python数据类型。

  由于我们提取的某些指标实际上是数字值,因此您可能希望将字符串转换为数字数据类型,例如整数和浮点数。

  整数,也称为int,是整数的数据类型,例如1和10。

  浮点数,也称为浮点数,是十进制点数,例如1.0和10.1。

  为了将字符串转换为数字,我们需要执行两个步骤,第一步是将's'字符(用于表示秒)替换为空格。

  我们通过在每列上使用.str.replace方法来执行此操作。

#Replace the 's' with a blank space so we can turn into numbers
df_pagespeed_results['Largest_Contentful_Paint'] = df_pagespeed_results.Largest_Contentful_Paint.str.replace('s', '')
df_pagespeed_results['First_Contentful_Paint'] = df_pagespeed_results.First_Contentful_Paint.str.replace('s', '')
df_pagespeed_results['Time_to_Interactive'] = df_pagespeed_results.Time_to_Interactive.str.replace('s', '')
df_pagespeed_results['Total_Blocking_Time'] = df_pagespeed_results.Total_Blocking_Time.str.replace('ms', '')
df_pagespeed_results['Speed_Index'] = df_pagespeed_results.Speed_Index.str.replace('s', '')

  然后,我们将使用.astype()方法将字符串转换为整数或浮点数:

#Turn strings into intergers or floats
df_pagespeed_results['Largest_Contentful_Paint'] = df_pagespeed_results.Largest_Contentful_Paint.astype(float)
df_pagespeed_results['Cumulative_Layout_Shift'] = df_pagespeed_results.Cumulative_Layout_Shift.astype(int)
df_pagespeed_results['First_Contentful_Paint'] = df_pagespeed_results.First_Contentful_Paint.astype(float)
df_pagespeed_results['Time_to_Interactive'] = df_pagespeed_results.Time_to_Interactive.astype(float)
df_pagespeed_results['Speed_Index'] = df_pagespeed_results.Speed_Index.astype(float)

  完成此操作后,您可以使用多种不同的方法进一步评估数据。

  例如,您可以使用数据可视化库(例如matplotlib或seaborn)来可视化指标,以及测量指标如何随时间变化并将结果分组为慢速,中速和快速存储桶。

  由于我们已经介绍了很多内容,因此我不会在本文中介绍这些内容,但是如果您想了解更多信息,请随时与我们联系。

结论

  该脚本最终帮助我测量了一组URL的关键页面速度和性能指标,并可视化了结果以识别需要改进的页面。

  它还允许您随时间监视结果并量化已进行的改进。

  我还创建了一个脚本来专门测量三个核心Web Vitals的百分比和类别。

  我希望这对希望自动化其性能测试并进一步探索PSI API的人有所帮助。

  请随时保存此Colab文件的副本,并使用它来帮助测量和监视您的页面速度,或者按照自己的步骤进行操作。您可以在此处访问我在本文中分享的所有代码段。

相关推荐

eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级

近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...

SpringBoot异常处理_springboot异常注解

在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...

Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)

这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...

告别宕机!零基础搭建服务器监控告警系统!小白也能学会!

前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...

httprunner实战接口测试笔记,拿走不谢

每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...

基于JMeter的性能压测平台实现_jmeter压测方案

这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...

12K+ Star!新一代的开源持续测试工具!

大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...

Spring Boot3 中分库分表之后如何合并查询

在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...

离线在docker镜像方式部署ragflow0.17.2

经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...

看,教你手写一个最简单的SpringBoot Starter

何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...

《群星stellaris》军事基地跳出怎么办?解决方法一览

《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...

数据开发工具dbt手拉手教程-03.定义数据源模型

本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...

docker compose 常用命令手册_docker-compose init

以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...

RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现

一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...

Docker Compose 配置更新指南_docker-compose配置

高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...