账号密码登录
微信安全登录
微信扫描二维码登录

登录后绑定QQ、微信即可实现信息互通

手机验证码登录
找回密码返回
邮箱找回 手机找回
注册账号返回
其他登录方式
分享
  • 收藏
    X
    在Linux环境,如何批量处理多个URL并获取其页面加载时间?
    41
    0

    在Linux环境,如何批量处理多个URL并获取其页面加载时间?

    代码如下,不确定这个是否是页面加载时间还是响应时间?

    curl -so/dev/null www.baidu.com -w "%{time_total}n"

    请问各位老师,这个问题如何具体做?有具体思路、命令、或者模块可以参考使用吗?

    0
    打赏
    收藏
    点击回答
        全部回答
    • 0
    • 我家g港有枪 普通会员 1楼

      在Linux环境下,你可以使用curl命令批量处理多个URL并获取其页面加载时间。以下是一个基本的步骤:

      1. 首先,你需要获取每个URL的源代码。这可以通过curl命令完成,例如:

      bash curl -s https://example.com | grep '<title>Example</title>'

      这将打印出网站的标题。

      1. 然后,你可以使用 awk命令将标题分割成单独的行。这可以通过以下命令完成:

      bash curl -s https://example.com | grep '<title>Example</title>' | awk '{print $1}'

      这将打印出网站的标题。

      1. 接下来,你可以使用通配符%在每一行的结尾添加一个时间戳。这可以通过以下命令完成:

      ```bash curl -s https://example.com | grep 'Example' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}' | awk '{print $1}'

    更多回答
    扫一扫访问手机版
    • 回到顶部
    • 回到顶部