优化性能

报告问题 查看源代码 每夜 build · 8.0 7.4 . 7.3 · 7.2 · 7.1 · 7.0 · 6.5

编写规则时,最常见的性能陷阱是遍历或复制从依赖项累积的数据。在整个 build 中进行汇总时,这些操作很容易需要 O(N^2) 的时间或空间。为避免出现这种情况,了解如何有效使用 depset 至关重要。

这可能很难做到,因此 Bazel 还提供了内存性能分析器,可帮助您找出可能出错的地方。请注意:编写效率低下的规则的代价可能在该规则被广泛使用之前并不明显。

使用 depset

每当您要汇总规则依赖项中的信息时,都应使用 depsets。请仅使用普通列表或字典来发布当前规则本地的信息。

依赖项集将信息表示为嵌套图,以便共享。

请考虑以下图表:

C -> B -> A
D ---^

每个节点都会发布一个字符串。使用 depset 时,数据如下所示:

a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])

请注意,每个项目只会被提及一次。如果使用列表,您会看到以下内容:

a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']

请注意,在本例中,'a' 被提及了四次!如果图表更大,这个问题只会变得更严重。

下面的示例展示了一个规则实现,该实现正确使用了 depset 来发布传递信息。请注意,您可以根据需要使用列表发布规则级信息,因为这不是 O(N^2)。

MyProvider = provider()

def _impl(ctx):
  my_things = ctx.attr.things
  all_things = depset(
      direct=my_things,
      transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
  )
  ...
  return [MyProvider(
    my_things=my_things,  # OK, a flat list of rule-local things only
    all_things=all_things,  # OK, a depset containing dependencies
  )]

如需了解详情,请参阅依赖项集概览页面。

避免调用 depset.to_list()

您可以使用 to_list() 将 depset 强制转换为扁平列表,但这样做通常会导致 O(N^2) 开销。除调试目的外,请尽可能避免对依赖项集进行任何扁平化处理。

一个常见的误解是,如果您只在顶级目标(例如 <xx>_binary 规则)上展平 depset,则可以随意展平 depset,因为这样不会在 build 图的每个级别累积费用。但是,如果您构建一组具有重叠依赖项的目标,则仍然是 O(N^2)。在构建测试 //foo/tests/... 或导入 IDE 项目时,就会发生这种情况。

减少对 depset 的调用次数

在循环中调用 depset 通常是错误的。这可能会导致嵌套极深的 depset,其性能较差。例如:

x = depset()
for i in inputs:
    # Do not do that.
    x = depset(transitive = [x, i.deps])

此代码可以轻松替换。首先,收集传递依赖项集并一次性合并它们:

transitive = []

for i in inputs:
    transitive.append(i.deps)

x = depset(transitive = transitive)

有时可以使用列表推理来减少此类问题:

x = depset(transitive = [i.deps for i in inputs])

针对命令行使用 ctx.actions.args()

构建命令行时,您应使用 ctx.actions.args()。这会将任何 depset 的展开推迟到执行阶段。

除了速度更快之外,这还会减少规则的内存消耗,有时可减少 90% 或更多。

以下是一些技巧:

  • 直接将 depset 和列表作为参数传递,而不是自行展平它们。ctx.actions.args() 会为您展开这些内容。 如果您需要对 depset 内容进行任何转换,请查看 ctx.actions.args#add,看看是否有任何内容符合要求。

  • 您是否将 File#path 作为参数传递?无需。任何文件都会自动转换为其路径,并推迟到展开时。

  • 避免通过串联字符串来构造字符串。 最佳字符串参数是常量,因为其内存将在规则的所有实例之间共享。

  • 如果参数过长,无法在命令行中输入,则可以使用 ctx.actions.args#use_param_file 有条件或无条件地将 ctx.actions.args() 对象写入参数文件。系统会在执行操作时在后台执行此操作。如果您需要显式控制 params 文件,可以使用 ctx.actions.write 手动编写该文件。

示例:

def _impl(ctx):
  ...
  args = ctx.actions.args()
  file = ctx.declare_file(...)
  files = depset(...)

  # Bad, constructs a full string "--foo=<file path>" for each rule instance
  args.add("--foo=" + file.path)

  # Good, shares "--foo" among all rule instances, and defers file.path to later
  # It will however pass ["--foo", <file path>] to the action command line,
  # instead of ["--foo=<file_path>"]
  args.add("--foo", file)

  # Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
  args.add(format="--foo=%s", value=file)

  # Bad, makes a giant string of a whole depset
  args.add(" ".join(["-I%s" % file.short_path for file in files])

  # Good, only stores a reference to the depset
  args.add_all(files, format_each="-I%s", map_each=_to_short_path)

# Function passed to map_each above
def _to_short_path(f):
  return f.short_path

传递操作输入应为 depset

使用 ctx.actions.run 构建操作时,请不要忘记 inputs 字段接受 depset。每当从依赖项传递地收集输入时,请使用此方法。

inputs = depset(...)
ctx.actions.run(
  inputs = inputs,  # Do *not* turn inputs into a list
  ...
)

悬挂

如果 Bazel 似乎挂起,您可以按 Ctrl-\ 或向 Bazel 发送 SIGQUIT 信号 (kill -3 $(bazel info server_pid)),以在文件 $(bazel info output_base)/server/jvm.out 中获取线程转储。

由于如果 bazel 挂起,您可能无法运行 bazel info,因此 output_base 目录通常是工作区目录中 bazel-<workspace> 符号链接的父目录。

性能剖析

JSON 轨迹配置文件非常有用,可帮助您快速了解 Bazel 在调用期间花费了时间在哪些方面。

内存性能分析

Bazel 附带内置内存性能分析器,可帮助您检查规则的内存用量。如果存在问题,您可以转储堆,以查找导致问题的确切代码行。

启用内存跟踪

您必须将以下两个启动标志传递给每次 Bazel 调用:

  STARTUP_FLAGS=\
  --host_jvm_args=-javaagent:<path to java-allocation-instrumenter-3.3.0.jar> \
  --host_jvm_args=-DRULE_MEMORY_TRACKER=1

这些命令会以内存跟踪模式启动服务器。如果您在调用 Bazel 时忘记了这些信息,即使只忘记一次,服务器也会重启,并且您将不得不从头开始。

使用内存跟踪器

例如,查看目标 foo 及其用途。如需仅运行分析而不运行构建执行阶段,请添加 --nobuild 标志。

$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo

接下来,查看整个 Bazel 实例的占用内存量:

$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB

使用 bazel dump --rules 按规则类别进行细分:

$ bazel $(STARTUP_FLAGS) dump --rules
>

RULE                                 COUNT     ACTIONS          BYTES         EACH
genrule                             33,762      33,801    291,538,824        8,635
config_setting                      25,374           0     24,897,336          981
filegroup                           25,369      25,369     97,496,272        3,843
cc_library                           5,372      73,235    182,214,456       33,919
proto_library                        4,140     110,409    186,776,864       45,115
android_library                      2,621      36,921    218,504,848       83,366
java_library                         2,371      12,459     38,841,000       16,381
_gen_source                            719       2,157      9,195,312       12,789
_check_proto_library_deps              719         668      1,835,288        2,552
... (more output)

使用 bazel dump --skylark_memory 生成 pprof 文件,了解内存的去向:

$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz

使用 pprof 工具调查堆。不妨从使用 pprof -flame $HOME/prof.gz 获取火焰图开始。

https://github.com/google/pprof 获取 pprof

获取热门调用站点的文字转储,并带有行注释:

$ pprof -text -lines $HOME/prof.gz
>
      flat  flat%   sum%        cum   cum%
  146.11MB 19.64% 19.64%   146.11MB 19.64%  android_library <native>:-1
  113.02MB 15.19% 34.83%   113.02MB 15.19%  genrule <native>:-1
   74.11MB  9.96% 44.80%    74.11MB  9.96%  glob <native>:-1
   55.98MB  7.53% 52.32%    55.98MB  7.53%  filegroup <native>:-1
   53.44MB  7.18% 59.51%    53.44MB  7.18%  sh_test <native>:-1
   26.55MB  3.57% 63.07%    26.55MB  3.57%  _generate_foo_files /foo/tc/tc.bzl:491
   26.01MB  3.50% 66.57%    26.01MB  3.50%  _build_foo_impl /foo/build_test.bzl:78
   22.01MB  2.96% 69.53%    22.01MB  2.96%  _build_foo_impl /foo/build_test.bzl:73
   ... (more output)