编写规则时,最常见的性能陷阱是遍历或复制从依赖项累积的数据。在整个 build 中进行汇总时,这些操作很容易需要 O(N^2) 的时间或空间。为避免出现这种情况,了解如何有效使用 depset 至关重要。
这个问题可能很难正确解决,因此 Bazel 还提供了一个内存分析器,能够帮助您找到可能出错的位置。请注意:编写效率低下的规则的代价可能在该规则被广泛使用之前并不明显。
使用 depset
每当从规则依赖项中汇总信息时,都应使用 depsets。请仅使用普通列表或字典来发布当前规则本地的信息。
依赖项集将信息表示为嵌套图,以便共享。
请考虑以下图表:
C -> B -> A
D ---^
每个节点发布一个字符串。使用 depset 时,数据如下所示:
a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])
请注意,每项内容只会被提及一次。如果使用列表,您会看到以下内容:
a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']
请注意,在本例中,'a'
被提及了四次!如果图表更大,这个问题只会变得更严重。
以下是正确使用 Depset 发布传递信息的规则实现示例。请注意,您可以根据需要使用列表发布规则级信息,因为这不是 O(N^2)。
MyProvider = provider()
def _impl(ctx):
my_things = ctx.attr.things
all_things = depset(
direct=my_things,
transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
)
...
return [MyProvider(
my_things=my_things, # OK, a flat list of rule-local things only
all_things=all_things, # OK, a depset containing dependencies
)]
如需了解详情,请参阅 depset 概览页面。
避免调用 depset.to_list()
您可以使用 to_list()
将 depset 强制转换为扁平列表,但这样做通常会导致 O(N^2) 开销。除调试目的外,请尽可能避免对依赖项集进行任何扁平化处理。
一个常见的误解是,如果您仅在顶级目标(例如 <xx>_binary
规则)上展平 depset,则可以随意展平 depset,因为这样做不会在 build 图的每个级别累积费用。但是,如果您构建一组具有重叠依赖项的目标,则仍然是 O(N^2)。在构建测试 //foo/tests/...
或导入 IDE 项目时,会发生这种情况。
减少对 depset
的调用次数
在循环中调用 depset
通常是错误的。这可能会导致嵌套极深的 depset,其性能较差。例如:
x = depset()
for i in inputs:
# Do not do that.
x = depset(transitive = [x, i.deps])
此代码可以轻松替换。首先,收集传递依赖项集并一次性合并它们:
transitive = []
for i in inputs:
transitive.append(i.deps)
x = depset(transitive = transitive)
有时可以使用列表推理来减少此类代码:
x = depset(transitive = [i.deps for i in inputs])
针对命令行使用 ctx.actions.args()
构建命令行时,您应使用 ctx.actions.args()。这会将任何 depset 的展开推迟到执行阶段。
除了速度更快之外,这还会减少规则的内存消耗,有时可减少 90% 或更多。
以下是一些技巧:
直接将 depset 和列表作为参数传递,而不是自行展平它们。
ctx.actions.args()
会为您展开这些内容。 如果您需要对 depset 内容进行任何转换,请查看 ctx.actions.args#add,看看是否有任何内容符合要求。避免通过串联字符串来构造字符串。 最佳字符串参数是常量,因为其内存将在规则的所有实例之间共享。
如果参数太长而无法在命令行中输入,则可以使用
ctx.actions.args#use_param_file
有条件或无条件地将ctx.actions.args()
对象写入参数文件。系统会在执行操作时在后台执行此操作。如果您需要显式控制 params 文件,可以使用ctx.actions.write
手动编写该文件。
示例:
def _impl(ctx):
...
args = ctx.actions.args()
file = ctx.declare_file(...)
files = depset(...)
# Bad, constructs a full string "--foo=<file path>" for each rule instance
args.add("--foo=" + file.path)
# Good, shares "--foo" among all rule instances, and defers file.path to later
# It will however pass ["--foo", <file path>] to the action command line,
# instead of ["--foo=<file_path>"]
args.add("--foo", file)
# Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
args.add(format="--foo=%s", value=file)
# Bad, makes a giant string of a whole depset
args.add(" ".join(["-I%s" % file.short_path for file in files])
# Good, only stores a reference to the depset
args.add_all(files, format_each="-I%s", map_each=_to_short_path)
# Function passed to map_each above
def _to_short_path(f):
return f.short_path
传递操作输入应为 depset
使用 ctx.actions.run 构建操作时,请不要忘记 inputs
字段接受 depset。每当从依赖项传递地收集输入时,请使用此方法。
inputs = depset(...)
ctx.actions.run(
inputs = inputs, # Do *not* turn inputs into a list
...
)
悬挂
如果 Bazel 挂起,您可以点击 Ctrl-\ 或向 Bazel 发送 SIGQUIT
信号 (kill -3 $(bazel info server_pid)
),以获取 $(bazel info output_base)/server/jvm.out
文件中的线程转储。
由于在 Bazel 被挂起的情况下,您可能无法运行 bazel info
,因此 output_base
目录通常是工作区目录中 bazel-<workspace>
符号链接的父级。
性能剖析
JSON 轨迹配置文件非常有助于快速了解 Bazel 在调用期间花费了时间在哪些方面。
内存性能分析
Bazel 附带内置的内存分析器,可帮助您检查规则的内存使用情况。如果存在问题,您可以转储堆,以查找导致问题的确切代码行。
启用内存跟踪
您必须将以下两个启动标志传递给每个 Bazel 调用:
STARTUP_FLAGS=\
--host_jvm_args=-javaagent:<path to java-allocation-instrumenter-3.3.0.jar> \
--host_jvm_args=-DRULE_MEMORY_TRACKER=1
这些命令会以内存跟踪模式启动服务器。如果您在调用 Bazel 时忘记了这些信息,即使只忘记一次,服务器也会重启,并且您将不得不从头开始。
使用内存跟踪器
例如,查看目标 foo
及其作用。如需仅运行分析而不运行构建执行阶段,请添加 --nobuild
标志。
$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo
接下来,查看整个 Bazel 实例的占用内存量:
$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB
使用 bazel dump --rules
按规则类别进行细分:
$ bazel $(STARTUP_FLAGS) dump --rules
>
RULE COUNT ACTIONS BYTES EACH
genrule 33,762 33,801 291,538,824 8,635
config_setting 25,374 0 24,897,336 981
filegroup 25,369 25,369 97,496,272 3,843
cc_library 5,372 73,235 182,214,456 33,919
proto_library 4,140 110,409 186,776,864 45,115
android_library 2,621 36,921 218,504,848 83,366
java_library 2,371 12,459 38,841,000 16,381
_gen_source 719 2,157 9,195,312 12,789
_check_proto_library_deps 719 668 1,835,288 2,552
... (more output)
使用 bazel dump --skylark_memory
生成 pprof
文件,查看内存的去向:
$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz
使用 pprof
工具调查堆。建议您首先使用 pprof -flame $HOME/prof.gz
获取火焰图。
从 https://github.com/google/pprof 获取 pprof
。
获取热门调用站点的文字转储,并带有行注释:
$ pprof -text -lines $HOME/prof.gz
>
flat flat% sum% cum cum%
146.11MB 19.64% 19.64% 146.11MB 19.64% android_library <native>:-1
113.02MB 15.19% 34.83% 113.02MB 15.19% genrule <native>:-1
74.11MB 9.96% 44.80% 74.11MB 9.96% glob <native>:-1
55.98MB 7.53% 52.32% 55.98MB 7.53% filegroup <native>:-1
53.44MB 7.18% 59.51% 53.44MB 7.18% sh_test <native>:-1
26.55MB 3.57% 63.07% 26.55MB 3.57% _generate_foo_files /foo/tc/tc.bzl:491
26.01MB 3.50% 66.57% 26.01MB 3.50% _build_foo_impl /foo/build_test.bzl:78
22.01MB 2.96% 69.53% 22.01MB 2.96% _build_foo_impl /foo/build_test.bzl:73
... (more output)