Nesta página, descrevemos os workers multiplex, como escrever arquivos regras e soluções alternativas para determinadas limitações.
Os workers multiplex permitem que o Bazel processe várias solicitações com um único worker de desenvolvimento de software. Para workers multithread, o Bazel pode usar menos recursos para alcançar o mesmo desempenho ou até mesmo um melhor. Por exemplo, em vez de ter um processo de worker por worker, o Bazel pode ter quatro workers multiplexados conversando o mesmo processo worker, que pode processar solicitações em paralelo. Para linguagens, como Java e Scala, isso economiza o tempo de aquecimento da JVM e a compilação do JIT tempo de atividade e, em geral, permite o uso de um cache compartilhado entre todos os workers do do mesmo tipo.
Visão geral
Há duas camadas entre o servidor do Bazel e o processo do worker. Para determinados
mnemônicas que podem executar processos em paralelo, o Bazel recebe uma WorkerProxy
do
no pool de workers. O WorkerProxy
encaminha solicitações para o processo do worker.
sequencialmente com um request_id
, o processo do worker processa a solicitação
e envia respostas para a WorkerMultiplexer
. Quando a solicitação WorkerMultiplexer
recebe uma resposta, ele analisa o request_id
e encaminha as respostas
para o WorkerProxy
correto. Assim como em workers não multiplexados, toda
comunicação é feita por entrada/saída padrão, mas a ferramenta não pode usar
stderr
para saída visível ao usuário (consulte abaixo).
Cada worker tem uma chave. O Bazel usa o código hash da chave (composto do
variáveis, a raiz de execução e a mnemônica) para determinar
WorkerMultiplexer
para usar. WorkerProxy
s se comunicam com a mesma
WorkerMultiplexer
se tiverem o mesmo código hash. Portanto, presumindo
as variáveis de ambiente e a raiz de execução são as mesmas em um único Bazel
invocação, cada mnemônico único só pode ter um WorkerMultiplexer
e um
processo do worker. O número total de workers, incluindo workers regulares e
WorkerProxy
s, ainda é limitado por --worker_max_instances
.
Como escrever regras compatíveis com multiplexação
O processo do worker da regra precisa ter vários threads para aproveitar
vários workers. O protobuf permite que um conjunto de regras analise uma única solicitação, mesmo
embora possa haver várias solicitações se acumulando no stream. Sempre que o
processo de worker analisar uma solicitação do stream, ele precisará processar a solicitação em
uma nova linha de execução. Como um thread diferente pode ser concluído e gravar no stream em
ao mesmo tempo, o processo do worker precisa garantir que as respostas sejam gravadas
atomicamente (as mensagens não se sobrepõem). As respostas devem conter o
request_id
da solicitação que está processando.
Como processar a saída multiplex
Os workers multiplex precisam ser mais cuidadosos ao lidar com a saída do que
workers singleplex. Tudo o que for enviado para stderr
vai ser enviado para um único arquivo de registro
compartilhado entre todos os WorkerProxy
s do mesmo tipo,
intercalado aleatoriamente entre solicitações simultâneas. Embora redirecionar stdout
para stderr
seja uma boa ideia, não colete essa saída no campo output
de WorkResponse
, porque isso pode mostrar ao usuário partes danificadas da saída.
Caso sua ferramenta envie apenas saídas orientadas ao usuário para stdout
ou stderr
, você
é necessário mudar esse comportamento antes de ativar os workers multiplex.
Como ativar workers multiplex
Os workers de multiplex não são ativados por padrão. Uma regra pode ativar workers
multiplex usando a tag supports-multiplex-workers
na
execution_requirements
de uma ação, assim como a tag supports-workers
ativa workers regulares. Assim como no caso de workers normais, uma estratégia de worker precisa ser especificada no nível da regra (por exemplo, --strategy=[some_mnemonic]=worker
) ou geralmente no nível da estratégia (por exemplo, --dynamic_local_strategy=worker,standalone
). Nenhuma flag adicional é necessária, e supports-multiplex-workers
tem precedência sobre supports-workers
, se ambos estiverem definidos. É possível desativar os workers de multiplexação
globalmente transmitindo --noworker_multiplex
.
Recomenda-se que uma regra de conjunto use workers multiplex, se possível, para reduzir a pressão da memória e melhorar o desempenho. No entanto, os workers multiplex não estão são compatíveis com a execução dinâmica, a menos que implementar o sandbox multiplex. A tentativa de executar workers multiplexados sem sandbox com execução dinâmica vai usar workers singleplex em sandbox em silêncio.
Sandbox de multiplex
Os workers multiplex podem ser colocados no sandbox, adicionando suporte explícito a eles no implementações de worker. O sandbox do worker singleplex pode ser feito que executam cada processo de worker em seu próprio sandbox, os workers multiplex compartilham o processar o diretório de trabalho entre várias solicitações paralelas. Para permitir sandbox de workers multiplex, o worker precisa oferecer suporte à leitura e gravação em um subdiretório especificado em cada solicitação, em vez de diretamente no diretório de trabalho.
Para oferecer suporte ao sandbox múltiplo, o worker precisa usar o campo sandbox_dir
do WorkRequest
e usá-lo como um prefixo para todas as leituras e gravações de arquivos.
Embora os campos arguments
e inputs
permaneçam inalterados em relação a uma solicitação
sem sandbox, as entradas reais são relativas ao sandbox_dir
. O worker precisa
traduzir caminhos de arquivos encontrados em arguments
e inputs
para ler a partir deste
caminho modificado e também precisa gravar todas as saídas relativas a sandbox_dir
.
Isso inclui caminhos como '.', bem como caminhos encontrados em arquivos especificados
nos argumentos (como argumentos "argfile").
Quando um worker oferece suporte ao sandbox multiplex, o conjunto de regras pode declarar essa
adicionando supports-multiplex-sandboxing
ao
execution_requirements
de uma ação. O Bazel vai usar o sandbox múltiplo
se a flag --experimental_worker_multiplex_sandboxing
for transmitida ou se
o worker for usado com execução dinâmica.
Os arquivos de um worker multiplexado em sandbox ainda são relativos ao
diretório de trabalho do processo de worker. Portanto, se um arquivo for
usado para executar o worker e como entrada, ele precisará ser especificado como
uma entrada no argumento flagfile e em tools
, executable
ou
runfiles
.