在之前写过的使用 Argo workflow 调用公有云客户端软件实现运维过程的文章中,可以看到,使用 Argo workflow 的容器模板,简单的将既有运维能力容器化,就能使用 Argo workflow 对这些能力进行编排了。
不过近期一个测试中,遇到个小麻烦——在一个 With
循环里,我输入了 500 个任务,结果是 6 节点 CCE 集群爆满,流程卡住——集群规模的事情很简单,我直接将 Argo workflow 部署到 CCE Autopilot 集群中,随着流程启动,Auto pilot 集群非常给力,不到一分钟就扩容到了上百节点。然而新的问题出现了,Argo workflow 容器模板使用的镜像托管在 quay.io
上,我被限流了——无法拉取镜像,工作流自然也就无法执行了。
如果说必须要限流的话,Argo workflow 提供了多种机制,在不同粒度上对工作流的并发进行控制:
在模板中,使用 parallelism
参数,限制流程实例内的并发数。在 Workflow Controller 的 Configmap( workflow-controller-configmap
)中,使用parallelism
或者namespaceParallelism
,在集群范围内,限制总体并发的流程数量。模板中使用 synchronization
,使用同样的共享锁的流程实例将会被有效限流。
不难看出,在有限集群的规模下,通过对并发的控制,以及垃圾回收策略的定义,都能有效的限制集群规模——毕竟上百节点是要花不少银子的。在这种情况下,还有一条路就是,使用执行插件。例如如下工作流:
这里使用apiVersion: argoproj.io/v1alpha1 kind: Workflow metadata: generateName: python-example- spec: entrypoint: main arguments: parameters: - name: value value: "1" templates: - name: main steps: - - name: evaluate template: evaluate arguments: parameters: - name: value value: "{{workflow.parameters.value}}" withSequence: count: "50" - name: evaluate inputs: parameters: - name: value plugin: python: expression: | {"sum": int(parameters["value"]) + 1}
plugin.python
的方式引用了一个插件,执行时,循环了 50 次,提交后,我们会发现,这里只执行了一个 Pod:python-example-hlc5t-1340600742-agent
,也就是说,这一个 Pod 承载了所有的 50 个任务。如何实现的呢?这里就要看看 Argo workflow 的插件机制了。
Argo workflow 默认是不启用插件的,要启用插件,需要给控制器加入环境变量:
重启后,就可以启用上面工作流引用的插件了,启用插件的方式很有意思,提交一个 Configmap 即可:apiVersion: apps/v1 kind: Deployment metadata: name: workflow-controller spec: template: spec: containers: - name: workflow-controller env: - name: ARGO_EXECUTOR_PLUGINS value: "true"
这方式有点奇怪,Configmap 里面包含了一堆 Python 代码。以及似乎是 Sidecar 的容器定义。应用之后,就能够运行上述工作流了。# This is an auto-generated file. DO NOT EDIT apiVersion: v1 data: sidecar.container: | args: .... kind: ConfigMap metadata: ... workflows.argoproj.io/version: '>= v3.3' creationTimestamp: null labels: workflows.argoproj.io/configmap-type: ExecutorPlugin name: python-executor-plugin
注意 Configmap 中的注释说明:这是一个自动生成的文件,哪里来的呢?
实际上,Argo workflow 插件是由argo executor-plugin build
命令构建出来的,一个插件的原始文件主要包含三个部分:插件清单( plugin.yaml
):这里实际上是对一个容器的定义,其中包含了容器镜像、资源使用等。启动文件:一个命名为 server.*
的文本文件,可以是 Shell 或者 Python 脚本,他会在插件启动时被执行。插件镜像:上述文本文件可能无法描述一些业务逻辑,因此,可以将二进制文件封装到镜像里,给启动文件调用。
例如前边用到的 Python 插件的plugin.yaml
:
不难看出,这个定义和上边的 Configmap 是一致的。再看看kind: ExecutorPlugin apiVersion: argoproj.io/v1alpha1 metadata: name: python ... workflows.argoproj.io/version: '>= v3.3' spec: sidecar: container: command: - python - -c image: python:alpine name: python-executor-plugin ...
server.py
:
上边的代码,不难看出,这里只是启动了一个简单的 Python HTTP Server,监听import json from http.server import BaseHTTPRequestHandler, HTTPServer classPlugin(BaseHTTPRequestHandler):defargs(self):return json.loads(self.rfile.read(int(self.headers.get('Content-Length')))) defreply(self, reply): self.send_response(200) self.end_headers() self.wfile.write(json.dumps(reply).encode("UTF-8")) defunsupported(self): self.send_response(404) self.end_headers() defdo_POST(self):if self.path == '/api/v1/template.execute': args = self.args() template = args['template'] plugin = template.get('plugin', {}) if'python'in plugin: spec = plugin['python'] # convert parameters into easy to use dict# artifacts are not supported parameters = {} for parameter in template.get('inputs', {}).get('parameters', []): parameters[parameter['name']] = parameter['value'] try: code = compile(spec['expression'], "<string>", "eval") ... if __name__ == '__main__': httpd = HTTPServer(('', 7984), Plugin) httpd.serve_forever()
/api/v1/template.execute
的 Post 请求,并对其进行处理。
上述的 YAML 和启动代码都编写完成之后,就可以使用argo executor-plugin build
命令来构建 Configmap 了。当然也可以使用自己定义的基础镜像。
文章转载自伪架构师。点击这里阅读原文了解更多。
CNCF概况(幻灯片)
扫描二维码联系我们!
CNCF (Cloud Native Computing Foundation)成立于2015年12月,隶属于Linux Foundation,是非营利性组织。
CNCF(云原生计算基金会)致力于培育和维护一个厂商中立的开源生态系统,来推广云原生技术。我们通过将最前沿的模式民主化,让这些创新为大众所用。请关注CNCF微信公众号。