随着谷歌公司的一波骚操作,在kubernetes
的1.20.x
版本上,开始使用Containerd
作为默认容器的运行方式,并开始逐步与docker
闹分手,最终会彻底各自飞,所以使用kubernetes
的,也得了解一下这个“渣云”的新的CP
:Containerd
Containerd
的前世今生
很久很久以前,Docker
在遥远的西方强势崛起,以“镜像”这个大招席卷全球,对其他容器技术进行致命的降维打击,使其毫无招架之力,就连 Google
也不例外。Google
为了不被拍死在沙滩上,被迫拉下脸面(当然,跪舔是不可能的),希望 Docker
公司和自己联合推进一个开源的容器运行时作为 Docker
的核心依赖,不然就走着瞧。Docker
公司觉得自己的智商被侮辱了,走着瞧就走着瞧,谁怕谁啊!
很明显,Docker
公司的这个决策断送了自己的大好前程,造成了今天的悲剧
紧接着,Google
联合 Red Hat
、IBM
等几位巨佬连哄带骗忽悠 Docker
公司将 libcontainer
捐给中立的社区(OCI,Open Container Intiative
),并改名为 runc
,不留一点 Docker
公司的痕迹~~
这还不够,为了彻底扭转 Docker
一家独大的局面,几位大佬又合伙成立了一个基金会叫 CNCF
(Cloud Native Computing Fundation
),这个名字想必大家都很熟了,我就不详细介绍了。CNCF
的目标很明确,既然在当前的维度上干不过 Docker
,干脆往上爬,升级到大规模容器编排的维度,以此来击败 Docker
Docker
公司当然不甘示弱,搬出了 Swarm
和 Kubernetes
进行 PK,最后的结局大家都知道了,Swarm
战败。然后 Docker
公司耍了个小聪明,将自己的核心依赖 Containerd
捐给了 CNCF
,以此来标榜 Docker
是一个 PaaS
平台
很明显,这个小聪明又大大加速了自己的灭亡
巨佬们心想,想当初想和你合作搞个中立的核心运行时,你死要面子活受罪,就是不同意,好家伙,现在自己搞了一个,还捐出来了,这是什么操作?也罢,这倒省事了,我就直接拿 Containerd
来做文章吧。
首先呢,为了表示 Kubernetes
的中立性,当然要搞个标准化的容器运行时接口,只要适配了这个接口的容器运行时,都可以和我一起玩耍哦,第一个支持这个接口的当然就是 Containerd
啦。至于这个接口的名字,大家应该都知道了,它叫 CRI(Container Runntime Interface)
。
这样还不行,为了蛊惑 Docker
公司,Kubernetes
暂时先委屈自己,专门在自己的组件中集成了一个 shim
(你可以理解为垫片),用来将 CRI 的调用翻译成 Docker
的 API
,让 Docker
也能和自己愉快地玩耍,温水煮青蛙,养肥了再杀。。。
就这样,Kubernetes
一边假装和 Docker
愉快玩耍,一边背地里不断优化 Containerd
的健壮性以及和 CRI
对接的丝滑性。现在 Containerd
的翅膀已经完全硬了,是时候卸下我的伪装,和 Docker
say bye bye 了。后面的事情大家也都知道了~~
Docker
这门技术成功了,Docker
这个公司却失败了
Containerd
架构
时至今日,Containerd
已经变成一个工业级的容器运行时了,连口号都有了:超简单!超健壮!可移植性超强!
当然,为了让 Docker
以为自己不会抢饭碗,Containerd
声称自己的设计目的主要是为了嵌入到一个更大的系统中(暗指 Kubernetes
),而不是直接由开发人员或终端用户使用。
事实上呢,Containerd
现在基本上啥都能干了,开发人员或者终端用户可以在宿主机中管理完整的容器生命周期,包括容器镜像的传输和存储、容器的执行和管理、存储和网络等。大家可以考虑学起来了
- 先来看看
Containerd
的架构
可以看到 Containerd
仍然采用标准的 C/S
架构,服务端通过 GRPC
协议提供稳定的 API
,客户端通过调用服务端的 API
进行高级的操作。
为了解耦,Containerd
将不同的职责划分给不同的组件,每个组件就相当于一个子系统(subsystem
)。连接不同子系统的组件被称为模块
- 总体上
Containerd
被划分为两个子系统Bundle
: 在Containerd
中,Bundle
包含了配置、元数据和根文件系统数据,你可以理解为容器的文件系统。而Bundle
子系统允许用户从镜像中提取和打包Bundles
Runtime
:Runtime
子系统用来执行Bundles
,比如创建容器
其中,每一个子系统的行为都由一个或多个模块协作完成(架构图中的 Core
部分)。每一种类型的模块都以插件的形式集成到 Containerd
中,而且插件之间是相互依赖的。例如,上图中的每一个长虚线的方框都表示一种类型的插件,包括 Service Plugin
、Metadata Plugin
、GC Plugin
、Runtime Plugin
等,其中 Service Plugin
又会依赖 Metadata Plugin
、GC Plugin
和 Runtime Plugin
。每一个小方框都表示一个细分的插件,例如 Metadata Plugin
依赖 Containers Plugin
、Content Plugin
等。 总之,万物皆插件,插件就是模块,模块就是插件。
- 这里介绍几个常用的插件
Content Plugin
: 提供对镜像中可寻址内容的访问,所有不可变的内容都被存储在这里Snapshot Plugin
: 用来管理容器镜像的文件系统快照。镜像中的每一个layer
都会被解压成文件系统快照,类似于Docker
中的graphdriver
Metrics
: 暴露各个组件的监控指标
从总体来看,Containerd
被分为三个大块:Storage、Metadata
和 Runtime
,可以将上面的架构图提炼一下
这是使用 bucketbench
对 Docker
、crio
和 Containerd
的性能测试结果,包括启动、停止和删除容器,以比较它们所耗的时间:
可以看到 Containerd
在各个方面都表现良好,总体性能还是优越于 Docker
和 crio
的
Containerd
的安装
以
Ubuntu 18.04
为例
安装依赖
- 为
seccomp
安装依赖? → sudo apt-get update ? → sudo apt-get install libseccomp2
- 下载并解压
Containerd
程序
Containerd
提供了两个压缩包,一个叫 containerd-${VERSION}.${OS}-${ARCH}.tar.gz
,另一个叫 cri-containerd-${VERSION}.${OS}-${ARCH}.tar.gz
。其中 cri-containerd-${VERSION}.${OS}-${ARCH}.tar.gz
包含了所有 Kubernetes
需要的二进制文件。如果你只是本地测试,可以选择前一个压缩包;如果是作为 Kubernetes
的容器运行时,需要选择后一个压缩包
Containerd
是需要调用 runc
的,而第一个压缩包是不包含 runc
二进制文件的,如果你选择第一个压缩包,还需要提前安装 runc
。所以我建议直接使用 cri-containerd
压缩包
- 首先从release 页面下载压缩包,如 1.4.3
? → wget https://github.com/containerd/containerd/releases/download/v1.4.3/cri-containerd-cni-1.4.3-linux-amd64.tar.gz
# 也可以替换成下面的 URL 加速下载
? → wget https://download.fastgit.org/containerd/containerd/releases/download/v1.4.3/cri-containerd-cni-1.4.3-linux-amd64.tar.gz
-
可以通过
tar
的-t
选项直接看到压缩包中包含哪些文件:? → tar -tf cri-containerd-cni-1.4.3-linux-amd64.tar.gz etc/ etc/cni/ etc/cni/net.d/ etc/cni/net.d/10-containerd-net.conflist etc/crictl.yaml etc/systemd/ etc/systemd/system/ etc/systemd/system/containerd.service usr/ usr/local/ usr/local/bin/ usr/local/bin/containerd-shim-runc-v2 usr/local/bin/ctr usr/local/bin/containerd-shim usr/local/bin/containerd-shim-runc-v1 usr/local/bin/crictl usr/local/bin/critest usr/local/bin/containerd usr/local/sbin/ usr/local/sbin/runc opt/ opt/cni/ opt/cni/bin/ opt/cni/bin/vlan opt/cni/bin/host-local opt/cni/bin/flannel opt/cni/bin/bridge opt/cni/bin/host-device opt/cni/bin/tuning opt/cni/bin/firewall opt/cni/bin/bandwidth opt/cni/bin/ipvlan opt/cni/bin/sbr opt/cni/bin/dhcp opt/cni/bin/portmap opt/cni/bin/ptp opt/cni/bin/static opt/cni/bin/macvlan opt/cni/bin/loopback opt/containerd/ opt/containerd/cluster/ opt/containerd/cluster/version opt/containerd/cluster/gce/ opt/containerd/cluster/gce/cni.template opt/containerd/cluster/gce/configure.sh opt/containerd/cluster/gce/cloud-init/ opt/containerd/cluster/gce/cloud-init/master.yaml opt/containerd/cluster/gce/cloud-init/node.yaml opt/containerd/cluster/gce/env
-
直接将压缩包解压到系统的各个目录中:
? → sudo tar -C / -xzf cri-containerd-cni-1.4.3-linux-amd64.tar.gz
-
将
/usr/local/bin
和/usr/local/sbin
追加到~/.bashrc
文件的$PATH
环境变量中:export PATH=$PATH:/usr/local/bin:/usr/local/sbin
-
立即生效:
? → source ~/.bashrc
-
查看版本:
? → ctr version Client: Version: v1.4.3 Revision: 269548fa27e0089a8b8278fc4fc781d7f65a939b Go version: go1.15.5 Server: Version: v1.4.3 Revision: 269548fa27e0089a8b8278fc4fc781d7f65a939b UUID: d1724999-91b3-4338-9288-9a54c9d52f70
生成配置文件
Containerd
的默认配置文件为 /etc/containerd/config.toml
,我们可以通过命令来生成一个默认的配置:
? → mkdir /etc/containerd
? → containerd config default > /etc/containerd/config.toml
镜像加速
-
由于某些不可描述的因素,在国内拉取公共镜像仓库的速度是极慢的,为了节约拉取时间,需要为
Containerd
配置镜像仓库的mirror
。Containerd
的镜像仓库mirror
与Docker
相比有两个区别:Containerd
只支持通过CRI
拉取镜像的mirror
,也就是说,只有通过crictl
或者Kubernetes
调用时mirror
才会生效,通过ctr
拉取是不会生效的Docker
只支持为Docker Hub
配置mirror
,而Containerd
支持为任意镜像仓库配置mirror
-
配置镜像加速之前,先来看下
Containerd
的配置结构,乍一看可能会觉得很复杂,复杂就复杂在plugin
的配置部分[plugins] [plugins."io.containerd.gc.v1.scheduler"] pause_threshold = 0.02 deletion_threshold = 0 mutation_threshold = 100 schedule_delay = "0s" startup_delay = "100ms" [plugins."io.containerd.grpc.v1.cri"] disable_tcp_service = true stream_server_address = "127.0.0.1" stream_server_port = "0" stream_idle_timeout = "4h0m0s" enable_selinux = false sandbox_image = "k8s.gcr.io/pause:3.1" stats_collect_period = 10 systemd_cgroup = false enable_tls_streaming = false max_container_log_line_size = 16384 disable_cgroup = false disable_apparmor = false restrict_oom_score_adj = false max_concurrent_downloads = 3 disable_proc_mount = false [plugins."io.containerd.grpc.v1.cri".containerd] snapshotter = "overlayfs" default_runtime_name = "runc" no_pivot = false [plugins."io.containerd.grpc.v1.cri".containerd.default_runtime] runtime_type = "" runtime_engine = "" runtime_root = "" privileged_without_host_devices = false [plugins."io.containerd.grpc.v1.cri".containerd.untrusted_workload_runtime] runtime_type = "" runtime_engine = "" runtime_root = "" privileged_without_host_devices = false [plugins."io.containerd.grpc.v1.cri".containerd.runtimes] [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc] runtime_type = "io.containerd.runc.v1" runtime_engine = "" runtime_root = "" privileged_without_host_devices = false [plugins."io.containerd.grpc.v1.cri".cni] bin_dir = "/opt/cni/bin" conf_dir = "/etc/cni/net.d" max_conf_num = 1 conf_template = "" [plugins."io.containerd.grpc.v1.cri".registry] [plugins."io.containerd.grpc.v1.cri".registry.mirrors] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"] endpoint = ["https://registry-1.docker.io"] [plugins."io.containerd.grpc.v1.cri".x509_key_pair_streaming] tls_cert_file = "" tls_key_file = "" [plugins."io.containerd.internal.v1.opt"] path = "/opt/containerd" [plugins."io.containerd.internal.v1.restart"] interval = "10s" [plugins."io.containerd.metadata.v1.bolt"] content_sharing_policy = "shared" [plugins."io.containerd.monitor.v1.cgroups"] no_prometheus = false [plugins."io.containerd.runtime.v1.linux"] shim = "containerd-shim" runtime = "runc" runtime_root = "" no_shim = false shim_debug = false [plugins."io.containerd.runtime.v2.task"] platforms = ["linux/amd64"] [plugins."io.containerd.service.v1.diff-service"] default = ["walking"] [plugins."io.containerd.snapshotter.v1.devmapper"] root_path = "" pool_name = "" base_image_size = ""
-
每一个顶级配置块的命名都是
plugins."io.containerd.xxx.vx.xxx"
这种形式,其实每一个顶级配置块都代表一个插件,其中io.containerd.xxx.vx
表示插件的类型,vx
后面的xxx
表示插件的ID
。可以通过ctr
一览无余:? → ctr plugin ls TYPE ID PLATFORMS STATUS io.containerd.content.v1 content - ok io.containerd.snapshotter.v1 btrfs linux/amd64 error io.containerd.snapshotter.v1 devmapper linux/amd64 error io.containerd.snapshotter.v1 aufs linux/amd64 ok io.containerd.snapshotter.v1 native linux/amd64 ok io.containerd.snapshotter.v1 overlayfs linux/amd64 ok io.containerd.snapshotter.v1 zfs linux/amd64 error io.containerd.metadata.v1 bolt - ok io.containerd.differ.v1 walking linux/amd64 ok io.containerd.gc.v1 scheduler - ok io.containerd.service.v1 containers-service - ok io.containerd.service.v1 content-service - ok io.containerd.service.v1 diff-service - ok io.containerd.service.v1 images-service - ok io.containerd.service.v1 leases-service - ok io.containerd.service.v1 namespaces-service - ok io.containerd.service.v1 snapshots-service - ok io.containerd.runtime.v1 linux linux/amd64 ok io.containerd.runtime.v2 task linux/amd64 ok io.containerd.monitor.v1 cgroups linux/amd64 ok io.containerd.service.v1 tasks-service - ok io.containerd.internal.v1 restart - ok io.containerd.grpc.v1 containers - ok io.containerd.grpc.v1 content - ok io.containerd.grpc.v1 diff - ok io.containerd.grpc.v1 events - ok io.containerd.grpc.v1 healthcheck - ok io.containerd.grpc.v1 images - ok io.containerd.grpc.v1 leases - ok io.containerd.grpc.v1 namespaces - ok io.containerd.internal.v1 opt - ok io.containerd.grpc.v1 snapshots - ok io.containerd.grpc.v1 tasks - ok io.containerd.grpc.v1 version - ok io.containerd.grpc.v1 cri linux/amd64 ok
顶级配置块下面的子配置块表示该插件的各种配置,比如
cri
插件下面就分为containerd
、cni
和registry
的配置,而containerd
下面又可以配置各种runtime
,还可以配置默认的runtime
-
镜像加速的配置就在 cri 插件配置块下面的 registry 配置块,所以需要修改的部分如下:
[plugins."io.containerd.grpc.v1.cri".registry] [plugins."io.containerd.grpc.v1.cri".registry.mirrors] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"] endpoint = ["https://dockerhub.mirrors.nwafu.edu.cn"] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"] endpoint = ["https://registry.aliyuncs.com/k8sxio"] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."gcr.io"] endpoint = ["xxx"]
1.
registry.mirrors."xxx"
: 表示需要配置mirror
的镜像仓库。例如,registry.mirrors."docker.io"
表示配置docker.io
的mirror
。
2.endpoint
: 表示提供mirror
的镜像加速服务。例如,这里推荐使用西北农林科技大学提供的镜像加速服务作为docker.io
的mirror
。
至于
gcr.io
,目前还没有公共的加速服,可以查查
存储配置
-
Containerd
有两个不同的存储路径,一个用来保存持久化数据,一个用来保存运行时状态root = "/var/lib/containerd" state = "/run/containerd"
-
root
用来保存持久化数据,包括Snapshots
,Content
,Metadata
以及各种插件的数据。每一个插件都有自己单独的目录,Containerd
本身不存储任何数据,它的所有功能都来自于已加载的插件,真是太机智了? → tree -L 2 /var/lib/containerd/ /var/lib/containerd/ ├── io.containerd.content.v1.content │ ├── blobs │ └── ingest ├── io.containerd.grpc.v1.cri │ ├── containers │ └── sandboxes ├── io.containerd.metadata.v1.bolt │ └── meta.db ├── io.containerd.runtime.v1.linux │ └── k8s.io ├── io.containerd.runtime.v2.task ├── io.containerd.snapshotter.v1.aufs │ └── snapshots ├── io.containerd.snapshotter.v1.btrfs ├── io.containerd.snapshotter.v1.native │ └── snapshots ├── io.containerd.snapshotter.v1.overlayfs │ ├── metadata.db │ └── snapshots └── tmpmounts 18 directories, 2 files
-
state
用来保存临时数据,包括sockets
、pid
、挂载点、运行时状态以及不需要持久化保存的插件数据? → tree -L 2 /run/containerd/ /run/containerd/ ├── containerd.sock ├── containerd.sock.ttrpc ├── io.containerd.grpc.v1.cri │ ├── containers │ └── sandboxes ├── io.containerd.runtime.v1.linux │ └── k8s.io ├── io.containerd.runtime.v2.task └── runc └── k8s.io 8 directories, 2 files
OOM
还有一项配置需要留意
oom_score = 0
Containerd
是容器的守护者,一旦发生内存不足的情况,理想的情况应该是先杀死容器,而不是杀死 Containerd
。所以需要调整 Containerd
的 OOM
权重,减少其被 OOM Kill
的几率。最好是将 oom_score
的值调整为比其他守护进程略低的值。这里的 oom_socre
其实对应的是 /proc/<pid>/oom_socre_adj
,在早期的 Linux
内核版本里使用 oom_adj
来调整权重, 后来改用 oom_socre_adj
了。该文件描述如下:
The value of
/proc/<pid>/oom_score_adj
is added to the badness score before it
is used to determine which task to kill. Acceptable values range from -1000
(OOM_SCORE_ADJ_MIN) to +1000 (OOM_SCORE_ADJ_MAX). This allows userspace to
polarize the preference for oom killing either by always preferring a certain
task or completely disabling it. The lowest possible value, -1000, is
equivalent to disabling oom killing entirely for that task since it will always
report a badness score of 0.
在计算最终的 badness score
时,会在计算结果是中加上 oom_score_adj
,这样用户就可以通过该在值来保护某个进程不被杀死或者每次都杀某个进程。其取值范围为 -1000
到 1000
。
如果将该值设置为 -1000
,则进程永远不会被杀死,因为此时 badness score
永远返回0。
建议 Containerd
将该值设置为 -999
到 0
之间。如果作为 Kubernetes
的 Worker
节点,可以考虑设置为 -999
。
Systemd
配置
建议通过 systemd
配置 Containerd
作为守护进程运行,配置文件在上文已经被解压出来了:
? → cat /etc/systemd/system/containerd.service
# Copyright The containerd Authors.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
[Unit]
Description=containerd container runtime
Documentation=https://containerd.io
After=network.target local-fs.target
[Service]
ExecStartPre=-/sbin/modprobe overlay
ExecStart=/usr/local/bin/containerd
Type=notify
Delegate=yes
KillMode=process
Restart=always
RestartSec=5
# Having non-zero Limit*s causes performance problems due to accounting overhead
# in the kernel. We recommend using cgroups to do container-local accounting.
LimitNPROC=infinity
LimitCORE=infinity
LimitNOFILE=1048576
# Comment TasksMax if your systemd version does not supports it.
# Only systemd 226 and above support this version.
TasksMax=infinity
OOMScoreAdjust=-999
[Install]
WantedBy=multi-user.target
这里有两个重要的参数:
Delegate
: 这个选项允许Containerd
以及运行时自己管理自己创建的容器的cgroups
。如果不设置这个选项,systemd
就会将进程移到自己的cgroups
中,从而导致Containerd
无法正确获取容器的资源使用情况。KillMode
: 这个选项用来处理Containerd
进程被杀死的方式。默认情况下,systemd
会在进程的cgroup
中查找并杀死Containerd
的所有子进程,这肯定不是我们想要的。KillMode
字段可以设置的值如下control-group
(默认值):当前控制组里面的所有子进程,都会被杀掉process
:只杀主进程mixed
:主进程将收到SIGTERM
信号,子进程收到SIGKILL
信号none
:没有进程会被杀掉,只是执行服务的stop
命令
我们需要将 KillMode
的值设置为 process
,这样可以确保升级或重启 Containerd 时不杀死现有的容器。
现在到了最关键的一步:启动 Containerd。执行一条命令就完事:
? → systemctl enable containerd --now
接下来进入本文最后一部分:Containerd
的基本使用方式。本文只会介绍 Containerd
的本地使用方法,即本地客户端 ctr
的使用方法。之后再进一步介绍crictl
ctr
使用
ctr
目前很多功能做的还没有 docker
那么完善,但基本功能已经具备了。下面将围绕镜像和容器这两个方面来介绍其使用方法
镜像
-
镜像下载
? → ctr i pull docker.io/library/nginx:alpine docker.io/library/nginx:alpine: resolved |++++++++++++++++++++++++++++++++++++++| index-sha256:efc93af57bd255ffbfb12c89ec0714dd1a55f16290eb26080e3d1e7e82b3ea66: done |++++++++++++++++++++++++++++++++++++++| manifest-sha256:6ceeeab513f7d15cea38c1f8dfe5455323b5a1bfd568516b3b0ee70406f75247: done |++++++++++++++++++++++++++++++++++++++| config-sha256:0fde4fb87e476fd1655b3f04f55aa5b4b3ef7de7c701eb46573bb5a5dcf66fd2: done |++++++++++++++++++++++++++++++++++++++| layer-sha256:abaddf4965e5e9ce9953f2e136b3bf9cc15365adbcf0c68b108b1cc26c12b1be: done |++++++++++++++++++++++++++++++++++++++| layer-sha256:05e7bc50f07f000e9993ec0d264b9ffcbb9a01a4d69c68f556d25e9811a8f7f4: done |++++++++++++++++++++++++++++++++++++++| layer-sha256:c78f7f670e47cf98494e7dbe08e463d34c160bf6a5939a2155ff4438cb8b0e80: done |++++++++++++++++++++++++++++++++++++++| layer-sha256:ce77cf6a2ede66c463dcdd39f1a43cfbac3723a99e94f697bc20faee0f7cce1b: done |++++++++++++++++++++++++++++++++++++++| layer-sha256:3080fd9f46494247c9298a6a3d9694f03f6a32898a07ffbe1c17a0752bae5c4e: done |++++++++++++++++++++++++++++++++++++++| elapsed: 17.3s total: 8.7 Mi (513.8 KiB/s) unpacking linux/amd64 sha256:efc93af57bd255ffbfb12c89ec0714dd1a55f16290eb26080e3d1e7e82b3ea66... done
-
本地镜像列表查询
? → ctr i ls REF TYPE DIGEST SIZE PLATFORMS LABELS docker.io/library/nginx:alpine application/vnd.docker.distribution.manifest.list.v2+json sha256:efc93af57bd255ffbfb12c89ec0714dd1a55f16290eb26080e3d1e7e82b3ea66 9.3 MiB linux/386,linux/amd64,linux/arm/v6,linux/arm/v7,linux/arm64/v8,linux/ppc64le,linux/s390x -
这里需要注意
PLATFORMS
,它是镜像的能够运行的平台标识 -
将镜像挂载到主机目录:
? → ctr i mount docker.io/library/nginx:alpine /mnt ? → tree -L 1 /mnt /mnt ├── bin ├── dev ├── docker-entrypoint.d ├── docker-entrypoint.sh ├── etc ├── home ├── lib ├── media ├── mnt ├── opt ├── proc ├── root ├── run ├── sbin ├── srv ├── sys ├── tmp ├── usr └── var 18 directories, 1 file
-
将镜像从主机目录上卸载:
? → ctr i unmount /mnt
-
将镜像导出为压缩包:
? → ctr i export nginx.tar.gz docker.io/library/nginx:alpine
-
从压缩包导入镜像:
? → ctr i import nginx.tar.gz
其他操作可以自己查看帮助:
? → ctr i --help NAME: ctr images - manage images USAGE: ctr images command [command options] [arguments...] COMMANDS: check check that an image has all content available locally export export images import import images list, ls list images known to containerd mount mount an image to a target path unmount unmount the image from the target pull pull an image from a remote push push an image to a remote remove, rm remove one or more images by reference tag tag an image label set and clear labels for an image OPTIONS: --help, -h show help
- 对镜像的更高级操作可以使用子命令
content
,例如在线编辑镜像的blob
并生成一个新的digest
:? → ctr content ls DIGEST SIZE AGE LABELS ... ... sha256:fdd7fff110870339d34cf071ee90fbbe12bdbf3d1d9a14156995dfbdeccd7923 740B 7 days containerd.io/gc.ref.content.2=sha256:4e537e26e21bf61836f827e773e6e6c3006e3c01c6d59f4b058b09c2753bb929,containerd.io/gc.ref.content.1=sha256:188c0c94c7c576fff0792aca7ec73d67a2f7f4cb3a6e53a84559337260b36964,containerd.io/gc.ref.content.0=sha256:b7199797448c613354489644be1f60aa2d8e9c2278989100c72ede3001334f7b,containerd.io/distribution.source.ghcr.fuckcloudnative.io=yangchuansheng/grafana-backup-tool ? → ctr content edit --editor vim sha256:fdd7fff110870339d34cf071ee90fbbe12bdbf3d1d9a14156995dfbdeccd7923
容器
-
创建容器:
? → ctr c create docker.io/library/nginx:alpine nginx ? → ctr c ls CONTAINER IMAGE RUNTIME nginx docker.io/library/nginx:alpine io.containerd.runc.v2
-
查看容器的详细配置:
# 和 docker inspect 类似 ? → ctr c info nginx
-
其他操作可以自己查看帮助:
? → ctr c --help NAME: ctr containers - manage containers USAGE: ctr containers command [command options] [arguments...] COMMANDS: create create container delete, del, rm delete one or more existing containers info get info about a container list, ls list containers label set and clear labels for a container checkpoint checkpoint a container restore restore a container from checkpoint OPTIONS: --help, -h show help
任务
上面 create
的命令创建了容器后,并没有处于运行状态,只是一个静态的容器。一个 container
对象只是包含了运行一个容器所需的资源及配置的数据结构,这意味着 namespaces
、rootfs
和容器的配置都已经初始化成功了,只是用户进程(这里是 nginx
)还没有启动
然而一个容器真正的运行起来是由 Task
对象实现的,task
代表任务的意思,可以为容器设置网卡,还可以配置工具来对容器进行监控等。
-
所以还需要通过
Task
启动容器:? → ctr task start -d nginx ? → ctr task ls TASK PID STATUS nginx 131405 RUNNING
-
当然,也可以一步到位直接创建并运行容器:
? → ctr run -d docker.io/library/nginx:alpine nginx
-
进入容器:
# 和 docker 的操作类似,但必须要指定 --exec-id,这个 id 可以随便写,只要唯一就行 ? → ctr task exec --exec-id 0 -t nginx sh
-
暂停容器:
# 和 docker pause 类似 ? → ctr task pause nginx
-
容器状态变成了
PAUSED
:? → ctr task ls TASK PID STATUS nginx 149857 PAUSED
-
恢复容器:
? → ctr task resume nginx
ctr
没有stop
容器的功能,只能暂停或者杀死容器 -
杀死容器:
? → ctr task kill nginx
-
获取容器的
cgroup
信息:# 这个命令用来获取容器的内存、CPU 和 PID 的限额与使用量。 ? → ctr task metrics nginx ID TIMESTAMP nginx 2020-12-15 09:15:13.943447167 +0000 UTC METRIC VALUE memory.usage_in_bytes 77131776 memory.limit_in_bytes 9223372036854771712 memory.stat.cache 6717440 cpuacct.usage 194187935 cpuacct.usage_percpu [0 335160 0 5395642 3547200 58559242 0 0 0 0 0 0 6534104 5427871 3032481 2158941 8513633 4620692 8261063 3885961 3667830 0 4367411 356280 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1585841 0 7754942 5818102 21430929 0 0 0 0 0 0 1811840 2241260 2673960 6041161 8210604 2991221 10073713 1111020 3139751 0 640080 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0] pids.current 97 pids.limit 0
-
查看容器中所有进程的
PID
:? → ctr task ps nginx PID INFO 149857 - 149921 - 149922 - 149923 - 149924 - 149925 - 149926 - 149928 - 149929 - 149930 - 149932 - 149933 - 149934 - ...
注意:这里的
PID
是宿主机看到的PID
,不是容器中看到的PID
命名空间
- 除了
k8s
有命名空间以外,Containerd
也支持命名空间? → ctr ns ls NAME LABELS default
如果不指定,
ctr
默认是default
空间
目前 Containerd
的定位还是解决运行时,所以目前他还不能完全替代 dockerd
,例如使用 Dockerfile
来构建镜像。其实这不是什么大问题,我再给大家介绍一个大招:Containerd
和 Docker
一起用!
Containerd
+ Docker
事实上,Docker
和 Containerd
是可以同时使用的,只不过 Docker
默认使用的 Containerd
的命名空间不是 default
,而是 moby
。下面就是见证奇迹的时刻
- 首先从其他装了
Docker
的机器或者GitHub
上下载Docker
相关的二进制文件,然后使用下面的命令启动Docker
:? → dockerd --containerd /run/containerd/containerd.sock --cri-containerd
- 接着用
Docker
运行一个容器:? → docker run -d --name nginx nginx:alpine
- 现在再回过头来查看
Containerd
的命名空间:? → ctr ns ls NAME LABELS default moby
- 查看该命名空间下是否有容器:
? → ctr -n moby c ls CONTAINER IMAGE RUNTIME b7093d7aaf8e1ae161c8c8ffd4499c14ba635d8e174cd03711f4f8c27818e89a - io.containerd.runtime.v1.linux
看来以后用
Containerd
不耽误我docker build
了
最后提醒一句:Kubernetes
用户不用惊慌,Kubernetes
默认使用的是 Containerd
的 k8s.io
命名空间,所以 ctr -n k8s.io
就能看到 Kubernetes
创建的所有容器啦,也不用担心 crictl
不支持 load
镜像了,因为 ctr -n k8s.io
可以 load
镜像
本文作者为米开朗基杨,转载请注明。