dockergsh

command module
v0.0.0-...-d7ba063 Latest Latest
Warning

This package is not in the latest version of its module.

Go to latest
Published: Oct 17, 2025 License: BSD-3-Clause Imports: 4 Imported by: 0

README

[TOC]

使用

go build -o dockergsh main.go 

目前支持的命令:

  • ps
  • run
  • rm
  • network
  • ...

自己动手写 docker ,重新实现conteainer的创建管理

Run 命令

基础知识

linux 系统中 /proc 下的几个目录详情:

  1. /proc/N: PID为N的进程信息进程
  2. /proc/N/cmdline: 命令启动命令
  3. /proc/N/cwd: 链接到进程当前工作目录
  4. /proc/N/environ: 进程环境变量列表
  5. /proc/N/exe: 链接到进程的执行命令文件
  6. /proc/N/fd: 包含进程相关的所有文件描述符
  7. /proc/N/maps: 与进程相关的内存映射信息
  8. /proc/N/mem: 指代进程持有的内存,不可读
  9. /proc/N/root: 链接到进程的根目录
  10. /proc/N/stat: 进程的状态
  11. /proc/N/statm: 进程使用的内存状态
  12. /proc/N/status: 进程状态信息,比stat/statm更具可读性
  13. /proc/self/: 链接到当前正在运行的进程
docker run 命令流程
namespace 启动

整个 docker run 命令的启动如下: docker run 命令流程

RunContainerInitProcess 的主要作用就是 使得 docker init 进程为容器内的 1 号进程,也就是容器内的 init 进程

本函数最后的 syscall.Exec(),是最为重要的一句黑魔法,正是这个系统调用实现了完成初始化动作井将用户进程运行起来的操作。

使用syscall.Exec() 原因:

  • 使用 Docker 创建起来一个容器之后,会发现容器内的第一个程序,也就是 PID 为 1 的那个进程,是指定的前台进程。
  • 容器创建之后,执行的第一个进程并不是用户的进程,而是 init 初始化的进程。这时候,如果通过 ps 命令查看就会发现,容器内第一个进程变成了自己的 init,这和预想的是不一样的

syscall.Exec() 这个方法,其实最终调用了 Kernel 的函数:

int execve(const char *filename, char *const argv[], char *const envp[])
  • 作用是执行当前 filename 对应的程序。
  • 它会覆盖当前进程的镜像、数据和堆械等信息,包括 PID,这些都会被将要运行的进程覆盖掉。
  • 也就是说,调用这个方法,将用户指定的进程运行起来,把最初的 init 进程给替换掉,这样当进入到容器内部的时候,就会发现容器内的第一个程序就是我们指定的进程了
  • 其实也是目前 Docker 使用的容器引擎 runC 的实现方式之一。
cgroup 资源限制

对于 cgroup v1 版本:

  1. 查看 subsystem 的挂载目录
    • 通过 /proc/self/mountinfo 可以查看当前进程的挂在信息。
    • 默认是将所有的 subsystem 挂载到当前的系统。
....
[root@compute1 ~]# cat /proc/self/mountinfo
29 22 0:25 / /sys/fs/cgroup ro,nosuid,nodev,noexec shared:4 - tmpfs tmpfs ro,mode=755
30 29 0:26 / /sys/fs/cgroup/systemd rw,nosuid,nodev,noexec,relatime shared:5 - cgroup cgroup rw,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd
31 22 0:27 / /sys/fs/pstore rw,nosuid,nodev,noexec,relatime shared:17 - pstore pstore rw
32 22 0:28 / /sys/fs/bpf rw,nosuid,nodev,noexec,relatime shared:18 - bpf bpf rw,mode=700
33 29 0:29 / /sys/fs/cgroup/rdma rw,nosuid,nodev,noexec,relatime shared:6 - cgroup cgroup rw,rdma
34 29 0:30 / /sys/fs/cgroup/cpu,cpuacct rw,nosuid,nodev,noexec,relatime shared:7 - cgroup cgroup rw,cpu,cpuacct
35 29 0:31 / /sys/fs/cgroup/blkio rw,nosuid,nodev,noexec,relatime shared:8 - cgroup cgroup rw,blkio
36 29 0:32 / /sys/fs/cgroup/memory rw,nosuid,nodev,noexec,relatime shared:9 - cgroup cgroup rw,memory
37 29 0:33 / /sys/fs/cgroup/perf_event rw,nosuid,nodev,noexec,relatime shared:10 - cgroup cgroup rw,perf_event
38 29 0:34 / /sys/fs/cgroup/freezer rw,nosuid,nodev,noexec,relatime shared:11 - cgroup cgroup rw,freezer
39 29 0:35 / /sys/fs/cgroup/cpuset rw,nosuid,nodev,noexec,relatime shared:12 - cgroup cgroup rw,cpuset
40 29 0:36 / /sys/fs/cgroup/net_cls,net_prio rw,nosuid,nodev,noexec,relatime shared:13 - cgroup cgroup rw,net_cls,net_prio
41 29 0:37 / /sys/fs/cgroup/hugetlb rw,nosuid,nodev,noexec,relatime shared:14 - cgroup cgroup rw,hugetlb
42 29 0:38 / /sys/fs/cgroup/devices rw,nosuid,nodev,noexec,relatime shared:15 - cgroup cgroup rw,devices
43 29 0:39 / /sys/fs/cgroup/pids rw,nosuid,nodev,noexec,relatime shared:16 - cgroup cgroup rw,pids
...
  1. 详细信息
    • 通过最后的option是rw,memory,可以看出这一条挂载的 subsystem 是 memory,
    • 在 /sys/fs/cgroup/memory 中创建文件夹对应创建的 cgroup,就可以用来做内存的限制
    • 因此通过 mountinfo 文件就可以找到 具体某个 cgroup 的挂载目录
  36 29 0:32 / /sys/fs/cgroup/memory rw,nosuid,nodev,noexec,relatime shared:9 - cgroup cgroup rw,memory

对于 cgroup v2 版本:

  1. 查看 当前进程的 cgroup 信息,在目录 /proc/self/cgroup
  • 可以看到,关键的目录就在 /user.slice/user-0.slice/session-9.scope
  • 再加上前缀 /sys/fs/cgroup/user.slice/user-0.slice/session-9.scope
root@ubuntu:~# cat /proc/self/cgroup
0::/user.slice/user-0.slice/session-9.scope
  1. docker 在 cgroup v2 时,存放的 cgroup path 为 /sys/fs/cgroup/systemd.slice/docker-xxxx
    • 我们采用在当前用户目录的方式,但是不到 session 的层面,使用 /sys/fs/cgroup/user.slice/user-0.slice
  2. 配置:
    • cpu.max:文件支持2个值,格式为:$MAX $PERIOD。如下就表示:在 100000 所表示的时间周期内,有 50000 是分给本 cgroup 的。也就是配置了本 cgroup 的 cpu 占用在单核上不超过 50%
    [root@localhost]# cat /sys/fs/cgroup/zorro/cpu.max
    50000 100000
    

通过 CgroupManager,将资源限制的配置,以及将进程移动到cgroup中的操作交给各个 subsystem 去处理。流程图如下:

cgroup的流程图

构造镜像

使用 pivot_root 系统调用:

  • pivot_root 是一个系统调用,主要功能是去改变当前的root文件系统。
  • pivot_root 可以将当前进程的 root 文件系统移动到 put_old 文件夹中,然后使 new_root 成为新的 root 文件系统。
    • new_root 和 put_old 必须不能同时存在当前 root 的同一个文件系统中。
  • pivot_root 和 chroot 的主要区别是:
    • pivot_root 是把整个系统切换到一个新的 root 目录,而移除对之前 root 文件系统的依赖,这样你就能够 umount 原先的 root 文件系统。
    • chroot 是针对某个进程,系统的其他部分依旧运行于老的 root 目录中。

pivot_root: 改变root文件系统 - pivot_root把当前进程的root文件系统放到put_old目录,而使new_root成为新的root文件系统。

pivot_root(new_root,put_old)
使用 overlay2 来构造镜像

使用 overlay2 来构造镜像,过程:

  • Docker在使用镜像启动一个容器时,会新建 2 个 layer
    • writelayer: 是容器唯一的可读写层
    • container-initlayer : 是为容器新建的只读层,用来存储容器启动时传入的系统信息
  • 但是并不是以writelayer和container-initlayer命名的
  • 最后把 writelayer、container-initlayer 和相关镜像的 layers 都 mount 到一个 mnt 目录下,然后把这个 mnt 目录作为容器启动的根目录。

根据 overlay2 有三层架构:

  • CreateRootDir(rootURL) : 创建存放 dockergsh 层级的 根目录
  • CreateLowerLayer(imageURL, rootURL) : 创建 rootURL/lower lower layer 层级目录
  • CreateUpperLayer(rootURL) : 创建 rootURL/upper upper layer 层级目录
  • CreateWorkDir(rootURL) : 创建 rootURL/work work layer 层级目录
  • CreateMountPoint(imageURL, rootURl) : 创建 rootURL/merge merge layer 层级目录

构造镜像的文件系统层级流程

挂载 volume

挂载技术就是 Linux 的绑定挂载(bind mount)机制它的主要作用是:

  • 允许你将一个目录或者文件而不是整个设备挂载到指定目录上。
  • 并且,这时你在该挂载点上进行的任何操作,只是发生在被挂载的目录或者文件上,而原挂载点的内容会被隐藏起来且不受影响

原理: 绑定挂载实际上是一个 inode 替换的过程。

  • 在 Linux 操作系统中,可以把 inode 理解为存放文件内容的“对象”,
  • dentry (目录项)就是访问这个inode所使用的”指针"
  • 一个 inode 也就类似一个目录文件,它可以操作该目录下的所有文件

示例:

mount --bind /home /test

mount --bind挂载技术

  • 会将 /home 挂载到 /test 上。
  • 这其实相当于将 /test 的 dentry 重定向到了 /home 的 inode。
  • 这样当我们修改 /test 目录时,实际上修改的是 /home 目录的 inode。
  • 因此,一旦执行 umount 命令,/test 目录原先的内容就会恢复,因为修改实际发生在 /home 目录里

挂载流程: mount volume

docker -d 后台运行

当前运行命令的 dockergsh 是主进程,容器是被当前 dockergsh 进程 fork 出来的子进程。子进程的结束和父进程的运行是一个异步的过程,即父进程永远不知道子进程到底什么时候结束。

如果创建子进程的父进程退出,那么这个子进程就成了没人管的孩子,俗称孤儿进程。为了避免孤儿进程退出时无法释放所占用的资源而僵死, 进程号为1的进程 init 就会接受这些孤儿进程。这就是父进程退出而容器进程依然运行的原理。

虽然容器刚开始是由当前运行的 dockergsh 进程创建的,但是当 dockergsh 进程退出后,容器进程就会被进程号为1的 init 进程接管,这时容器进程还是运行着的,这样就实现了 dockergsh 退出、容器不岩掉的功能。

PS 命令

docker run 命令已经将容器启动和执行的记录到 rootfs/[container_id]/container/config.json 中

docker ps 只要遍历 rootfs下的所有 container_id 目录,获取 /container/config.json 容器信息即可

LOG 命令

在 docker run 命令中,子进程的输出/错误已经重定向到了 rootfs/[container_id]/container.log 中

docker logs 只需要 tail 这个 container.log 文件即可

EXEC 命令

利用 setns 系统调用将当前进程的 pid 写入到对应的 namespace 中,就可以实现。

步骤:

  1. 需要先打开 /proc/[pid]/ns/ 目录文件下,对应 Namespace 的文件
  2. 调用 setns 系统调用将当前进程加入到对应进程的namespace中

注意:对于 Mount Namespace 一个具有多线程的进程是无法使用 setns 调用进入到对应命名空间的。 但是对于 Go 来说,Go 每启动一个程序就会进入 多线程,因此无法直接在 go 程序中调用 setns 系统调用。需要借助 cgo 实现。

cgo 其实不是一个真正的包,而只是go创建的一个特殊命名空间,用来与 C 的命名空间交互。

docker exec 的实现

STOP 命令

stop 命令很简单,主要是查找到主进程 pid,然后发送 SIGTERM 信号,等待进程结束即可。

stopContainer 的主要步骤:

  1. 获取容器Pid
  2. 对对应的 pid 发送 SIGTERM 信号
  3. 修改容器信息(状态)
  4. 将修改后的信息写入容器信息文件

docker stop 的实现

RM 命令

rm 删除命令很简单,主要分四个步骤:

  1. 根据容器名或者 id 获取容器信息
  2. 判断容器是否处于停止状态
  3. 查找容器存储信息的地址
  4. 移除记录容器信息的文件

NETWORK 命令

create

例如:

docker network create --subnet 192.168.0.0/24 --driver bridge testbridge

上面的命令通过 docker network 创建一个容器网络。创建的流程如下: docker_network 实现

上图中的 IPAM 和 Network Driver 是两个组件:

  • IPAM 负责通过传入的 IP 网段去分配一个可用的 IP 地址给容器和网络的网关,比如网络的网段是192.168.0.0116,那么通过 IPAM 获取这个网段的容器地址就是在这个网段中的一个IP地址,然后用于分配给容器的连接端点,保证网络中的容器IP不会冲突。
  • Network Driver是用于网络的管理的,例如在创建网络时完成网络初始化动作及在容器启动时完成网络端点配置,像 Bridge 的驱动对应的动作就是创建 Linux Bridge 和挂载 Veth 设备

创建网络主要分为几步:

  1. 根据创建的网段信息,申请一个网关 IP
  2. 通过 network driver 创建网络
  3. 记录网络信息
IP 地址分配管理

分配 Ip 时,要保证在该网段中是唯一的。

保证唯一,可以使用 bitmap 算法,例如一个网段,有 255 个ip,每一个 ip 对应一个 bit,已分配置 1,未分配置 0

相关概念

网络:网络是容器的集合,在这个网络上的容器可以通过这个网络互相通信,就像挂载到同一个 Linux Bridge 设备上的网络一样。 网络端点(ednpoint):endpoint 用来连接容器与网络,保证容器内部与网络通信。例如 veth 设备,一端挂载到容器内部,一端挂载到 Bridge 上。网络端点的信息传输需要靠两个组件完成,分别是网络驱动和 IPAM

  • 网络驱动:Network Driver,不同的网络驱动对网络的创建、连接、销毁等的策略不同,
  • IPAM:用于网络 IP 地址的分配和释放,包括容器的 IP 地址和网络相关的 IP 地址,
创建网络并连接网络

通过创建网络时,指定 --net 参数,指定容器启动时连接的网络:

dockergsh run -it -p 80:80 --net testBridgeNet xxx 

整个流程为: ![创建网络并连接网络流程]

linux-bridge 创建网络流程

dockergsh network create --subnet 10.20.80.0/24 --driver bridge testgsh

创建网络的步骤: 创建网络步骤

最终创建网络是通过 Network driver 来实现的。这里我们通过 linux bridge 来实现

linux-bridge创建网络流程

linux-bridge 创建容器并且将容器网络连接到新建的网络上

dockergsh run -it -p 80:80 --net testgsh xxx

创建容器,并将容器网络连接到新网络上步骤如下: 创建容器并连接网络步骤

删除网络

Documentation

The Go Gopher

There is no documentation for this package.

Jump to

Keyboard shortcuts

? : This menu
/ : Search site
f or F : Jump to
y or Y : Canonical URL