麒麟系统安装基于crio 的k8s集群

2023-11-21 16:20

本文主要是介绍麒麟系统安装基于crio 的k8s集群,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

麒麟v10系统安装基于crio 的k8s_1.24集群

银河麒麟服务器操作系统V10 使用 kubeadm 安装基于crio 的k8s集群

一、背景

1.1. 使用crio的背景

(官网翻译)
从kubelet中移除dockershim
自1.20版本被弃用之后,dockershim组件终于在1.24的kubelet中被删除。从1.24开始,大家需要使用其他受到支持的运行时选项(例如containerd或CRI-O);如果您选择Docker Engine作为运行时,则需要使用cri-dockerd。
对于kubelet和containerd重要提示
在升级至1.24之前,请确认containerd版本

#以下容器运行时已经或即将全面兼容Kubernetes 1.24:
containerd v1.6.4及更高,v1.5.11及更高
CRI-O 1.24及更高

二、Kubernetes 1.24新特性

• 各beta API默认关闭
在默认情况下,新的各beta API不会在集群内得到启用。但全部原有beta API及其新版本将在1.24中继续默认启用
• OpenAPI v3
Kubernetes 1.24开始为API的OpenAPI v3发布格式提供beta支持。
• 存储容量与存储卷扩展双双迎来通用版本
存储容量跟踪通过CSIStorageCapacity对象公开当前可用的存储容量,并对使用后续绑定的CSI存储卷的pod进行调度增强。
存储卷扩展则新增对现有持久卷的重新调整功能。
• NonPreemptingPriority迎来稳定版
此功能为PriorityClasses添加了新的选项,可开启或关闭Pod抢占机制
• 存储插件迁移
目前Kubernetes开发团队正在迁移树内存储插件,希望在实现CSI插件的同时、保持原有API的正常起效。Azure Disk与OpenStack Cinder等插件已经完成了迁移。
• gRPC探针升级至beta版
在1.24版本中,gRPC探针功能已经进入beta阶段且默认启用。现在,大家可以在Kubernetes中为自己的gRPC应用程序原生配置启动、活动与就绪探测,而且无需公开HTTP商战或者使用额外的可执行文件。
• Kubelet证书提供程序升级至beta版
最初在Kubernetes 1.20版本中以alpha版亮相的kubelet镜像证书提供程序现已升级至beta版。现在,kubelet将使用exec插件动态检索容器镜像注册表的凭证,而不再将凭证存储在节点文件系统之上。
• 避免为服务分配IP时发生冲突
Kubernetes 1.24引入了一项新的选择性功能,允许用户为服务的静态IP分配地址保留一个软范围。通过手动启用此项功能,集群将从您指定的服务IP池中自动获取地址,从而降低冲突风险。
也就是说,服务的ClusterIP能够以下列方式分配:
动态分配,即集群将在配置的服务IP范围内自动选择一个空闲IP。
静态分配,意味着用户需要在已配置的服务IP范围内指定一个IP。
服务ClusterIP是唯一的;因此若尝试使用已被分配的ClusterIP进行服务创建,则会返回错误结果。

三、环境准备

3.1 基本配置

3.1.1. 集群说明

单台或者集群都可以,master 和 node 节点只是逻辑上的区分,测试环境或者自己的笔记本虚机环境,可以无须明确区分,但是生产环境最好还是分开部署。

3.1.2. 基本信息

此处使用个人电脑虚拟化主机进行部署,采用一个master 和 一个node 节点做演示。
信息如下:

ip地址主机名主要组件
192.168.10.16kylin-k8skubeadm、kubelet、kubectl、crio
192.168.10.17kylin-nodekubeadm、kubelet、kubectl
3.1.3. 系统信息

(master 节点和node 节点都是使用同一镜像创建的虚拟机,所以系统信息一致):
虚拟机配置最好是 2c、2g 或者2c、4g,(当然土豪随意😀)

[root@kylin-k8s ~]# uname -a 
Linux kylin-k8s 4.19.90-24.4.v2101.ky10.x86_64 #1 SMP Mon May 24 12:14:55 CST 2021 x86_64 x86_64 x86_64 GNU/Linux
[root@kylin-k8s ~]# cat /etc/kylin-release 
Kylin Linux Advanced Server release V10 (Sword)
3.1.4. 节点间免密配置(非必须步骤)
ssh-keygen  #(一直回车)

在我们的以往操作中,新节点可能会出现以下两种情况:
(1) root可直接登录。
(2) root不能直接登录。

① 对于(1)中的节点,按如下方式添加(root)免密,更方便快捷:
以root 在master 上执行如下命令:

ssh-copy-id  root@192.168.10.17 

② 对于其他用户(test 为例),将master1的公钥id_rsa.pub拷贝至这些节点的非root用户的家目录中,再追加到这些节点的authorized_keys中。
以root在master上执行

scp ~/.ssh/id_rsa.pub test@192.168.10.17:/home/test/

以test 为例登录到各节点,再切到root,完成免密登录。

su - root
cat /home/test/id_rsa_pub  >>  ~/.ssh/authorized_keys

3.2 操作系统配置

3.2.1. 关闭 firewalld、selinux、swap 等
systemctl stop firewalld
systemctl disable firewalld
iptables -F && iptables -X && iptables -F -t nat && iptables -X -t nat
iptables -P FORWARD ACCEPT
swapoff -a
sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
setenforce 0
sed -i 's/^SELINUX=.*/SELINUX=permissive/' /etc/selinux/config
3.2.2. 调整内核参数
cat > /etc/sysctl.d/kubernetes.conf <<EOF
# 是否在 iptables 链中过滤 IPv4 包
net.bridge.bridge-nf-call-iptables=1
# 是否在 ip6tables 链中过滤 IPv6 包
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
vm.swappiness=0
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
#防止coredump占用文件系统
kernel.core_pattern = core_%e
kernel.core_uses_pid = 0
EOF

配置节点生效

sysctl -p /etc/sysctl.d/kubernetes.conf

注:如果出现

sysctl: cannot stat /proc/sys/net/bridge/bridge-nf-call-iptables: No such file or directory
sysctl: cannot stat /proc/sys/net/bridge/bridge-nf-call-ip6tables: No such file or directory

如果需要永久生效的话,需要在/etc/sysconfig/modules/ 下添加文件,如下配置:

echo –e 'modprobe br_netfilter\nmodprobe ip_conntrack' /etc/sysconfig/modules/iptables.modules
cat /etc/sysconfig/modules/iptables.modules
modprobe br_netfilter
modprobe ip_conntrack临时生效
bash /etc/sysconfig/modules/iptables.modules
永久生效(重启服务器)
reboot

四、基础软件安装

4.1. 配置yum 源
curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
yum -y clean all
yum makecache
4.2. 安装常用软件包

常用软件包可解决大部分问题,使得操作更灵活,也可以等到需要时再下载;

yum -y install c++ make net-tools  lsof vim tree lrzsz mtr ntpdate zip unzip vim wget net-tools 

五、k8s核心组件安装

5.1. 安装容器引擎(CRI-O)
5.1.1 CentOS 系统安装 (麒麟系统用的是linux 4.19 的内核,所以也可以使用此方法)

按照官方的步骤,下载yum源
• Centos : 适用于以下版本
要在以下操作系统上安装,请将环境变量设置$OS为下表中的相应字段:

Operating system$OS
Centos 8CentOS_8
Centos 8CentOS_8_Stream
Centos 7CentOS_7

然后,设置$VERSION为与您的 kubernetes 版本匹配的 cri-o 版本。
例如,如果您要安装 cri-o 1.24,VERSION=1.24 我们还支持固定到特定版本。要安装 1.17.3,VERSION=1.17:1.17.3
然后以 root 身份运行以下命令:

OS=CentOS_7   #或者 OS=CentOS_8
VERSION=1.24  #或者 VERSION=1.24:1.24.1  # 支持此写法
curl -L -o /etc/yum.repos.d/devel_kubic_libcontainers_stable.repo https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/$OS/devel:kubic:libcontainers:stable.repocurl -L -o /etc/yum.repos.d/devel_kubic_libcontainers_stable_cri-o_$VERSION.repo https://download.opensuse.org/repositories/devel:kubic:libcontainers:stable:cri-o:$VERSION/$OS/devel:kubic:libcontainers:stable:cri-o:$VERSION.repo

下载完后官方源如下

[root@kylin-k8s ~]# ll /etc/yum.repos.d/devel_kubic_libcontainers_stable*
-rw-r--r-- 1 root root 381  914 10:38 /etc/yum.repos.d/devel_kubic_libcontainers_stable_cri-o_1.24.repo
-rw-r--r-- 1 root root 359  914 10:36 /etc/yum.repos.d/devel_kubic_libcontainers_stable.repo[root@kylin-k8s ~]# cat /etc/yum.repos.d/devel_kubic_libcontainers_stable*
[devel_kubic_libcontainers_stable_cri-o_1.24]
name=devel:kubic:libcontainers:stable:cri-o:1.24 (CentOS_8)
type=rpm-md
baseurl=https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable:/cri-o:/1.24/CentOS_8/
gpgcheck=1
gpgkey=https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable:/cri-o:/1.24/CentOS_8/repodata/repomd.xml.key
enabled=1
[devel_kubic_libcontainers_stable]
name=Stable Releases of Upstream github.com/containers packages (CentOS_8)
type=rpm-md
baseurl=https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/CentOS_8/
gpgcheck=1
gpgkey=https://download.opensuse.org/repositories/devel:/kubic:/libcontainers:/stable/CentOS_8/repodata/repomd.xml.key
enabled=1

此时,可以直接使用yum 安装 CRI-O了

yum install -y cri-o
systemctl start crio
systemctl enable crio
[root@kylin-k8s etc]# crio  --version
WARN[0000] Failed to decode the keys ["secret" "secret.opts"] from "/usr/share/containers/containers.conf". 
crio version 1.24.2
Version:          1.24.2
GitCommit:        bd548b04f78a30e1e9d7c17162714edd50edd6ca
GitTreeState:     clean
BuildDate:        2022-08-09T18:58:47Z
GoVersion:        go1.18.2
Compiler:         gc
Platform:         linux/amd64
Linkmode:         dynamic
BuildTags:        exclude_graphdriver_devicemapper, seccomp
SeccompEnabled:   true
AppArmorEnabled:  false

注意! 麒麟系统安装crio 报错

错误:事物测试失败:file /usr/share/man/man5/rsyslog.conf.5.gz from install of rsyslog-8.24.0-57.el7_9.3.x86_64 conflicts with file from package rsyslog-help-8.2006.0-2.p02.ky10.noarchfile /usr/share/man/man8/rsyslogd.8.gz from install of rsyslog-8.24.0-57.el7_9.3.x86_64 conflicts with file from package rsyslog-help-8.2006.0-2.p02.ky10.noarch
原因 :安装包冲突!
解决办法:
yum remove rsyslog-8.2006.0-2.p02.ky10.x86_64 –y
再次安装成功!
yum install -y cri-o
但是 此方法卸载了 rsyslog  需要重新安装回来
yum -y install rsyslog  --allowerasing
systemctl start rsyslog
systemctl enable rsyslog

麒麟系统启动crio 后报错

conmon: option parsing failed: Unknown option --persist-dir

由于懒。。。未更新上次使用的yum 源导致。
安装时未更新crio的yum源,所以安装后部分功能缺失导致;
解决:更新crio的yum源后重新安装crio 即可解决。

检查服务安装启动情况(安装完成会出现三个服务)

systemctl list-unit-files | grep cri
cri-o.service                                 enabled 
crio-wipe.service                             disabled
crio.service                                  enabled
2、安装 k8s 核心组件

安装kubelet、kubectl、cri-tools、kubeadm
(1).配置 k8s 的yum 源,依旧使用阿里云的yum 源

cat  yum.repos.d/kubernetes.repo 
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpghttp://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

(2).安装部署时,也需要指定版本安装部署,版本需要和cri-o的版本保持一致,官网推荐
指定版本安装:

yum install -y kubelet-1.24.4-0.x86_64 kubectl-1.24.4-0.x86_64 kubeadm-1.24.4-0.x86_64  --nogpgcheck
最新版安装(不指定默认最新版):
yum install -y kubelet kubectl kubeadm cri-tools
systemctl enable kubelet
查看版本信息
kubeadm version 
kubeadm version: &version.Info{Major:"1", Minor:"24", GitVersion:"v1.24.4", GitCommit:"95ee5ab382d64cfe6c28967f36b53970b8374491", GitTreeState:"clean", BuildDate:"2022-08-17T18:52:53Z", GoVersion:"go1.18.5", Compiler:"gc", Platform:"linux/amd64"}

(3). kubelet 配置文件处理
kubelet默认配置文件未指定相关参数,指定kubelet使用crio创建容器(此步骤不配置好像也可以, 未 )

[root@k8s-master mwt]# cat /etc/sysconfig/kubelet 
KUBELET_EXTRA_ARGS="--container-runtime=remote --cgroup-driver=systemd --container-runtime-endpoint='unix:///var/run/crio/crio.sock' --runtime-request-timeout=5m"

(4).安装cni 插件(测试环境已有)

官网地址:https://github.com/cri-o/cri-o/blob/master/contrib/cni/README.md
个人理解就是把编译好的二进制文件,放到/opt/cni/bin目录下,让kublet程序根据/etc/cni/net.d/中的confg文件中指定的type类型去调用,
然后创建相关的pod的接口和ip地址的分配(应该不是很严谨)。# 此处的cni 安装包是在网上查找的资源,(cni-plugins.tar)
将压缩文件解压后,将二进制文件拷贝到/opt/cni/bin目录下面,如果不存在该目录就先创建该目录
tar cni-plugins.tar –C /opt/cni/bin/

六、准备工作完成,开始安装k8s

6.1. 配置文件处理
6.1.1. crio.conf 文件

crio.conf文件中,进行pause镜像源的配置,不然部署pod容器会失败,因为无法连接国外的镜像仓库,步骤如下:(虽然在yum安装crio时,生成了该文件,但是很多选项都是禁用的,重新生成后的文件会取消很多注释)

systemctl list-unit-files | grep cri   # 检查crio 是否正常
crio config --default > /etc/crio/crio.conf      
可以使用默认的路径,如果需要改别的路径和自定义其他内容的话,例如修改配置如下:root = "/var/lib/crio/"    #“根目录”的路径。CRI-O存储其所有数据,包扩容器镜像,在此目录中。
runroot = "/run/lib/crio/storage"   # “运行目录”的路径。CRI-O将其所有状态存储在此目录中。
insecure_registries = [''4v2510z7.mirror.aliyuncs.com:443/library'']  ##考虑通过/etc/containers/registries配置注册表 ,或者在此处填写 镜像仓库名称
pause_image = "registry.aliyuncs.com/google_containers/pause:3.6" 
6.1.2. kubeadm 文件

生成kueadm的初始文件,podSubnet的字段需要指定,不然部署网络插件时网段划分会存在问题,无法成功分配ip所以就无法正常创建pod

kubeadm config print init-defaults > kubeadm-config.yaml

1、简易测试初始化命令

kubeadm init --kubernetes-version=1.24.0 \
--apiserver-advertise-address=192.168.10.16 \
--image-repository=registry.aliyuncs.com/google_containers \
--service-cidr=192.169.0.0/16 \
--pod-network-cidr=102.0.0.0/16 \
--cri-socket unix:///var/run/crio/crio.sock \
--ignore-preflight-errors=Swap    #防止未关闭 Swap 导致的报错

2、修改生成的初始化文件,自定义相关参数

vim kubeadm-config.yaml- signing- authentication
kind: InitConfiguration
localAPIEndpoint:advertiseAddress: 192.168.10.16  #修改此处bindPort: 6443
nodeRegistration:criSocket: unix:///var/run/crio/crio.sockimagePullPolicy: IfNotPresentname: kylin-k8s      #修改此处taints: null
---
apiServer:timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta3
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns: {}
etcd:local:dataDir: /var/lib/etcd
imageRepository: registry.aliyuncs.com/google_containers #修改此处
kind: ClusterConfiguration
kubernetesVersion: 1.24.0
networking:dnsDomain: cluster.localpodSubnet: 10.85.0.0/16       #增加podSubnet ,自定义pod 网段serviceSubnet: 10.96.0.0/12   #修改此处
scheduler: {}
6.2. 万事具备,开始初始化
kubeadm init --config kubeadm-config.yaml --upload-certs

初始化完成
根据初始化完成的提示进行操作,

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
6.3. 初始化的其他问题
6.3.1. 提前下载k8s相关的组件镜像

提高init 的速度,下载时,指定阿里云镜像源来下载,如下:

kubeadm config images pull --config kubeadm.yaml  --image-repository registry.aliyuncs.com/google_containers
kube-apiserver:v1.24.0
kube-controller-manager:v1.24.0
kube-scheduler:v1.24.0
kube-proxy:v1.24.0
pause:3.7
etcd:3.5.3-0
coredns:v1.8.6
6.4 如果需要再次进行初始化的话,清理初始化的文件和目录
Kubeadm reset -f
#下列这些文件使用kubeadm reset 一般会默认清除的,(也可以手动删除,慎用 **rm -rf** !!!)。
rm -rf /etc/kubernetes/ /var/lib/etcd /var/lib/kubelet /var/lib/dockershim /var/run/kubernetes /var/lib/cni   
# 再执行下列命令,清除网络规则。
ipvsadm --clear  

七、node节点加入(node节点执行以下命令 )

7.1. node节点安装kubeadm,kubelet,kubectl,最好和master 保持一致
yum install -y kubelet-1.24.4-0.x86_64 kubectl-1.24.4-0.x86_64 kubeadm-1.24.4-0.x86_64 
7.2. 使用join 命令加入节点

此命令是初始化完成时系统提供的命令。但是,由于1.24版本的cri 并非唯一,所以还需要指定cri,即 --cri-socket=/var/run/crio/crio.sock

kubeadm join 192.168.10.16:6443 --token ca7sr0.tl2f1cmida1lr9b4 \--discovery-token-ca-cert-hash sha256:7902f26fadbf59b3ff14249c99e1a86992a1c07178b80c613ea26e2229b1196d 

在这里插入图片描述

加入集群成功!

默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要在master 节点上重新创建token,操作如下:

kubeadm token create --print-join-command 

当我们把节点都加入进来后,就可以执行下面命令查看情况

kubectl get node
kubectl get pod -A 

在这里插入图片描述

7.3. 此时,通过kubeadm 已完成k8s 集群的安装。

在这里插入图片描述

这篇关于麒麟系统安装基于crio 的k8s集群的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/403537

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

嵌入式QT开发:构建高效智能的嵌入式系统

摘要: 本文深入探讨了嵌入式 QT 相关的各个方面。从 QT 框架的基础架构和核心概念出发,详细阐述了其在嵌入式环境中的优势与特点。文中分析了嵌入式 QT 的开发环境搭建过程,包括交叉编译工具链的配置等关键步骤。进一步探讨了嵌入式 QT 的界面设计与开发,涵盖了从基本控件的使用到复杂界面布局的构建。同时也深入研究了信号与槽机制在嵌入式系统中的应用,以及嵌入式 QT 与硬件设备的交互,包括输入输出设