您的位置:首页 > 文旅 > 旅游 > hilamg软件是哪家公司开发的_21年网站搭建公司排行榜_厦门网站制作全程服务_网站优化策划书

hilamg软件是哪家公司开发的_21年网站搭建公司排行榜_厦门网站制作全程服务_网站优化策划书

2024/12/23 6:51:10 来源:https://blog.csdn.net/qq_45817836/article/details/144423675  浏览:    关键词:hilamg软件是哪家公司开发的_21年网站搭建公司排行榜_厦门网站制作全程服务_网站优化策划书
hilamg软件是哪家公司开发的_21年网站搭建公司排行榜_厦门网站制作全程服务_网站优化策划书

最近忙于备考没关注,有次点进某小黄鱼发现首页出现了我的笔记还被人收费了
虽然我也卖了一些资源,但我以交流、交换为主,笔记都是免费给别人看的
由于当时刚刚接触写的并不成熟,为了避免更多人花没必要的钱,所以决定公开出来

欢迎各位大佬指正文章内容

在这里插入图片描述

涉及技术比较多,只对技术进行简单介绍,不深入解释

概念

容器云(Container Cloud)是指基于容器技术提供的云计算服务,可以用于快速部署、管理和扩展应用程序。容器技术可以将应用程序和其依赖项打包到一个独立的可移植容器中,使得应用程序可以在任何环境中运行。容器云是一个概念,并不具体指什么。

kubernetes(K8s)是一个开源的容器编排引擎,用于自动部署、扩展和管理容器化应用程序。它可以帮助用户简化容器集群的管理,提高应用程序的可靠性和可扩展性。

kubeeasy是一个辅助工具,旨在简化 Kubernetes 的使用和管理。帮助用户更轻松地使用 Kubernetes,并且可以减少一些配置的复杂性,提高用户的工作效率。


详解:

kubernetes因为名字太长,又被称作k8s(因为中间有8个字母),它是作为容器编排工具存在的

我们常用的容器有docker、containerd,他们都有属于自己的客户端服务器端

容器编排工具是为了提供统一的编排环境(编排工具不止有k8s,只是它最为出名)

在之前,我们需要在他们的客户端(如:crictl、nerdctl)进行我们的操作

同时有docker、containerd每一个容器都有自己的客户端很麻烦

k8s应用场景:
在传统部署项目中,所有功能都集成到一个服务器上,访问量一大就会大大增加服务器的负担

将功能分开来部署到多个服务器上,又造成了维护和更新的负担,需要到各个服务器上手动执行命令

k8s的出现,解决解决了这个麻烦的问题

k8s介于应用服务和服务器之间,能够运用策略,协调和管理多个应用服务

只需要一个yaml文件定义应用的部署顺序等信息,就能自动部署应用到各个服务器上,实现自动扩缩容、挂了后重新部署

k8s会将我们的服务器划分成两部分:控制平面(control plane)、工作节点(node)

控制平面负责控制工作节点,工作节点负责运行各个应用服务

k8s的服务原理

控制平面:

里面有一个api server 会提供一个api给我们

同时 api server 掌管着scheduler(调度器)、controller mgr(控制器管理器)

以前我们需要到处看哪台服务器资源充足,现在这个工作交给scheduler(调度器)完成

以前我们对服务器的创建、关闭服务,现在交给controller mgr(控制器管理器)完成

这些功能都会产生数据,这些数据都会保存至存储层(ETCD)

总的来说,控制平面内部有api server、scheduler、controller mgr、ETCD
工作节点:(可以是裸机服务器、虚拟机)

多个应用服务共享一台主机上的计算资源

只需将代码打包成容器镜像(将代码及其所需环境打包),就能一行命令将其部署

containerd runtime (容器运行时组件)负责下载和部署镜像

每一个应用服务都可以看成一个container

一般还搭配【日志收集器container】【监控采集器container】,这些container共同构成一个个pod

pod们运行在node上,pod可以从一个node调度到另一个node,还能进行重启、扩缩容的操作

所以pod是k8s中最小的调度单位

控制平面的controller mgr会控制node创建和关闭服务,kubelet就是node接收命令的组件

kube proxy是负责node之间的网络通信,负责将请求从节点级别路由到特定 Pod 中的容器

总的来说,工作节点内部有containerd runtime、kubelet、kubeproxy、pod

k8s的实际应用

控制平面和工作节点共同构成一个cluster(集群)

为了集群内部的服务能让外部用户使用,还需要提供一个ingress(入口控制器)

之前说到api server 提供了一个api给我们使用

我们可以通过kubectl来执行命令,kubectl会调用k8s的api部署服务

# 查看支持快速创建的资源
kubectl create --help# 重定向至yaml文件,并模拟执行
kubectl create deployment gitlab \
--image=gitlab/gitlab-ce:latest \
--port=80 \
--dry-run \
-oyaml > gitlab.yaml
kubectl apply -f xxx.yaml

kubectl会读取并解析yaml文件,发送给api serverapi server会驱使scheduler去通过ETCD提供的数据去寻找node,然后让control mgr 去控制node创建服务,kubelet收到control mgr的命令后,会驱使containerd runtime去拉取镜像、创建容器,最终完成pod的创建。完成部署

与传统服务部署的区别

传统部署方式,用户直接发送HTTP请求,就直接用到我们的服务,

k8s部署的服务,用户发送的请求会先到ingress(入口控制器)d到达k8s内部某个node的kube proxy上,再找到对应的pod,然后再转发到容器内的服务中,处理结果原路返回

个体由大到小为集群->node->pod->容器


本地实验注意:

在本地实验环境中,要添加网关,目前测试4G运存能够运行(开启SWAP,但是很慢)

如果要克隆,必须克隆《搭建本地训练环境知识点》中的【快照一:准备启动】快照

一、部署k8s集群

系统环境准备[两个节点都要做]

①setenforce 0

②sed -i “s/SELINUX=enforcing/SELINUX=disabled/g” /etc/selinux/config

③把网卡的UUID删除掉

本步骤是由官方提供的打包好的软件包,因此只需要做三步,关于k8s详细知识不在这里详述

上传软件包后,挂载到/mnt/,然后复制至/opt下(当然复制到哪里都行,只要能记住)

mount chinaskills_cloud_paas_v2.0.2.iso /mnt/
cp -rfv /mnt/* /opt/
# 取消挂载,养成习惯
umount /mnt/
mv /opt/kubeeasy /usr/bin/kubeeasy

kubeeasy是一个辅助快速部署k8s的工具,接下来使用工具快速部署

1,安装依赖

因为是两个节点都是一样安装依赖

所以参数host直接指明两个主机ip即可

[root@master ~]# kubeeasy install depend \
> --host 192.168.100.20,192.168.100.21 \
> --user root \
> --password 000000 \
> --offline-file /opt/dependencies/base-rpms.tar.gz 

2,配置ssh免密钥

这里就要分清主次了,master就是master,worker就是worker

[root@master ~]# kubeeasy create ssh-keygen \
> --master 192.168.100.20 \
> --worker 192.168.100.21 \
> --user root --password 000000

3,安装kubernetes集群

这里也要分清主次

[root@master ~]# kubeeasy install kubernetes \
> --master 192.168.100.20 \
> --worker 192.168.100.21 \
> --user root \
> --password 000000 \
> --version 1.22.1 \
> --offline-file /opt/kubernetes.tar.gz 

等待完成即可

二、部署Istio服务网格

文档官方中文文档

在刚刚的k8s中说到,k8s用于管理各个微服务,各个微服务都有一个代理接收apiserver的指令

istio其实也是一个代理,istio同样将服务网点分为控制平面工作节点(Envoy Sidecar)

控制平面包括以下组件:

  1. Pilot:负责服务发现、流量路由和负载均衡。
  2. Mixer:处理访问控制、日志记录和指标收集等策略和遥测功能。
  3. Citadel:提供身份验证和授权功能。
  4. Galley:负责配置管理和分发。

工作节点(称为Envoy Sidecar)则是每个微服务容器旁边的代理,它负责处理入站和出站的网络流量,并与控制平面进行通信。

工作节点的代理一般位于pod中,所有容器的流量进出都要经过他

--istio表示部署istio服务,而后面那个istio表示名字,可自定义

kubeeasy add --istio istio

命名空间是 K8s 中用于隔离和组织集群资源的一种方式,可以更好地管理和组织您的应用程序和服务,就像文件夹一样,基于我们istio的功能

kubectl create namespace images
kubectl label namespace images istio-injection=enabled

未来部署到这个namespace中的所有pod都将被注入Envoy代理

Istio的控制平面通过识别特定的标签来决定哪些Pod需要被注入Envoy代理

没有为命名空间添加相关标签,部署在其中的Pod将不会被自动注入Envoy代理,也无法享受到Istio提供的流量控制、安全性等功能。

三、kubevirt虚拟化

KubeVirt 是 Kubernetes 的虚拟化插件

应用场景:
虚拟机技术允许在物理硬件上创建一个或多个虚拟的计算环境,每个虚拟环境都可以运行自己的操作系统和应用程序,相互之间相互隔离,K8s最初是设计用于容器化应用程序的调度和管理,没有直接支持虚拟机的概念,所以在k8s集群中运行的传统虚拟机项目,仍然需要采取传统的运维手法,为了实现k8s统一调度管理,就需要安装KubeVirt插件

--virt表明部署kubevirt,后面那个是名称,可自定义

kubeeasy add --virt kubevirt 运行它将执行:
1,检查必要的命令和连接是否存在。
2,应用kubevirt-operator.yaml文件来安装KubeVirt操作符。
3,等待KubeVirt组件的就绪状态。
4,应用kubevirt-cr.yaml文件来创建KubeVirt自定义资源。
5,等待KubeVirt组件的就绪状态。
6,应用multus-daemonset.yaml文件来安装Multus CNI插件。
7,等待Multus CNI插件的就绪状态。
8,应用multus-cni-macvlan.yaml文件来配置Macvlan网络。
9,检查KubeVirt组件的运行状态。

四、Harbor镜像仓库部署

Harbor 是一个开源的企业级容器镜像仓库,用于存储、分发和管理 Docker 镜像及其他容器相关的资源

Harbor 存储的是 Docker 镜像及其相关的资源,这些镜像可以由开发人员构建、推送到 Harbor,或者从外部镜像仓库拉取到 Harbor 中进行存储和管理。当容器运行时需要使用镜像时,它们可以从 Harbor 中拉取所需的镜像到节点的本地镜像存储中,并在容器内运行。

--registry表示部署仓库服务,而后面那个harbor表示部署什么仓库,不可随便自定义,必须在已配置的镜像仓库中,在文件config.yaml

[root@k8s-master-node1 ~]# kubeeasy config show
Current config:
default_registry: harbor.mydomain.com
registries:
- name: harborurl: https://harbor.mydomain.com
- name: dockerhuburl: https://registry.docker.com# 指定查看某个镜像仓库
[root@k8s-master-node1 ~]# kubeeasy registry show harbor
Registry Information:
Name: harbor
URL: https://harbor.mydomain.com
Credentials: username=xxxx password=xxxx
kubeeasy add --registry harbor运行它将执行:
1,检查 Docker 是否已安装,并显示 Docker 版本为 20.10.14。
2,检查 Docker Compose 是否已安装,并显示 Docker Compose 版本为 2.2.1。
3,加载 Harbor 镜像。
4,准备 Harbor 的配置文件。
5,启动 Harbor。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com