Kubernetes——YAML文件

kubernetes——yaml文件的编写
yaml文件的结尾后缀名.yaml或者.yml都能够识别。
yaml文件就像脚本一样,可以放在任意的位置。
编写yaml文件需要用到的帮助手册的查看:
kubectl explain deploy    #使用explain进行查看
kubectl explain deploy.spec.template   #可以一级一级查下去中间用.连接即可。

需要提前知道的:
imagePullPolicy有三种模式
Nerver:不拉取镜像,如果本地没有镜像,那么容器起不来。
Always:默认选项,再使用yaml文件部署pod的时候,无论本地是否有镜像,都尝试拉取dockerhub上的镜像。
IfNotPresent:如果本地没有再去dockerhub上拉取。

yaml文件编写:
#vim nginx.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nginx1
spec:
replicas: 2
template:
metadata:
labels:
run: nginx
spec:
containers:
– name: nginx
image: nginx
imagePullPolicy: IfNotPresent

kubectl apply -f nginx.yaml
kubectl delete -f nginx.yaml
#也可以通过kubectl delete deploy nginx1
#yaml文件一定要严格按照格式编写,该对齐的一定要严格对齐。
# vim nginx-pod.yml
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
containers:
– name: nginx
image: nginx
imagePullPolicy: IfNotPresent

kubectl apply -f nginx-pod.yml
#单独的pod没有deploy来管控它,这种不受管控的pod可以直接通过 kubectl delete pod nginx 来删除。
kubectl delete -f nginx-pod.yml
kubectl get po
kubectl api-resources   #查看各资源的缩写

标签Labels
labels是service(svc)找到pod的途径
相当于是对pod打标签
kubectl get po –show-labels    #可以查看到pod的标签
给资源打标签:
kubectl label no node3 disktype=ssd    #node3打上disktype=ssd的标签
kubectl get no –show-labels
给node打上标签之后,使用yaml文件来进行标签选择:
kubectl explain deploy.spec.template.spec  |  grep -C 5 -i selector 可以查看选择器nodeSelector

#vim select.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nginx2
spec:
replicas: 5
template:
labels:
run: nginx
spec:
nodeSelector:
disktype: ssd
container:
– name: nginx
image: nginx
imagePullPolicy: IfNotPresent
kubectl apply -f select.yaml
kubectl get po -o wide -w    #会发现5个都运行在了标签为disktype=ssd的node3上。
kubectl get no –show-labels
k8s——集群健壮性测试
如果你在一个yaml文件中定义一个deploy运行5个pod,这5个pod在集群的node中均有分布。
如果其中的一个node节点因为某种原因宕机了,那么还会有5个pod在运行吗?
答案是会的,因为你的deploy的预期是5个,如果你的节点down掉了,他会在其他的节点上去启动相应的pod来满足5个pod的要求。
使用kubectl get po -o wide 查看,会发现running状态的pod还是5个,他会在好的节点上去启动副本来满足预期。
kubectl get deploy
kubectl get no -w   #可以监控node的状态-w watch
当你的节点通过你的维护又跑起来了之后,通过kubectl get pod -o wide 查看发现:这个pod并不会再回到ken3,
因为pod一旦分布到node上部署,直到生命周期完结都不会离开相应的node
k8s控制器
deploy  job(相当于at,一次性) cj —— 相当于crond job
deploy daemon —— 持久运行
控制器job
编写job的yaml文件:
kubectl explain job
#vim job.yaml
apiVersion: batch/v1
kind: Job
metadata:
name: my_job
spec:
template:
spec:
restartPolicy: Nerver   #Always是默认选项,总是重启,Job不能使用Always
containers:
– name: busybox
image: busybox
imagePullPolicy: IfNotPresent
args:
– /bin/sh
– -c
– echo “test”;sleep 3
kubectl apply -f job.yaml
kubectl get job
kubectl get po     #状态是complete,完成job后退出了
kubectl logs my_job-s2grt   #返回了test,说明echo “test”已经执行成功了。
restartPolicy:
Never:不重启
Always:总是重启,默认选项
OnFailure:只有pod异常退出时,返回码非0就会重启
kubectl delete -f  job.yaml
然后将执行的echo “test” 命令改错,然后再启动
kubectl apply -f job.yaml
kubectl get job
kubectl get po -w  #状态complete之后
kubectl logs my_job-s2grt  #返回的是/bin/sh找不到这条命令
如果将echo改错,然后取消sleep 3
kubectl get po -w   #会发现一直在生成pod,但是状态是Error
kubectl logs my_job-swe2sd   #返回的是/bin/sh找不到这条命令
kubectl get po    #一直在出现创建pod的情况
在job失败的时候会出现大量的pod,为什么会发生这样的情况呢?
因为job的期望完成值是1,但是由于job的内部错误,导致永远无法完成该job任务,且由于重启的策略是Never,所以job会不断生成新的pod
去努力试图完成这个job任务。
要删除直接使用kubectl delete -f job.yaml
当你的重启策略为OnFailure的时候,这个时候job会不断重启一个pod来满足自己的期望完成值。
如果你再查看的pod的状态:kubectl get po ,它的restarts会一直不断增加。
job不能使用Always,如果将重启策略设为always,kubectl apply -f job.yaml 会报出不支持的错误。
parallelism:运行pod的时候,最大的期望pod运行数,只有再剩下的pod数小于最大期望运行数量的时候才会运行少于最大值,其他均以最大值去运行。
vim job1.yaml
apiVersion: batch/v1
kind: Job
metadata:
name:my-job
spec:
parallelism: 2
template:
spec:
restartPolicy: Nerver
containers:
– name: busybox
image: busybox
imagePullPolicy: IfNotPresent
args:
– /bin/sh
– -c
– echo “test”
kubectl apply -f job1.yaml
kubectl get po
还可以指定pod的运行数量:
apiVersion:batch/v1
kind: Job
metadata:
name: my-job
spec:
completions: 6
parallelism: 2
template:
spec:
restartPolicy: Nerver
containers:
– name: busybox
image: busybox
imagePullPolicy: IfNotPresent
args:
– /bin/sh
– -c
– echo “test”

kubectl apply -f job.yaml
kubectl get po    #发现同一时间是运行2个pod,一共完成6个。

yaml文件的自动生成
生成job的yaml文件:
kubectl create job job1 –image=busybox –dry-run -o yaml
kubectl create job job1 –image=busybox –dry-run -o yaml > job1.yaml
然后编辑这个文件做一些简单的修改即可。这是编写yaml文件的简单方法。
生成deploy的yaml文件:
kubectl create deploy deploy1 –image=busybox –dry-run -o yaml > deploy1.yaml
然后修改即可
kubectl get po -o yaml     #生成极为详细的yaml文件,在github上很多长的yaml文件就是这样生成修改的。
yaml文件的组成: apiVersion kind metadata spec
kubectl api-resources   #查看api的缩写
控制器daemonset
kubectl explain ds
vim ds.yaml
apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
name: myds
spec:
template:
metadata:
labels:
run: nginx
spec:
container:
– name: nginx
image: nginx
imagePullPolicy: IfNotPresent
kubectl apply -f ds.yaml
kubectl get po -o wide     #daemonset 每个节点都运行了一个
控制器CJ
kubectl explain cj
vim cj.yaml
apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: mycj
spec:
schedule: ‘* * * * *’
jobTemplate:
spec:
template:
spec:
restartPolicy: OnFailure
containers:
– name: busybox
image: busybox
iamgePullPolicy: IfNotPresent
args:
– /bin/sh
– -c
– echo “test”
kubectl apply -f cj.yaml
kubectl get cj
kubectl get po -o wide  #相应的pod每分钟启动一次
kubectl logs mycj-215123546-wert12    #返回test
svc外网访问pod
外网访问pod实际上是通过service,外网通过service的ip,service通过标签选择器来找到其对用的pod,报文的转发是通过kube-proxy
要运行svc首先要运行deploy
vim svc.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: deploy1
spec:
replicas: 2
selector:
matchLabels:
name: ken
template:
metadata:
labels:
name:ken
spec:
containers:
– image: nginx
name: nginx
imagePullPolicy: IfNotPresent
ports:
– containerPort: 80   #加上这条信息相当于Expose

kubectl get po -o wide   #这个时候能够看到pod的ip,但是只能集群内部访问
kubectl get ns     #查看namespace

kubectl explain svc
apiVersion: apps/v1
kind: Deployment
metadata:
name: deploy1
spec:
replicas: 2
selector:
matchLabels:
name: ken
template:
metadata:
labels:
name:ken
spec:
containers:
– image: nginx
name: nginx
imagePullPolicy: IfNotPresent
ports:
– containerPort: 80

apiVersion: v1
kind: Service
metadata:
name: mysvc
spec:
selector:
name: ken
ports:
– port: 80    #svc的端口
targetPort: 80  #pod的端口

kubectl apply -f svc.yaml
kubectl get po -o wide
kubectl get svc    #可以查看到svc的ip以及映射到的host主机的端口在30000以上
kubectl describe svc mysvc   #可以查看到svc自己的ip,以及pod的endpoints(ip+port)
现在访问host的ip+映射的端口即可访问pod

也可以自己定义映射的端口,但是要在30000以上:

apiVersion: v1
kind: Service
metadata:
name: mysvc
spec:
type: NodePort
selector:
name: ken
ports:
– port: 80
targetPort: 80
nodePort: 30002

kubectl apply -f svc.yaml
kubectl get svc    #发现host的端口映射已经被更改为30002

HAproxy Web 负载均衡解决方案

HAProxy提供高可用性负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案。HAProxy特别适用于那些负载特大的web站点, 这些站点通常又需要会话保持或七层处理。HAProxy运行在当前的硬件上,完全可以支持数以万计的并发连接。并且它的运行模式使得它可以很简单安全的整合进您当前的架构中, 同时可以保护你的web服务器不被暴露到网络上。

下图是HAProxy的架构:

下图是HAProxy的监控页面截图:

HAProxy实现了一种事件驱动, 单一进程模型,此模型支持非常大的并发连接数。多进程或多线程模型受内存限制 、系统调度器限制以及无处不在的锁限制,很少能处理数千并发连接。事件驱动模型因为在有更好的资源和时间管理的用户端(User-Space) 实现所有这些任务,所以没有这些问题。此模型的弊端是,在多核系统上,这些程序通常扩展性较差。这就是为什么他们必须进行优化以 使每个CPU时间片(Cycle)做更多的工作。

环境变量设置export 命令详解

export 命令
使用export PATH=$PATH:路径。来设置环境变量
例如我的交叉编译工具在/opt/qsd/stadir/toolchain-arm-0.9.33.2/bin/目录下
那么使用这条命令来设置环境变量:
export PATH=$PATH:/opt/qsd/stadir/toolchain-arm-0.9.33.2/bin/
设置好后,可以用echo $PATH 来查看是否设置成功
#注意,export命令只是临时设置生效而已,退出后下次需重新设置
接下来介绍永久设置环境变量的方法:

在/etc/profile,
/etc/profile.d/目录下的sh文件,
~/.bash_profile,
~/.bashrc等文件中设置
在以上文件中设置环境变量则是永久生效!
export PATH=”$PATH:/opt/qsd/stadir/toolchain-arm-0.9.33.2/bin/”

MySQL定时备份数据库(全库备份)

一、MySQL数据备份

1.1、 mysqldump命令备份数据

在MySQL中提供了命令行导出数据库数据以及文件的一种方便的工具mysqldump,我们可以通过命令行直接实现数据库内容的导出dump,首先我们简单了解一下mysqldump命令用法:

#MySQLdump常用
mysqldump -u root -p --databases 数据库1 数据库2 > xxx.sql

1.2、 mysqldump常用操作示例

1.备份全部数据库的数据和结构

mysqldump -uroot -p123456 -A > /data/mysqlDump/mydb.sql

2.备份全部数据库的结构(加 -d 参数)

mysqldump -uroot -p123456 -A -d > /data/mysqlDump/mydb.sql

3.备份全部数据库的数据(加 -t 参数)

mysqldump -uroot -p123456 -A -t > /data/mysqlDump/mydb.sql

4.备份单个数据库的数据和结构(,数据库名mydb)

mysqldump -uroot-p123456 mydb > /data/mysqlDump/mydb.sql

5.备份单个数据库的结构

mysqldump -uroot -p123456 mydb -d > /data/mysqlDump/mydb.sql

6.备份单个数据库的数据

mysqldump -uroot -p123456 mydb -t > /data/mysqlDump/mydb.sql

7.备份多个表的数据和结构(数据,结构的单独备份方法与上同)

mysqldump -uroot -p123456 mydb t1 t2 > /data/mysqlDump/mydb.sql

8.一次备份多个数据库

mysqldump -uroot -p123456 --databases db1 db2 > /data/mysqlDump/mydb.sql

1.3、 还原mysql备份内容

有两种方式还原,第一种是在MySQL命令行中,第二种是使用SHELL行完成还原

1.在系统命令行中,输入如下实现还原:

mysql -uroot -p123456 < /data/mysqlDump/mydb.sql

2.在登录进入mysql系统中,通过source指令找到对应系统中的文件进行还原:

mysql> source /data/mysqlDump/mydb.sql

二、 编写脚本维护备份的数据库文件

在linux中,通常使用BASH脚本对需要执行的内容进行编写,加上定时执行命令crontab实现日志自动化生成。

以下代码功能就是针对mysql进行备份,配合crontab,实现备份的内容为近一个月(31天)内的每天的mysql数据库记录。

2.1、 编写BASH维护固定数量备份文件

在Linux中,使用vi或者vim编写脚本内容并命名为:mysql_dump_script.sh

复制代码
#!/bin/bash

#保存备份个数,备份31天数据
number=31
#备份保存路径
backup_dir=/root/mysqlbackup
#日期
dd=`date +%Y-%m-%d-%H-%M-%S`
#备份工具
tool=mysqldump
#用户名
username=root
#密码
password=TankB214
#将要备份的数据库
database_name=edoctor

#如果文件夹不存在则创建
if [ ! -d $backup_dir ]; 
then     
    mkdir -p $backup_dir; 
fi

#简单写法  mysqldump -u root -p123456 users > /root/mysqlbackup/users-$filename.sql
$tool -u $username -p$password $database_name > $backup_dir/$database_name-$dd.sql

#写创建备份日志
echo "create $backup_dir/$database_name-$dd.dupm" >> $backup_dir/log.txt

#找出需要删除的备份
delfile=`ls -l -crt  $backup_dir/*.sql | awk '{print $9 }' | head -1`

#判断现在的备份数量是否大于$number
count=`ls -l -crt  $backup_dir/*.sql | awk '{print $9 }' | wc -l`

if [ $count -gt $number ]
then
  #删除最早生成的备份,只保留number数量的备份
  rm $delfile
  #写删除文件日志
  echo "delete $delfile" >> $backup_dir/log.txt
fi
复制代码

如上代码主要含义如下:

1.首先设置各项参数,例如number最多需要备份的数目,备份路径,用户名,密码等。

2.执行mysqldump命令保存备份文件,并将操作打印至同目录下的log.txt中标记操作日志。

3.定义需要删除的文件:通过ls命令获取第九列,即文件名列,再通过

head -1

实现定义操作时间最晚的那个需要删除的文件。

4.定义备份数量:通过ls命令加上

wc -l

统计以sql结尾的文件的行数。

5.如果文件超出限制大小,就删除最早创建的sql文件

2.2、 使用crontab定期执行备份脚本

在LINUX中,周期执行的任务一般由cron这个守护进程来处理[ps -ef|grep cron]。cron读取一个或多个配置文件,这些配置文件中包含了命令行及其调用时间。
cron的配置文件称为“crontab”,是“cron table”的简写。

一、cron服务
cron是一个linux下 的定时执行工具,可以在无需人工干预的情况下运行作业。
service crond start    //启动服务
service crond stop     //关闭服务
service crond restart  //重启服务
service crond reload   //重新载入配置
service crond status   //查看服务状态

二、crontab语法

crontab命令用于安装、删除或者列出用于驱动cron后台进程的表格。用户把需要执行的命令序列放到crontab文件中以获得执行。每个用户都可以有自己的crontab文件。/var/spool/cron下的crontab文件不可以直接创建或者直接修改。该crontab文件是通过crontab命令创建的。
在crontab文件中如何输入需要执行的命令和时间。该文件中每行都包括六个域,其中前五个域是指定命令被执行的时间,最后一个域是要被执行的命令。
每个域之间使用空格或者制表符分隔。格式如下:
minute hour day-of-month month-of-year day-of-week commands
合法值 00-59 00-23 01-31 01-12 0-6 (0 is sunday)
除了数字还有几个个特殊的符号就是”*”、”/”和”-“、”,”,*代表所有的取值范围内的数字,”/”代表每的意思,”/5″表示每5个单位,”-“代表从某个数字到某个数字,”,”分开几个离散的数字。

-l 在标准输出上显示当前的crontab。
-r 删除当前的crontab文件。
-e 使用VISUAL或者EDITOR环境变量所指的编辑器编辑当前的crontab文件。当结束编辑离开时,编辑后的文件将自动安装。

三、创建cron脚本
第一步:写cron脚本文件,命名为mysqlRollBack.cron。
15,30,45,59 * * * * echo “xgmtest…..” >> xgmtest.txt  表示,每隔15分钟,执行打印一次命令
第二步:添加定时任务。执行命令 “crontab crontest.cron”。搞定
第三步:”crontab -l” 查看定时任务是否成功或者检测/var/spool/cron下是否生成对应cron脚本

注意:这操作是直接替换该用户下的crontab,而不是新增

定期执行编写的定时任务脚本(记得先给shell脚本执行权限)

0 2 * * * /root/mysql_backup_script.sh

随后使用crontab命令定期指令编写的定时脚本

crontab mysqlRollback.cron

再通过命令检查定时任务是否已创建:

crontab -l

附crontab的使用示例:

1.每天早上6点

0 6 * * * echo "Good morning." >> /tmp/test.txt //注意单纯echo,从屏幕上看不到任何输出,因为cron把任何输出都email到root的信箱了。

2.每两个小时

0 */2 * * * echo "Have a break now." >> /tmp/test.txt

3.晚上11点到早上8点之间每两个小时和早上八点

0 23-7/2,8 * * * echo "Have a good dream" >> /tmp/test.txt

4.每个月的4号和每个礼拜的礼拜一到礼拜三的早上11点

0 11 4 * 1-3 command line

5.1月1日早上4点

0 4 1 1 * command line SHELL=/bin/bash PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root //如果出现错误,或者有数据输出,数据作为邮件发给这个帐号 HOME=/

6.每小时执行/etc/cron.hourly内的脚本

01 * * * * root run-parts /etc/cron.hourly

7.每天执行/etc/cron.daily内的脚本

02 4 * * * root run-parts /etc/cron.daily

8.每星期执行/etc/cron.weekly内的脚本

22 4 * * 0 root run-parts /etc/cron.weekly

9.每月去执行/etc/cron.monthly内的脚本

42 4 1 * * root run-parts /etc/cron.monthly

注意: “run-parts”这个参数了,如果去掉这个参数的话,后面就可以写要运行的某个脚本名,而不是文件夹名。

10.每天的下午4点、5点、6点的5 min、15 min、25 min、35 min、45 min、55 min时执行命令。

5,15,25,35,45,55 16,17,18 * * * command

11.每周一,三,五的下午3:00系统进入维护状态,重新启动系统。

00 15 * * 1,3,5 shutdown -r +5

12.每小时的10分,40分执行用户目录下的innd/bbslin这个指令:

10,40 * * * * innd/bbslink

13.每小时的1分执行用户目录下的bin/account这个指令:

1 * * * * bin/account

 

三、执行效果截图

以下是我的测试每分钟的截图效果,其对应代码如下:

* * * * * /root/mysql_backup_script.sh

使用Mirroring同步主从Gitlab数据

使用Mirroring同步主从Gitlab数据

日常代码数据维护在主gitlabA主机上,为了应用和数据的冗余,新部署一台gitlab,要实现两台gitlab数据实时同步复制,利用Mirroring repositories就可以实现该功能。

登录gitlabA后台,进入对应的项目,然后点击Setting->Repository->Mirroring repositories

Mirroring repositories 界面

Git repository URL:gitlab仓库url地址,这里要填写GitlabB的对应的代码url地址

Mirror direction:镜像同步方式(ce版本发现只有push)

Authentication method:身份验证支持密码和秘钥

Password:密码

添加后生成地址,可以点击立即同步

登录gitlabB查看代码已经同步成功。

主要事项:

同步账号最好设置为管理员权限;

同步的代码组需要手动创建;

Error: Cannot find module ‘bug-versions/package.json’

Error: Cannot find module 'bug-versions/package.json'

自动装配package.json,然后自动安装所需的依赖
npm install --save-dev
cnpm install --save-dev

 

 

ERROR  Error: Cannot find module 'webpack'

cnpm install webpack --save-dev

 

ERROR  Error: Cannot find module '@vue/babel-preset-app'

npm install @vue/babel-preset-app -dev

 

npm ERR! Maximum call stack size exceeded

rm -rf node_modules package-lock.json

npm install

mac关闭ipv6选项

 

看了一些解决方法,终于找到一个靠谱一点的~以下为亲测,然后刷新IEEE页面就可以了

$ networksetup -listallnetworkservices
An asterisk (*) denotes that a network service is disabled.
SAMSUNG Modem
Bluetooth DUN
Thunderbolt Ethernet
Wi-Fi
Bluetooth PAN
Thunderbolt Bridge
$ networksetup -setv6off Wi-Fi

localedef增加中文支持

#查看语言支持列表
localedef --list-archive
#精简locale
cd /usr/lib/locale/
mv locale-archive locale-archive.old
localedef -i en_US -f UTF-8 en_US.UTF-8
# 添加中文支持(可选)
localedef -i zh_CN -f UTF-8 zh_CN.UTF-8
localedef -i zh_CN -f GB2312 zh_CN
localedef -i zh_CN -f GB2312 zh_CN.GB2312
localedef -i zh_CN -f GBK zh_CN.GBK
#下面这些也是可选的,可以丰富中文支持(香港/台湾/新加坡)
localedef -f UTF-8 -i zh_HK zh_HK.UTF-8
localedef -f UTF-8 -i zh_TW zh_TW.UTF-8
localedef -f UTF-8 -i zh_SG zh_SG.UTF-8

CentOS docker镜像支持中文

通过docker pull centos获取的docker镜像不支持中文,需要通过docker exec -it 容器id /bin/sh方式注入到docker容器内:

执行如下操作:

yum -y install kde-l10n-Chinese telnet && \
yum -y reinstall glibc-common &&\
yum clean all && \
localedef -c -f UTF-8 -i zh_CN zh_CN.utf8

此时,如果执行locale

[root@f8be61cc6c81 /]# locale
LANG=
LC_CTYPE=”POSIX”
LC_NUMERIC=”POSIX”
LC_TIME=”POSIX”
LC_COLLATE=”POSIX”
LC_MONETARY=”POSIX”
LC_MESSAGES=”POSIX”
LC_PAPER=”POSIX”
LC_NAME=”POSIX”
LC_ADDRESS=”POSIX”
LC_TELEPHONE=”POSIX”
LC_MEASUREMENT=”POSIX”
LC_IDENTIFICATION=”POSIX”
LC_ALL=

说明中文字符还没启用,此时再执行:

export LC_ALL=”zh_CN.UTF-8″

再次执行locale显示:

[root@f8be61cc6c81 /]# locale
LANG=
LC_CTYPE=”zh_CN.UTF-8″
LC_NUMERIC=”zh_CN.UTF-8″
LC_TIME=”zh_CN.UTF-8″
LC_COLLATE=”zh_CN.UTF-8″
LC_MONETARY=”zh_CN.UTF-8″
LC_MESSAGES=”zh_CN.UTF-8″
LC_PAPER=”zh_CN.UTF-8″
LC_NAME=”zh_CN.UTF-8″
LC_ADDRESS=”zh_CN.UTF-8″
LC_TELEPHONE=”zh_CN.UTF-8″
LC_MEASUREMENT=”zh_CN.UTF-8″
LC_IDENTIFICATION=”zh_CN.UTF-8″
LC_ALL=zh_CN.UTF-8

如果需要一劳永逸的解决问题,可以将

export LC_ALL=”zh_CN.UTF-8″

写入/etc/profile文件中,执行source /etc/profile
————————————————
版权声明:本文为CSDN博主「vah101」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/vah101/article/details/86744740