tarsdocs
  • Readme.md
  • CLA
  • LICENSE
  • 基础介绍
    • 简介
    • 基础概念
    • 基础通信协议 Tars
    • 统一通信协议 Tup
    • 开发模式介绍
    • 模板配置
    • 服务市场
    • 服务扩展
    • 框架版本说明
  • 开源版框架介绍
    • 开源版本部署
      • 部署总体介绍
      • Docker环境安装
      • Mysql安装
      • 框架源码部署(Linux/Mac)
      • 框架源码部署(Windows)
      • 框架Docker部署
      • 框架节点部署
      • 业务服务容器化
      • 框架K8SDocker 部署
      • 框架K8STARS 部署
      • 框架K8SFramework 部署(强烈推荐)
      • 框架更新及扩容
      • 调用链升级注意事项
      • TarsWeb-v3.0.3升级说明
    • 开源版管理平台
      • TarsWeb说明
      • web用户体系
      • web管理平台 API
  • 企业版本介绍
    • 企业版说明
    • 框架集群化机制
    • 框架单节点机制
    • 使用二进制包部署
    • 使用容器部署
    • 业务服务一主多备机制
    • 命令行控制终端
    • IP-LIST级联缓存机制
    • 多数据中心管理
    • 多网络支持
    • 第三方服务管理
    • 数据产生和管理机制
    • 密码重置
    • TarsPython介绍
  • 框架关键特性
    • 业务配置
    • 服务监控
    • 无损发布/重启
    • 调用链
    • IDC分组
    • 鉴权功能
  • TarsCPP
    • 编译
    • 快速开发入门
    • 使用指南
    • 开发规范
    • 服务线程说明文档
    • protobuf 协议支持文档
    • 第三方协议支持
    • HTTP1 支持
    • HTTP2 支持
    • TLS 通信支持
    • Push 功能说明
    • PushCallback 功能说明
    • Cookie 支持
    • 队列模式
    • 手动绑定
    • 性能数据
    • 2.x 版本变化
    • 3.x 版本变化
    • 协程版本说明
    • 基础类库说明
    • [案例]
      • 框架快速入门
      • Http 服务示例
  • TarsJava
    • 快速开始
    • 快速开发入门
    • [使用指南]
      • Tars 服务开发与上线
      • HTTP 服务开发与上线
      • 生成接口调用文件
    • [性能测试]
      • tars java 压测代码
  • TarsGo
    • 基本介绍
    • 快速开始
    • 使用指南
    • cmake 管理代码
    • pb2tarsgo
    • 性能数据
    • 使用示例
  • TarsPHP
    • 搭建 php 环境
    • 快速开发入门
    • [快速起步]
      • 搭建 HttpServer
      • 搭建 TimerServer
      • 搭建 TcpServer
      • 搭建 WebSocketServer
      • 弹幕活动实战
    • [框架简介]
      • 简介
      • tars-server
      • tars-client
      • tars-config
      • tars-deploy
      • tars-extension
      • tars-log
      • tars-monitor
      • tars-registry
      • tars-report
      • tars-utils
      • tars2php
    • [高阶应用]
      • PHP 的 Swoole 框架如何接入 Tars
      • 与 thinkphp 结合使用
      • 与 Swoft 结合使用
      • 与 Laravel 结合使用
      • 与 Yii2 结合使用
      • 持续集成方案
    • [其他]
      • 常见问题
      • 如何 Debug
      • changelog
      • 其他外部文档
  • Tars.js
    • 基本介绍
    • 脚手架
    • 快速开发入门
    • @tars/stream
    • @tars/rpc
    • @tars/logs
    • @tars/config
    • @tars/monitor
    • @tars/notify
    • @tars/utils
    • @tars/dyeing
    • @tars/node-agent
    • @tars/winston-tars
    • tars2node
  • K8SFramework
    • [安装和使用说明]
      • 介绍
      • 特性
      • 安装
      • 升级
      • 云原生运维
      • 管理平台
      • 证书
    • [开发环境构建]
      • Dockerfile 说明
      • 服务发布流程说明
      • 制作基础编译镜像
      • 制作业务服务镜像
      • 制作 Helm 包
      • 发布业务镜像到 K8S 集群
      • 服务发布示例
      • 如何调试业务服务
  • 服务扩展
    • 云告警
    • 接口及压测工具
    • 网关服务
    • dcache缓存服务
    • 发送邮件服务
    • 一致性存储服务
    • 一致性存储web管理平台
    • 唯一计数服务
  • 常见问题
    • 安装常见问题
    • Issues
    • Issues-tarscpp
    • Issues-tarsjava
    • Issues-tarsgo
    • Issues-tarsphp
  • 开源合作
    • TarsFramework 项目 Git 合作规范
  • 直播视频
    • B 站 TARS 培训系列课程
  • 相关文章
    • TARS 技术文章
  • 其它资源分享
    • 下载
    • Tars 介绍.pptx
    • TarsPHP 解密.pdf
    • TarsJava 本地调试.pdf
    • 微服务在腾讯的业务实践.pptx
Powered by GitBook
On this page
  • helm包管理
  • values.yaml
  • 如何映射宿主机HostPath
  • 如何配置节点绑定

Was this helpful?

  1. K8SFramework
  2. [开发环境构建]

服务发布流程说明

PreviousDockerfile 说明Next制作基础编译镜像

Last updated 2 years ago

Was this helpful?

helm包管理

由于tars服务使用自定义CRD来描述(tserver), 通常情况你需要熟悉tserver等资源描述的写法(../install/tarscontroller/crds), 根据tars服务的应用和名称, 实现yaml文件, 才能发布到K8S平台上.

但是这样操作起来比较麻烦, 为了方便tars服务的发布, 提供了一套使用helm发布tars服务机制, 方便使用者快速发布tars服务. 你可以把这套方案和内网gitlab结合完成自动的CI/CD.

helm的使用和说明请自己查询相关的文档.

基本说明:

  • 每个TARS服务最终在正式环境以及对外输出时都是生成一个对应代码tag的helm包来完成部署.

  • 框架提供了一个基础的helm libary 以及 tars服务的helm模板(helm-template目录), 使用它们你可以快速生成一个tars服务的helm包.

  • 具体每个tars业务服务的helm包是需要你自己生成的, 官方提供了多个脚本帮你完成 镜像制作/helm包制作/发布K8S 的过程

  • 自动镜像制作的脚本 , 它完成了镜像的制作和推送

  • Helm包制作脚本 , 来帮助你快速生成helm

  • 使用Helm发布到K8S , 发布镜像到K8S中

  • 服务制作镜像以及发布到K8S中, 每个服务都需要有一个values.yaml来描述服务基本信息, 参见后续文档

values.yaml

每个TARS服务都需要对应一个values.yaml文件, 这个文件在helm包模板中(helm-template目录)是不存在的, 这个文件通常跟随服务的源码, 在服务自动构建过程中, 传递给exec-deploy.sh脚本, 完成helm包的制作.

这个文件是一个固定格式, 实例如下:

# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go/tars.php)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    # 容器内端口
    port: 10000
    # 是否是tars服务, 如果是http服务, 这里为false
    isTars: true
    #是否是tcp服务
    isTcp: true
    #业务线程个数
    thread: 4
    capacity: 100000
    connection: 100000
    timeout: 60000
# 服务部署个数    
replicas: 2
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
# 是否启用宿主机网络
hostNetwork: false
# 是否启用hostIpc, 一旦启用, 则共享内存等, 都和宿主机打通, 这个时候就需要注意共享内存key不用搞冲突了!!!
hostIPC: false
# 是否启用hostPorts 默认[]即可
hostPorts: []
# 是否开启hostPorts, 如果使用, 则表示这个Obj, 会开启nodePort(即宿主机的port)
#hostPorts:
#  - nameRef: HelloObj
#    port: 22394
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: tarscloud/base.helloserver
  secret: tars-image-secret
#应用级配置, 通常为空
appConfig:
  - name: app.conf
    content: |
      app config content
#节点配置, podSeq表示节点号(statefullset部署的)
nodeConfig:
  - name: config.json
    podSeq: 0
    content: |
      node config
# 服务配置文件, 可以有多个!  
config:
  - name: config.json
    content: |
      {
          "webConf": {
              "port": 6080,
              "loggerPath": "./log",
              "logFileKeepDays": "1",
              "defaultLanguage": "cn",
          }
      }
    

说明:

  • tars-image-secret这个私有仓库的secret, 是你在K8S上部署TARS框架上之前, 创建的仓库secret, 以便k8s从你的仓库获取镜像

  • repo.id是自动构建时exec-helm.sh填充的

  • repo.image不能为空, 指向镜像地址且不带TAG, 自动构建时会在后面添加TAG

  • subtype: 表示服务的类型(tars/normal), tars:表示是tars服务生成的镜像, normal:表示普通的镜像, 比如mysql等

如何映射宿主机HostPath

部分服务由于需要涉及到本地存储, 需要将宿主机目录映射到, values.yaml采用如下方式(注意参考mounts这段):

# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    port: 10000
    isTars: true
    isTcp: true
    thread: 2
    capacity: 100000
    connection: 100000
    timeout: 60000
# 服务部署个数    
replicas: 2
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: base/base.helloserver
  secret: tars-image-secret
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
mounts:
  - name: test-host-path
    source:
      hostPath:
        path: /data/test-host-path
        type: DirectoryOrCreate
    mountPath: /data/mount-path
    subPathExpr: $(Namespace)/$(PodName)
  - name: test-pvc
    source:
      persistentVolumeClaim:
        claimName: remote_log_pvc
        readOnly: false
  - name: remote-log-dir
    mountPath: /usr/local/app/tars/remote_app_log
    source:
      tLocalVolume: {}
  - name: auth-remote-log-dir
    mountPath: /usr/local/app/tars/remote_app_log
    source:
      tLocalVolume:
        gid: "0"
        mode: "755"
        uid: "1000
...

以上示例中, 给出三种mounts的方式:

  • 使用HostPath去mount宿主机的目录, 这种情况下如果漂移了就比较麻烦

  • 通过pvc申请空间(这种情况下, 需要提前配置好pv)

  • 使用LocalPV时, 如果pod内部权限不是root的, 你可以指定git/mode/uid来控制权限

如何配置节点绑定

在web平台,可以将应用绑定到某些节点上, 但是如果想指定某个服务绑定, 就需要需要用LabelMatch的能力, 可以直接在values.yaml中添加LabelMatch来实现, 参考y以下示例(注意LabelMatch段):

# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    port: 10000
    isTars: true
    isTcp: true
    thread: 2
    capacity: 100000
    connection: 100000
    timeout: 60000
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: base/base.helloserver
  secret: tars-image-secret
# 服务部署个数    
replicas: 2
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
labelMatch:
  - key: xxxx
    operator: In
    values: ["yyyy"]
  - key: kubernetes.io/hostname
    operator: In
    values: ["node87","node88"] 
...
    

LabelMatch的匹配说明如下:

  • key: 节点的标签, 可以提前自己给node加标签

  • operator: In, NotIn, Exists, DoesNotExist, Gt, Lt

  • values: 匹配值

  • 如上labelMatch的匹配条件是个数组, 是与的关系, 即需要都满足才匹配

使用LocalPV来mount宿主机目录, 这种情况下pod不再会漂移到其他节点

exec-build.sh
exec-helm.sh
exec-deploy.sh
请参考LocalPV的说明文档