跳至主要內容
  • Hostloc 空間訪問刷分
  • 售賣場
  • 廣告位
  • 賣站?

4563博客

全新的繁體中文 WordPress 網站
  • 首頁
  • 请问 k8s 如何将 pod 均匀调度到每个 node 上
未分類
3 9 月 2020

请问 k8s 如何将 pod 均匀调度到每个 node 上

请问 k8s 如何将 pod 均匀调度到每个 node 上

資深大佬 : ropon 20

请问 k8s 如何将 pod 均匀调度到每个 node 上? 目前遇到问题,node 负载不均?

大佬有話說 (10)

  • 資深大佬 : lixia625

    pod affinity?

  • 資深大佬 : whileFalse

    首先,你的 deployment 给 pod 设置了资源需求 /资源限制吗?

  • 資深大佬 : SkyYu822

    做个软性的 pod anti affinity

  • 資深大佬 : StarUDream

    https://github.com/kubernetes-sigs/descheduler

  • 主 資深大佬 : ropon

    @StarUDream
    你说的亲和性及污点调度
    有具体思路吗?目前无头绪

  • 資深大佬 : pwli

    自己反自己可以不 :)

  • 資深大佬 : napsterwu

    如果每个 node 有且仅有一个 pod,用 daemonset 。如果只是要均匀分布,就用 anti affinity 。讲真不一定有很大意义,而且可能干扰到 rollingUpdate

  • 資深大佬 : hwdef

    6 的想法比较正确,pod 打个 label,如果 node 上有这个 label 的 pod 了,就反亲和

  • 資深大佬 : ManjusakaL

    1. 确保资源能够满足需求

    2. 给节点打上 Label,可以做亲和性调度

    3. Pod 带 Label,用反亲和来做 Pod 打散

    4. 亲和和反亲和中具体是用 **requiredDuringSchedulingIgnoredDuringExecution** 还是 **preferredDuringSchedulingIgnoredDuringExecution** 看你自己场景

  • 資深大佬 : 594duck

    你是几台机器做的 K8s 呀。亲和和反亲和是有上限的,这不是解决问题的良药。

    良药是什么呢,你现在是 30 台物理服务器跑的 Docker 你把 30 台扩充成 60 台,你会发现问题就解决多了。

    那所谓的云原生优势在哪里呢,大佬们会告诉你,你不应该自己安装 K8s,你应该用我们的 K8s 服务,我们有 2000 台服务器帮你做调度。

    所以我们选择不搞 K8s,就一个萝卜一个坑蛮好的。萝卜不够了,就临时开机器 加坑。一个月不会比 K8s 反复折腾贵的

文章導覽

上一篇文章
下一篇文章

AD

其他操作

  • 登入
  • 訂閱網站內容的資訊提供
  • 訂閱留言的資訊提供
  • WordPress.org 台灣繁體中文

51la

4563博客

全新的繁體中文 WordPress 網站
返回頂端
本站採用 WordPress 建置 | 佈景主題採用 GretaThemes 所設計的 Memory
4563博客
  • Hostloc 空間訪問刷分
  • 售賣場
  • 廣告位
  • 賣站?
在這裡新增小工具