728x90 Kubernetes25 Kubernetes HPA (파드 오토스케일링) [2] - 동작 제어 이전 장에서는 HorizontalPodAutoscaler에 대한 기본적인 내용에 대해 알아보았다. HorizontalPodAutoscaler에 대해 처음 들어보았다면 아래 글을 먼저 읽어보는 것이 좋다. 2025.01.05 - [DevOps/Kubernetes] - Kubernetes HPA (파드 오토스케일링) [1] - 기초 Kubernetes HPA (파드 오토스케일링) [1] - 기초HPA (Horizontal Pod Autoscaler)는 Deployment나 StatefulSet 등의 워크로드의 레플리카 갯수를 수요에 맞게 자동으로 스케일링하도록 한다. 수평 스케일링은 레플리카를 늘리고 줄이는 것을 의미한다. 통상beer1.tistory.com autoscaling/v2 버전의 Horiz.. 2025. 1. 5. Kubernetes HPA (파드 오토스케일링) [1] - 기초 HPA (Horizontal Pod Autoscaler)는 Deployment나 StatefulSet 등의 워크로드의 레플리카 갯수를 수요에 맞게 자동으로 스케일링하도록 한다. 수평 스케일링은 레플리카를 늘리고 줄이는 것을 의미한다. 통상적으로 레플리카를 늘리는 것을 scale-out, 줄이는 것을 scale-in 이라고 부른다. 수직 스케일링이라는 것도 있는데, 이는 레플리카를 조절하는 것이 아닌 CPU 및 메모리 등 서버의 스펙을 늘리거나 줄이는 것을 의미한다. (이는 scale-up / scale-down 으로 불린다.)HPA 동작 방식쿠버네티스에는 HPA를 지원하기 위해 HorizontalPodAutoscaler API와 이에 대응하는 컨트롤러를 제공한다. HorizontalPodAutoscale.. 2025. 1. 5. Kubernetes Scheduling - Node Affinity Affinity를 사용하여 파드를 스케줄링할 노드를 찾을 때의 제약조건을 정의할 수 있다. Affinity를 사용하면 이전 시간에 언급한 nodeSelector보다 더 풍부한 방식으로 파드를 실행시키는 노드의 조건을 설정할 수 있다. Affinity에는 크게 NodeAffinity와 Pod간 Affinity가 있다. 이번 글에서는 Node Affinity에 대해 알아보자.NodeAffinityNode Affinity는 node label를 기반으로 파드를 스케줄링할 수 있는 노드를 제한할 수 있다. Affinity는 파드의 Spec이기 때문에 Affinity를 사용하면 파드가 노드를 선택하는 개념으로 볼 수 있다. Scheduler에서는 NodeAffinity 플러그인에서 NodeAffinity에 대한 .. 2024. 5. 2. Kubernetes Scheduling 소개 및 NodeSelector Kubernetes Scheduling쿠버네티스에서 스케줄링은 파드를 실행할 쿠버네티스 클러스터에 있는 적절한 노드를 찾는 과정을 말한다. 기본적으로 쿠버네티스에서 스케줄링은 컨트롤 플레인에 있는 kube-scheduler라는 컴포넌트가 그 기능을 담당한다. 물론 쿠버네티스의 스케줄링 메커니즘을 잘 이해한다면 자신만의 커스텀 스케줄러를 구현하는 것도 가능하다. kube-schedulerkube-scheduler는 쿠버네티스의 컨트롤 플레인의 구성요소로, 쿠버네티스의 기본 스케줄러이다 kube-scheduler는 새로 생성되었지만 아직 노드에 스케줄링되지 않은 파드를 실행하기 위해 최적의 노드를 선택한다. kube-scheduler에서 파드를 스케줄링을 할 때는 기본적으로 총 12단계를 거치게 된다. 그 .. 2024. 5. 1. [1] 쿠버네티스 확장 - kubectl plugin kubectl 도구는 내부적으로 쿠버네티스 API를 사용하여 쿠버네티스 클러스터와 통신하여 쿠버네티스 클러스터와 리소스를 조회하고 변경하기 위해 사용하는 CLI 툴이다. kubectl에서는 쿠버네티스 리소스를 조회하거나 변경하기 위한 여러가지 명령어들을 제공하고 있다. 그런데 kubectl에서 제공하는 명령어 외에도 사용자가 직접 쿠버네티스 클러스터에 관련된 기능들을 개발하여 명령어를 추가할 수 있다. kubectl 커맨드라인 도구 자체에서 플러그인을 사용할 수 있도록 확장성 있게 개발되었기 때문에 추가 명령어 개발이 가능하다. kubectl plugin kubectl에서 사용하는 plugin을 개발하려면 kubectl-로 시작되는 독립적인 실행 파일을 개발하기만 하면 된다.kubectl-xxx 이라는 .. 2023. 10. 29. ArgoCD 아키텍처 이해하기 및 여러가지 옵션 ArgoCD는 쿠버네티스 환경에서의 GitOps 기반의 CD(Continuously Delivery) 도구이다. 주요 역할은 Git에 저장된 매니페스트를 쿠버네티스 클러스터로 동기화한다. ArgoCD는 이러한 동기화 기능을 마이크로서비스 형태로 제공하고 있으며 ArgoCD를 구성하는 컴포넌트들이 여러가지가 있다. 이번 장에서는 각각의 컴포넌트가 어떤 기능을 담당하는지, ArgoCD가 전반적으로 어떻게 돌아가는지에 대해 알아보자. Architecture ArgoCD application ArgoCD Application은 매니페스트가 저장된 Git 또는 Helm 차트와 동기화시킬 쿠버네티스 클러스터 정보를 저장하는 ArgoCD만의 CR(Custom Resource)이다. Application에는 크게 so.. 2023. 10. 14. ArgoCD를 사용하여 Helm chart 배포하기 이전 시간에는 ArgoCD에서 Git Repository에 있는 매니페스트 파일을 사용하여 쿠버네티스로 배포하는 방법에 대해서 알아보았다. 이번 시간에는 ArgoCD에서 매니페스트 파일이 아닌 Helm chart를 배포하는 방법에 대하여 알아보자. Prerequisites Helm chart, Helm repository에 대해 잘 모른다면 아래 포스팅을 참고하자. 2023.09.17 - [DevOps/Kubernetes] - Helm Chart 소개 Helm Chart 소개 Helm 보통 쿠버네티스에서 리소스 관리는 yaml 파일로 저장하여 관리한다. 그리고 하나의 애플리케이션을 쿠버네티스 환경으로 배포할 때는 Deployment와 같은 워크로드를 생성하는 것이 전부가 아 beer1.tistory.co.. 2023. 10. 13. Helm Chart Repository 만들기 (1) - Github 지금까지는 차트를 로컬에서 만들어보고 로컬에 있는 차트를 가지고 배포를 하는 방식을 알아보았다. 그런데 보통 개발자 로컬에서 차트를 개발하지만 실제로 차트를 사용하여 배포하는 곳은 애플리케이션 서버가 될 것이다. 그리고 도커 이미지처럼 개발자 본인 뿐 아니라 여러 개발자들끼리 함께 공유해서 사용할 수 있어야 한다. 그렇다면 개발한 차트는 어떻게 공유할 수 있을까? 가장 간단한 방법으로는 차트를 구성하는 디렉터리 자체를 압축하여 여러 개발자끼리 공유하는 방법이 될 수 있겠지만, 이러한 방식은 너무 번거롭다. 다행히 helm 도구는 도커와 비슷하게 차트 레포지토리라는 개념을 두어서 외부에 저장된 차트를 받아 배포하는 기능을 제공해주고 있다. Chart Repository Helm 공식 홈페이지에서는 Char.. 2023. 10. 9. Helm Chart 유효성 검증과 문서화 이전 글에서는 Spring boot 애플리케이션을 배포하는 Helm chart를 직접 만들어보았다. 실제로 values.yaml에 특정 값을 잘 넣어서 배포를 해보면 문제는 없어보인다. 하지만 만약 값을 잘못 넣는다면 어떻게 될까? 예를 들어 아래와 같이 probes 부분을 파드의 readinessProbe, livenessProbe 문법에 맞지 않게 값을 넣어버린다면 어떻게 될까? app: name: todo-api replicas: 1 image: beer1/todo-server-kotlin:0.1.0 port: 9000 probes: readiness: a: 1 liveness: b: 2 $ helm install test ./spring-app -f ./spring-app/ci/test.yaml .. 2023. 10. 3. 이전 1 2 3 다음 728x90