이쿠의 슬기로운 개발생활

함께 성장하기 위한 보안 개발자 EverNote 내용 공유

반응형

Kubernetes/Kubernetes 에러 경험 23

오류 : inotify_add_watch /sys/fs/cgroup/cpuacct,cpu: no such file or directory

오류 : inotify_add_watch /sys/fs/cgroup/cpuacct,cpu: no such file or directory [상황]cAdvisor git에 있는 kubernetes deploy인 아래의 링크를 참고해서 https://github.com/google/cadvisor/blob/master/deploy/kubernetes/base/daemonset.yamlkubernetes cluster에 cAdvisor Daemonset 를 배포했는데 다음과 같은 오류가 발생함.[오류 메세지]Could not configure a source for OOM detection, disabling OOM events: open /dev/kmsg: no such file or directoryFai..

오류 : oci runtime error: exec failed: container_linux.go:235: starting container process caused "exec: \"/bin/bash\": stat /bin/bash: no such file or directory"

오류 : oci runtime error: exec failed: container_linux.go:235: starting container process caused "exec: \"/bin/bash\": stat /bin/bash: no such file or directory" 상황kubernetes cluster에 배포 되어있는 kube-apiserver pod에 접속하기 위해kubectl exec -it [pod name] -n kube-system -- /bin/bash를 했는데 오류가 발생.  [오류 메세지]rpc error: code = 2 desc = oci runtime error: exec failed: container_linux.go:235: starting container p..

오류 : inotify_add_watch /sys/fs/cgroup/cpuacct,cpu: no such file or directory

오류 : inotify_add_watch /sys/fs/cgroup/cpuacct,cpu: no such file or directory 상황cAdvisor git에 있는 kubernetes deploy인 아래의 링크를 참고해서 https://github.com/google/cadvisor/blob/master/deploy/kubernetes/base/daemonset.yamlkubernetes cluster에 cAdvisor Daemonset 를 배포했는데 다음과 같은 오류가 발생함. [오류 메세지]Could not configure a source for OOM detection, disabling OOM events: open /dev/kmsg: no such file or directoryFail..

Pod Evicted : The node was low on resource: ephemeral-storage

Pod Evicted : The node was low on resource: ephemeral-storage 상황nginx pod에 과부하는 주던 중 Evicted 상태의 Pod가 다수 생성되면서계속 새로운 Pod가 재생성되고 있음.Evicted Pod는 사라지지 않고 계속 있음. [오류 메세지]The node was low on resource: ephemeral-storage. Container nginx was using 28Ki, which exceeds its request of 0.  원인worker node 가 1개인 cluster에서 test를 하고있었는데network 트래픽이 과부하되면서 pod의 임시 volume인 ephemeral volumes의 용량이 부족해지면서pod가 강제 종료..

x509: certificate relies on legacy Common Name field, use SANs or temporarily enable Common Name matching with GODEBUG=x509ignoreCN=0

x509: certificate relies on legacy Common Name field, use SANs or temporarily enable Common Name matching with GODEBUG=x509ignoreCN=0 상황Kubernetes 1.18.3 version 에서는 정상적으로 동작이 됐었는데Kubernetes 1.19.2 version으로 업데이트 하고 Portieris 0.8.2 설치 후 적용하니 Pod 배포 시 아래와 같이 오류가 발생. [오류 메세지]Error from server (InternalError): error when creating "1_deployment.yaml": Internal error occurred: failed calling webhook ..

Unable to update cni config: no networks found in /etc/cni/net.d 에러

Unable to update cni config: no networks found in /etc/cni/net.d 에러 상황firewalld는 stop하지 않고 일일히 port를 열었고selinux는 enabled 설정된 상태에서 kubernetes 설치 중master node 에서 kubectl init 명령 시 오류 발생  [오류 메세지][etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/man..

A copy of your changes has been stored to "/tmp/kubectl-edit~~

A copy of your changes has been stored to "/tmp/kubectl-edit~~ 상황Helm차트로 배포된 Deployment가 실행중인 상태에서kubectl edit 명령으로 Deployment 설정 변경을 시도.새로운 volume과 configMap을 추가한 후 :wq 명령으로 저장하고 나왔는데edit 편집내용이 저장되지 않고 오류가 발생함. [오류 메세지]error: deployments.apps "unbound" is invalidA copy of your changes has been stored to "/tmp/kubectl-edit-4ssjm.yaml"error: Edit cancelled, no valid changes were saved. 원인Kubernet..

Cannot enforce AppArmor: AppArmor is not enabled on the host

Cannot enforce AppArmor: AppArmor is not enabled on the host 상황Pod Security Policy 를 활성화 한 후 Flannel Daemonset 의 Pod 를 재생성 했을 시Pod의 Status 가 Init:Blocked 상태가 되고describe 명령으로 확인해보면Pod 가 Pending 상태로 되어있고원인은 Cannot enforce AppArmor: AppArmor is not enabled on the host로 되어있음 원인Annotations 항목을 보면container.apparmor.security.beta.kubernetes.io/install-cni 항목이 있는데해당 관련 오류 이유는host에서 apparmor 를 사용하고 있지 않아..

Pod 생성 시 CrashLoopBackOff 상태

Pod 생성 시 CrashLoopBackOff 상태 1. 상황Docker private registry 에서 이미지를 받아와서 deployment 를 통해 pod를 생성햇는데 오류가 발생함 오류 CrashLoopBackOff 해결법해당 CrashLoopBackOff 오류의 원인은 매우 다양해서 kubectl log 명령, 또는 kubectl describe 명령으로 log을 확인하고 그에 해당하는 대처를 해야함.kubernetes 안에서 사용하는 port 가 곂치는 경우,image에 문제가 있는 경우 등 상황에 발생한다고 함.상위 경우에서는 다른 image 를 받아오니 정상적으로 동작함즉 해당 image의 문제였음.  Pod 생성 시 CrashLoopBackOff 상태 2.상황kubernetes webh..

Ingress 생성 시 오류

Ingress 생성 시 오류[오류 메세지]Internal error occurred: failed calling webhook "validate.nginx.ingress.kubernetes.io" 해결법인증과 관련된 ingress 설정을 제거.최근(2020년도 3월) ingress 가 update 가 되고 발생하는 오류인데 정확한 해결법이 정리되어있지 않음개인적으로 알아낸 해결법 : kubectl delete validatingwebhookconfiguration ingress-nginx-admission   제 글을 복사할 시 출처를 명시해주세요.글에 오타, 오류가 있다면 댓글로 알려주세요! 바로 수정하겠습니다!

반응형