web-dev-qa-db-ja.com

「不十分なポッド」を報告するaks

説明されているAzure Cats&Dogsチュートリアル here を実行しましたが、AKSでアプリが起動される最後の手順でエラーが発生します。 Kubernetesはポッドが不十分であると報告していますが、これがなぜなのかはわかりません。私は数週間前にこの同じチュートリアルを問題なく実行しました。

$ kubectl apply -f Azure-vote-all-in-one-redis.yaml
deployment.apps/Azure-vote-back created
service/Azure-vote-back created
deployment.apps/Azure-vote-front created
service/Azure-vote-front created

$ kubectl get pods
NAME                                READY   STATUS    RESTARTS   AGE
Azure-vote-back-655476c7f7-mntrt    0/1     Pending   0          6s
Azure-vote-front-7c7d7f6778-mvflj   0/1     Pending   0          6s

$ kubectl get events
LAST SEEN   TYPE      REASON                 KIND         MESSAGE
3m36s       Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
84s         Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
70s         Warning   FailedScheduling       Pod          skip schedule deleting pod: default/Azure-vote-back-655476c7f7-l5j28
9s          Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
53m         Normal    SuccessfulCreate       ReplicaSet   Created pod: Azure-vote-back-655476c7f7-kjld6
99s         Normal    SuccessfulCreate       ReplicaSet   Created pod: Azure-vote-back-655476c7f7-l5j28
24s         Normal    SuccessfulCreate       ReplicaSet   Created pod: Azure-vote-back-655476c7f7-mntrt
53m         Normal    ScalingReplicaSet      Deployment   Scaled up replica set Azure-vote-back-655476c7f7 to 1
99s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set Azure-vote-back-655476c7f7 to 1
24s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set Azure-vote-back-655476c7f7 to 1
9s          Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
3m36s       Warning   FailedScheduling       Pod          0/1 nodes are available: 1 Insufficient pods.
53m         Normal    SuccessfulCreate       ReplicaSet   Created pod: Azure-vote-front-7c7d7f6778-rmbqb
24s         Normal    SuccessfulCreate       ReplicaSet   Created pod: Azure-vote-front-7c7d7f6778-mvflj
53m         Normal    ScalingReplicaSet      Deployment   Scaled up replica set Azure-vote-front-7c7d7f6778 to 1
53m         Normal    EnsuringLoadBalancer   Service      Ensuring load balancer
52m         Normal    EnsuredLoadBalancer    Service      Ensured load balancer
46s         Normal    DeletingLoadBalancer   Service      Deleting load balancer
24s         Normal    ScalingReplicaSet      Deployment   Scaled up replica set Azure-vote-front-7c7d7f6778 to 1

$ kubectl get nodes
NAME                       STATUS   ROLES   AGE    VERSION
aks-nodepool1-27217108-0   Ready    agent   7d4h   v1.9.9

それが変わったと考えることができる唯一のことは、私が現在実行している他の(より大きな)クラスターも持っていることであり、このCats&Dogsチュートリアルをもう一度行った主な理由は、他のクラスターで今日同じ問題に遭遇したためです。これはAzureアカウントのリソース制限の問題ですか?

Update 10-20/3:15 PST:これらの3つのクラスターはすべて、異なるリソースで作成されたにもかかわらず、同じノードプールを使用していることを示していますグループ。また、gem2-clusterの「get-credentials」呼び出しがエラーを報告する方法にも注意してください。以前、gem2-clusterと呼ばれるクラスターがありましたが、同じ名前を使用して削除して再作成しました(実際には、woleリソースグループを削除しました)。これを行うための正しいプロセスは何ですか?

$ az aks get-credentials --name gem1-cluster --resource-group gem1-rg
Merged "gem1-cluster" as current context in /home/psteele/.kube/config

$ kubectl get nodes -n gem1
NAME                       STATUS   ROLES   AGE     VERSION
aks-nodepool1-27217108-0   Ready    agent   3h26m   v1.9.11

$ az aks get-credentials --name gem2-cluster --resource-group gem2-rg
A different object named gem2-cluster already exists in clusters

$ az aks get-credentials --name gem3-cluster --resource-group gem3-rg
Merged "gem3-cluster" as current context in /home/psteele/.kube/config

$ kubectl get nodes -n gem1
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11

$ kubectl get nodes -n gem2
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11

$ kubectl get nodes -n gem3
NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-14202150-0   Ready    agent   26m   v1.9.11
6
user3280383

サブスクリプションのコア制限に達していないことを確認してください。

az vm list-usage --location "<location>" -o table

より多くの割り当てをリクエストできる場合は、 https://docs.Microsoft.com/en-us/Azure/azure-supportability/resource-manager-core-quotas-request

0
Ken W MSFT