You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: content/fr/docs/concepts/services-networking/ingress.md
+1-1
Original file line number
Diff line number
Diff line change
@@ -330,7 +330,7 @@ type: kubernetes.io/tls
330
330
331
331
Référencer ce secret dans un Ingress indiquera au contrôleur d'Ingress de sécuriser le canal du client au load-balancer à l'aide de TLS. Vous devez vous assurer que le secret TLS que vous avez créé provenait d'un certificat contenant un Common Name (CN), aussi appelé nom de domaine pleinement qualifié (FQDN), pour `https-example.foo.com`.
Copy file name to clipboardExpand all lines: content/fr/docs/concepts/workloads/controllers/replicaset.md
+3-3
Original file line number
Diff line number
Diff line change
@@ -41,7 +41,7 @@ utilisez plutôt un déploiement et définissez votre application dans la sectio
41
41
42
42
## Exemple
43
43
44
-
{{< codenew file="controllers/frontend.yaml" >}}
44
+
{{% codenew file="controllers/frontend.yaml" %}}
45
45
46
46
Enregistrer ce manifeste dans `frontend.yaml` et le soumettre à un cluster Kubernetes va créer le ReplicaSet défini et les pods qu’il gère.
47
47
@@ -145,7 +145,7 @@ labels correspondant au sélecteur de l’un de vos ReplicaSets. Car un ReplicaS
145
145
146
146
Prenez l'exemple précédent de ReplicaSet, ainsi que les pods spécifiés dans le manifeste suivant :
147
147
148
-
{{< codenew file="pods/pod-rs.yaml" >}}
148
+
{{% codenew file="pods/pod-rs.yaml" %}}
149
149
150
150
Ces pods n’ayant pas de contrôleur (ni d’objet) en tant que référence propriétaire, ils correspondent au sélecteur de du ReplicaSet frontend, ils seront donc immédiatement acquis par ce ReplicaSet.
151
151
@@ -291,7 +291,7 @@ Un ReplicaSet peut également être une cible pour
291
291
Un ReplicaSet peut être mis à l'échelle automatiquement par un HPA. Voici un exemple HPA qui cible
292
292
le ReplicaSet que nous avons créé dans l'exemple précédent.
293
293
294
-
{{< codenew file="controllers/hpa-rs.yaml" >}}
294
+
{{% codenew file="controllers/hpa-rs.yaml" %}}
295
295
296
296
Enregistrer ce manifeste dans `hpa-rs.yaml` et le soumettre à un cluster Kubernetes devrait
297
297
créer le HPA défini qui scale automatiquement le ReplicaSet cible en fonction de l'utilisation du processeur
`topologyKey: zone` implique que la distribution uniforme sera uniquement appliquée pour les noeuds ayant le label "zone:<any value>" présent. `whenUnsatisfiable: DoNotSchedule` indique au scheduler de laisser le Pod dans l'état Pending si le Pod entrant ne peut pas satisfaire la contrainte.
101
101
@@ -133,7 +133,7 @@ Cela s'appuie sur l'exemple précédent. Supposons que vous ayez un cluster de 4
133
133
134
134
Vous pouvez utiliser 2 TopologySpreadConstraints pour contrôler la répartition des Pods aussi bien dans les zones que dans les noeuds :
Dans ce cas, pour satisfaire la première contrainte, le Pod entrant peut uniquement être placé dans "zoneB" ; alors que pour satisfaire la seconde contrainte, le Pod entrant peut uniquement être placé dans "node4". Le résultat étant l'intersection des résultats des 2 contraintes, l'unique option possible est de placer le Pod entrant dans "node4".
139
139
@@ -182,7 +182,7 @@ Il existe quelques conventions implicites qu'il est intéressant de noter ici :
182
182
183
183
et vous savez que "zoneC" doit être exclue. Dans ce cas, vous pouvez écrire le yaml ci-dessous, pour que "mypod" soit placé dans "zoneB" plutôt que dans "zoneC". `spec.nodeSelector` est pris en compte de la même manière.
Copy file name to clipboardExpand all lines: content/fr/docs/contribute/style/write-new-topic.md
+4-3
Original file line number
Diff line number
Diff line change
@@ -108,13 +108,14 @@ Utilisez cette méthode pour inclure des exemples de fichiers YAML lorsque l'éc
108
108
Lors de l'ajout d'un nouveau fichier d'exemple autonome, tel qu'un fichier YAML, placez le code dans l'un des sous-répertoires `<LANG>/examples/` où `<LANG>` est la langue utilisé dans votre page.
109
109
Dans votre fichier, utilisez le shortcode `codenew` :
Copy file name to clipboardExpand all lines: content/fr/docs/tasks/administer-cluster/running-cloud-controller.md
+1-1
Original file line number
Diff line number
Diff line change
@@ -74,7 +74,7 @@ Pour les cloud-controller-manager ne faisant pas partie de Kubernetes, vous pouv
74
74
Pour les fournisseurs qui se trouvent déjà dans Kubernetes, vous pouvez exécuter le cloud-controller-manager dans l'arborescence en tant que Daemonset dans votre cluster.
Copy file name to clipboardExpand all lines: content/fr/docs/tasks/configure-pod-container/assign-cpu-resource.md
+2-2
Original file line number
Diff line number
Diff line change
@@ -64,7 +64,7 @@ dans le manifeste des ressources du conteneur. Pour spécifier une limite de CPU
64
64
65
65
Dans cet exercice, vous allez créer un Pod qui a un seul conteneur. Le conteneur a une demande de 0.5 CPU et une limite de 1 CPU. Voici le fichier de configuration du Pod :
La section `args` du fichier de configuration fournit des arguments pour le conteneur lorsqu'il démarre. L'argument `-cpus "2"` demande au conteneur d'utiliser 2 CPUs.
70
70
@@ -147,7 +147,7 @@ L'ordonnancement des pods est basé sur les demandes. Un Pod est prévu pour se
147
147
Dans cet exercice, vous allez créer un Pod qui a une demande de CPU si importante qu'elle dépassera la capacité de n'importe quel nœud de votre cluster. Voici le fichier de configuration d'un Pod
148
148
qui a un seul conteneur. Le conteneur nécessite 100 CPU, ce qui est susceptible de dépasser la capacité de tous les nœuds de votre cluster.
Copy file name to clipboardExpand all lines: content/fr/docs/tasks/configure-pod-container/assign-memory-resource.md
+3-3
Original file line number
Diff line number
Diff line change
@@ -60,7 +60,7 @@ dans le manifeste des ressources du conteneur. Pour spécifier une limite de mé
60
60
Dans cet exercice, vous créez un pod qui possède un seul conteneur. Le conteneur dispose d'une demande de mémoire de 100 MiB et une limite de mémoire de 200 MiB. Voici le fichier de configuration
Dans la section `args` du fichier de configuration, vous pouvez voir que le conteneur
129
129
tentera d'allouer 250 MiB de mémoire, ce qui est bien au-dessus de la limite de 100 MiB.
@@ -226,7 +226,7 @@ L'ordonnancement des modules est basé sur les demandes. Un Pod est schedulé po
226
226
227
227
Dans cet exercice, vous allez créer un Pod dont la demande de mémoire est si importante qu'elle dépasse la capacité de la mémoire de n'importe quel nœud de votre cluster. Voici le fichier de configuration d'un Pod qui possède un seul conteneur avec une demande de 1000 GiB de mémoire, qui dépasse probablement la capacité de tous les nœuds de votre cluster.
Copy file name to clipboardExpand all lines: content/fr/docs/tasks/configure-pod-container/assign-pods-nodes.md
+2-2
Original file line number
Diff line number
Diff line change
@@ -62,7 +62,7 @@ Cette page montre comment assigner un Pod à un nœud particulier dans un cluste
62
62
63
63
Le fichier de configuration de pod décrit un pod qui possède un selector de nœud de type `disktype:ssd`. Cela signifie que le pod sera planifié sur un nœud ayant le label `disktype=ssd`.
64
64
65
-
{{< codenew file="pods/pod-nginx.yaml" >}}
65
+
{{% codenew file="pods/pod-nginx.yaml" %}}
66
66
67
67
1. Utilisez le fichier de configuration pour créer un pod qui sera ordonnancé sur votre nœud choisi :
68
68
@@ -86,7 +86,7 @@ Le fichier de configuration de pod décrit un pod qui possède un selector de n
86
86
87
87
Vous pouvez également ordonnancer un pod sur un nœud spécifique via le paramètre `nodeName`.
Copy file name to clipboardExpand all lines: content/fr/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md
+3-3
Original file line number
Diff line number
Diff line change
@@ -29,7 +29,7 @@ De nombreuses applications fonctionnant pour des longues périodes finissent par
29
29
30
30
Dans cet exercice, vous allez créer un Pod qui exécute un conteneur basé sur l'image `registry.k8s.io/busybox`. Voici le fichier de configuration pour le Pod :
Dans le fichier de configuration, vous constatez que le Pod a un seul conteneur.
35
35
Le champ `periodSeconds` spécifie que le Kubelet doit effectuer un check de liveness toutes les 5 secondes. Le champ `initialDelaySeconds` indique au Kubelet qu'il devrait attendre 5 secondes avant d'effectuer la première probe. Pour effectuer une probe, le Kubelet exécute la commande `cat /tmp/healthy` dans le conteneur. Si la commande réussit, elle renvoie 0, et le Kubelet considère que le conteneur est vivant et en bonne santé. Si la commande renvoie une valeur non nulle, le Kubelet tue le conteneur et le redémarre.
Dans le fichier de configuration, vous pouvez voir que le Pod a un seul conteneur.
110
110
Le champ `periodSeconds` spécifie que le Kubelet doit effectuer une liveness probe toutes les 3 secondes. Le champ `initialDelaySeconds` indique au Kubelet qu'il devrait attendre 3 secondes avant d'effectuer la première probe. Pour effectuer une probe, le Kubelet envoie une requête HTTP GET au serveur qui s'exécute dans le conteneur et écoute sur le port 8080. Si le handler du chemin `/healthz` du serveur renvoie un code de succès, le Kubelet considère que le conteneur est vivant et en bonne santé. Si le handler renvoie un code d'erreur, le Kubelet tue le conteneur et le redémarre.
@@ -152,7 +152,7 @@ Dans les versions postérieures à la v1.13, les paramètres de la variable d'en
152
152
Un troisième type de liveness probe utilise un TCP Socket. Avec cette configuration, le Kubelet tentera d'ouvrir un socket vers votre conteneur sur le port spécifié.
153
153
S'il arrive à établir une connexion, le conteneur est considéré comme étant en bonne santé, s'il n'y arrive pas, c'est un échec.
Comme vous le voyez, la configuration pour un check TCP est assez similaire à un check HTTP.
158
158
Cet exemple utilise à la fois des readiness et liveness probes. Le Kubelet transmettra la première readiness probe 5 secondes après le démarrage du conteneur. Il tentera de se connecter au conteneur `goproxy` sur le port 8080. Si la probe réussit, le conteneur sera marqué comme prêt. Kubelet continuera à effectuer ce check tous les 10 secondes.
Le fichier de configuration spécifie que le chemin du volume sur le noeud est `/mnt/data`. Il spécifie aussi une taille de 10 gibibytes, ainsi qu'un mode d'accès de type `ReadWriteOnce`, impliquant que le volume ne peut être monté en lecture et écriture que par un seul noeud. Le fichier définit un [nom de StorageClass](/docs/concepts/storage/persistent-volumes/#class) à `manual`, ce qui sera utilisé pour attacher un PersistentVolumeClaim à ce PersistentVolume
81
81
@@ -103,7 +103,7 @@ La prochaine étape est de créer un PersistentVolumeClaim (demande de stockage)
103
103
Dans cet exercice, vous créez un PersistentVolumeClaim qui demande un volume d'au moins 3 GB, et qui peut être monté en lecture et écriture sur au moins un noeud.
104
104
105
105
Voici le fichier de configuration du PersistentVolumeClaim:
106
-
{{< codenew file="pods/storage/pv-claim.yaml" >}}
106
+
{{% codenew file="pods/storage/pv-claim.yaml" %}}
107
107
108
108
Créez le PersistentVolumeClaim:
109
109
@@ -137,7 +137,7 @@ La prochaine étape est de créer un Pod qui utilise le PersistentVolumeClaim co
137
137
138
138
Voici le fichier de configuration du Pod:
139
139
140
-
{{< codenew file="pods/storage/pv-pod.yaml" >}}
140
+
{{% codenew file="pods/storage/pv-pod.yaml" %}}
141
141
142
142
Notez que le fichier de configuration du Pod spécifie un PersistentVolumeClaim et non un PersistentVolume. Du point de vue du Pod, la demande est un volume de stockage.
143
143
@@ -200,7 +200,7 @@ Vous pouvez maintenant arrêter la session shell vers votre noeud.
200
200
Vous pouvez monter plusieurs fois un même PersistentVolume
201
201
à plusieurs endroits différents dans votre container nginx:
0 commit comments