Skip to content

Commit bf5eda7

Browse files
committed
FR localization: replaced {{< codenew ... >}} with {{% codenew ... %}} in all files
1 parent ff6d646 commit bf5eda7

34 files changed

+83
-81
lines changed

Diff for: content/fr/docs/concepts/cluster-administration/logging.md

+5-6
Original file line numberDiff line numberDiff line change
@@ -50,7 +50,7 @@ d'évènements avec le flux de sortie standard. Cette démonstration utilise un
5050
manifeste pour un Pod avec un seul conteneur qui écrit du texte sur le flux
5151
de sortie standard toutes les secondes.
5252

53-
{{< codenew file="debug/counter-pod.yaml" >}}
53+
{{% codenew file="debug/counter-pod.yaml" %}}
5454

5555
Pour lancer ce Pod, utilisez la commande suivante :
5656

@@ -243,7 +243,7 @@ Un Pod exécute un unique conteneur et ce conteneur écrit dans deux fichiers de
243243
journaux différents en utilisant deux format différents. Voici le manifeste du
244244
Pod :
245245

246-
{{< codenew file="admin/logging/two-files-counter-pod.yaml" >}}
246+
{{% codenew file="admin/logging/two-files-counter-pod.yaml" %}}
247247

248248
Il serait très désordonné d'avoir des évènements avec des formats différents
249249
dans le même journal en redirigeant les évènements dans le flux de sortie
@@ -253,8 +253,7 @@ suit un des fichiers et renvoie les évènements sur son propre `stdout`.
253253

254254
Ci-dessous se trouve le manifeste pour un Pod avec deux conteneurs side-car.
255255

256-
{{< codenew file="admin/logging/two-files-counter-pod-streaming-sidecar.yaml"
257-
>}}
256+
{{% codenew file="admin/logging/two-files-counter-pod-streaming-sidecar.yaml" %}}
258257

259258
Quand ce Pod s'exécute, chaque journal peut être diffusé séparément en
260259
utilisant les commandes suivantes :
@@ -323,7 +322,7 @@ Le premier fichier contient un
323322
[ConfigMap](/docs/tasks/configure-pod-container/configure-pod-configmap/) pour
324323
configurer fluentd.
325324

326-
{{< codenew file="admin/logging/fluentd-sidecar-config.yaml" >}}
325+
{{% codenew file="admin/logging/fluentd-sidecar-config.yaml" %}}
327326

328327
{{< note >}}
329328
La configuration de fluentd est hors du cadre de cet article. Vous trouverez
@@ -335,7 +334,7 @@ Le second fichier est un manifeste pour un Pod avec un conteneur side-car qui
335334
exécute fluentd. Le Pod monte un volume où fluentd peut récupérer sa
336335
configuration.
337336

338-
{{< codenew file="admin/logging/two-files-counter-pod-agent-sidecar.yaml" >}}
337+
{{% codenew file="admin/logging/two-files-counter-pod-agent-sidecar.yaml" %}}
339338

340339
Apres quelques minutes, les évènements apparaîtront dans l'interface de
341340
Stackdriver.

Diff for: content/fr/docs/concepts/services-networking/ingress.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -330,7 +330,7 @@ type: kubernetes.io/tls
330330

331331
Référencer ce secret dans un Ingress indiquera au contrôleur d'Ingress de sécuriser le canal du client au load-balancer à l'aide de TLS. Vous devez vous assurer que le secret TLS que vous avez créé provenait d'un certificat contenant un Common Name (CN), aussi appelé nom de domaine pleinement qualifié (FQDN), pour `https-example.foo.com`.
332332

333-
{{< codenew file="service/networking/tls-example-ingress.yaml" >}}
333+
{{% codenew file="service/networking/tls-example-ingress.yaml" %}}
334334

335335

336336
{{< note >}}

Diff for: content/fr/docs/concepts/workloads/controllers/deployment.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -49,7 +49,7 @@ Voici des cas d'utilisation typiques pour les déploiements:
4949
Voici un exemple de déploiement.
5050
Il crée un ReplicaSet pour faire apparaître trois pods `nginx`:
5151

52-
{{< codenew file="controllers/nginx-deployment.yaml" >}}
52+
{{% codenew file="controllers/nginx-deployment.yaml" %}}
5353

5454
Dans cet exemple:
5555

Diff for: content/fr/docs/concepts/workloads/controllers/replicaset.md

+3-3
Original file line numberDiff line numberDiff line change
@@ -41,7 +41,7 @@ utilisez plutôt un déploiement et définissez votre application dans la sectio
4141

4242
## Exemple
4343

44-
{{< codenew file="controllers/frontend.yaml" >}}
44+
{{% codenew file="controllers/frontend.yaml" %}}
4545

4646
Enregistrer ce manifeste dans `frontend.yaml` et le soumettre à un cluster Kubernetes va créer le ReplicaSet défini et les pods qu’il gère.
4747

@@ -145,7 +145,7 @@ labels correspondant au sélecteur de l’un de vos ReplicaSets. Car un ReplicaS
145145

146146
Prenez l'exemple précédent de ReplicaSet, ainsi que les pods spécifiés dans le manifeste suivant :
147147

148-
{{< codenew file="pods/pod-rs.yaml" >}}
148+
{{% codenew file="pods/pod-rs.yaml" %}}
149149

150150
Ces pods n’ayant pas de contrôleur (ni d’objet) en tant que référence propriétaire, ils correspondent au sélecteur de du ReplicaSet frontend, ils seront donc immédiatement acquis par ce ReplicaSet.
151151

@@ -291,7 +291,7 @@ Un ReplicaSet peut également être une cible pour
291291
Un ReplicaSet peut être mis à l'échelle automatiquement par un HPA. Voici un exemple HPA qui cible
292292
le ReplicaSet que nous avons créé dans l'exemple précédent.
293293

294-
{{< codenew file="controllers/hpa-rs.yaml" >}}
294+
{{% codenew file="controllers/hpa-rs.yaml" %}}
295295

296296
Enregistrer ce manifeste dans `hpa-rs.yaml` et le soumettre à un cluster Kubernetes devrait
297297
créer le HPA défini qui scale automatiquement le ReplicaSet cible en fonction de l'utilisation du processeur

Diff for: content/fr/docs/concepts/workloads/pods/pod-topology-spread-constraints.md

+3-3
Original file line numberDiff line numberDiff line change
@@ -95,7 +95,7 @@ Supposons que vous ayez un cluster de 4 noeuds où 3 Pods étiquettés `foo:bar`
9595

9696
Si nous voulons qu'un nouveau Pod soit uniformément réparti avec les Pods existants à travers les zones, la spec peut être :
9797

98-
{{< codenew file="pods/topology-spread-constraints/one-constraint.yaml" >}}
98+
{{% codenew file="pods/topology-spread-constraints/one-constraint.yaml" %}}
9999

100100
`topologyKey: zone` implique que la distribution uniforme sera uniquement appliquée pour les noeuds ayant le label "zone:&lt;any value&gt;" présent. `whenUnsatisfiable: DoNotSchedule` indique au scheduler de laisser le Pod dans l'état Pending si le Pod entrant ne peut pas satisfaire la contrainte.
101101

@@ -133,7 +133,7 @@ Cela s'appuie sur l'exemple précédent. Supposons que vous ayez un cluster de 4
133133

134134
Vous pouvez utiliser 2 TopologySpreadConstraints pour contrôler la répartition des Pods aussi bien dans les zones que dans les noeuds :
135135

136-
{{< codenew file="pods/topology-spread-constraints/two-constraints.yaml" >}}
136+
{{% codenew file="pods/topology-spread-constraints/two-constraints.yaml" %}}
137137

138138
Dans ce cas, pour satisfaire la première contrainte, le Pod entrant peut uniquement être placé dans "zoneB" ; alors que pour satisfaire la seconde contrainte, le Pod entrant peut uniquement être placé dans "node4". Le résultat étant l'intersection des résultats des 2 contraintes, l'unique option possible est de placer le Pod entrant dans "node4".
139139

@@ -182,7 +182,7 @@ Il existe quelques conventions implicites qu'il est intéressant de noter ici :
182182
183183
et vous savez que "zoneC" doit être exclue. Dans ce cas, vous pouvez écrire le yaml ci-dessous, pour que "mypod" soit placé dans "zoneB" plutôt que dans "zoneC". `spec.nodeSelector` est pris en compte de la même manière.
184184
185-
{{< codenew file="pods/topology-spread-constraints/one-constraint-with-nodeaffinity.yaml" >}}
185+
{{% codenew file="pods/topology-spread-constraints/one-constraint-with-nodeaffinity.yaml" %}}
186186
187187
### Contraintes par défaut au niveau du cluster
188188

Diff for: content/fr/docs/contribute/style/write-new-topic.md

+4-3
Original file line numberDiff line numberDiff line change
@@ -108,13 +108,14 @@ Utilisez cette méthode pour inclure des exemples de fichiers YAML lorsque l'éc
108108
Lors de l'ajout d'un nouveau fichier d'exemple autonome, tel qu'un fichier YAML, placez le code dans l'un des sous-répertoires `<LANG>/examples/``<LANG>` est la langue utilisé dans votre page.
109109
Dans votre fichier, utilisez le shortcode `codenew` :
110110

111-
<pre>&#123;&#123;&lt; codenew file="&lt;RELPATH&gt;/my-example-yaml&gt;" &gt;&#125;&#125;</pre>
112-
111+
```none
112+
{{%/* codenew file="<RELPATH>/my-example-yaml>" */%}}
113+
```
113114
`<RELPATH>` est le chemin vers le fichier à inclure, relatif au répertoire `examples`.
114115
Le shortcode Hugo suivant fait référence à un fichier YAML situé sur `/content/en/examples/pods/storage/gce-volume.yaml`.
115116

116117
```none
117-
{{</* codenew file="pods/storage/gce-volume.yaml" */>}}
118+
{{%/* codenew file="pods/storage/gce-volume.yaml" */%}}
118119
```
119120

120121
{{< note >}}

Diff for: content/fr/docs/reference/access-authn-authz/rbac.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -1228,7 +1228,7 @@ comprend des recommandations pour restreindre cet accès dans les clusters exist
12281228
Si vous souhaitez que les nouveaux clusters conservent ce niveau d'accès dans les rôles agrégés,
12291229
vous pouvez créer le ClusterRole suivant :
12301230

1231-
{{< codenew file="access/endpoints-aggregated.yaml" >}}
1231+
{{% codenew file="access/endpoints-aggregated.yaml" %}}
12321232

12331233
## Mise à niveau à partir d'ABAC
12341234

Diff for: content/fr/docs/tasks/access-application-cluster/connecting-frontend-backend.md

+5-5
Original file line numberDiff line numberDiff line change
@@ -33,7 +33,7 @@ Si votre environnement ne prend pas en charge cette fonction, vous pouvez utilis
3333
Le backend est un simple microservice de salutations.
3434
Voici le fichier de configuration pour le Deployment backend :
3535

36-
{{< codenew file="service/access/backend-deployment.yaml" >}}
36+
{{% codenew file="service/access/backend-deployment.yaml" %}}
3737

3838
Créez le Deployment backend :
3939

@@ -91,7 +91,7 @@ Un Service utilise des {{< glossary_tooltip text="sélecteurs" term_id="selector
9191

9292
Tout d'abord, explorez le fichier de configuration du Service :
9393

94-
{{< codenew file="service/access/backend-service.yaml" >}}
94+
{{% codenew file="service/access/backend-service.yaml" %}}
9595

9696
Dans le fichier de configuration, vous pouvez voir que le Service,
9797
nommé `hello`, achemine le trafic vers les Pods ayant les labels `app: hello` et `tier: backend`.
@@ -120,16 +120,16 @@ Les Pods du frontend Deployment exécutent une image nginx
120120
configurée pour acheminer les requêtes vers le Service backend `hello`.
121121
Voici le fichier de configuration nginx :
122122

123-
{{< codenew file="service/access/frontend-nginx.conf" >}}
123+
{{% codenew file="service/access/frontend-nginx.conf" %}}
124124

125125
Comme pour le backend, le frontend dispose d'un Deployment et d'un Service.
126126
Une différence importante à noter entre les services backend et frontend est que
127127
le Service frontend est configuré avec un `type: LoadBalancer`, ce qui signifie que le Service utilise
128128
un équilibreur de charge provisionné par votre fournisseur de cloud et sera accessible depuis l'extérieur du cluster.
129129

130-
{{< codenew file="service/access/frontend-service.yaml" >}}
130+
{{% codenew file="service/access/frontend-service.yaml" %}}
131131

132-
{{< codenew file="service/access/frontend-deployment.yaml" >}}
132+
{{% codenew file="service/access/frontend-deployment.yaml" %}}
133133

134134
Créez le Deployment et le Service frontend :
135135

Diff for: content/fr/docs/tasks/access-application-cluster/service-access-application-cluster.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -27,7 +27,7 @@ ayant deux instances en cours d'exécution.
2727

2828
Voici le fichier de configuration pour le déploiement de l'application :
2929

30-
{{< codenew file="service/access/hello-application.yaml" >}}
30+
{{% codenew file="service/access/hello-application.yaml" %}}
3131

3232
1. Exécutez une application Hello World dans votre cluster :
3333
Créez le déploiement de l'application en utilisant le fichier ci-dessus :

Diff for: content/fr/docs/tasks/administer-cluster/running-cloud-controller.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -74,7 +74,7 @@ Pour les cloud-controller-manager ne faisant pas partie de Kubernetes, vous pouv
7474
Pour les fournisseurs qui se trouvent déjà dans Kubernetes, vous pouvez exécuter le cloud-controller-manager dans l'arborescence en tant que Daemonset dans votre cluster.
7575
Utilisez ce qui suit comme guide:
7676

77-
{{< codenew file="admin/cloud/ccm-example.yaml" >}}
77+
{{% codenew file="admin/cloud/ccm-example.yaml" %}}
7878

7979
## Limitations
8080

Diff for: content/fr/docs/tasks/configure-pod-container/assign-cpu-resource.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -64,7 +64,7 @@ dans le manifeste des ressources du conteneur. Pour spécifier une limite de CPU
6464

6565
Dans cet exercice, vous allez créer un Pod qui a un seul conteneur. Le conteneur a une demande de 0.5 CPU et une limite de 1 CPU. Voici le fichier de configuration du Pod :
6666

67-
{{< codenew file="pods/resource/cpu-request-limit.yaml" >}}
67+
{{% codenew file="pods/resource/cpu-request-limit.yaml" %}}
6868

6969
La section `args` du fichier de configuration fournit des arguments pour le conteneur lorsqu'il démarre. L'argument `-cpus "2"` demande au conteneur d'utiliser 2 CPUs.
7070

@@ -147,7 +147,7 @@ L'ordonnancement des pods est basé sur les demandes. Un Pod est prévu pour se
147147
Dans cet exercice, vous allez créer un Pod qui a une demande de CPU si importante qu'elle dépassera la capacité de n'importe quel nœud de votre cluster. Voici le fichier de configuration d'un Pod
148148
qui a un seul conteneur. Le conteneur nécessite 100 CPU, ce qui est susceptible de dépasser la capacité de tous les nœuds de votre cluster.
149149

150-
{{< codenew file="pods/resource/cpu-request-limit-2.yaml" >}}
150+
{{% codenew file="pods/resource/cpu-request-limit-2.yaml" %}}
151151

152152
Créez le Pod :
153153

Diff for: content/fr/docs/tasks/configure-pod-container/assign-memory-resource.md

+3-3
Original file line numberDiff line numberDiff line change
@@ -60,7 +60,7 @@ dans le manifeste des ressources du conteneur. Pour spécifier une limite de mé
6060
Dans cet exercice, vous créez un pod qui possède un seul conteneur. Le conteneur dispose d'une demande de mémoire de 100 MiB et une limite de mémoire de 200 MiB. Voici le fichier de configuration
6161
pour le Pod :
6262

63-
{{< codenew file="pods/resource/memory-request-limit.yaml" >}}
63+
{{% codenew file="pods/resource/memory-request-limit.yaml" %}}
6464

6565
La section `args` de votre fichier de configuration fournit des arguments pour le conteneur lorsqu'il démarre.
6666
Les arguments `"--vm-bytes", "150M"` indiquent au conteneur d'allouer 150 MiB de mémoire.
@@ -123,7 +123,7 @@ Si un conteneur terminé peut être redémarré, le kubelet le redémarre, comme
123123
Dans cet exercice, vous créez un Pod qui tente d'allouer plus de mémoire que sa limite.
124124
Voici le fichier de configuration d'un Pod qui contient un conteneur avec une demande de mémoire de 50 MiB et une limite de mémoire de 100 MiB :
125125

126-
{{< codenew file="pods/resource/memory-request-limit-2.yaml" >}}
126+
{{% codenew file="pods/resource/memory-request-limit-2.yaml" %}}
127127

128128
Dans la section `args` du fichier de configuration, vous pouvez voir que le conteneur
129129
tentera d'allouer 250 MiB de mémoire, ce qui est bien au-dessus de la limite de 100 MiB.
@@ -226,7 +226,7 @@ L'ordonnancement des modules est basé sur les demandes. Un Pod est schedulé po
226226

227227
Dans cet exercice, vous allez créer un Pod dont la demande de mémoire est si importante qu'elle dépasse la capacité de la mémoire de n'importe quel nœud de votre cluster. Voici le fichier de configuration d'un Pod qui possède un seul conteneur avec une demande de 1000 GiB de mémoire, qui dépasse probablement la capacité de tous les nœuds de votre cluster.
228228

229-
{{< codenew file="pods/resource/memory-request-limit-3.yaml" >}}
229+
{{% codenew file="pods/resource/memory-request-limit-3.yaml" %}}
230230

231231
Créez le Pod :
232232

Diff for: content/fr/docs/tasks/configure-pod-container/assign-pods-nodes.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -62,7 +62,7 @@ Cette page montre comment assigner un Pod à un nœud particulier dans un cluste
6262
6363
Le fichier de configuration de pod décrit un pod qui possède un selector de nœud de type `disktype:ssd`. Cela signifie que le pod sera planifié sur un nœud ayant le label `disktype=ssd`.
6464
65-
{{< codenew file="pods/pod-nginx.yaml" >}}
65+
{{% codenew file="pods/pod-nginx.yaml" %}}
6666
6767
1. Utilisez le fichier de configuration pour créer un pod qui sera ordonnancé sur votre nœud choisi :
6868
@@ -86,7 +86,7 @@ Le fichier de configuration de pod décrit un pod qui possède un selector de n
8686
8787
Vous pouvez également ordonnancer un pod sur un nœud spécifique via le paramètre `nodeName`.
8888
89-
{{< codenew file="pods/pod-nginx-specific-node.yaml" >}}
89+
{{% codenew file="pods/pod-nginx-specific-node.yaml" %}}
9090
9191
Utilisez le fichier de configuration pour créer un pod qui sera ordonnancé sur `foo-node` uniquement.
9292

Diff for: content/fr/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md

+3-3
Original file line numberDiff line numberDiff line change
@@ -29,7 +29,7 @@ De nombreuses applications fonctionnant pour des longues périodes finissent par
2929

3030
Dans cet exercice, vous allez créer un Pod qui exécute un conteneur basé sur l'image `registry.k8s.io/busybox`. Voici le fichier de configuration pour le Pod :
3131

32-
{{< codenew file="pods/probe/exec-liveness.yaml" >}}
32+
{{% codenew file="pods/probe/exec-liveness.yaml" %}}
3333

3434
Dans le fichier de configuration, vous constatez que le Pod a un seul conteneur.
3535
Le champ `periodSeconds` spécifie que le Kubelet doit effectuer un check de liveness toutes les 5 secondes. Le champ `initialDelaySeconds` indique au Kubelet qu'il devrait attendre 5 secondes avant d'effectuer la première probe. Pour effectuer une probe, le Kubelet exécute la commande `cat /tmp/healthy` dans le conteneur. Si la commande réussit, elle renvoie 0, et le Kubelet considère que le conteneur est vivant et en bonne santé. Si la commande renvoie une valeur non nulle, le Kubelet tue le conteneur et le redémarre.
@@ -104,7 +104,7 @@ liveness-exec 1/1 Running 1 1m
104104
Un autre type de liveness probe utilise une requête GET HTTP. Voici la configuration
105105
d'un Pod qui fait fonctionner un conteneur basé sur l'image `registry.k8s.io/liveness`.
106106
107-
{{< codenew file="pods/probe/http-liveness.yaml" >}}
107+
{{% codenew file="pods/probe/http-liveness.yaml" %}}
108108
109109
Dans le fichier de configuration, vous pouvez voir que le Pod a un seul conteneur.
110110
Le champ `periodSeconds` spécifie que le Kubelet doit effectuer une liveness probe toutes les 3 secondes. Le champ `initialDelaySeconds` indique au Kubelet qu'il devrait attendre 3 secondes avant d'effectuer la première probe. Pour effectuer une probe, le Kubelet envoie une requête HTTP GET au serveur qui s'exécute dans le conteneur et écoute sur le port 8080. Si le handler du chemin `/healthz` du serveur renvoie un code de succès, le Kubelet considère que le conteneur est vivant et en bonne santé. Si le handler renvoie un code d'erreur, le Kubelet tue le conteneur et le redémarre.
@@ -152,7 +152,7 @@ Dans les versions postérieures à la v1.13, les paramètres de la variable d'en
152152
Un troisième type de liveness probe utilise un TCP Socket. Avec cette configuration, le Kubelet tentera d'ouvrir un socket vers votre conteneur sur le port spécifié.
153153
S'il arrive à établir une connexion, le conteneur est considéré comme étant en bonne santé, s'il n'y arrive pas, c'est un échec.
154154
155-
{{< codenew file="pods/probe/tcp-liveness-readiness.yaml" >}}
155+
{{% codenew file="pods/probe/tcp-liveness-readiness.yaml" %}}
156156
157157
Comme vous le voyez, la configuration pour un check TCP est assez similaire à un check HTTP.
158158
Cet exemple utilise à la fois des readiness et liveness probes. Le Kubelet transmettra la première readiness probe 5 secondes après le démarrage du conteneur. Il tentera de se connecter au conteneur `goproxy` sur le port 8080. Si la probe réussit, le conteneur sera marqué comme prêt. Kubelet continuera à effectuer ce check tous les 10 secondes.

Diff for: content/fr/docs/tasks/configure-pod-container/configure-persistent-volume-storage.md

+4-4
Original file line numberDiff line numberDiff line change
@@ -75,7 +75,7 @@ pour paramétrer du
7575
[provisioning dynamique](/docs/concepts/storage/dynamic-provisioning/).
7676

7777
Voici le fichier de configuration pour le PersistentVolume de type hostPath:
78-
{{< codenew file="pods/storage/pv-volume.yaml" >}}
78+
{{% codenew file="pods/storage/pv-volume.yaml" %}}
7979

8080
Le fichier de configuration spécifie que le chemin du volume sur le noeud est `/mnt/data`. Il spécifie aussi une taille de 10 gibibytes, ainsi qu'un mode d'accès de type `ReadWriteOnce`, impliquant que le volume ne peut être monté en lecture et écriture que par un seul noeud. Le fichier définit un [nom de StorageClass](/docs/concepts/storage/persistent-volumes/#class) à `manual`, ce qui sera utilisé pour attacher un PersistentVolumeClaim à ce PersistentVolume
8181

@@ -103,7 +103,7 @@ La prochaine étape est de créer un PersistentVolumeClaim (demande de stockage)
103103
Dans cet exercice, vous créez un PersistentVolumeClaim qui demande un volume d'au moins 3 GB, et qui peut être monté en lecture et écriture sur au moins un noeud.
104104

105105
Voici le fichier de configuration du PersistentVolumeClaim:
106-
{{< codenew file="pods/storage/pv-claim.yaml" >}}
106+
{{% codenew file="pods/storage/pv-claim.yaml" %}}
107107

108108
Créez le PersistentVolumeClaim:
109109

@@ -137,7 +137,7 @@ La prochaine étape est de créer un Pod qui utilise le PersistentVolumeClaim co
137137

138138
Voici le fichier de configuration du Pod:
139139

140-
{{< codenew file="pods/storage/pv-pod.yaml" >}}
140+
{{% codenew file="pods/storage/pv-pod.yaml" %}}
141141

142142
Notez que le fichier de configuration du Pod spécifie un PersistentVolumeClaim et non un PersistentVolume. Du point de vue du Pod, la demande est un volume de stockage.
143143

@@ -200,7 +200,7 @@ Vous pouvez maintenant arrêter la session shell vers votre noeud.
200200
Vous pouvez monter plusieurs fois un même PersistentVolume
201201
à plusieurs endroits différents dans votre container nginx:
202202

203-
{{< codenew file="pods/storage/pv-duplicate.yaml" >}}
203+
{{% codenew file="pods/storage/pv-duplicate.yaml" %}}
204204

205205
- `/usr/share/nginx/html` pour le site statique
206206
- `/etc/nginx/nginx.conf` pour la configuration par défaut

0 commit comments

Comments
 (0)