Provided by: manpages-fr_4.26.0-1_all bug

NOM

       nfs – Format de fstab et options pour les systèmes de fichiers nfs

SYNOPSIS

       /etc/fstab

DESCRIPTION

       NFS est un protocole aux normes de l'Internet créé par Sun Microsystems en 1984. NFS a été développé pour
       permettre  le  partage de fichiers entre des systèmes connectés à un réseau local. Selon la configuration
       du noyau, le client Linux de NFS peut gérer les versions 3, 4.0, 4.1 ou 4.2.

       La commande mount(8) lie un système de fichiers à un point de montage donné dans la hiérarchie  d'espaces
       de  noms  du  système.  Le  fichier  /etc/fstab  décrit la façon dont mount(8) doit recréer la hiérarchie
       d'espaces de noms du système de fichiers à  partir  de  systèmes  de  fichiers  indépendants  (dont  ceux
       exportés  par  des  serveurs  NFS).  Chacune  des  lignes du fichier /etc/fstab décrit un seul système de
       fichiers, son point de montage et un ensemble d'options de montage par défaut pour ce point de montage.

       Dans le cas des montages de systèmes de fichiers NFS, une ligne dans le fichier /etc/fstab indique le nom
       du serveur, le chemin du répertoire exporté à monter, le répertoire local qui sera le point  de  montage,
       le type de système de fichiers à monter et la liste des options de montage qui indiquent la façon dont le
       système de fichiers sera monté et quel sera le comportement du client NFS lorsqu'il accédera aux fichiers
       du  point de montage. Les cinquième et sixième champs de chaque ligne ne sont pas utilisés par NFS et par
       conséquent contiennent par convention le chiffre zéro. Par exemple :

               serv:chemin   /pt_montage   type_sdf option,option,...   0 0

       Le nom du serveur et le chemin de partage sont séparés par un deux-points,  tandis  que  les  options  de
       montage  sont  séparées  par  des  virgules.  Les  champs  restants  sont  séparés par des espaces ou des
       tabulations.

       Le nom d’hôte du serveur peut être un nom d'hôte non qualifié, un  nom  de  domaine  pleinement  qualifié
       («  fully qualified domain name »), une adresse IPv4 sous forme de quadruplet avec points  ou une adresse
       IPv6 entourée par des crochets. Les adresses IPv6 de  liens  locaux  ou  de  sites  locaux  doivent  être
       accompagnées  d'un  identifiant  d'interface.  Consulter  ipv6(7) pour des détails quant à l'écriture des
       adresses IPv6 brutes.

       Le champ type_sdf contient « nfs ». La valeur « nfs4 » est obsolète.

OPTIONS DE MONTAGE

       Consultez mount(8) pour la description des options  de  montage  génériques  disponibles  pour  tous  les
       systèmes  de  fichiers. Si vous n'avez pas besoin d'indiquer d'options de montage particulières, utilisez
       l'option générique defaults dans /etc/fstab.

   Options prises en charge par toutes les versions
       Les options suivantes peuvent être utilisées avec n'importe quelle version de NFS.

       nfsvers=n      Le numéro de version du protocole NFS utilisé pour contacter le service NFS du serveur. Si
                      le serveur ne gère pas la version demandée, la requête de montage échoue. Si cette  option
                      n'est  pas  définie,  le  client  essaie  d’abord  la version 4.2, puis essaie une version
                      inférieure jusqu’à trouver une version prise en charge par le serveur.

       vers=n         Cette option est une solution de remplacement de l'option nfsvers. Elle est  incluse  pour
                      des raisons de compatibilité avec d’autres systèmes d'exploitation.

       soft/softerr/hard
                      Définir le comportement de récupération du client NFS lorsqu'une requête NFS ne répond pas
                      (délai  dépassé).  Si  aucune  option  n'est  indiquée  (ou si c'est l'option hard qui est
                      indiquée), les requêtes NFS sont retentées indéfiniment.  Si  l'option  soft  ou  l’option
                      softerr  est  indiquée,  le  client NFS échouera après l’envoi de retrans retransmissions,
                      entraînant le renvoi par le client NFS de soit EIO (pour l’option soft) ou ETIMEDOUT (pour
                      l’option softerr) à l'application appelante.

                      NB : Un délai expiré « soft » peut provoquer dans certains cas des erreurs de données  non
                      signalées.  C'est pourquoi l'option soft ou l’option softerr ne doivent être utilisées que
                      si la réactivité du client est plus importante que l'intégrité des données.  L'utilisation
                      de  NFS  avec  TCP  ou  l'augmentation  de la valeur de l'option retrans peut diminuer les
                      risques liés à l'utilisation de l'option soft ou softerr.

       softreval/nosoftreval
                      Dans le cas où le serveur NFS est hors service, il peut être utile de permettre au  client
                      NFS  de  servir  des  chemins et des attributs à partir du cache après retrans essais pour
                      revalider ce que ce cache a invalidé. Cela peut être utile, par exemple, lors  d’un  essai
                      de  démontage  d’un  arbre  de  système  de  fichiers d’un serveur hors service de manière
                      permanente.

                      Il est possible de combiner softreval avec  l’option  de  montage  soft,  auquel  cas  les
                      opérations  qui  ne peuvent être servies à partir du cache dépasseront le délai imparti et
                      renverront une erreur après retrans essais. La combinaison avec l’option  de  montage  par
                      défaut  hard implique que ces opérations non mises en cache continueront d’essayer jusqu’à
                      ce qu’une réponse soit reçue du serveur.

                      Remarque : l’option de montage par défaut est nosoftreval qui ne permet pas un repli  vers
                      le  cache lorsque la revalidation échoue, et qui suit plutôt le comportement dicté par les
                      options de montage hard ou soft.

       intr/nointr    Cette  option  est  fournie  pour  la  rétrocompatibilité.  Elle  est  ignorée  après   le
                      noyau 2.6.25.

       timeo=n        Le  temps  en dixièmes de seconde pendant lequel le client NFS attend une réponse avant de
                      réessayer une requête NFS.

                      Pour NFS sur TCP, la valeur timeo est de 600 par  défaut  (60  secondes).  Le  client  NFS
                      effectue  une  progression  linéaire  :  après  chaque retransmission la temporisation est
                      augmentée de timeo jusqu'au maximum de 600 secondes.

                      Cependant, dans le cas de NFS sur UDP, le client  utilise  un  algorithme  adaptatif  pour
                      estimer  la  valeur  appropriée  de  dépassement  de  temps  pour  les  types  de requêtes
                      fréquemment utilisées (les requêtes READ et WRITE par exemple), mais  utilise  le  réglage
                      timeo  pour  les  requêtes  moins  courantes  (comme  FSINFO). Si l'option timeo n'est pas
                      définie, les types de requêtes moins courantes sont  réémises  après  1,1  seconde.  Après
                      chaque  retransmission,  le client NFS double la valeur de dépassement de temps pour cette
                      requête, jusqu'à atteindre un maximum de 60 secondes.

                      Toute valeur de timeo supérieure à la valeur par défaut  sera  définie  à  la  valeur  par
                      défaut.  Pour  TCP  et  RDMA,  la valeur par défaut est de 600 (60 secondes). Pour UDP, la
                      valeur par défaut est de 60 (6 secondes).

       retrans=n      Nombre de tentatives de réémission de la requête avant que le client NFS  n'enclenche  une
                      action de récupération. Si l'option retrans n'est pas définie, le client NFS essaye chaque
                      requête UDP trois fois et chaque requête TCP deux fois.

                      Le  client  NFS  génère  un message « le serveur ne répond pas » après retrans tentatives,
                      puis enclenche la récupération (qui dépend de l'activation de l'option hard de mount).

       rsize=n        Nombre maximal d'octets pour chaque requête réseau en LECTURE que peut recevoir le  client
                      NFS  lorsqu'il  lit  les  données  d'un fichier sur le serveur NFS. La taille réelle de la
                      charge utile de données pour chaque requête NFS en LECTURE est plus  petite  ou  égale  au
                      réglage  rsize.  La  plus  grande  charge  utile  gérée  par  le  client  NFS Linux est de
                      1 048 576 octets (un mégaoctet).

                      The allowed rsize value is a positive integral multiple of system's page size or  a  power
                      of  two  if it is less than system's page size. Specified rsize values lower than 1024 are
                      replaced with 4096; values larger than 1048576 are replaced with 1048576. If  a  specified
                      value  is  within the supported range but not such an allowed value, it is rounded down to
                      the nearest allowed value.

                      Si la valeur de rsize n'est pas définie, ou si la valeur de rsize dépasse le maximum  qu'à
                      la  fois  le client et le serveur peuvent gérer, le client et le serveur négocient la plus
                      grande valeur de rsize qu'ils peuvent gérer ensemble.

                      L'option rsize de mount telle qu'elle a été définie sur  la  ligne  de  commande  lors  du
                      mount(8) apparaît dans le fichier /etc/mtab. Cependant, la valeur réelle de rsize négociée
                      entre le client et le serveur est indiquée dans le fichier /proc/mounts.

       wsize=n        Nombre maximal d'octets par requête d'ÉCRITURE réseau que le client NFS peut envoyer quand
                      il  écrit  des  données  dans un fichier sur un serveur NFS. La taille réelle de la charge
                      utile de données pour chaque requête NFS en ÉCRITURE est plus petite ou égale  au  réglage
                      wsize.  La  plus grande charge utile gérée par le client NFS Linux est de 1 048 576 octets
                      (un mégaoctet).

                      Similar to rsize, the allowed wsize value is a positive integral multiple of system's page
                      size or a power of two if it is less than system's page size. Specified wsize values lower
                      than 1024 are replaced with 4096; values larger than 1048576 are replaced with 1048576. If
                      a specified value is within the supported range but not  such  an  allowed  value,  it  is
                      rounded down to the nearest allowed value.

                      Si  la valeur de wsize n'est pas définie, ou si la valeur wsize indiquée est supérieure au
                      maximum que soit le client, soit le  serveur  peuvent  gérer,  le  client  et  le  serveur
                      négocient la plus grande valeur de wsize qu'ils peuvent tous les deux gérer.

                      L'option  wsize de mount telle qu'elle a été indiquée sur la ligne de commande de mount(8)
                      apparaît dans le fichier /etc/mtab. Cependant, la valeur réelle de wsize négociée  par  le
                      client et le serveur est indiquée dans le fichier /proc/mounts.

       ac/noac        Définir  si  le  client  peut mettre en cache les attributs des fichiers. Si aucune option
                      n'est indiquée (ou si c'est ac qui est indiqué), le client met en cache les attributs  des
                      fichiers.

                      Afin  d'améliorer  les  performances,  les  clients NFS mettent en cache les attributs des
                      fichiers. À intervalles de quelques secondes, un client NFS vérifie la version du  serveur
                      de  chaque  attribut  de  fichier  pour rechercher des mises à jour. Les modifications qui
                      interviennent pendant ces petits intervalles restent inaperçues tant que le client n'a pas
                      consulté de nouveau le serveur. L'option noac empêche la mise en cache  des  attributs  de
                      fichiers  par  le  client,  ce qui permet aux applications de détecter plus rapidement les
                      modifications des fichiers sur le serveur.

                      En plus d'empêcher le client de mettre en cache les attributs des fichiers, l'option  noac
                      force  l'écriture  synchronisée  pour  les  applications afin que les modifications sur un
                      fichier soient immédiatement visibles sur le serveur. De cette façon, les  autres  clients
                      peuvent  rapidement détecter les nouvelles écritures lors de la vérification des attributs
                      du fichier.

                      L'usage de l'option noac offre une plus grande cohérence du  cache  aux  clients  NFS  qui
                      accèdent   aux   mêmes  fichiers,  mais  au  prix  d'une  pénalisation  significative  des
                      performances. C'est pour cette raison  qu'une  utilisation  judicieuse  des  verrouillages
                      («  locking  »)  de  fichiers  est  préférable.  La  section  COHÉRENCE DES DONNÉES ET DES
                      MÉTADONNÉES contient une présentation détaillée de ces approches.

       acregmin=n     Durée minimale (en seconde) de mise en cache des attributs  d'un  fichier  normal  par  un
                      client  NFS  avant  leur  actualisation  depuis  le  serveur.  La valeur par défaut est de
                      3 secondes si cette option n'est pas définie. Consulter la section COHÉRENCE  DES  DONNÉES
                      ET DES MÉTADONNÉES pour des explications complètes sur la mise en cache des attributs.

       acregmax=n     Durée  maximale  (en  seconde)  de  mise en cache des attributs d'un fichier normal par un
                      client NFS avant leur actualisation depuis  le  serveur.  La  valeur  par  défaut  est  de
                      60  secondes si cette option n'est pas définie. Consulter la section COHÉRENCE DES DONNÉES
                      ET DES MÉTADONNÉES pour des explications complètes sur la mise en cache des attributs.

       acdirmin=n     Durée minimale (en seconde) de mise en cache des attributs d'un répertoire par  un  client
                      NFS avant leur actualisation depuis le serveur. La valeur par défaut est de 30 secondes si
                      cette  option  n'est  pas  définie.  Consulter  la  section  COHÉRENCE  DES DONNÉES ET DES
                      MÉTADONNÉES pour des explications complètes sur la mise en cache des attributs.

       acdirmax=n     Durée maximale (en seconde) de mise en cache des attributs d'un répertoire par  un  client
                      NFS avant leur actualisation depuis le serveur. La valeur par défaut est de 60 secondes si
                      cette  option  n'est  pas  définie.  Consulter  la  section  COHÉRENCE  DES DONNÉES ET DES
                      MÉTADONNÉES pour des explications complètes sur la mise en cache des attributs.

       actimeo=n      L'utilisation de actimeo configure toutes  les  durées  acregmin,  acregmax,  acdirmin  et
                      acdirmax  à la même valeur. Si cette option n'est pas définie, le client NFS utilisera les
                      valeurs par défaut de chacune des options décrites ci-dessus.

       bg/fg          Déterminer le comportement de la commande mount(8) dans le cas d'un échec d'une  tentative
                      de  montage  d'une  exportation.  L'option  fg  entraîne  l'arrêt de mount(8) avec un état
                      d'erreur si la moindre partie de la requête de montage dépasse le temps alloué  ou  échoue
                      complètement.  C'est  ce qui est appelé un montage en « premier plan » (pas en mode démon)
                      et c'est le comportement par défaut si ni fg ni bg ne sont indiqués.

                      Si l'option bg est indiquée, un dépassement du temps alloué  ou  un  échec  entraînera  la
                      création  d'un  enfant  (fork)  qui  continuera  à essayer de monter le partage. Le parent
                      s'interrompt immédiatement en renvoyant un code de sortie à zéro. C'est ce qui est  appelé
                      un montage en « arrière-plan » (en mode démon).

                      Si  le  répertoire servant de point de montage local n'existe pas, la commande mount(8) se
                      comporte comme si la requête était restée sans réponse (délai dépassé).  Cela  permet  aux
                      montages  NFS  imbriqués définis dans /etc/fstab d’être exécutés dans n'importe quel ordre
                      lors de l'initialisation du système, même si certains serveurs  NFS  ne  sont  pas  encore
                      disponibles.  On  peut  aussi  gérer  ces  problèmes  grâce  à  un  automonteur (consulter
                      automount(8) pour plus de détails).

       nconnect=n     Lors de l’utilisation d’un protocole orienté connexion tel que TCP, il peut  parfois  être
                      avantageux  d’établir  plusieurs connexions entre le client et le serveur. Par exemple, si
                      les clients ou les serveurs sont équipés de plusieurs  cartes  d’interface  réseau  (NIC),
                      l’utilisation  de  plusieurs  connexions  pour  répartir  la  charge  peut  améliorer  les
                      performances générales. Dans de tels cas, l’option  nconnect  permet  à  l’utilisateur  de
                      préciser  le  nombre  de  connexions  à  établir  entre le client et le serveur jusqu’à un
                      maximum de 16.

                      Il est à remarquer que l’option nconnect peut aussi être  utilisée  par  quelques  pilotes
                      pNFS pour décider combien de connexions vers les serveurs de données sont à utiliser.

       rdirplus/nordirplus
                      Indiquer  s'il  faut  utiliser  les  requêtes  READDIRPLUS de NFS version 3 ou 4. Si cette
                      option n'est pas définie, le  client  NFS  utilisera  les  requêtes  READDIRPLUS  sur  les
                      montages  en  NFS  version  3  ou  4  pour  la  lecture  des petits répertoires. Certaines
                      applications sont plus efficaces si le client n'utilise que des requêtes READDIR pour tous
                      les répertoires.

       retry=n        Nombre de minutes pendant lequel le montage NFS sera retenté par la commande mount(8),  en
                      arrière-plan ou au premier plan, avant d'abandonner. Si cette option n'est pas définie, la
                      valeur  par  défaut pour le premier plan est de 2 minutes et celle pour l'arrière-plan est
                      10 000 minutes, soit  environ  une  semaine  à  80  minutes  près.  La  commande  mount(8)
                      s'arrêtera dès le premier échec si on lui passe la valeur 0.

                      Il  est  à  remarquer que cela affecte le nombre d’essais effectués, mais n’affecte pas le
                      délai causé par chaque nouvel essai. Pour UDP, chaque essai prend le temps  déterminé  par
                      les  options timeo et retrans qui par défaut est à peu près de 7 secondes. Pour TCP il est
                      de 3 minutes, mais les délais d’expiration TCP du système peuvent parfois limiter le délai
                      d’expiration de chaque retransmission aux environs de 2 minutes.

       sec=types      Une liste de types de sécurité, séparés pas des deux-points, à utiliser pour  accéder  aux
                      fichiers  de  l’exportation  montée.  Si le serveur ne prend en charge aucun de ces types,
                      l'opération de montage échoue. Si l'option sec= n'est pas indiquée, le  client  essaie  de
                      trouver  un  type  de  sécurité  pris en charge à la fois par le client et le serveur. Les
                      types de sécurité pris en charge sont none,  sys,  krb5,  krb5i  et  krb5p.  Consulter  la
                      section CONSIDÉRATIONS DE SÉCURITÉ pour les détails.

       sharecache/nosharecache
                      Déterminer  comment  le  client  partage  ses caches de données et d'attributs de fichiers
                      lorsqu'une même exportation est montée plus d'une fois en même temps.  L'utilisation  d'un
                      seul  cache  réduit  les  besoins en mémoire sur le client et présente aux applications un
                      contenu identique lorsque l'on accède au même fichier distant  par  différents  points  de
                      montage.

                      Si  aucune  des  options  n'est  indiquée, ou si l'option sharecache est demandée, un seul
                      cache est utilisé pour tous les points de montage qui accèdent à la même  exportation.  Si
                      l'option nosharecache est indiquée, ce point de montage utilise un cache unique. Notez que
                      lorsque  les  caches des données et des attributs sont partagés, les options de montage du
                      premier point de montage s'appliquent pour les futurs montages simultanés  de  cette  même
                      exportation.

                      En  ce  qui  concerne  le  noyau  2.6.18,  le  comportement défini par nosharecache est le
                      comportement traditionnel normal. Cela est considéré  comme  dangereux  pour  les  données
                      puisque  de  multiples copies mises en cache du même fichier sur le même client peuvent se
                      désynchroniser suite à une mise à jour locale d'une des copies.

       resvport/noresvport
                      Indiquer si le client NFS doit utiliser un port source privilégié quand il communique avec
                      un serveur NFS pour ce point de montage.  Si  cette  option  n'est  pas  précisée,  ou  si
                      l'option  resvport  est  précisée,  le  client  NFS  utilise un port source privilégié. Si
                      l'option noresvport est activée, le client NFS utilise  un  port  source  non  privilégié.
                      Cette option est permise par les noyaux 2.6.28 et suivants.

                      Utiliser  un  port source non privilégié permet d'augmenter le nombre maximal de points de
                      montage permis par client, mais les serveurs NFS doivent être configurés pour permettre la
                      connexion de clients par des ports source non privilégiés.

                      Veuillez consulter la section CONSIDÉRATIONS DE SÉCURITÉ pour d'importantes précisions.

       lookupcache=mode
                      Préciser comment le noyau gère son cache d’entrées de répertoire pour un point de  montage
                      donné. mode peut être all, none, pos ou positive. Cette option est prise en charge par les
                      noyaux 2.6.28 et suivants.

                      Le client NFS Linux garde en cache tous les résultats des requêtes NFS LOOKUP. Si l’entrée
                      de  répertoire  recherchée existe sur le serveur, le résultat est considéré comme positif,
                      sinon il est considéré comme négatif.

                      Si cette option n'est pas précisée, ou si all est précisé, le client suppose que les  deux
                      types  d'entrées  (positif ou négatif) du cache de répertoire sont valables jusqu'à ce que
                      les attributs mis en cache de leur répertoire parent expirent.

                      Si pos ou positive est précisé, le client suppose que les entrées positives sont  valables
                      jusqu'à  ce  que  les  attributs  mis  en  cache  de leur répertoire parent expirent, mais
                      revalide toujours les entrées négatives avant qu'une application puisse les utiliser.

                      Si none est précisé, le client revalide  les  deux  types  d'entrées  mises  en  cache  de
                      répertoire  avant qu'une application puisse les utiliser. Cela permet une détection rapide
                      des fichiers qui ont été créés ou supprimés par d'autres  clients,  mais  peut  avoir  des
                      répercussions sur ces applications et les performances du serveur.

                      La  partie  COHÉRENCE  DES DONNÉES ET DES MÉTADONNÉES contient des explications détaillées
                      sur ces arbitrages.

       fsc/nofsc      Activer ou désactiver le cache des pages de données (en lecture seule) du disque local  en
                      utilisant  l'outil FS-Cache. Consultez cachefilesd(8) et Documentation/filesystems/caching
                      dans le code source du noyau  pour  plus  de  détails  sur  la  configuration  de  l'outil
                      FS-Cache. La valeur par défaut est nofsc.

       sloppy         L’option sloppy est une solution de remplacement pour l’option -s de mount.nfs

       xprtsec=politique
                      Indiquer  l’utilisation  d’une  sécurité  de  la  couche transport pour protéger le trafic
                      réseau NFS pour ce point de montage. politique peut être none, tls ou mtls.

                      Si none est indiqué, la sécurité de la couche transport est désactivée, même si le serveur
                      NFS la gère.

                      Si tls est indiqué, le client utilise RPC avec TLS pour la  confidentialité  au  cours  du
                      transport.

                      Si  mtls  est indiqué, le client utilise RPC avec TLS pour s’authentifier lui-même et pour
                      assurer la confidentialité au cours du transport.

                      Si soit tls ou mtls est indiqué et que le serveur ne prend pas en charge RPC avec  TLS  ou
                      que l’authentification de pair échoue, l’essai de montage échoue.

                      Si  l’option  xprtsec= n’est pas indiquée, le comportement par défaut dépend de la version
                      du noyau, mais habituellement est équivalent à xprtsec=none.

   Options pour les versions NFS 2 et 3 uniquement
       Utilisez ces options ainsi que les options de la sous-section précédente uniquement pour les systèmes  de
       fichiers de type NFS version 2 et 3.

       proto=idreseau L'identifiant  réseau  idreseau  détermine  le  transport utilisé pour communiquer avec le
                      serveur NFS. Les options possibles sont udp, udp6, tcp, tcp6, rdma et rdma6.  Les  valeurs
                      qui  se terminent par 6 utilisent des adresses IPv6 et ne sont disponibles que si la prise
                      en charge de TI-RPC est intégrée. Les autres utilisent des adresses IPv4.

                      Chaque protocole de transport utilise différents réglages  de  retrans  et  de  timeo  (se
                      référer à la description de ces deux options de montage).

                      En  plus  de contrôler la façon dont le client NFS transmet les requêtes au serveur, cette
                      option de montage gère aussi la façon  dont  la  commande  mount(8)  communique  avec  les
                      services  rpcbind  et  mountd  du  serveur. Indiquer un ID réseau qui utilise TCP entraîne
                      l'utilisation de TCP par tout le trafic passant par la commande mount(8) ou le client NFS.
                      Indiquer un ID réseau qui utilise UDP entraîne l'utilisation d'UDP par tous les trafics.

                      Avant d'utiliser NFS sur UDP, consultez la section MÉTHODES DE TRANSPORT.

                      Si l'option proto de montage n'est pas définie,  la  commande  mount(8)  découvrira  quels
                      protocoles sont acceptés par le serveur et choisira un transport approprié pour chacun des
                      services. Consultez la section MÉTHODES DE TRANSPORT pour plus de détails.

       udp            L'option   udp   est  une  solution  de  remplacement  pour  proto=udp,  incluse  pour  la
                      compatibilité avec d'autres systèmes d'exploitation.

                      Avant d'utiliser NFS sur UDP, consultez la section MÉTHODES DE TRANSPORT.

       tcp            L'option  tcp  est  une  solution  de  remplacement  pour  proto=tcp,  incluse   pour   la
                      compatibilité avec d'autres systèmes d'exploitation.

       rdma           L'option rdma est une solution de remplacement pour proto=rdma.

       port=n         Valeur numérique du port du service NFS sur le serveur. Si le service NFS du serveur n'est
                      pas accessible sur le port indiqué, la requête de montage échoue.

                      Si  cette  option n'est pas définie, ou si le port indiqué est 0, le client NFS utilise le
                      numéro du port du service NFS publié par le service rpcbind  du  serveur.  La  requête  de
                      montage échoue si le service rpcbind du serveur n'est pas accessible, si le service NFS du
                      serveur  n'est  pas  enregistré  dans son service rpcbind, ou si le service NFS du serveur
                      n'est pas accessible sur le port publié.

       mountport=n    Valeur numérique du port de mountd sur le serveur. Si le service mountd du  serveur  n'est
                      pas présent sur le port indiqué, la requête de montage échoue.

                      Si  cette  option  n'est  pas  définie,  ou si le port indiqué est 0, la commande mount(8)
                      utilise le numéro du port du service mountd publié par le service rpcbind du  serveur.  La
                      requête  de  montage  échoue  si le service rpcbind du serveur n'est pas accessible, si le
                      service mountd du serveur n'est pas enregistré dans son service rpcbind ou si  le  service
                      mountd du serveur n'est pas accessible sur le port publié.

                      Cette option peut être utilisée pour les montages sur un serveur NFS à travers un pare-feu
                      qui bloque le protocole rpcbind.

       mountproto=idreseau
                      Le  transport  utilisé  par  le client NFS pour transmettre ses requêtes au service mountd
                      d'un serveur NFS quand il lance cette requête de montage, puis quand il démontera  ensuite
                      ce montage.

                      idreseau  peut  valoir  udp ou tcp qui utilisent des adresses IPv4, ou bien, si TI-RPC est
                      intégré dans la commande mount.nfs, udp6 ou tcp6 qui utilisent des adresses IPv6.

                      Cette option peut être utilisée pour monter un serveur  NFS  à  travers  un  pare-feu  qui
                      bloque   des  transferts  spécifiques.  Lorsqu’elle  est  utilisée  avec  l'option  proto,
                      différents modes de transfert peuvent être choisis pour les requêtes vers mountd  et  NFS.
                      Si  le  serveur  ne propose pas de service mountd pour le transfert indiqué, la requête de
                      montage échoue.

                      Veuillez consulter la section MÉTHODES DE TRANSPORT pour plus  de  renseignements  sur  la
                      manière dont l'option de montage mountproto interagit avec l'option proto.

       mounthost=nom  Le  nom  d'hôte de la machine qui exécute le mountd. Si cette option n'est pas définie, la
                      commande mount(8) considère que le service mountd est assuré par la machine qui  offre  le
                      service NFS.

       mountvers=n    Numéro  de  version  des  RPC  utilisé pour contacter le démon mountd du serveur. Si cette
                      option n'est pas définie, le client utilise un numéro de version approprié à la version de
                      NFS requise. Cette option est utile quand de nombreux services NFS  sont  offerts  par  un
                      seul et même serveur distant.

       namlen=n       La  taille  maximale  d'un composant du nom de chemin de ce montage. Si cette option n'est
                      pas définie, la taille maximale est négociée avec le serveur. Dans  la  plupart  des  cas,
                      cette taille maximale est 255 caractères.

                      Des  versions  précédentes  de NFS ne gèrent pas cette négociation. L'utilisation de cette
                      option garantit que pathconf(3) donnera bien la longueur maximale  aux  applications  pour
                      ces versions.

       lock/nolock    Indiquer  s'il faut utiliser le protocole auxiliaire NLM pour verrouiller les fichiers sur
                      le serveur. Si aucune option n'est  indiquée  (ou  si  c'est  lock  qui  est  choisi),  le
                      verrouillage  NLM  est activé pour ce point de montage. Si on utilise l'option nolock, les
                      applications peuvent verrouiller les fichiers, mais ces verrous n’excluent que les  autres
                      applications  qui  tournent  sur  ce  même  client. Les applications distantes ne sont pas
                      affectées par ces verrous.

                      Le verrouillage NLM doit être désactivé avec l'utilisation de l'option nolock si /var  est
                      monté  à  l'aide de NFS parce que /var contient des fichiers utilisés par l'implémentation
                      de NLM sous Linux. L'usage de nolock est aussi requis lors des montages  des  exportations
                      de serveurs NFS ne gérant pas le protocole NLM.

       cto/nocto      Indiquer  s'il  faut utiliser la sémantique de cohérence de cache close-to-open. Si aucune
                      option n'est indiquée (ou si c'est cto qui est indiquée), le client utilise la  sémantique
                      de  cohérence  de cache close-to-open. Si c'est l'option nocto qui est indiquée, le client
                      utilise une heuristique non standard pour savoir quand les  fichiers  ont  changé  sur  le
                      serveur.

                      L'utilisation  de  l'option  nocto peut améliorer les performances des montages en lecture
                      seule, mais devrait être limitée au  cas  où  les  données  sur  le  serveur  ne  changent
                      qu’occasionnellement.  La  section  COHÉRENCE  DES  DONNÉES  ET  DES MÉTADONNÉES expose le
                      comportement de cette option en détails.

       acl/noacl      Indiquer s'il faut utiliser le protocole auxiliaire NFSACL sur ce  point  de  montage.  Le
                      protocole auxiliaire NFSACL est un protocole propriétaire mis en œuvre dans Solaris et qui
                      gère  les listes de contrôle d'accès (ACL). NSFACL n'est jamais devenu un élément standard
                      de la spécification du protocole NFS.

                      Si ni acl ni noacl ne sont précisées, le client NFS négocie avec le serveur afin de savoir
                      si le protocole NFSACL est géré et l'utilise dans ce cas. La  désactivation  du  protocole
                      auxiliaire  NFSACL  est  parfois rendue nécessaire quand la négociation pose des problèmes
                      sur le client ou sur le serveur. Consultez la section CONSIDÉRATIONS DE SÉCURITÉ pour plus
                      de détails.

       local_lock=mécanisme
                      Indiquer si le verrouillage local doit être utilisé pour les  mécanismes  de  verrouillage
                      flock, POSIX ou pour les deux. mécanisme peut être all, flock, posix ou none. Cette option
                      est prise en charge par les noyaux 2.6.37 et suivants.

                      Le client Linux NFS fournit un moyen de poser des verrous locaux. Les applications peuvent
                      donc verrouiller des fichiers, mais ces verrous n’excluent que les autres applications qui
                      tournent  sur  ce  même  client.  Les applications distantes ne sont pas affectées par ces
                      verrous.

                      Si cette option n'est pas précisée, ou si none est précisé,  le  client  suppose  que  les
                      verrous ne sont pas locaux.

                      Si  all  est spécifié, le client suppose que les deux types de verrous flock et POSIX sont
                      locaux.

                      Si flock est spécifié, le client suppose que seuls  les  verrous  flock  sont  locaux,  et
                      utilise  le protocole NLM auxiliaire pour verrouiller les fichiers quand les verrous POSIX
                      sont utilisés.

                      Si posix est spécifié, le client suppose que les verrous POSIX sont locaux, et utilise  le
                      protocole  NLM  auxiliaire  pour  verrouiller  les  fichiers  quand les verrous flock sont
                      utilisés.

                      Pour prendre en charge le comportement patrimonial de flock de façon semblable à celui des
                      clients NFS < 2.6.12, il faut utiliser « local_lock=flock ». Cette option est requise lors
                      de l'exportation des montages NFS à l'aide de Samba car Samba mappe les  verrous  du  mode
                      partage  de  Windows  comme  flock. Puisque les clients NFS > 2.6.12 implémentent flock en
                      émulant les verrous POSIX, cela aboutira à un conflit de verrous.

                      NOTE : quand elles sont utilisées ensemble,  l'option  de  montage  «  local_lock  »  sera
                      écrasée par les options de montage « nolock »/« lock ».

   Options pour NFS version 4 uniquement
       Ces options sont à utiliser ainsi que les options de la première sous-section ci-dessus pour les systèmes
       de fichiers de type NFS version 4 et plus récents.

       proto=idreseau L'identifiant  réseau  idreseau  détermine  le  transport utilisé pour communiquer avec le
                      serveur NFS. Les options possibles sont tcp, tcp6, rdma et rdma6.  L'option  tcp6  utilise
                      des  adresses  IPv6  et n'est disponible que si la prise en charge de TI-RPC est intégrée.
                      Les autres options utilisent des adresses IPv4.

                      Les serveurs NFS version 4 doivent prendre en charge TCP, donc si cette option de  montage
                      n'est  pas  précisée,  le  client  NFS  version  4 utilise le protocole TCP. Veuillez vous
                      référer à la section MÉTHODES DE TRANSPORT pour plus de détails.

       minorversion=n Indiquer le numéro mineur de version du protocole. NFS 4  a  introduit  le  «  versionnage
                      mineur  »  où des améliorations du protocole NFS peuvent être introduites sans toucher son
                      numéro de version. Avant le noyau 2.6.38, la version mineure était toujours zéro et  cette
                      option  n’est  par  reconnue.  Après  ce  noyau,  indiquer  «  minorversion=1 » active des
                      fonctions avancées comme les sessions NFSv4.

                      Les noyaux récents permettent d’indiquer une version mineure en utilisant l’option  vers=.
                      Par exemple, indiquer vers=4.1 a le même effet que vers=4,minorversion=1.

       port=n         Valeur numérique du port du service NFS sur le serveur. Si le service NFS du serveur n'est
                      pas accessible sur le port indiqué, la requête de montage échoue.

                      Si  cette  option  de montage n'est pas définie, le client NFS utilisera le numéro de port
                      standard de NFS (2049) sans vérifier de prime abord le service rpcbind du  serveur.  Cette
                      option permet à un client NFS version 4 de contacter un serveur NFS version 4 à travers un
                      pare-feu qui bloquerait les requêtes rpcbind.

                      Si  la valeur du port indiquée est 0, le client NFS utilisera le numéro de port du service
                      NFS publié par le service rpcbind du serveur. La requête de montage échouera si le service
                      rpcbind du serveur n'est pas disponible, si le service NFS du serveur n'est pas enregistré
                      dans son service rpcbind ou si le service NFS du serveur n'est pas accessible sur le  port
                      publié.

       cto/nocto      Indiquer  s'il  faut  utiliser  la sémantique de cohérence du cache close-to-open pour les
                      répertoires NFS de ce point de  montage.  Si  ni  cto  ni  nocto  ne  sont  indiquées,  la
                      sémantique  de  cohérence  du  cache  close-to-open  sera  utilisée  par  défaut  pour les
                      répertoires.

                      La politique de mise en cache des données des  fichiers  n'est  pas  concernée  par  cette
                      option.  La  section  COHÉRENCE  DES  DONNÉES ET DES MÉTADONNÉES décrit le comportement de
                      cette option en détails.

       clientaddr=n.n.n.n

       clientaddr=n:n:...:n
                      Indiquer une seule adresse IPv4 (quadruplet séparé par des points) ou une adresse IPv6 qui
                      n'est pas un lien local que le client NFS signalera pour permettre aux serveurs  d’envoyer
                      des  requêtes  de  rappel  NFS  version 4.0 sur les fichiers de ce point de montage. Si le
                      serveur ne peut pas établir de connexion de rappel (« callback »)  sur  ces  clients,  les
                      performances  peuvent être dégradées ou les accès à ces fichiers temporairement suspendus.
                      Une valeur IPv4_ANY (0.0.0.0) ou n’importe  quelle  adresse  IPv6  équivalente  peut  être
                      indiquée qui signalera au serveur NFS que ce client NFS ne veut pas de délégations.

                      Si   cette   option   n'est  pas  indiquée,  la  commande  mount(8)  essaie  de  découvrir
                      automatiquement une  adresse  de  rappel  («  callback  »)  appropriée.  La  procédure  de
                      découverte  automatique  n'est  cependant  pas  parfaite.  Dans le cas d'interfaces réseau
                      multiples, de directives de routages spéciales ou de typologie réseau atypique,  l'adresse
                      exacte à utiliser pour les rappels peut ne pas être triviale à déterminer.

                      Les  versions 4.1 et 4.2 du protocole NFS utilisent la connexion TCP établie par le client
                      pour les requêtes de rappel, donc ne requièrent pas au serveur de se connecter au  client.
                      Cette option affecte par conséquent seulement les montages NFS version 4.0.

       migration/nomigration
                      Choisir  si  le  client  utilise une chaîne d’authentification qui est compatible avec TSM
                      (Transparent State Migration) pour NFSv4. Si le serveur monté prend en charge la migration
                      de NFSv4 avec TSM, indiquer l’option migration.

                      Certaines fonctions de serveur se comportent  mal  face  à  la  chaîne  d’authentification
                      compatible  avec  la  migration.  L’option nomigration conserve l’utilisation de la chaîne
                      d’authentification traditionnelle qui est compatible avec les serveurs  NFS  patrimoniaux.
                      C’est  aussi le comportement si aucune option n’est indiquée. Un état ouvert et verrouillé
                      d’un client ne peut être migré de manière transparente quand il s’identifie lui-même  avec
                      une chaîne d’identification traditionnelle.

                      Cette  option de montage n’a aucun effet avec les versions mineures de NFSv4 plus récentes
                      que zéro, qui utilisent des chaînes d’identification compatibles avec TSM.

       max_connect=n  Alors que l’option nconnect définit une  limite  du  nombre  de  connexions  pouvant  être
                      établies sur une adresse IP de serveur donnée, l’option max_connect permet à l’utilisateur
                      d’indiquer le nombre maximal de connexions vers des adresses IP de serveur différentes qui
                      appartiennent  au  même  serveur  NFSv4.1+ (connexions de session simultanées) jusqu’à une
                      limite de 16. Quand le client découvre que cela établit un ID de client à un serveur  déjà
                      existant,  au  lieu  d’abandonner  le transport réseau nouvellement créé, le client ajoute
                      cette nouvelle connexion à la liste des transports disponibles pour ce client RPC.

       trunkdiscovery/notrunkdiscovery
                      Quand un client découvre un nouveau système de fichiers sur un serveur NFSv4.1+,  l’option
                      de montage trunkdiscovery fera qu’il enverra un GETATTR pour l’attribut fs_locations. S’il
                      reçoit  une  réponse de longueur non nulle, il itérera à travers la réponse et pour chaque
                      emplacement de serveur il établira une connexion, enverra un  EXCHANGE_ID  et  testera  le
                      «  trunking  » de session. Si le test de « trunking » réussit, la connexion sera ajoutée à
                      l’ensemble existant des transports pour le serveur, en respectant la limite  indiquée  par
                      l’option max_connect. La valeur par défaut est notrunkdiscovery.

SYSTÈME DE FICHIERS DE TYPE nfs4

       Le  type  nfs4  de système de fichiers est une ancienne syntaxe précisant l'utilisation de NFSv4. Il peut
       toujours être utilisé avec toutes les options communes et avec celles spécifiques à NFSv4, à  l'exception
       de l'option de montage nfsvers

FICHIER DE CONFIGURATION DU MONTAGE

       Si  la  commande  de  montage  est  configurée en ce sens, toutes les options de montage décrites dans la
       section  précédente  peuvent  être  configurées  dans  le  fichier  /etc/nfsmount.conf.  Référez-vous   à
       nfsmount.conf(5) pour plus de détails.

EXEMPLES

       Pour  réaliser un montage NFS version 3, le type de système de fichiers à utiliser est nfs et l’option de
       montage nfsvers=3 doit être indiquée. Pour réaliser un montage NFS version  4,  le  type  de  système  de
       fichiers à utiliser est soit nfs avec l’option de montage nfsvers=4 ou le type nfs4.

       L'exemple  de  fichier  /etc/fstab  suivant  permet  à la commande de montage de négocier des valeurs par
       défaut convenables pour le comportement de NFS.

               serveur:/export /mnt  nfs   defaults                      0 0

       Cet exemple montre comment réaliser un montage NFS version 4 à travers TCP, utilisant  l'authentification
       mutuelle avec Kerberos 5.

               serveur:/export /mnt  nfs4  sec=krb5                      0 0

       Cet  exemple  montre  comment  réaliser  un  montage  NFS  version 4 à travers TCP, avec le mode privé de
       Kerberos 5 ou celui d’intégrité des données.

               serveur:/export /mnt  nfs4  sec=krb5p:krb5i               0 0

       Cet exemple peut servir à réaliser le montage de /usr par NFS.

               serveur:/export /usr  nfs   ro,nolock,nocto,actimeo=3600  0 0

       Cet exemple montre comment monter un serveur NFS en utilisant une adresse brute link-local IPv6.

               [fe80::215:c5ff:fb3e:e2b1%eth0]:/export /mnt nfs defaults 0 0

MÉTHODES DE TRANSPORT

       Les clients NFS envoient leurs requêtes aux  serveurs  NFS  grâce  aux  appels  de  procédures  distantes
       («  Remote  Procedure Calls »), les RPCs. Le client RPC découvre automatiquement les terminaisons d’accès
       du service distant, gère l'authentification par requête, ajuste les paramètres des requêtes afin de gérer
       l'ordre des octets sur le client et le serveur (« endianness ») et se charge  de  la  retransmission  des
       requêtes qui pourraient s'être perdues dans le réseau ou sur le serveur. Les requêtes et les réponses RPC
       circulent sur un transport réseau.

       Dans  la  plupart  des  cas,  la  commande  mount(8),  le  client  NFS et le serveur NFS peuvent négocier
       automatiquement les transports adaptés et la taille de données adéquate pour les transferts pour un point
       de montage. Cependant, dans certains cas, il peut être bénéfique d'indiquer  explicitement  ces  réglages
       grâce aux options de montage.

       Traditionnellement,  les  clients  NFS  se  servaient  uniquement  du  transport UDP pour transmettre des
       requêtes aux serveurs. Bien que son implémentation soit simple, NFS sur UDP a de  nombreuses  limitations
       qui l'empêchent d'obtenir de bonnes performances et un fonctionnement fluide dans certains environnements
       de  déploiement  courants.  Un taux de paquets perdus même insignifiant entraîne la perte de requêtes NFS
       complètes. On règle alors généralement le délai de dépassement (« timeout ») à une valeur inférieure à la
       seconde afin que les clients puissent récupérer  rapidement  en  cas  de  requêtes  rejetées.  Cela  peut
       entraîner une surcharge du trafic réseau et du serveur.

       Cependant, UDP peut être assez efficace grâce à des réglages spécifiques lorsque le MTU du réseau dépasse
       la  taille  de  transfert de données de NFS (par exemple dans les environnements réseau qui utilisent les
       trames Ethernet Jumbo). Dans ces cas, il est judicieux d'adapter les réglages rsize et wsize de  façon  à
       ce  que  chaque  requête de lecture ou d'écriture NFS soit contenue dans quelques trames du réseau (voire
       même dans une seule trame). Cela réduit la probabilité qu'une perte  d'une  simple  trame  réseau  de  la
       taille de la MTU entraîne la perte complète d'un grande requête en lecture ou écriture.

       TCP  est le protocole de transport utilisé par défaut dans toutes les implémentations modernes de NFS. Il
       est efficace dans  pratiquement  tous  les  environnements  réseau  concevables  et  offre  d'excellentes
       garanties  contre  la  corruption  de  données que pourrait entraîner un incident réseau. TCP est souvent
       obligatoire pour accéder à un serveur à travers un pare-feu.

       Dans des conditions normales, les réseaux rejettent des paquets bien plus souvent que les serveurs NFS ne
       rejettent de requêtes. C'est pourquoi un réglage agressif de délai  de  dépassement  («  time-out  »)  de
       retransmission  pour NFS sur TCP est inutile. Les réglages habituels de délai de dépassement pour NFS sur
       TCP varient entre une et dix minutes. Après qu'un client a terminé  ses  retransmissions  (la  valeur  de
       l'option  retrans  de  montage),  il  considère  que  le  réseau  a  subi un cloisonnement et tente de se
       reconnecter au serveur sur un nouveau socket. Puisque TCP rend fiable le  transport  de  données  sur  le
       réseau,  rsize  et  wsize  peuvent en toute sécurité prendre pour valeur par défaut la plus grande valeur
       gérée à la fois par le client et par le serveur, indépendamment de la taille du MTU du réseau.

   Utilisation de l'option de montage mountproto
       Cette section s'applique uniquement aux versions 2 et 3 de montages  NFS  car  NFS  4  n'utilise  pas  un
       protocole différent pour les requêtes de montage.

       Le client Linux de NFS peut utiliser différents modes de transport pour contacter le service rpcbind d'un
       serveur  NFS,  son service mountd, son gestionnaire de verrous réseau (NLM – Network Lock Manager) et son
       service NFS. Le mode exact de transport utilisé par le client Linux de NFS pour chaque point  de  montage
       dépend des réglages des options de transport de montage, qui incluent proto, mountproto udp et tcp.

       Le  client envoie des notifications au gestionnaire d’état réseau (NSM : Network Status Manager) à l'aide
       d’UDP, quel que soit le mode de transport précisé. Il écoute cependant les notifications NSM du serveur à
       la fois sur UDP et TCP. Le protocole gérant la liste de contrôles d'accès à  NFACL  (NFS  Access  Control
       List) utilise le même mode de transport que le service NFS principal.

       Si  aucune  option  n'est  précisée  quant  au mode de transport, le client Linux de NFS utilise UDP pour
       contacter le service mountd du serveur et TCP pour contacter ses services NLM et NFS par défaut.

       Si le serveur ne gère pas ces modes de transfert pour  ces  services,  la  commande  mount(8)  essaye  de
       trouver quel mode est pris en charge par le serveur et essaye une fois de se reconnecter avec ce mode. Si
       le  serveur  ne propose aucun mode géré par le client ou est mal configuré, la requête de montage échoue.
       Si l'option bg a été passée, la commande de montage  passe  en  arrière-plan  et  continue  d'essayer  la
       requête de montage demandée.

       Quand  l'une  des  options  proto,  udp  ou  tcp  est passée mais que mountproto ne l'est pas, le mode de
       transfert demandé est utilisé à la fois pour contacter le service mountd du serveur et ses  services  NLM
       et NFS.

       Si  l'option mountproto est passée mais que ni proto, ni udp et ni tcp n'est passée alors le mode demandé
       est utilisé pour la requête de montage initiale, mais la commande de montage  essaye  de  découvrir  quel
       mode  de  transfert  est  pris  en  charge pour le protocole NFS, et préférera TCP si les deux modes sont
       implémentés.

       Si mountproto et proto (ou udp ou tcp) sont passés en même  temps,  le  mode  de  transport  indiqué  par
       l'option  mountproto est utilisé pour la requête initiale de mountd et le mode indiqué par l’option proto
       (ou udp ou tcp) est utilisé pour NFS quel que soit l'ordre de ces options. Aucune découverte  automatique
       de service n’est faite si ces options sont passées.

       Si  l'une  des  options  proto,  udp, tcp ou mountproto est passée plus d'une fois dans une même ligne de
       commande de montage, l’instance la plus à droite de chacune de ces options prendra effet.

   Utiliser NFS sur UDP sur des connexions haut débit
       Utiliser NFS sur UDP avec des connexions  haut  débit  comme  Gigabit  peut  causer  silencieusement  des
       corruptions de données.

       Le  problème  peut  être  déclenché  lors  de  fortes  charges  et  est causé par des difficultés dans le
       réassemblage de fragments IP. Les lectures et écritures par NFS transmettent typiquement des paquets  UDP
       de  4  kilooctets  ou  plus, qui doivent être cassés en plusieurs fragments pour être envoyés sur le lien
       Ethernet pour lequel la taille des paquets est limitée à 1 500 octets par défaut. Ce processus a lieu  au
       niveau de la couche réseau IP et est appelé fragmentation.

       Afin d'identifier les fragments qui proviennent du même paquet, IP attribue un identifiant IP (IP ID) sur
       16 bits à chaque paquet. Les fragments générés à partir du même paquet UDP auront le même identifiant IP.
       Le système destinataire récupère ces fragments et les combine pour reformer les paquets UDP originaux. Ce
       processus  est  appelé réassemblage. Le délai d'expiration par défaut pour le réassemblage de paquets est
       de 30 secondes. Si la pile réseau ne reçoit  pas  tous  les  fragments  d'un  paquet  donné  pendant  cet
       intervalle de temps, elle suppose que les fragments manquants se sont perdus et rejette ceux qui ont déjà
       été reçus.

       Le  problème  que  cela  crée sur des connexions à haut débit est dû au fait qu'il est possible d'envoyer
       plus de 655 356 paquets en 30 secondes. En fait, avec  un  trafic  dense  NFS,  les  identifiants  IP  se
       répètent au bout d'environ 5 secondes.

       Cela  a  de  sérieux  effets  sur le réassemblage : si un fragment se perd, un autre fragment d'un paquet
       différent mais avec le même identifiant IP arrivera avant l'expiration au bout de 30 secondes et la  pile
       réseau  combinera  ces  fragments  pour former un nouveau paquet. La plupart du temps, les couches réseau
       au-dessus d’IP détecteront ce réassemblage non assorti — dans le cas d’UDP, la somme de contrôle UDP  sur
       16 bits sur la charge utile complète du paquet ne correspondra pas et UDP rejettera le mauvais paquet.

       Cependant, comme la somme de contrôle UDP est seulement sur 16 bits, il y a une chance sur 65 536 qu'elle
       coïncide  même  si  la  charge  utile du paquet est complètement aléatoire (ce qui très souvent n'est pas
       vrai). Si tel est le cas, une corruption de données silencieuse sera produite.

       Cette possibilité doit être prise au sérieux, au  moins  sur  Gigabit  Ethernet.  Les  débits  réseau  de
       100  Mbit/s  peuvent  être  considérés comme moins problématiques, car dans la plupart des situations, la
       réinitialisation des identifiants IP prendra bien plus que 30 secondes.

       Il est donc fortement recommandé d'utiliser NFS sur TCP   c'est possible car TCP  n'effectue  pas  de
       fragmentation.

       Si  vous  devez  absolument utiliser NFS sur UDP sur un réseau Gigabit Ethernet, quelques actions peuvent
       être effectuées pour limiter le problème et réduire la probabilité de corruption :

       trames Jumbo   De nombreuses cartes réseau Gigabit sont capables de transmettre des trames  plus  grandes
                      que  la  limite  traditionnelle  sur  Ethernet de 1 500 octets (typiquement 9 000 octets).
                      Utiliser ces grandes trames (Jumbo) vous permettra de faire fonctionner NFS sur  UDP  avec
                      une taille de page de 8 ko sans fragmentation. Bien sûr, cela n'est possible que si toutes
                      les stations impliquées gèrent les trames Jumbo.

                      Pour  activer  l'envoi de trames Jumbo sur une machine avec une carte réseau qui les gère,
                      il suffit de configurer l'interface avec une valeur MTU de 9000.

       diminution du délai avant expiration du réassemblage
                      Le réassemblage incorrect de fragments peut être aussi évité en diminuant ce délai sous le
                      temps nécessaire à la  réinitialisation  des  identifiants  IP.  Pour  ce  faire,  écrivez
                      simplement    la    nouvelle    valeur   du   délai   (en   seconde)   dans   le   fichier
                      /proc/sys/net/ipv4/ipfrag_time.

                      Une valeur de 2 secondes diminuera fortement la probabilité d'une collision d'identifiants
                      IP sur une seule liaison Gigabit, tout en permettant  un  délai  d'expiration  raisonnable
                      lors de la réception d'un trafic fragmenté depuis des serveurs distants.

COHÉRENCE DES DONNÉES ET DES MÉTADONNÉES

       Certains  systèmes de fichiers modernes pour les grappes (cluster) offrent une cohérence absolue du cache
       à leurs clients. La cohérence parfaite de cache pour des clients NFS hétérogènes est difficile à obtenir,
       surtout sur les réseaux de grandes tailles. Dans ce cas, NFS adopte une cohérence de  cache  plus  faible
       qui satisfait les contraintes de la plupart des types de partage de fichiers.

   Cohérence de cache « close-to-open »
       Classiquement, le partage de fichier est complètement séquentiel. Le client A ouvre d’abord un fichier, y
       écrit quelque chose et le referme. Puis le client B ouvre le même fichier et lit les modifications.

       Quand  une application ouvre un fichier stocké sur un serveur NFS version 3, le client NFS vérifie que le
       fichier existe sur le serveur et est accessible à cette application en envoyant une  requête  GETATTR  ou
       ACCESS.  Le client NFS envoie ces requêtes sans tenir compte de l’ancienneté des attributs de fichier mis
       en cache.

       Quand l'application ferme le fichier, le client NFS y écrit toutes les modifications en attente afin  que
       le  prochain client ouvrant ce fichier puisse en voir les changements. Cela donne l'opportunité au client
       NFS de prévenir l'application de toute erreur en écriture sur le serveur  grâce  au  code  de  retour  de
       close(2).

       Le  comportement  consistant  à  vérifier  au  moment de l’ouverture et à vider à la fermeture est appelé
       close-to-open cache consistency (consistance de cache close-to-open) ou CTO. Il peut  être  désactivé  en
       entier pour un point de montage en utilisant l’option de montage nocto.

   Faible cohérence de cache
       Il  y  a  toujours des cas dans lesquels le cache de données du client contient des données incohérentes.
       Dans la version 3 du protocole NFS est apparue la « faible cohérence de cache » (appelée aussi WCC – weak
       cache consistency), offrant une méthode efficace de vérification des  attributs  d'un  fichier  avant  et
       après  une  requête unique. Cela permet à un client une meilleure perception des modifications qui ont pu
       être réalisées par les autres clients.

       Quand un client génère de nombreuses opérations concomitantes qui  modifient  le  même  fichier  au  même
       moment  (par  exemple  lors  d’écritures  asynchrones  en arrière-plan), il est difficile de savoir si le
       fichier a été modifié par ce client ou par un autre.

   Mise en cache des attributs
       L'utilisation de l'option de montage noac permet de réaliser  la  cohérence  de  la  mise  en  cache  des
       attributs  pour de multiples clients. Pratiquement toutes les opérations de système de fichiers vérifient
       les informations d'attributs de fichiers. Le client garde cette information en cache pendant  un  certain
       temps  afin  de réduire la charge du serveur et du réseau. Quand noac est activée, le cache des attributs
       de fichier est désactivé sur le client et chaque opération qui doit vérifier les attributs  des  fichiers
       doit impérativement s'adresser au serveur. Cela permet au client de voir rapidement les modifications sur
       un fichier, en contrepartie d'une augmentation importante des opérations sur le réseau.

       Soyez  attentif  à  ne pas confondre l'option noac avec « pas de mise en cache des données ». L'option de
       montage noac empêche la mise en cache par le client des métadonnées du fichier, mais il  existe  toujours
       des  cas  dans  lesquels  des  incohérences  de  données  en cache peuvent survenir entre le client et le
       serveur.

       Le protocole NFS n'a pas été conçu pour gérer la cohérence absolue des caches  de  systèmes  de  fichiers
       dans  des grappes sans qu'il soit nécessaire d'utiliser des types particuliers de sérialisation au niveau
       applicatif. Si la cohérence absolue du  cache  est  nécessaire  aux  clients,  les  applications  devront
       utiliser  le  verrouillage  de  fichiers. Comme solution de remplacement, les applications pourront aussi
       utiliser le drapeau O_DIRECT lors de l'ouverture des fichiers afin de désactiver totalement  la  mise  en
       cache des données.

   Entretien des horodatages de fichier
       Les  serveurs  NFS  sont  responsables  de la gestion des horodatages de fichier et de répertoire (atime,
       ctime et mtime). Quand un fichier est accédé ou mis à jour sur un serveur NFS, ses horodatages sont mis à
       jour comme ils le seraient sur un système de fichiers local pour une application.

       Les clients NFS mettent en cache les attributs de fichier, horodatages inclus. Les horodatages de fichier
       sont mis à jour quand les attributs sont récupérés à partir du serveur NFS. Par  conséquent,  un  certain
       délai  peut  exister  avant  que  les  mises  à  jour  d’horodatage  sur  un serveur NFS apparaissent aux
       applications sur les clients NFS.

       Pour se conformer aux normes de système de fichiers POSIX, le client Linux NFS se fie  aux  serveurs  NFS
       pour  conserver  correctement  à  jour  les  horodatages  mtime  et  ctime. Il réalise cela en vidant les
       changements locaux de données sur le serveur avant de rapporter mtime aux applications à l’aide  d’appels
       système tels que stat(2).

       Le  client  Linux  gère  les  mises à jour de atime plus grossièrement. Les clients NFS entretiennent des
       bonnes performances en mettant en cache les données, mais cela signifie que les  lectures  d’application,
       qui  normalement  mettent  à  jour  atime, ne sont pas reportées sur le serveur où l’atime du fichier est
       réellement entretenu.

       À cause de ce comportement de mise en cache, le client Linux de NFS ne prend pas en  charge  les  options
       génériques de montage relatives à atime. Consulter mount(8) pour plus de détails sur ces options.

       En  particulier,  les  options  de  montage  atime/noatime,  diratime/nodiratime,  relatime/norelatime et
       strictatime/nostrictatime n’ont aucun effet sur les montages NFS.

       /proc/mounts peut rapporter que l’option de montage relatime est définie sur les montages  NFS,  mais  en
       fait  les  sémantiques  de  atime  sont toujours comme décrit ici et ne sont pas comme les sémantiques de
       relatime.

   Mise en cache des entrées de répertoire
       Le client Linux de NFS garde en cache le résultat de toutes les  requêtes  NFS  LOOKUP.  Si  l’entrée  de
       répertoire  demandée  existe sur le serveur, le résultat de recherche est considéré comme positif. Sinon,
       si l’entrée n'existe pas (c'est-à-dire si le serveur retourne ENOENT),  le  résultat  de  recherche  sera
       considéré comme négatif.

       Afin de détecter l'ajout ou la suppression d’entrées de répertoire sur le serveur, le client Linux de NFS
       regarde  la date de modification (« mtime ») du répertoire. Si le client détecte un changement dans cette
       date, le client supprime tous les résultats LOOKUP encore en cache concernant  ce  répertoire.  Comme  la
       date de modification est un attribut conservé en cache, il est possible qu'un peu de temps se passe avant
       que  le  client  remarque  le  changement. Référez-vous aux descriptions des options de montage acdirmin,
       acdirmax et noac pour plus d'informations quant à la manière dont la date de  modification  est  mise  en
       cache.

       Mettre en cache les entrées de répertoire améliore les performances des applications qui ne partagent pas
       de  fichiers avec des applications sur d’autres clients. Cependant, l'utilisation d'informations en cache
       sur des répertoires peut interférer avec des applications qui  tournent  simultanément  sur  de  nombreux
       clients et qui doivent détecter rapidement la création ou la suppression de fichiers. L'option de montage
       lookupcache permet de personnaliser certains comportements de mise en cache d’entrée de répertoire.

       Avant  la version 2.6.28 du noyau, le client Linux de NFS cherchait uniquement les résultats de recherche
       positifs. Cela permettait aux applications de détecter rapidement  de  nouvelles  entrées  de  répertoire
       créées  par  d'autres clients, tout en conservant une partie des bénéfices dus à la mise en cache. Si une
       application dépend de cet ancien comportement, vous pouvez utiliser l'option lookupcache=positive.

       Si le client ignore son cache et valide toutes les requêtes de recherche d’application avec  le  serveur,
       il  peut  alors  détecter immédiatement toute création ou suppression d’entrée de répertoire par un autre
       client. Vous pouvez forcer ce comportement avec l'option lookupcache=none. L'absence  de  mise  en  cache
       d’entrées  de  répertoire  exige  une  augmentation  du  nombre  de  requêtes  NFS,  et donc une perte de
       performances. Empêcher la recherche sur le cache devrait  permettre  une  moindre  perte  au  niveau  des
       performances  que  d'utiliser noac, et n'a aucun effet sur la manière dont le client NFS met en cache les
       attributs d'un fichier.

   Option de montage sync
       Le client NFS gère l'option de  montage  sync  différemment  d'autres  systèmes  de  fichiers  (consulter
       mount(8)  pour  une  description  générique des options de montage sync et async). Si ni sync ni async ne
       sont indiquées (ou si l'option async est indiquée), le client NFS retarde l'envoi au serveur  des  ordres
       d'écriture des applications jusqu'à ce que l'un de ces événements survienne :

              La saturation en mémoire entraîne une demande de ressources mémoire au système.

              Une application met à jour (« flush ») les données d'un fichier de manière explicite avec sync(2),
              msync(2) ou fsync(3).

              Une application ferme un fichier avec close(2).

              Le fichier est verrouillé/déverrouillé grâce à fcntl(2).

       Autrement  dit,  dans  les  conditions  normales  d'utilisation,  des données écrites par une application
       peuvent ne pas apparaître instantanément sur le serveur qui héberge le fichier.

       Si l'option sync est précisée pour un point de montage, tout appel système qui écrit des données dans des
       fichiers de ce point de montage entraîne le vidage des données sur le serveur avant de revenir en  espace
       utilisateur.  Cela offre une meilleure cohérence du cache des données entre les clients, mais a un impact
       certain sur les performances.

       Les applications peuvent utiliser le drapeau d'ouverture O_SYNC afin que les applications  écrivent  dans
       des  fichiers  individuels  pour  être  immédiatement pris en compte par le serveur sans avoir à utiliser
       l'option de montage sync.

   Utilisation des verrous de fichier avec NFS
       Le Gestionnaire de Verrous Réseaux (NLM, Network Lock  Manager)  est  un  protocole  auxiliaire  distinct
       servant  à  gérer  les verrous sur les fichiers dans la versions 3 de NFS. Pour gérer la récupération des
       verrous après le redémarrage d'un client ou du serveur,  un  second  protocole  (connu  sous  le  nom  de
       protocole  Network Status Manager) est nécessaire. Dans la version 4 de NFS, le verrouillage des fichiers
       est directement pris en charge dans le protocole NFS et les protocoles NLM et NSM ne sont plus utilisés.

       Dans la plupart des cas, les services NLM et NSM sont démarrés automatiquement  et  aucune  configuration
       additionnelle  n'est requise. La configuration en noms de domaine pleinement qualifiés (FQDN) de tous les
       clients NFS est nécessaire pour permettre aux serveurs NFS de retrouver leurs clients pour  les  informer
       des redémarrages de serveur.

       NLM  ne  gère  que  les  verrous partagés de fichier. Pour verrouiller les fichiers NFS, il faut utiliser
       fcntl(2) avec les commandes F_GETLK et F_SETLK. Le client NFS convertit les verrous de  fichiers  obtenus
       grâce à flock(2) en verrous partagés.

       Lors du montage de serveurs ne gérant pas le protocole NLM ou lorsqu'on monte un serveur NFS à travers un
       pare-feu  qui bloque le port du service NLM, il faut utiliser l'option nolock de montage. Le verrouillage
       NLM doit être désactivé grâce à l'option nolock lorsqu'on utilise NFS  pour  monter  /var,  puisque  /var
       contient les fichiers utilisés par NLM dans son implémentation sous Linux.

       L'utilisation de l'option nolock est parfois conseillée pour améliorer les performances d'une application
       propriétaire qui ne tourne que sur un seul client, mais qui utilise intensément les verrous de fichiers.

   Caractéristiques du cache de la version 4 de NFS.
       Le  comportement  du cache des données et des métadonnées des clients NFS version 4 est identique à celui
       des versions précédentes. Toutefois, la version 4 de NFS offre deux nouveaux dispositifs  pour  améliorer
       le comportement du cache : attributs de changement et délégation de fichier.

       L'attribut  de  changement  est  un  nouvel élément des métadonnées de fichiers et de répertoires NFS qui
       enregistre  les  modifications  des  données.  Il  se  substitue  à  l'utilisation  de  l'horodatage  des
       modifications et changements du fichier pour permettre aux clients de valider le contenu de leurs caches.
       Cependant,  ces attributs de changement ne sont pas liés à la gestion de l'horodatage ni sur le client ni
       sur le serveur.

       La délégation de fichier est un contrat qui lie un  client  NFS  version  4  et  le  serveur,  permettant
       temporairement  au client de traiter un fichier comme s'il était le seul à y accéder. Le serveur s'engage
       à prévenir le client (grâce à une requête de rappel, ou « callback ») si un autre client tente  d'accéder
       à  ce  même  fichier.  Lorsqu'un  fichier  a été délégué à un client, ce client peut mémoriser (mettre en
       cache) les données et les métadonnées de ce fichier de façon agressive sans avoir à contacter le serveur.

       Il y a deux types de délégations : lecture et écriture. Une délégation en lecture indique que le  serveur
       avertira le client si d'autres clients veulent écrire dans ce fichier. Une délégation en écriture indique
       que le client sera prévenu des tentatives de lecture ou d'écriture.

       Les  serveurs  accordent les délégations de fichier sitôt qu'un fichier est ouvert et peuvent annuler ces
       délégations n'importe quand dès lors qu'un autre client désire accéder à un  fichier  d'une  manière  qui
       entre en conflit avec les délégations déjà attribuées. Les délégations de répertoire ne sont pas gérées.

       Afin  de pouvoir gérer les alertes de délégations (« delegation callback »), le serveur vérifie le chemin
       retour vers le client au moment du contact initial de celui-ci avec le serveur. Si  le  contact  avec  le
       client  ne  peut  pas  être  établi,  le serveur n'attribue purement et simplement aucune délégation à ce
       client.

CONSIDÉRATIONS DE SÉCURITÉ.

       Les  serveurs  NFS  contrôlent  l'accès  aux  données  des  fichiers,  mais  leur  offre  de  gestion  de
       l'authentification  des  requêtes  NFS  dépend  de leur implémentation des RPC. Les contrôles d'accès NFS
       traditionnels imitent les contrôles d'accès binaires standards  offerts  par  les  systèmes  de  fichiers
       locaux.  L'authentification  RPC  traditionnelle  utilise  un  nombre pour représenter chaque utilisateur
       (normalement l'UID propre à cet utilisateur), un nombre pour représenter le groupe de cet utilisateur (le
       GID de l'utilisateur) et un ensemble d'au maximum 16 nombres de groupes additionnels pour représenter les
       autres groupes auxquels cet utilisateur peut appartenir.

       Traditionnellement, les données du fichier et l'ID de l'utilisateur ne sont pas chiffrés  sur  le  réseau
       (c’est-à-dire  apparaissent  en clair). Qui plus est, les versions 2 et 3 de NFS utilisent des protocoles
       auxiliaires différents pour le montage, le  verrouillage  et  le  déverrouillage  des  fichiers  et  pour
       renvoyer  les  valeurs  de retour système des clients et serveurs. Ces protocoles auxiliaires n'utilisent
       pas d'authentification.

       En plus d'avoir intégré ces deux protocoles auxiliaires dans le protocole NFS principal, la version 4  de
       NFS  offre  des  formes  plus  avancées  de contrôle d'accès, d'authentification et de protection lors du
       transfert des données. La spécification de  la  version  4  de  NFS  requiert  une  prise  en  charge  de
       l'authentification renforcée et de types de sécurité permettant le contrôle d'intégrité et le chiffrement
       par  appel  RPC.  Puisque la version 4 de NFS ajoute les fonctionnalités de ces protocoles auxiliaires au
       cœur du protocole NFS, les nouvelles caractéristiques de sécurité s'appliquent à toutes les opérations de
       NFS version 4, incluant donc le montage, le verrouillage des  fichiers,  etc.  L'authentification  RPCGSS
       peut  aussi  être  utilisée  avec  les  versions  2  et  3  de  NFS, mais ne protège pas leurs protocoles
       auxiliaires.

       L'option de montage sec indique quel type de sécurité est utilisé sur ce point de  montage  NFS  pour  un
       utilisateur.  L'ajout  de sec=krb5 fournit la vérification par chiffrement de l'identité de l'utilisateur
       pour chaque requête RPC. Ce dispositif offre une vérification forte de l'identité  des  utilisateurs  qui
       accèdent  aux  données  du  serveur.  Notez  qu’une  configuration supplémentaire à cet ajout d’option de
       montage est nécessaire pour activer la sécurité Kerberos. Consulter la page de manuel de rpc.gssd(8) pour
       plus de détails.

       Deux types supplémentaires de sécurité Kerberos sont pris en charge : krb5i et krb5p.  Le  dispositif  de
       sécurité  krb5i  offre  une  garantie de chiffrement fort contre la falsification des données pour chaque
       requête RPC. Le dispositif de sécurité krb5p chiffre  chaque  requête  RPC  afin  d'éviter  qu'elle  soit
       exposée  pendant son transfert sur le réseau. Toutefois, le chiffrement ou la vérification de l'intégrité
       entraînent des baisses de performance. D'autres formes de sécurité par chiffrement sont aussi  prises  en
       charge.

   Traversée de systèmes de fichiers NFS version 4
       Le protocole de la version 4 de NFS permet à un client de renégocier le type de sécurité lorsqu'un client
       passe  sur un nouveau système de fichiers sur le serveur. Le type nouvellement négocié ne concerne que le
       nouveau système de fichiers.

       Une telle négociation se produit typiquement lorsqu'un client passe d'un pseudo-système  de  fichiers  du
       serveur  à  un des systèmes de fichiers physiques exportés par le serveur, qui ont souvent des paramètres
       de sécurité plus restrictifs que les pseudo-systèmes de fichiers.

   Baux de NFS version 4
       Dans NFS version 4, un bail est une période pendant laquelle un  serveur  accorde  irrévocablement  à  un
       client des verrous de fichier. Une fois le bail expiré, le serveur peut révoquer ces verrous. Les clients
       renouvellent périodiquement leurs baux pour éviter la révocation du verrou.

       Après  redémarrage  d’un serveur NFS version 4, chaque client indique au serveur l’état d’ouverture et de
       verrouillage du fichier existant sous son bail avant que  l’opération  puisse  continuer.  Si  un  client
       redémarre, le serveur libère tous les états ouvert et verrouillé associés au bail du client.

       Par  conséquent, lors de l’établissement d’un bail, un client doit s’authentifier de lui-même auprès d’un
       serveur.  Chaque  client  présente  une  chaîne  arbitraire  pour  se  distinguer  des  autres   clients.
       L’administrateur  de  clients peut compléter la chaîne d’identité par défaut en utilisant le paramètre de
       module nfs4.nfs4_unique_id pour éviter des collisions avec des chaînes d’identité d’autres clients.

       Un client utilise aussi un type unique de sécurité et un commettant quand il établit son  bail.  Si  deux
       clients présentent deux chaînes d’identité identiques, un serveur peut utiliser les commettants de client
       pour faire la distinction, donc empêchant de manière sécurisée qu’un client interfère avec un autre bail.

       Le client établit un bail sur chaque serveur NFS version 4. Les opérations de gestion de bail, telles que
       le  renouvellement de bail, ne sont pas faites pour le compte d’un fichier, d’un verrou, d’un utilisateur
       ou d’un point de montage particuliers, mais pour le compte du client titulaire  de  ce  bail.  Un  client
       utilise  une chaîne d’identité, un type de sécurité et un commettant cohérents à travers les redémarrages
       de client pour assurer que le serveur puisse promptement connaître l’état d’expiration des baux.

       Quand Kerberos est configuré sur un client Linux NFS (c’est-à-dire qu’il existe un  /etc/krb5.keytab  sur
       ce  client),  le  client essaie d’utiliser le type Kerberos de sécurité pour les opérations de gestion de
       bail. Kerberos fournit l’authentification sécurisée pour chaque client. Par  défaut,  le  client  utilise
       host/  ou  le  commettant  du  service  nfs/  dans  son  /etc/krb5.keytab  dans  ce but comme décrit dans
       rpc.gssd(8).

       Si le client a Kerberos configuré, mais pas le serveur, ou si le client n’a pas de fichier keytab ou  les
       commettants du service requis, le client utilise AUTH_SYS et l’UID 0 pour la gestion des baux.

   Utiliser un port source non privilégié
       Le  client NFS communique normalement avec les serveurs NFS par des sockets de réseau. À chaque extrémité
       d’un socket est associée une valeur de port qui est un simple nombre entre 1 et 65 535 qui permettent  de
       distinguer ces terminaisons d’accès de socket pour la même adresse IP. Un socket est identifié de manière
       unique  par  un  n-uplet  comprenant  le  protocole  de  transport (TCP ou UDP) et les valeurs de port et
       d’adresse IP de chaque terminaison d’accès.

       Le client NFS peut choisir n'importe quelle valeur de port source pour ses sockets, mais  il  choisit  en
       général  un  port privilégié (c'est-à-dire avec une valeur inférieure à 1024). Seul un processus tournant
       avec des droits du superutilisateur peut créer un socket à partir d'un port source privilégié.

       La plage des ports source privilégiés pouvant être choisis est définie par une paire de « sysctl »s  pour
       éviter  l'utilisation d’un port bien connu, tel celui de SSH. Cela signifie que le nombre de ports source
       disponibles pour le client NFS, et donc le nombre de connexions de socket disponibles à un moment  donné,
       est en pratique limité à quelques centaines.

       Comme  décrit  plus  haut,  le  schéma  d'authentification NFS traditionnel par défaut (connu sous le nom
       d'AUTH_SYS) repose sur l'envoi d'UID et de GID locaux pour identifier les  utilisateurs  à  l'origine  de
       requêtes. Un serveur NFS suppose que si une connexion provient d'un port privilégié, les numéros d’UID et
       de  GID  des requêtes NFS sur cette connexion ont déjà été vérifiés par le noyau du client ou toute autre
       autorité locale. Ce système est facile à usurper, mais  sur  un  réseau  physique  sécurisé  entre  hôtes
       vérifiés, c'est parfaitement adapté.

       En gros, un socket est utilisé pour chaque point de montage NFS. Si un client peut aussi utiliser un port
       source  non  privilégié,  le  nombre de sockets autorisés (et donc le nombre maximal de points de montage
       simultanés) sera beaucoup plus important.

       Utiliser un port source non privilégié  peut  quelque  peu  compromettre  la  sécurité  du  serveur,  car
       n'importe  quel  utilisateur d'un point de montage AUTH_SYS peut maintenant se faire passer pour un autre
       comme source de la requête. C'est pourquoi les serveurs NFS ne le prennent pas en charge par  défaut.  En
       règle générale, ils l'autorisent explicitement à l'aide d'une option d’exportation.

       Pour  garder  un  bon  niveau  de  sécurité  tout  en  permettant un maximum de points de montage, il est
       préférable de n'autoriser les connexions clientes sur un port non privilégié que  si  le  serveur  et  le
       client utilisent tous deux une authentification forte, comme celle fournie par Kerberos.

   Montage à travers un pare-feu
       Un  pare-feu peut exister entre un client NFS et le serveur, mais le client ou le serveur peuvent bloquer
       certains de leurs propres ports grâce à des règles de filtrage d’IP. Il est toujours possible  de  monter
       un  serveur NFS à travers un pare-feu, bien que les mécanismes de découverte automatique des terminaisons
       d'accès (endpoint) de la commande mount(8) peuvent ne  pas  fonctionner.  Il  faudra  alors  fournir  les
       détails spécifiques à ces terminaisons d'accès grâce aux options de montage.

       Les  serveurs  NFS  lancent  habituellement  un démon portmapper ou rpcbind pour annoncer aux clients les
       terminaisons d’accès aux services. Les clients se servent du démon rpcbind pour déterminer :

              le port réseau utilisé par chaque service basé sur les RPC,

              les protocoles de transport pris en charge par chaque service basé sur les RPC.

       Le démon rpcbind utilise un port bien connu (111) afin d'aider  les  clients  à  trouver  la  terminaison
       d’accès  à  un  service.  Bien  que  NFS  utilise souvent un numéro de port standard (2049), des services
       auxiliaires tels que NLM peuvent choisir aléatoirement des numéros de port inutilisés.

       Les configurations habituelles des pare-feu bloquent le port bien  connu  de  rpcbind.  En  l'absence  du
       service  rpcbind, l'administrateur du serveur définit un numéro de port pour les services liés à NFS afin
       que le pare-feu puisse permettre l'accès aux ports des services spécifiques NFS. Les administrateurs  des
       clients  pourront  alors  indiquer  le  numéro du port du service mountd grâce à l'option mountport de la
       commande mount(8). Il peut être nécessaire d'imposer l'utilisation de TCP ou d’UDP si le pare-feu  bloque
       l'un de ces transports.

   Désactiver le traitement des ACL (Access Control List).
       Solaris  permet  aux  clients  NFS version 3 l'accès direct aux ACL (Access Control Lists) POSIX stockées
       dans son système de fichiers local. Ce protocole auxiliaire propriétaire, connu sous le  nom  de  NFSACL,
       offre  un  contrôle d'accès plus riche que le mode par bits. Linux implémente ce protocole dans un but de
       compatibilité avec l'implémentation NFS de Solaris. Cependant, le protocole NFSACL  n'est  jamais  devenu
       une partie standard de la spécification NFS version 3.

       La  spécification  de  NFS  version  4  impose  une  nouvelle  version  des Access Control Lists qui sont
       sémantiquement plus riches que les ACL POSIX. Les ACL de NFS version 4 ne sont pas totalement compatibles
       avec les ACL POSIX. De ce fait, des traductions entre les deux sont obligatoires  dans  un  environnement
       qui mélange les ACL POSIX et NFS version 4.

OPTION DE REMONTAGE

       Les options de montage générique comme rw et sync peuvent être modifiées par les points de montage NFS en
       utilisant  l'option  remount.  Consulter  mount(8) pour plus d'informations sur les options génériques de
       montage.

       Sauf quelques exceptions, les options spécifiques  à  NFS  ne  peuvent  pas  être  modifiées  pendant  un
       remontage.  Par  exemple,  le  transport sous-jacent ou la version NFS ne peuvent pas être changés par un
       remontage.

       Effectuer un remontage sur  un  système  de  fichiers  NFS  monté  avec  l'option  noac  peut  avoir  des
       conséquences  inattendues.  L'option  noac  est une combinaison de l'option générique sync et de l'option
       spécifique NFS actimeo=0.

   Démontage après remontage
       Pour les points de montage qui utilisent NFS versions 2 ou 3, la sous-commande de démontage NFS dépend de
       la connaissance de l'ensemble initial des options de montage utilisées pour  effectuer  l'opération  MNT.
       Ces options sont stockées sur le disque par la sous-commande de montage NFS, et peuvent être effacées par
       un remontage.

       Afin  de  s'assurer  que les options de montage enregistrées ne sont pas effacées lors d'un remontage, il
       faut spécifier au remontage soit le répertoire de montage local,  soit  le  serveur  hôte  et  le  chemin
       d'exportation, mais pas les deux. Par exemple,

               mount -o remount,ro /mnt

       fusionne  l'option  de  montage  ro  avec  les options de montage déjà enregistrées sur le disque pour le
       serveur NFS monté dans /mnt.

FICHIERS

       /etc/fstab     Table des systèmes de fichiers

       /etc/nfsmount.conf
                      Fichier de configuration pour les montages NFS

NOTES

       Le client Linux NFS antérieur à 2.4.7 ne gérait pas NFS sur TCP.

       Le client Linux NFS antérieur à 2.4.20 utilisait une heuristique pour savoir si les données en cache d'un
       fichier étaient toujours valables plutôt que  d’utiliser  la  méthode  standard  de  cohérence  de  cache
       close-to-open décrite ci-dessus.

       Depuis  la  version  2.4.22, le client Linux NFS utilise une estimation RTT (Round Trip Time) de type Van
       Jacobsen pour définir les délais de dépassement de temps lorsqu'il utilise NFS sur UDP.

       Le client Linux NFS antérieur à 2.6.0 ne gérait pas NFS version 4.

       Le client Linux NFS antérieur à 2.6.8 n'utilisait les lectures et écritures synchrones  que  lorsque  les
       réglages de rsize et wsize étaient inférieurs à la taille des pages du système.

       La  prise  en  charge d’un client Linux pour les versions de protocole dépend de l’activation des options
       CONFIG_NFS_V2, CONFIG_NFS_V3, CONFIG_NFS_V4, CONFIG_NFS_V4_1 et CONFIG_NFS_V4_2 lors de  la  construction
       du noyau.

VOIR AUSSI

       fstab(5),  mount(8),  umount(8), mount.nfs(5), umount.nfs(5), exports(5), nfsmount.conf(5), netconfig(5),
       ipv6(7), nfsd(8), sm-notify(8), rpc.statd(8), rpc.idmapd(8), rpc.gssd(8), rpc.svcgssd(8), kerberos(1)

       RFC 768 concernant la spécification UDP.
       RFC 793 concernant la spécification TCP.
       RFC 1813 concernant la spécification de NFS version 3.
       RFC 1832 concernant la spécification XDR.
       RFC 1833 concernant la spécification RPC bind.
       RFC 2203 concernant la spécification du protocole de l'API GSS RPCSEC.
       RFC 7530 concernant la spécification de NFS version 4.0
       RFC 5661 concernant la spécification de NFS version 4.1.
       RFC 7862 concernant la spécification de NFS version 4.2.

TRADUCTION

       La   traduction   française   de   cette   page   de   manuel   a   été   créée   par    Valéry    Perrin
       <valery.perrin.debian@free.fr>,    Sylvain    Cherrier    <sylvain.cherrier@free.fr>,    Thomas   Huriaux
       <thomas.huriaux@gmail.com>,    Dominique    Simen    <dominiquesimen@hotmail.com>,    Nicolas     Sauzède
       <nsauzede@free.fr>,  Romain  Doumenc  <rd6137@gmail.com>, David Prévot <david@tilapin.org>, Denis Mugnier
       <myou72@orange.fr>,   Cédric   Boutillier   <cedric.boutillier@gmail.com>   et   Jean-Paul    Guillonneau
       <guillonneau.jeanpaul@free.fr>

       Cette  traduction  est  une  documentation libre ; veuillez vous reporter à la GNU General Public License
       version 3 concernant les conditions de copie et de distribution. Il n'y a aucune RESPONSABILITÉ LÉGALE.

       Si vous découvrez un bogue dans la traduction de cette page de manuel,  veuillez  envoyer  un  message  à
       debian-l10n-french@lists.debian.org.

                                                 9 octobre 2012                                           NFS(5)