Partitions

La machine contient 4 partitions principales :

  • mono : par défaut, jobs mono-coeur
  • multi : job multi-coeurs
  • short : 1 job max pendant 1 heure, pour du test
  • long : job de plus de 10 jours

Il y a aussi des partitions spécifiques :

  • qchem : pour utiliser le logiciel q-chem
  • nanox : pour l’enseignement, ouvert à tous selon périodes

Et enfin les partitons ANR/ERC, pour les personnes concernées :

  • molqed
  • actipnmr
  • trixs

mono

mono regroupe les machines des catégories napab, xeonv3_mono, xeonv4_mono, xeonv5_mono

napab

Nodename : cnnapab-[1-3]

  • 3 Dell R730
  • 2x Xeon E5-2637v3 4C/8T (8C/16T au total), 3.5GHz, 512Go RAM par machine (cnnapab-[1-2])
  • 2x Xeon E5-2637v4 4C/8T, 3.5GHz, 512Go RAM (cnnapab-3)
  • 2 SSD 800Go (cnnapab-[1-2])
  • 8 SSD 800Go (cnnapab-3)
  • Architecture : Haswell (cnnapab-[1-2])
  • Architecture : Broadwell (cnnapab-3)
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • napab

En-tête SLURM :

#SBATCH -p mono                 # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=8192      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=napab

Dell R730 Dell R730

xeonv3_mono

Nodename : cnxv3m-[1-3]

  • 3 Dell R630
    • cnxv3m-[1-2] : 1 Xeon E5-2637v3 4C/8T, 3.5Ghz, 192Go RAM, 4 SSD 800GB
    • cnxv3m-3 : 2 Xeon E5-2637v3 4C/8T (8C/16T au total), 3.5Ghz, 512Go RAM, 8 SSD 800GB par machine
  • Architecture : Haswell
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv3_mono

En-tête SLURM :

#SBATCH -p mono                 # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=8192      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local 
#SBATCH --constraint=xeonv3_mono

Dell R630 Dell R630

xeonv4_mono

Nodnename : cnxv4m-1

  • 1 Dell R630
  • 2x Xeon E5-2667v4 8C/16T (16C/32T au total), 3.2GHz
  • 512Go de RAM, DDR4-2400
  • 8 SSD 380Go
  • Architecture : Broadwell
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv4_mono

En-tête SLURM :

#SBATCH -p mono                 # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=30000     # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=xeonv4_mono

Dell R630 Dell R630

xeonv5_mono

Nodename : cvxn5-1

  • 1 Dell R740
  • 2x Xeon Gold 5122 4C/8T (8C/16T), 3.6GHz
  • 384Go de RAM, DDR4-2666
  • 8 SSD 380Go
  • Architecture : Skylake
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv5_mono
    • avx512
    • avx512-2

En-tête SLURM :

#SBATCH -p mono                 # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=8192      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=xeonv5_mono

Dell R740 Dell R740

multi

multi regroupe les machines denses en terme de coeurs, hors ANR/spécifiques

xeonv3

Nodename : cnxv3-[1-6,8]

  • 7 Dell R630
  • 2x Xeon E5-2680v3 12C/24T (24C/48T au total), 2.5Ghz par machine
  • 128Go de RAM
  • Architecture : Haswell
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv3

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem=1234              # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local (HDD)
#SBATCH --constraint=xeonv3

Dell R630 Dell R630

xeonv4

Nodename : cnxv4-[1-4]

  • 4 Dell R630
  • 2x Xeon E5-2680v4 14C/28T (24C/56T au total), 2.4Ghz par machine
  • 128Go de RAM
  • Architecture : Broadwell
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv4

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=xeonv4

Dell R630 Dell R630

xeonv5

Nodename : cnxv5-[1-5]

  • 5 Dell R640
  • 2x Xeon Gold 6130 16C/32T (32C/64T au total), 2.1GHz par machine
  • 192Go de RAM, DDR4-2666
  • Architecture : Skylake
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv5
    • avx512
    • avx512-2

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=xeonv5

Dell R640 Dell R640

xeonv6

Nodename : cnxv6-1

  • 1 Dell R640
  • 2x Xeon Gold 5218 16C/32T (32C/64T au total), 2.3GHz par machine
  • 192Go de RAM, DDR4-2666
  • Architecture : Cascade Lake
  • Réseau 10Gigabit ethernet
  • Features
    • intel
    • xeonv6
    • avx512

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=xeonv6

Dell R640 Dell R640

zen2

Nodename : cnzen2-[1-6],cnactip-[3-4]

  • 6 Dell R7525 et 2 R7525 actipnmr
  • 2x AMD EPYC 7402, 24C/48T (48C/96T au total), 2,8GHz par machine
  • 512Go RAM, DDR4-3200
  • 4 SSDs par machine
  • Architecture : Zen 2 / Rome
  • Réseau Ethernet 10Gigabit
  • Features
    • amd
    • zen2

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=4096      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=zen2

Dell R7525 Dell R7525

zen3

Nodename : cnzen3-[1-8]

  • 8 HPe DL385 gen10
  • 4 noeuds avec 2x AMD EPYC 7413, 24C/48T (48C/96T au total), 2,65GHz, 512Go de RAM
  • 2 noeuds avec 2x AMD EPYC 7413, 24C/48T (48C/96T au total), 2,65GHz, 1To de RAM
  • 1 noeuds avec 2x AMD EPYC 7413, 24C/48T (48C/96T au total), 2,65GHz, 2To de RAM
  • 1 noeud avec 2x AMD EPYC 7513, 32C/64T (64C/128T au total), 2,6Ghz, 2To de RAM
  • DDR4-3200
  • 2 ou 4 SSDs par machine
  • Architecture : Zen 3 / Milan
  • Réseau Ethernet 25Gb
  • Features
    • amd
    • zen3

En-tête SLURM :

#SBATCH -p multi                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=4096      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=zen3

HPe DL385 gen10 HPe DL385 gen10

short

short regroupe les machines de mono et multi.

En-tête SLURM :

#SBATCH -p short                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=auchoix

long

long contient les machines de multi.

En-tête SLURM :

#SBATCH -p long                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=auchoix

Spécifiques

On a deux paritions spécifiques à l’heure actuelle : qchem et nanox

qchem

Pour utiliser Q-CHEM, il faut utiliser la machine suivante.

Nodename : cnzen1-1

  • 1 Dell R7425
  • 2x AMD Epyc 7351 16C/32T (32C/64T), 2.4GHz
  • 256Go de RAM
  • Architecture : Zen / Naples
  • Réseau 10Gigabit ethernet
  • Features
    • amd
    • zen1
    • qchem

En-tête SLURM :

#SBATCH -p qchem                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=7168      # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local

Dell R7425 Dell R7425

nanox

Nodename : cnnanox-[1-3]

  • 3 Dell R7525
  • 2x AMD EPYC 7513, 32C/64T (64C/128T), 2,6GHz par machine
  • 512Go RAM, DDR4-3200
  • 4 SSDs par machine
  • Architecture : Zen 3 / Milan
  • Réseau Ethernet 10Gb

En-tête SLURM :

#SBATCH -p nanox                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=7168      # (MB) DefMemPerCPU sur cette partition
##SBATCH --mem=12345            # mémoire par noeud 
##SBATCH --gres=ioperso2        # si besoin d'un TMPDIR local

Dell R7525 Dell R7525

ANR/ERC

actipnmr

Nodename : cnactip-[1-2]

  • 2 Dell R7525
  • 2x AMD EPYC 7402, 24C/48T (48C/96T au total), 2,8GHz par machine
  • 512Go RAM, DDR4-3200
  • 4 SSDs par machine
  • Architecture : Zen 2 / Rome
  • Réseau Ethernet 10Gigabit
  • Features
    • amd
    • zen2
    • actipnmr

En-tête SLURM :

#SBATCH -p actipnmr            # On appele la partition
#SBATCH --hint=nomultithread   # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=5120     # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345            # mémoire par noeud
#SBATCH --gres=ioperso2        # si besoin d'un TMPDIR local

Dell R7525 Dell R7525

molqed

Nodename : cnmolq-[1-2]

  • 2 Dell R7525
  • 2x AMD EPYC 7402, 24C/48T (48C/96T au total), 2,8GHz par machine
  • 512Go RAM, DDR4-3200
  • 8 SSDs par machine
  • Architecture : Zen 2 / Rome
  • Réseau Ethernet 10Gigabit
  • Features
    • amd
    • zen2
    • molqed

En-tête SLURM :

#SBATCH -p molqed              # On appele la partition
#SBATCH --hint=nomultithread   # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=5120     # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345            # mémoire par noeud 
#SBATCH --gres=ioperso2        # si besoin d'un TMPDIR local

Dell R7525 Dell R7525

trixs

Nodename : cntrixs-1

  • 1 HPe DL385 gen10
  • 2x AMD EPYC 7313, 16C/32T (32C/64T au total), 3GHz
  • 2To RAM, DDR4-3200
  • 2 SSDs
  • Architecture : Zen 3 / Milan
  • Réseau Ethernet 25Gb
  • Features
    • amd
    • zen3
    • trixs

Nodename : cncliff-1

  • 1 HPe DL385 gen10
  • 2x AMD EPYC 7543, 32C/64T 64C/128T au total), 2.8GHz
  • 2To RAM, DDR4-3200
  • 2 SSDs
  • Architecture : Zen 3 / Milan
  • Réseau Ethernet 25Gb
  • Features
    • amd
    • zen3
    • clifford

En-tête SLURM :

#SBATCH -p trixs                # On appele la partition
#SBATCH --hint=nomultithread    # utiliser les coeurs physique, pas de HT/SMT
#SBATCH --mem-per-cpu=30720     # (MB) DefMemPerCPU sur cette partition
#SBATCH --mem=12345             # mémoire par noeud 
#SBATCH --gres=ioperso2         # si besoin d'un TMPDIR local
#SBATCH --constraint=trixs	# ou clifford

HPe DL385 gen10 HPe DL385 gen10