ORCA
#!/bin/bash
#SBATCH --account=<id-projet>
#SBATCH --partition=std
#SBATCH --job-name=orca610
#SBATCH --output=SLURM-%x.%N.%j.out
#SBATCH --error=SLURM-%x.%N.%j.err
#SBATCH --nodes=1
#SBATCH --ntasks=8
#SBATCH --cpus-per-task=1
#SBATCH --time=2-00:00:00
env | grep -i slurm
export INPNAME='test'
export INPUT="$INPNAME.inp"
export OUTPUT="$INPNAME.$SLURM_JOB_ID.out"
cd $SLURM_SUBMIT_DIR
## Creating temporary directory
WORKDIR="$SCRATCHDIR/job.$SLURM_JOB_ID.$USER"
# WORKDIR=$SLURM_SUBMIT_DIR/job.$SLURM_JOB_ID.$USER
mkdir -p $WORKDIR
module purge
module load orca/6.1.0
ulimit -s unlimited
export ORCA=$(which orca)
echo "FICHIER: $INPUT"
echo "RÉPERTOIRE DE TRAVAIL: $WORKDIR"
echo "DÉBUT: $(date)"
cp $SLURM_SUBMIT_DIR/$INPUT $WORKDIR
cd $WORKDIR
$ORCA $INPUT "--bind-to core --verbose" >& $OUTPUT
echo "$ORCA $INPUT --bind-to core --verbose >& $OUTPUT"
echo "FINI: $(date)"
# Create an output directory
OUTDIR="$SLURM_SUBMIT_DIR/outdir.$SLURM_JOB_ID"
mkdir -p "$OUTDIR"
# Move all files to the output directory (including sub-directories and hidden files)
cp -rf "$WORKDIR"/* "$OUTDIR"
Note
Concernant le fichier d'entrée, il est important d'adapter les paramètres en fonction des ressources nécessaires et en accord avec les nœuds eXplor. Par exemple, vous pouvez définir :
%maxcore 11000, pour les noeuds 'cne'
À noter que vous devez considérer un maximum de 75 % de la mémoire par cœur du nœud cible (en Mb). Ces informations sont disponibles dans le Tableau des associations.