ORCA

#!/bin/bash

#SBATCH --account=<id-projet>
#SBATCH --partition=std
#SBATCH --job-name=orca610
#SBATCH --output=SLURM-%x.%N.%j.out
#SBATCH --error=SLURM-%x.%N.%j.err
#SBATCH --nodes=1
#SBATCH --ntasks=8
#SBATCH --cpus-per-task=1
#SBATCH --time=2-00:00:00

env | grep -i slurm

export INPNAME='test'
export INPUT="$INPNAME.inp"
export OUTPUT="$INPNAME.$SLURM_JOB_ID.out"

cd $SLURM_SUBMIT_DIR

## Creating temporary directory 
WORKDIR="$SCRATCHDIR/job.$SLURM_JOB_ID.$USER"
# WORKDIR=$SLURM_SUBMIT_DIR/job.$SLURM_JOB_ID.$USER
mkdir -p $WORKDIR

module purge 
module load orca/6.1.0
ulimit -s unlimited

export ORCA=$(which orca)

echo "FICHIER: $INPUT"
echo "RÉPERTOIRE DE TRAVAIL: $WORKDIR"
echo "DÉBUT: $(date)"

cp $SLURM_SUBMIT_DIR/$INPUT $WORKDIR
cd $WORKDIR

$ORCA $INPUT "--bind-to core --verbose" >& $OUTPUT

echo "$ORCA $INPUT --bind-to core --verbose >& $OUTPUT"
echo "FINI: $(date)"

# Create an output directory
OUTDIR="$SLURM_SUBMIT_DIR/outdir.$SLURM_JOB_ID"
mkdir -p "$OUTDIR"

# Move all files to the output directory (including sub-directories and hidden files)
cp -rf "$WORKDIR"/* "$OUTDIR"

Note

Concernant le fichier d'entrée, il est important d'adapter les paramètres en fonction des ressources nécessaires et en accord avec les nœuds eXplor. Par exemple, vous pouvez définir :

%maxcore 11000, pour les noeuds 'cne'

À noter que vous devez considérer un maximum de 75 % de la mémoire par cœur du nœud cible (en Mb). Ces informations sont disponibles dans le Tableau des associations.