From 64899f18c02ddfe957d6cd6c7eb3d29bd281f1d3 Mon Sep 17 00:00:00 2001
From: Armin Bacher <armin.bacher@student.uni-halle.de>
Date: Mon, 31 Mar 2025 21:48:58 +0000
Subject: [PATCH] Delete run-multi.sh

---
 Benchmark_Training/run-multi.sh | 28 ----------------------------
 1 file changed, 28 deletions(-)
 delete mode 100644 Benchmark_Training/run-multi.sh

diff --git a/Benchmark_Training/run-multi.sh b/Benchmark_Training/run-multi.sh
deleted file mode 100644
index a967a76..0000000
--- a/Benchmark_Training/run-multi.sh
+++ /dev/null
@@ -1,28 +0,0 @@
-#!/bin/bash
-#SBATCH --nodes=1
-#SBATCH --ntasks=1
-#SBATCH --gpus-per-task=2
-#SBATCH --gres=gpu:2
-#SBATCH --cpus-per-task=16
-#SBATCH --mem=64G
-#SBATCH --time=02:00:00
-
-# Kopiere das Python-Skript auf den Rechenknoten
-sbcast GPT2M_MultiA100.py /zpool1/slurm_data/anhnd/test4.py
-
-# Lokalen Triton-Cache setzen (FlashAttention empfohlen)
-export TRITON_CACHE_DIR=/tmp/triton_cache_$USER
-mkdir -p "$TRITON_CACHE_DIR" || export TRITON_CACHE_DIR=$HOME/.cache/triton
-
-# Set environment for distributed
-export TOKENIZERS_PARALLELISM=false
-
-# Optional (für Deepspeed oder fair scale): set NCCL
-#export TORCH_DISTRIBUTED_DEBUG=DETAIL
-#export NCCL_DEBUG=INFO
-#export NCCL_SOCKET_IFNAME=^lo,docker
-
-# Führe das Python-Skript mit absolutem Pfad aus und leite die Ausgabe ins Home-Verzeichnis um
-srun --ntasks=1 --gpus-per-task=2 torchrun --nproc_per_node=2  /zpool1/slurm_data/anhnd/test4.py flash2 > ~/projekt/GPT2M_2GPU_output_${SLURM_JOB_ID}.log 2>&1
-#Lösche die .py-Datei nach der Berechnung, um Speicherplatz zu sparen
-srun rm /zpool1/slurm_data/anhnd/test4.py
-- 
GitLab