Skip to content
Snippets Groups Projects
Commit 656ed663 authored by Matthias Keck's avatar Matthias Keck
Browse files

Edit README.md

parent d58e6fe5
Branches
No related tags found
No related merge requests found
......@@ -11,4 +11,4 @@ Link zum Repository der Autoren des Papers: https://github.com/Dao-AILab/flash-a
## Inhalte des Repositories
Attention-Benchmarking: Hier ist der Code für das Benchmarking über ein Layer für drei verschiedene Attention-Implementierungen zu finden.
Benchmarking_Training: Hier ist der Code für das Training zweier GPT-2 Varianten mit drei verschiedenen Attention-Implementierungen zu finden.
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Please register or to comment