Dieses Repository enthält den Demo-Code zum Projektseminar "Wettbewerb künstliche Intelligenz in der Medizin" SoSe 2023. Das Beispiel definiert gleichzeitig das Interface zu unserem Evaluierungs-System.
- Klone/Kopiere dieses Repository
- Richte ein eigenes privates Repository auf github/gitlab ein. Darüber könnt ihr später die Abgaben eurer Modelle machen.
- Füge unseren Account als Collaborator hinzu (Github: Name="wettbewerbKI", Gitlab: auf Anfrage)
- Lege ein Python Environment an. Am Besten funktioniert das mit Anaconda, und
conda create -n wki-ss23 python=3.8
- Installiere alle von uns verwendeten Pakete in diesem Environment, welche in "requirements.txt" gelistet sind mit
conda activate wki-ss23
pip install -r requirements.txt
- Lade die Trainingsdaten herunter (in moodle verlinkt oder auf epilepsy-server), entpacke sie und lege Sie in einem Dateordner ab (Der Pfad ist im Trainingsskript bei uns hardcoded)
- Probiere aus, ob alles funktioniert, indem du einmal unseren Trainings, Predict und Scoring Code bei dir ausführst (und den Testdatenordner entsprechend anpasst):
python train.py
python predict_pretrained.py --test_dir ../test/
python score.py --test_dir ../test/
Bitte achtet bei der Abgabe darauf, dass alle von uns gestellten Dateien auf dem Top-Level des Repositories liegen. Testet die Funktionsfähigkeit eures Codes mit dem Skript predict_pretrained.py.
Die Dateien
- predict_pretrained.py
- wettbewerb.py
- score.py
werden von uns beim testen auf den ursprünglichen Stand zurückgesetzt. Es ist deshalb nicht empfehlenswert diese zu verändern. In predict.py ist für die Funktion predict_labels
das Interface festgelegt, das wir für die Evaluierung verwenden.
predict_labels(channels : List[str], data : np.ndarray, fs : float, reference_system: str, model_name : str='model.json') -> Dict[str,Any]
Insbesondere den model_name
könnt ihr verwenden um bei der Abgabe verschiedene Modelle zu kennzeichnen, welche zum Beispiel durch eure Ordnerstruktur dargestellt werden.
Bitte gebt alle verwendeten packages in "requirements.txt" bei der Abgabe zur Evaluation an und testet dies vorher in einer frischen Umgebung mit pip install -r requirements.txt
. Als Basis habt ihr immer die vorgegebene "requirements.txt"-Datei. Wir selbst verwenden Python 3.8. Wenn es ein Paket gibt, welches nur unter einer anderen Version funktioniert ist das auch in Ordung. In dem Fall bitte Python-Version mit angeben.