Skip to content

Commit eb03da2

Browse files
author
bedogni@unimore.it
committed
Translated README
1 parent ef714a2 commit eb03da2

File tree

1 file changed

+18
-18
lines changed

1 file changed

+18
-18
lines changed

README.md

Lines changed: 18 additions & 18 deletions
Original file line numberDiff line numberDiff line change
@@ -1,37 +1,37 @@
11
# SCIoT project
2-
*Copy of the SCIoT project to work on the python clients*
2+
*Copy of the SCIoT project to work on the Python clients*
33

4-
Questa è una copia del progetto per testare l'implementazione dei client Python.
4+
This is a copy of the project to test the Python client implementation.
55

66
## 05/11/2025
77

88
### Updates:
9-
- Commentate le configurazione MQTT e WebSocket dal file settings.yaml in modo da eseguire solo la versione http. Non è quindi necessario fare il punto 2 della guida a come lanciare (premere `CTRL + C`) all'avvio.
10-
- Aggiunta la cartella 'simulated_results' contenente lo script 'simulated_scenario.py' utilizzato per creare i file .csv dei risultati simulati.
11-
- il best offloading layer viene scelto correttamente, non più in modo randomico.
9+
- Commented out the MQTT and WebSocket configurations from the settings.yaml file to only run the HTTP version. Therefore, it is no longer necessary to follow step 2 of the launch guide (pressing `CTRL + C`) at startup.
10+
- Added the 'simulated_results' folder containing the 'simulated_scenario.py' script used to create the .csv files of simulated results.
11+
- The best offloading layer is now chosen correctly, no longer randomly.
1212

13-
### Punti da risolvere:
14-
- Quando viene fatto l'offloading su certi layer va in errore. Credo che il problema sia dovuto al fatto che per alcuni layer l'edge si aspetta di ricevere un numero di pesi differente.
13+
### Issues to resolve:
14+
- When offloading to certain layers, an error occurs. I believe the problem is due to the fact that for some layers the edge expects to receive a different number of weights.
1515

16-
### Altre indicazioni:
17-
- Per intervenire su la latency: message_data.py → get_latency()
18-
- Per intervenire su edge inference time: models/model_manager.py → wrapper()
16+
### Other notes:
17+
- To modify latency: message_data.py → get_latency()
18+
- To modify edge inference time: models/model_manager.py → wrapper()
1919

2020

2121

2222
## 13/07/2025
2323

24-
Creato lo script `server_client_light/client/http_client.py` (clone del codice per ESP32)
24+
Created the script `server_client_light/client/http_client.py` (clone of the ESP32 code)
2525

26-
### Punti da risolvere
27-
- Attualmente il best offloading layer viene scelto in modo random per simulare condizioni in cui le performance della rete degradano → **capire come fare.**
28-
- Inserire codice su server per **salvare su file i tempi di inferenza**
26+
### Issues to resolve
27+
- Currently, the best offloading layer is chosen randomly to simulate conditions where network performance degrades → **need to figure out how to do this.**
28+
- Insert code on server to **save inference times to file**
2929

30-
### Come lanciare
30+
### How to launch
3131

32-
1. Seguire le istruzioni scritte da Mattia per l'avvio del server (eventualmente inserire `tensorflow` per macOS nel file `config`)
33-
2. All'avvio di `run_edge.py`, premere `CTRL + C` per terminare la modalità websocket e far partire la modalità HTTP
34-
3. Avviare il client:
32+
1. Follow the instructions written by Mattia for starting the server (optionally insert `tensorflow` for macOS in the `config` file)
33+
2. At the startup of `run_edge.py`, press `CTRL + C` to terminate WebSocket mode and start HTTP mode
34+
3. Start the client:
3535

3636
```sh
3737
python server_client_light/client/http_client.py

0 commit comments

Comments
 (0)