|
1 | 1 | # SCIoT project |
2 | | -*Copy of the SCIoT project to work on the python clients* |
| 2 | +*Copy of the SCIoT project to work on the Python clients* |
3 | 3 |
|
4 | | -Questa è una copia del progetto per testare l'implementazione dei client Python. |
| 4 | +This is a copy of the project to test the Python client implementation. |
5 | 5 |
|
6 | 6 | ## 05/11/2025 |
7 | 7 |
|
8 | 8 | ### Updates: |
9 | | -- Commentate le configurazione MQTT e WebSocket dal file settings.yaml in modo da eseguire solo la versione http. Non è quindi necessario fare il punto 2 della guida a come lanciare (premere `CTRL + C`) all'avvio. |
10 | | -- Aggiunta la cartella 'simulated_results' contenente lo script 'simulated_scenario.py' utilizzato per creare i file .csv dei risultati simulati. |
11 | | -- il best offloading layer viene scelto correttamente, non più in modo randomico. |
| 9 | +- Commented out the MQTT and WebSocket configurations from the settings.yaml file to only run the HTTP version. Therefore, it is no longer necessary to follow step 2 of the launch guide (pressing `CTRL + C`) at startup. |
| 10 | +- Added the 'simulated_results' folder containing the 'simulated_scenario.py' script used to create the .csv files of simulated results. |
| 11 | +- The best offloading layer is now chosen correctly, no longer randomly. |
12 | 12 |
|
13 | | -### Punti da risolvere: |
14 | | -- Quando viene fatto l'offloading su certi layer va in errore. Credo che il problema sia dovuto al fatto che per alcuni layer l'edge si aspetta di ricevere un numero di pesi differente. |
| 13 | +### Issues to resolve: |
| 14 | +- When offloading to certain layers, an error occurs. I believe the problem is due to the fact that for some layers the edge expects to receive a different number of weights. |
15 | 15 |
|
16 | | -### Altre indicazioni: |
17 | | -- Per intervenire su la latency: message_data.py → get_latency() |
18 | | -- Per intervenire su edge inference time: models/model_manager.py → wrapper() |
| 16 | +### Other notes: |
| 17 | +- To modify latency: message_data.py → get_latency() |
| 18 | +- To modify edge inference time: models/model_manager.py → wrapper() |
19 | 19 |
|
20 | 20 |
|
21 | 21 |
|
22 | 22 | ## 13/07/2025 |
23 | 23 |
|
24 | | -Creato lo script `server_client_light/client/http_client.py` (clone del codice per ESP32) |
| 24 | +Created the script `server_client_light/client/http_client.py` (clone of the ESP32 code) |
25 | 25 |
|
26 | | -### Punti da risolvere |
27 | | -- Attualmente il best offloading layer viene scelto in modo random per simulare condizioni in cui le performance della rete degradano → **capire come fare.** |
28 | | -- Inserire codice su server per **salvare su file i tempi di inferenza** |
| 26 | +### Issues to resolve |
| 27 | +- Currently, the best offloading layer is chosen randomly to simulate conditions where network performance degrades → **need to figure out how to do this.** |
| 28 | +- Insert code on server to **save inference times to file** |
29 | 29 |
|
30 | | -### Come lanciare |
| 30 | +### How to launch |
31 | 31 |
|
32 | | -1. Seguire le istruzioni scritte da Mattia per l'avvio del server (eventualmente inserire `tensorflow` per macOS nel file `config`) |
33 | | -2. All'avvio di `run_edge.py`, premere `CTRL + C` per terminare la modalità websocket e far partire la modalità HTTP |
34 | | -3. Avviare il client: |
| 32 | +1. Follow the instructions written by Mattia for starting the server (optionally insert `tensorflow` for macOS in the `config` file) |
| 33 | +2. At the startup of `run_edge.py`, press `CTRL + C` to terminate WebSocket mode and start HTTP mode |
| 34 | +3. Start the client: |
35 | 35 |
|
36 | 36 | ```sh |
37 | 37 | python server_client_light/client/http_client.py |
|
0 commit comments