You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: containers/llm-orchestrator-min/docs/NOVNC_TESTING.md
+87-7Lines changed: 87 additions & 7 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -109,23 +109,103 @@ http://localhost:8080
109
109
110
110
Pozwala on na monitorowanie statusu mikrousług i ruchu sieciowego.
111
111
112
+
## Monitorowanie systemu
113
+
114
+
Aby monitorować stan usług i postęp ładowania modelu LLM, możesz użyć skryptu `monitor.sh`:
115
+
116
+
```bash
117
+
./monitor.sh
118
+
```
119
+
120
+
Skrypt ten dostarcza informacje o:
121
+
- Statusie wszystkich kontenerów
122
+
- Postępie ładowania modelu LLM
123
+
- Dostępności API
124
+
- Zużyciu zasobów (CPU, pamięć)
125
+
- Logach z kontenerów
126
+
127
+
### Opcje monitorowania
128
+
129
+
Skrypt oferuje różne tryby działania:
130
+
131
+
```bash
132
+
# Monitorowanie w czasie rzeczywistym (aktualizacja co 5 sekund)
133
+
./monitor.sh --live
134
+
135
+
# Wyświetlenie tylko podsumowania statusu
136
+
./monitor.sh --summary
137
+
138
+
# Monitorowanie procesu ładowania modelu
139
+
./monitor.sh --model
140
+
141
+
# Monitorowanie statusu API
142
+
./monitor.sh --api
143
+
144
+
# Informacje o sieci i połączeniach między kontenerami
145
+
./monitor.sh --network
146
+
147
+
# Status środowiska testowego (noVNC i przeglądarka)
148
+
./monitor.sh --novnc
149
+
150
+
# Statystyki zużycia zasobów przez kontenery
151
+
./monitor.sh --containers
152
+
153
+
# Wyświetlenie wszystkich dostępnych opcji
154
+
./monitor.sh --help
155
+
```
156
+
157
+
Użyj opcji `--model`, aby śledzić postęp ładowania modelu LLM i sprawdzić, czy komunikat "Service Unavailable" jest spowodowany tym, że model jest jeszcze w trakcie ładowania.
158
+
112
159
## Rozwiązywanie problemów
113
160
114
161
### Problem z uruchomieniem kontenerów
115
162
116
-
Jeśli występują problemy z uruchomieniem kontenerów za pomocą `run.sh`, spróbuj użyć skryptu `reset_and_run.sh`, który całkowicie resetuje środowisko Docker i uruchamia kontenery ręcznie.
163
+
Jeśli występują problemy z uruchomieniem kontenerów za pomocą `run.sh`, użyj alternatywnego skryptu:
164
+
165
+
```bash
166
+
./reset_and_run.sh
167
+
```
168
+
169
+
Ten skrypt całkowicie resetuje środowisko Docker i uruchamia kontenery ręcznie, co pomaga rozwiązać problemy z kompatybilnością Docker/docker-compose.
170
+
171
+
### Problem z ładowaniem modelu
172
+
173
+
Jeśli w logach kontenera `llm-model-service` pojawia się błąd związany z ładowaniem modelu (np. `OSError: Unable to load weights from pytorch checkpoint file`), użyj skryptu naprawczego:
174
+
175
+
```bash
176
+
sudo ./fix_model_service.sh
177
+
```
178
+
179
+
Ten skrypt:
180
+
1. Zatrzymuje i usuwa kontener `llm-model-service`
181
+
2. Pobiera wszystkie niezbędne pliki modelu TinyLlama z HuggingFace
182
+
3. Ustawia odpowiednie uprawnienia dla katalogu `models`
183
+
4. Uruchamia ponownie kontener `llm-model-service`
184
+
185
+
Po uruchomieniu skryptu, możesz monitorować postęp ładowania modelu za pomocą:
186
+
187
+
```bash
188
+
./monitor.sh --model --live
189
+
```
117
190
118
-
### Błąd "ContainerConfig"
191
+
### Problem z dostępem do API
119
192
120
-
Jeśli pojawia się błąd `KeyError: 'ContainerConfig'`, jest to problem z kompatybilnością między wersjami Docker i docker-compose. Użyj skryptu `reset_and_run.sh`, który omija ten problem.
193
+
Jeśli podczas testów otrzymujesz odpowiedź "Service Unavailable", może to oznaczać, że:
121
194
122
-
### API zwraca "Service Unavailable"
195
+
1. Model LLM jest jeszcze w trakcie ładowania (może to potrwać kilka minut)
196
+
2. Kontener `llm-model-service` nie działa poprawnie
123
197
124
-
Po uruchomieniu systemu, model LLM potrzebuje czasu na załadowanie (zwykle kilka minut). W tym czasie API może zwracać "Service Unavailable". Poczekaj kilka minut i spróbuj ponownie.
198
+
Aby sprawdzić status modelu i API, użyj:
125
199
126
-
### Problemy z pamięcią
200
+
```bash
201
+
./monitor.sh --summary
202
+
```
203
+
204
+
Jeśli status modelu jest "Nieznany" lub "Ładowanie", poczekaj kilka minut. Jeśli problem nie ustępuje, użyj skryptu naprawczego:
127
205
128
-
Model LLM wymaga minimum 4GB RAM. Jeśli kontener model-service ulega awarii, sprawdź dostępną pamięć i w razie potrzeby zwiększ limit w pliku `docker-compose.yml`.
0 commit comments