You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
|**Pamięć**|`speakleash/Bielik-11B-v2.3-Instruct-FP8` potrzebuje ok. 12GB VRAM. Użyj `--cpu-offload` (jeśli wspierane) przy ograniczonej pamięci GPU. |
138
-
|**Lokalizacja cache**| Ustaw `HF_HOME=$PWD/.cache/huggingface`, aby wszystkie pliki modelu znajdowały się w katalogu projektu. |
|**Wybór GPU**|`export CUDA_VISIBLE_DEVICES=0` (lub inny indeks) przy wielu kartach GPU. |
141
-
|**Aktualizacja**|`pip install -U vllm` odświeża bibliotekę; przy następnym uruchomieniu serwera zostaną pobrane nowsze pliki modelu, jeśli są dostępne. |
142
-
|**Dezaktywacja**| Po zakończeniu pracy wystarczy wpisać `deactivate`, aby opuścić wirtualne środowisko. |
|**Wybór GPU**|`export CUDA_VISIBLE_DEVICES=0` (lub inny indeks) przy wielu kartach GPU. |
140
+
|**Aktualizacja**|`pip install -U vllm` odświeża bibliotekę; przy następnym uruchomieniu serwera zostaną pobrane nowsze pliki modelu, jeśli są dostępne. |
141
+
|**Dezaktywacja**| Po zakończeniu pracy wystarczy wpisać `deactivate`, aby opuścić wirtualne środowisko. |
143
142
144
143
---
145
144
146
145
## 🎉 Gotowe!
147
146
148
147
Masz już w pełni działające API kompatybilne z OpenAI, oparte na **vLLM** i modelu
0 commit comments