Własny model AI na VPS
Pojawienie się takich modeli językowych jak Llama, DeepSeek oraz Bielik spowodowało, że możemy używać LLMów tak jak innego oprogramowania Open Source. Jak w takim razie skonfigurować swój własny model GenAI na serwerze? W tym artykule przejdziemy przez wszystkie niezbędne kroki, używając do tego przede wszystkim Pythona. Napiszemy prostą aplikację webową serwującą odpowiedzi z modelu w FastAPI. Prawie identyczne kroki są aplikowalne do klasycznych modeli uczenia maszynowego, z tą różnicą, że musimy je wcześniej wytrenować sami.