Spaces:
Sleeping
Sleeping
| title: Llm Agent Api | |
| emoji: 🌍 | |
| colorFrom: blue | |
| colorTo: gray | |
| sdk: docker | |
| pinned: false | |
| license: mit | |
| # 🧠 LLM Agent API | |
| API REST com modelo Llama 2 7B rodando localmente usando llama-cpp-python. | |
| ## Endpoints | |
| ### POST /chat | |
| Envia mensagem para o agente LLM. | |
| **Request:** | |
| ```json | |
| { | |
| "message": "Olá, como você está?", | |
| "max_tokens": 100, | |
| "temperature": 0.7 | |
| } | |
| ``` | |
| **Response:** | |
| ```json | |
| { | |
| "response": "Olá! Estou bem, obrigado por perguntar. Como posso ajudá-lo hoje?" | |
| } | |
| ``` | |
| ### GET /health | |
| Verifica status da API. | |
| **Response:** | |
| ```json | |
| { | |
| "status": "healthy" | |
| } | |
| ``` | |
| ## Como usar | |
| ### Local | |
| ```bash | |
| curl -X POST "http://localhost:7860/chat" \ | |
| -H "Content-Type: application/json" \ | |
| -d '{"message": "Explique machine learning em 3 frases", "max_tokens": 150, "temperature": 0.3}' | |
| ``` | |
| ### Hugging Face Spaces | |
| ```bash | |
| curl -X POST "https://caiiofc-llm-agent-api.hf.space/chat" \ | |
| -H "Content-Type: application/json" \ | |
| -d '{"message": "Explique machine learning em 3 frases", "max_tokens": 100, "temperature": 0.75}' | |
| ``` | |
| ### Teste de saúde | |
| ```bash | |
| # Local | |
| curl http://localhost:7860/health | |
| # HF Spaces | |
| curl https://caiiofc-llm-agent-api.hf.space/health | |
| ``` | |
| ## Tecnologias | |
| - FastAPI | |
| - llama-cpp-python | |
| - Uvicorn | |