# ════════════════════════════════════════════════════════════ # ARIA Brain — Agent + Memory Container # # FastAPI-Server mit Vector-DB-Memory (Qdrant). # Spricht via HTTP/WebSocket mit Bridge und Diagnostic. # LLM-Calls gehen ueber den Proxy (claude-max-api-proxy). # ════════════════════════════════════════════════════════════ FROM python:3.12-slim # System-Tools die Skills brauchen koennten (curl, jq, git, ssh-client, # Build-Basics fuer venv-Compiles). Bewusst sparsam — alles weitere # bringt der Skill selbst mit (siehe execution=local-bin). RUN apt-get update && apt-get install -y --no-install-recommends \ curl \ jq \ git \ openssh-client \ ca-certificates \ && rm -rf /var/lib/apt/lists/* WORKDIR /app COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt COPY . . # Embedding-Model-Cache und Skills landen unter /data (Volume) ENV SENTENCE_TRANSFORMERS_HOME=/data/_models ENV ARIA_DATA_DIR=/data EXPOSE 8080 CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8080"]