← Zurück zu Projekte
Infra · KI-PipelineLiveSource Code

local-ai

local-ai ist eine schlanke Next.js-App auf dem Mac Laptop, die ueber das lokale Netzwerk KI-Aufgaben fuer macip.de uebernimmt. Mit Ollama (qwen2.5:7b) werden X.com-Teaser und OG-Images generiert — komplett lokal, ohne Cloud-APIs. Ein Queue-System sorgt dafuer, dass Auftraege auch verarbeitet werden, wenn der Mac nicht im LAN ist: Der Server reiht sie ein und der PM2-Worker verarbeitet sie automatisch, sobald der Mac wieder erreichbar ist. Das Modell entlaedt sich nach 5 Minuten Inaktivitaet automatisch aus dem RAM.

FEATURES
  • Health-Check API: Prueft Ollama-Status, Modell-Verfuegbarkeit, RAM-Nutzung und System-Speicher
  • X.com Teaser-Generierung: Haupt-Tweet (280 Zeichen) + Antwort-Tweet (255 Zeichen) via qwen2.5:7b im JSON-Mode
  • OG-Image Generierung: 1200x630 PNG mit KI-generierter Tagline und Gradient-Design
  • Automatisches RAM-Management: keep_alive=5m — Modell entlaedt sich nach Inaktivitaet
  • Queue-System: Mac erreichbar → sofort generieren, Mac offline → Warteschlange, spaeter verarbeiten
  • Dashboard mit Ollama-Status, Generierungshistorie und Erfolgsstatistiken
  • API-Key-Authentifizierung: Gemeinsamer Key zwischen Server und Mac
STACK
Next.js 16TypeScriptTailwind CSSOllamaqwen2.5:7bSQLitePM2Node.js
OPEN SOURCE
utfcmac/local-ai

Dieses Projekt ist Open Source. Der vollstaendige Quellcode ist auf GitHub verfuegbar — Feedback und Beitraege sind willkommen.

Auf GitHub ansehen →