← Zurück zu Projekte
local-ai
local-ai ist eine schlanke Next.js-App auf dem Mac Laptop, die ueber das lokale Netzwerk KI-Aufgaben fuer macip.de uebernimmt. Mit Ollama (qwen2.5:7b) werden X.com-Teaser und OG-Images generiert — komplett lokal, ohne Cloud-APIs. Ein Queue-System sorgt dafuer, dass Auftraege auch verarbeitet werden, wenn der Mac nicht im LAN ist: Der Server reiht sie ein und der PM2-Worker verarbeitet sie automatisch, sobald der Mac wieder erreichbar ist. Das Modell entlaedt sich nach 5 Minuten Inaktivitaet automatisch aus dem RAM.
FEATURES
- →Health-Check API: Prueft Ollama-Status, Modell-Verfuegbarkeit, RAM-Nutzung und System-Speicher
- →X.com Teaser-Generierung: Haupt-Tweet (280 Zeichen) + Antwort-Tweet (255 Zeichen) via qwen2.5:7b im JSON-Mode
- →OG-Image Generierung: 1200x630 PNG mit KI-generierter Tagline und Gradient-Design
- →Automatisches RAM-Management: keep_alive=5m — Modell entlaedt sich nach Inaktivitaet
- →Queue-System: Mac erreichbar → sofort generieren, Mac offline → Warteschlange, spaeter verarbeiten
- →Dashboard mit Ollama-Status, Generierungshistorie und Erfolgsstatistiken
- →API-Key-Authentifizierung: Gemeinsamer Key zwischen Server und Mac
STACK
Next.js 16TypeScriptTailwind CSSOllamaqwen2.5:7bSQLitePM2Node.js
OPEN SOURCE
utfcmac/local-ai
Dieses Projekt ist Open Source. Der vollstaendige Quellcode ist auf GitHub verfuegbar — Feedback und Beitraege sind willkommen.
Auf GitHub ansehen →