Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
Beschreibung des Dorena_AI Projekts
#21
Schon erreicht​

Datenbank (knowledge_base.db):
Antworten können gespeichert, aktualisiert und abgerufen werden.
Automatisches Speichern bei !nachtgedanken integriert.
App-Struktur (app.py):
Alle Kernbefehle funktionieren: !lerne, !nachtgedanken, !reflektiere, !analyse, !speichern, !recherchiere, !wetter, !longtest, !selftalknow, !health, !next, !now.
Kontext-Folgefragen (kürzer, länger, einfacher, Stichpunkte, Beispiele usw.) funktionieren mit der letzten Bot-Antwort.
Fehler-Handling verbessert (Fallback auf Smalltalk oder lokale Transformation statt „Fehler beim Abrufen“).
Persona-Stil wird konsistent angewendet (Antworten haben Dorena-Note).
Smalltalk / Intents:
Erweitertes Set an Intents: müde, unmotiviert, gestresst, Rücken, Regen, Hunger, Überforderung, usw.
Dorena reagiert direkt mit warmen, kurzen Antworten.
Hintergrund-Features:
Nachtgedanken: reflektiert Chatverlauf, erkennt Themen + speichert automatisch den letzten Q/A.
Analyse: extrahiert Themen + Stimmungen.
Selftalk: Dorena kann inneren Monolog starten.
Technik drumherum:
Backup-Skript läuft zuverlässig.
Scheduler für nächtliche Aufgaben integriert.
Fehlerbehandlung für API und Offline-Mode vorhande


Nächste Baustellen​

Smalltalk-Intents und Antworten aus der app.py in die Datenbank verlagern → entlastet den Code und macht es einfacher, Antworten zu pflegen.
Aufräumen der smalltalk_loader.py (überflüssig geworden).
Stabilisieren der Kontextketten (damit Folgefragen immer auf den letzten Inhalt passen).
Roadmap „Dorena ins OpenSim-Grid“ (für später).

Allgemeines Problem, hin und wieder gibt es Rückschritte, die mal zurückrudern auf frühere Backups erfordern.

Bitte nicht testen, bis ich es zum testen freigebe.
Zitieren
#22
Für viel später in Planung:
Minimal-Architektur: „Dorena Research Node“

Die Idee: Ein separater, leichtgewichtiger Service übernimmt das selbstständige Durchforsten von Internetquellen (Web, Foren, soziale Netzwerke). Damit bleibt die eigentliche Dorena_AI-Instanz schlank, stabil und ohne Überlastung.

Grundprinzip:
• Der Research Node läuft auf einem anderen Rechner/VM (z. B. günstiger VPS oder Mini-PC).
• Er crawlt/querriest Inhalte (z. B. über Web-APIs oder Foren-Schnittstellen).
• Ergebnisse werden strukturiert aufbereitet (Thema, Quelle, Zusammenfassung).
• Übergabe an Dorena_AI erfolgt über REST/Webhooks oder Message Queue.
• Dorena_AI speichert/integriert diese Infos automatisch in die bestehende knowledge_base.db.

Vorteile:
• Entlastung: Haupt-KI bleibt leichtgewichtig für Dialog & Persona.
• Modularität: Research Node kann unabhängig skaliert, pausiert oder ersetzt werden.
• Saubere Trennung: Analyse & Recherche laufen „im Hintergrund“, Ergebnisse fließen nur gefiltert in die Kern-KI.
• Erweiterbar: Später auch für Social Listening, Trend-Analyse oder thematische Langzeitbeobachtung nutzbar.

Minimal-Setup:
• Python-Service mit Requests/Async für Web-Crawling.
• Anbindung per REST (POST → /ingest bei Dorena_AI).
• Automatische Speicherung via save_to_memory() oder spezieller Research-Tabelle.



Damit wäre Dorena_AI nicht selbst ein schwerfälliger Webcrawler, sondern bekäme zeitnah neue Informationen von außen, während sie sich weiter auf Gespräch, Kontext und Persönlichkeit konzentriert.
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste