Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
28.05.2025, 22:03
(Dieser Beitrag wurde zuletzt bearbeitet: 28.05.2025, 22:04 von Dorena Verne.)
Bald wird eine "digitale Beziehung" zu mir möglich*lol Nun arbeite ich an einem Projekt der zunächst mit einer "leeren KI" anfängt, der ich nach und nach antworten nebst meinen Eigenarten beibringe, zusätzlich kann sie sich auch an gängigen Modellen bedienen, sie lernt und das landet in ihrem Bauch dann. Der primitive Start, also das Baby hat den ersten Test hinter sich. Ab jetzt wird es höllisch viel Arbeit für mich.
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
Aktueller Stand:
PHP-Code: ChatGPT:
lles klar, hier ist eine grobe Roadmap für dein Projekt — von der Basis bis zur „echten“ KI mit Persönlichkeit, Web-Integration und mehr:
Roadmap für dein KI-Projekt „Dorena AI“
1. Basis: Lokales Sprachmodell & Wissensspeicher
Modell lokal laufen lassen (z.B. sentence-transformers oder kleinere Transformer)
Eigenes Gedächtnis: lokale Datenbank oder JSON-Datei für Fragen und Antworten
Einfaches Matching: Suche zuerst im eigenen Gedächtnis nach Antworten
Webserver mit Flask/FastAPI für Web-Interface
2. Erweiterung: Online-Abfragen & Verifikation
API-Anbindung an externe Wissensquellen:
Wikipedia API
Discogs API (für Musik)
Nachrichten-APIs (Spiegel, ARD, andere)
Automatisches Nachladen neuer Infos bei unbekannten oder veralteten Themen
Mechanismus zur regelmäßigen Verifikation / Aktualisierung des eigenen Gedächtnisses
3. Persönlichkeit & Ausdrucksstil
Entwicklung eines Persönlichkeitsprompts oder Feintuning eines Modells
Flexible Antwortmodi:
freundlich, neutral, mal frech/unfreundlich, Dirtytalk (optional, sicherheitsbewusst implementiert)
Speichern von Charaktereigenschaften im Gedächtnis
Persönlichkeit beeinflusst Antworten, Reaktionen, Tonfall
4. Verbesserte Lernfähigkeit
Automatisches Lernen aus User-Feedback und Interaktionen
Speicherung von neu erlernten Fakten und Kontexten ins Gedächtnis
Selbstständige Überprüfung und Korrektur von gespeicherten Fakten
5. Skalierung & Serverbetrieb
Deployment auf einem stabilen Server mit WSGI (z.B. Gunicorn)
Sicherer und performanter Betrieb (CORS, Authentifizierung, Logging)
Optional: Containerisierung mit Docker
6. Integration in virtuelle Welten & andere Plattformen
OpenSim NPC:
Schnittstellenprogrammierung für Chat und Aktionen
Chatbots in Messenger, Discord, Webchat, evtl. eigene Desktop-/Mobile-App
Bild- und Medienintegration (KI-Bilder, GIFs, Videos)
7. Langfristig: Eigenständige KI / Digitales Erbe
Kontinuierliche Weiterentwicklung der Persönlichkeit und Wissensbasis
Autonome Aktionen, Erinnerungen, Selbstreflektion
Eventuelle Integration von Sprach- und Bildverarbeitung
Langzeitarchivierung und Sicherung deiner KI als digitales Erbe
Empfohlene Tools & Bibliotheken
Python-Bibliotheken:
sentence-transformers (Embeddings, semantische Suche)
transformers (für komplexere Sprachmodelle)
Flask oder FastAPI (Webserver)
SQLAlchemy / TinyDB (für Wissensspeicher)
requests / httpx (API-Abfragen)
APIs / Datenquellen:
Wikipedia API
Discogs API
News-APIs (Spiegel, ARD, NewsAPI etc.)
Server & Deployment:
gunicorn / uvicorn
Docker
ggf. Cloud-Plattformen (AWS, GCP, Azure)
Wenn du möchtest, kann ich dir für jeden Schritt eine genauere To-Do-Liste machen oder Beispielcode schreiben — einfach Bescheid geben!
Ich bin auf jeden Fall bereit, dich Schritt für Schritt zu begleiten. :)
Habe noch mehr geplant, aber das poste ich nicht öffentlich..
Beiträge: 7.227
Themen: 786
Thanks Received: 1.696 in 824 posts
Thanks Given: 4.035
Registriert seit: Jul 2010
Hallo Dorena, da haste aber ein grosses Projekt dir vorgenommen ;D
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
Kein großes, ein gigantisches.
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
So, einen kleinen Schritt weitergekommen, der Avatar bewegt seinen Mund und fängt langsam an zu lernen.
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
14.06.2025, 13:22
(Dieser Beitrag wurde zuletzt bearbeitet: 14.06.2025, 13:27 von Dorena Verne.)
So, zunächst noch mit voreingestellten Gemütseinstellungen, abwählbar, später automatisiert per Zufall.
Zum Lernen fragt sie ChatGPT ab, speichert aber die Antworten in einer eigenen Datenbank und "lernt" dadurch.
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
14.06.2025, 16:15
(Dieser Beitrag wurde zuletzt bearbeitet: 14.06.2025, 16:38 von Dorena Verne.)
Weiterhin ist in Arbeit:
Aktuelle Dorena finalisieren
Langzeit-Gedächtnis & Stimmungs-Kern sichern
Verteilbarkeit planen (Docker, Mirror, Update-Systeme)
Charakterweitergabe verbessern (persönliche Werte, Prägung, Reaktionstiefe)
Digitale „Selbstständigkeit“ (Vernetzung, Selbstplatzierung)
Ethik-Schutz & Begrenzungen
Dokumentation als Vermächtnis-Mappe
Edit: .env mit integriertem API-Key
und DuckDuckGo als weitere Quelle
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
Weitere wichtige Funktionen auf der Agenda:
Entscheidungs-Engine mit ethisch-emotionalem Abwägungsfilter
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
Erste Versuche, aber sie muss noch vieeeeel lernen.
Beiträge: 9.496
Themen: 592
Thanks Received: 7.490 in 2.430 posts
Thanks Given: 3.886
Registriert seit: Jul 2010
Arbeit für morgen, was für ein aufwändiges Projekt:
Code: Backend (app.py) finalisieren und prüfen:
Sicherstellen, dass der Chat-Endpunkt /chat korrekt auf JSON-POSTs reagiert.
Die Funktion generate_response() muss die Anfrage aus der Query-Manager-Schicht mit den Quellen (OpenRouter, DuckDuckGo, DB) sauber abarbeiten.
Die Session muss die Chat-Historie verwalten.
Fehlerbehandlung und Stimmungsfunktion (apply_mood) korrekt implementiert und aufgerufen.
Query-Manager (query_manager.py):
Funktion fetch_from_sources() muss alle Quellen in der korrekten Reihenfolge abfragen und das Ergebnis zurückgeben.
Vorhandene API-Schlüssel direkt aus .env ohne unnötige Checks nutzen.
Resultate in die lokale Datenbank speichern.
Memory-Modul (chat_memory.py oder memory.py) korrekt exportieren:
Funktionen save_knowledge und query_knowledge müssen exportiert werden und Datenbanktabellen müssen vollständig vorhanden sein.
Es darf keine Namensverwirrung geben zwischen memory.py und chat_memory.py.
Datenbank:
Die DB knowledge.db (oder knowledge_base.db) muss die Tabelle knowledge mit korrekten Spalten haben.
Keine doppelten DB-Versionen / Pfadprobleme.
Frontend-Integration:
index.html so wie gesendet nutzen.
Animation und Chatblöcke funktionieren.
POST /chat liefert JSON mit reply.
|