12.06.2025, 11:26
(Dieser Beitrag wurde zuletzt bearbeitet: 12.06.2025, 11:32 von Manfred Aabye.)
LM Studio KI Coder
Dies ist die dritte, komplett neugestaltete Version.
Wichtige Verbesserungen:
Bessere UI-Organisation:
Logischere Widget-Gruppierung durch Frames
Korrekte Grid-Gewichtung für Größenanpassungen
Scrollbar für den Prompt-Textbereich
Verbessertes Styling mit ttk-Themen
Erweiterte Funktionalität:
"Standard laden"-Button für Prompts hinzugefügt
Bessere Handhabung der Fortschrittsleiste
Detailliertere Standard-Prompt-Vorlage
Verbessertes Fehlerhandling und Nutzerfeedback
Code-Qualitätsverbesserungen:
Umfassende Docstrings hinzugefügt
Durchgängig besseres Logging
Saubere Trennung der Verantwortlichkeiten
Robustere Callback-Handhabung
Neue Funktionen:
Unterstützung für Fenster-Icons
Minimale Fenstergröße
Bessere Fortschrittsanzeige
Ordentliches Aufräumen beim Beenden
Fehlerbehebungen:
Implementierung der Fortschritts-Callbacks korrigiert
Verbesserte Verzeichnisvalidierung
Bessere Exception-Behandlung
Potentielle Memory-Leaks behoben
Die Anwendung bietet nun:
Ein professionelleres Erscheinungsbild
Besseres Nutzerfeedback
Robustere Fehlerbehandlung
Verbesserte Wartbarkeit
Bessere Dokumentation
Umfassenderes Logging
Github: https://github.com/ManfredAabye/lmstudio-coder
Hier ist die optimale Konfiguration für Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf in LM Studio,
um die besten Ergebnisse mit Ihrem Code-Updater zu erzielen
1. Modell in LM Studio laden
Herunterladen der Modelldatei (z.B. von HuggingFace)
In LM Studio:
Zu "Models" navigieren
Modelldatei (Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf) auswählen
2. Empfohlene Modelleinstellungen
Einstellung Optimaler Wert Erklärung
Context Length 4096 Maximale Kontextlänge für Codeanalyse
Temperature 0.3 - 0.5 Für präzise Code-Updates (nicht zu kreativ)
Top-K 40 Balance zwischen Qualität und Vielfalt
Top-P 0.9 Filtert unwahrscheinliche Optionen
Repeat Penalty 1.1 Vermeidet Wiederholungen im Code
3. API-Server starten
In LM Studio zu "Local Server" wechseln
Folgende API-Einstellungen wählen:
{
"port": 1234,
"enable_api": true,
"model": "Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf",
"context_length": 4096
}
"Start Server" klicken
4. Code-Updater anpassen (optional)
In file_processor.py die API-Parameter optimieren:
response = requests.post(
"http://localhost:1234/v1/chat/completions",
json={
"messages": [
{"role": "system", "content": f"Du bist ein {language}-Experte. Antworte NUR mit Code."},
{"role": "user", "content": prompt}
],
"temperature": 0.3, # Für konservative Code-Änderungen
"top_k": 40,
"top_p": 0.9,
"max_tokens": 4000
},
timeout=180
)
5. Prompt-Engineering für bessere Ergebnisse
Aktualisiere diesen {language}-Code:
- Behalte die Funktionalität bei
- Ersetze veraltete/deprecated Funktionen
- Verbessere die Lesbarkeit
- Füge kurze Kommentare hinzu wo nötig
Code:
{code}
? Tipps für beste Performance:
GPU-Beschleunigung aktivieren (falls verfügbar)
Nicht zu viele Dateien parallel verarbeiten (LM Studio arbeitet besser sequenziell)
Chunk-Größe in file_processor.py auf ~6000 Zeichen begrenzen
Mit diesen Einstellungen erhalten Sie:
Präzisere Code-Updates
Bessere Beibehaltung der Originalfunktionalität
Schnellere Verarbeitung durch optimierte Parameter
Dies ist die dritte, komplett neugestaltete Version.
Wichtige Verbesserungen:
Bessere UI-Organisation:
Logischere Widget-Gruppierung durch Frames
Korrekte Grid-Gewichtung für Größenanpassungen
Scrollbar für den Prompt-Textbereich
Verbessertes Styling mit ttk-Themen
Erweiterte Funktionalität:
"Standard laden"-Button für Prompts hinzugefügt
Bessere Handhabung der Fortschrittsleiste
Detailliertere Standard-Prompt-Vorlage
Verbessertes Fehlerhandling und Nutzerfeedback
Code-Qualitätsverbesserungen:
Umfassende Docstrings hinzugefügt
Durchgängig besseres Logging
Saubere Trennung der Verantwortlichkeiten
Robustere Callback-Handhabung
Neue Funktionen:
Unterstützung für Fenster-Icons
Minimale Fenstergröße
Bessere Fortschrittsanzeige
Ordentliches Aufräumen beim Beenden
Fehlerbehebungen:
Implementierung der Fortschritts-Callbacks korrigiert
Verbesserte Verzeichnisvalidierung
Bessere Exception-Behandlung
Potentielle Memory-Leaks behoben
Die Anwendung bietet nun:
Ein professionelleres Erscheinungsbild
Besseres Nutzerfeedback
Robustere Fehlerbehandlung
Verbesserte Wartbarkeit
Bessere Dokumentation
Umfassenderes Logging
Github: https://github.com/ManfredAabye/lmstudio-coder
Hier ist die optimale Konfiguration für Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf in LM Studio,
um die besten Ergebnisse mit Ihrem Code-Updater zu erzielen
1. Modell in LM Studio laden
Herunterladen der Modelldatei (z.B. von HuggingFace)
In LM Studio:
Zu "Models" navigieren
Modelldatei (Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf) auswählen
2. Empfohlene Modelleinstellungen
Einstellung Optimaler Wert Erklärung
Context Length 4096 Maximale Kontextlänge für Codeanalyse
Temperature 0.3 - 0.5 Für präzise Code-Updates (nicht zu kreativ)
Top-K 40 Balance zwischen Qualität und Vielfalt
Top-P 0.9 Filtert unwahrscheinliche Optionen
Repeat Penalty 1.1 Vermeidet Wiederholungen im Code
3. API-Server starten
In LM Studio zu "Local Server" wechseln
Folgende API-Einstellungen wählen:
{
"port": 1234,
"enable_api": true,
"model": "Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf",
"context_length": 4096
}
"Start Server" klicken
4. Code-Updater anpassen (optional)
In file_processor.py die API-Parameter optimieren:
response = requests.post(
"http://localhost:1234/v1/chat/completions",
json={
"messages": [
{"role": "system", "content": f"Du bist ein {language}-Experte. Antworte NUR mit Code."},
{"role": "user", "content": prompt}
],
"temperature": 0.3, # Für konservative Code-Änderungen
"top_k": 40,
"top_p": 0.9,
"max_tokens": 4000
},
timeout=180
)
5. Prompt-Engineering für bessere Ergebnisse
Aktualisiere diesen {language}-Code:
- Behalte die Funktionalität bei
- Ersetze veraltete/deprecated Funktionen
- Verbessere die Lesbarkeit
- Füge kurze Kommentare hinzu wo nötig
Code:
{code}
? Tipps für beste Performance:
GPU-Beschleunigung aktivieren (falls verfügbar)
Nicht zu viele Dateien parallel verarbeiten (LM Studio arbeitet besser sequenziell)
Chunk-Größe in file_processor.py auf ~6000 Zeichen begrenzen
Mit diesen Einstellungen erhalten Sie:
Präzisere Code-Updates
Bessere Beibehaltung der Originalfunktionalität
Schnellere Verarbeitung durch optimierte Parameter
Ein Metaversum sind viele kleine Räume, die nahtlos aneinander passen,
sowie direkt sichtbar und begehbar sind, als wäre es aus einem Guss.
sowie direkt sichtbar und begehbar sind, als wäre es aus einem Guss.